Внимание ! Вопросы к тесту выложены исключительно в ознакомительных целях: количество вопросов может не совпадать с действительным, актуальность не поддерживается,- за решением теста Welcome to the cashier! Что означает величина NET?
входной сигнал нейрона значение активационной функции выходной сигнал нейрона выход суммирующего блока
Что означает величина OUT?
выход суммирующего блока входной сигнал нейрона выходной сигнал нейрона значение активационной функц ии
Что является входом искусственного нейрона?
множество сигналов весовые значения значения активационной функции единственный сигнал
Активационной функцией называется:
функция, распределяющая входные сигналы по нейронам функция, суммирующая входные сигналы нейрона функция, корректирующая весовые значения функция, вычисляющая выходной сигнал нейрона
Что такое множество весовых значений нейрона?
множество значений, характеризующих "силу" соединений данного нейрона с нейронами последующего слоя множество значений, характеризующих "силу" соединений данного нейрона с нейронами предыдущего слоя множество значений, характеризующих вычислительную "силу" нейрона множество значений, моделирующих "силу" биологических синоптических связей
Сетью без обратных связей называется сеть,
у которой нет синаптических связей, идущих от выхода некоторого нейрона к входам этого же нейрона или нейрона из предыдущего слоя все слои которой соединены иерархически у которой есть синаптические связи
с обратными связями без обратных связей многослойные однослойные
Входным слоем сети называется:
слой, не производящий никаких вычислений первый слой нейронов слой, служащий для распределения входных сигналов
Активационная функция называется "сжимающей", если
она сужает диапазон значений величины NET диапазона значений OUT она расширяет диапазон значений величины OUT она расширяет диапазон значений величины NET она сужает диапазон значений величины OUT
Можно ли построить однослойную нейронную сеть с обратными связями?
да нет
Слоем нейронной сети называется множество нейронов,
выдающих выходные сигналы на одни и те же узлы не имеющих между собой синаптических связей принимающих входные сигналы с одних тех же узлов
При каком алгоритме обучения обучающее множество состоит как из входных, так и из выходных векторов?
"обучение без учителя" "обучение с учителем"
При каком алгоритме обучения обучающее множество состоит только из входных векторов?
обучение без учителя обучение с учителем
Сети прямого распространения - это:
сети, у которых нет памяти сети, имеющие много слоев сети, у которых нет соединений, идущих от выходов некоторого слоя к входам предшествующего слоя сети, у которых есть память
"Обучение без учителя" характеризуется отсутствием:
обучающего множества желаемого выхода сети эксперта, корректирующего процесс обучения
Сети с обратными связями это:
сети, у которых нет памяти сети, имеющие много слоев сети, у которых существуют соединения, идущие от выходов некоторого слоя к входам предшествующего слоя
Искусственный нейрон
по своей функциональности превосходит биологический нейрон имитирует основные функции биологического нейрона является моделью биологического нейрона
Дендритами называются:
тело нейрона, в котором происходит обработка электрохимического сигнала точки соединения нейронов, через которые передаются нейронные сигналы "усики"" нейронов, по которым проходят электрохимические сигналы
Как происходит обучение нейронной сети?
сеть запускается на обучающем множестве, и подстраиваются весовые значения сеть запускается на обучающем множестве, и добавляются или убираются соединения между нейронами эксперты настраивают нейронную сеть сеть запускается на обучающем множестве, и незадействованные нейроны выкидываются
"Обучение с учителем" это:
подстройка входных данных для получения нужных выходов подстройка матрицы весов для получения нужных ответов использование сравнения с идеальными ответами использование знаний эксперта
Синапсами называются:
"усики" нейронов, по которым проходят электрохимические сигналы тело нейрона, в котором происходит обработка электрохимического сигнала точки соединения нейронов, через которые передаются нейронные сигналы
Сколько слоев имеет персептрон Розенблатта?
один любое конечное число два три
Входом персептрона являются:
значения 0 и 1 вектор, состоящий из нулей и единиц вся действительная ось (-∞;+∞) вектор, состоящий из действительных чисел
Персептроном Розенблатта называется:
однослойная нейронная сеть с бинарным входом однонейронная сеть многослойная сеть прямого распространения
Какая активационная функция используется в персептроне?
сигмоидальная пороговая гиперболического тангенса
Выходом персептрона являются:
значения отрезка [0;1] вся числовая ось (-∞;+∞) значения отрезка [-1;1]
Какая из следующих функций непредставима персептроном?
исключающее или исключающее нет
Представима ли персептроном любая интуитивно вычислимая задача?
нет да
Персептронной представимостью называется:
способность персептрона к обучению способность персептрона моделировать определенную функцию разделение гиперпространства решений гиперплоскостью
Однонейронный персептрон с двумя входами:
разделяет трехмерное пространство XOY на два полупространства разделяет плоскость XOY на две полуплоскости выделяет замкнутую область
Способность персептрона решать определенную задачу называется:
способностью к обучению представимостью линейной разделимостью
Сколько булевых функций от двух переменных можно представить персептроном?
две десять шестнадцать одну четырнадцать
Функция называется линейно неразделимой, если:
данная функция является функцией исключающего "или" не существует нейронной сети, реализующей данную функцию не существует разделения плоскости на две полуплоскости, реализующие эту функцию
Персептрон Розенблатта решает задачи:
классификации входных данных разделяющие множество входов на два непересекающихся класса в которых множество входов может быть разделено геометрически распознавания объектов
В однонейронном персептроне длина входного вектора характеризует:
количество подпространств, определяющих классификацию объектов количество разделяющих плоскостей размерность разделяемого пространства размерность разделяющей поверхности
Однонейронным персептроном размерность разделяемого пространства определяется
длиной входного вектора пороговым значением активационной функции весовыми значениями контекстом конкретной задачи
Сколько слоев должна иметь нейронная сеть, умеющая выделять невыпуклые области?
два четыре один три
В однонейронном персептроне размерность разделяющей гиперплоскости определяется:
весовыми значениями количеством входных значений количеством выходных значений
Сколько слоев должна иметь нейронная сеть, умеющая выделять квадрат?
четыре один три два
Выпуклой областью называется:
область, у которой две ее любые точки можно соединить отрезком, полностью принадлежащим этой области область, которую можно заключить в круг область, которую нельзя заключить в круг область, внутренние углы которой меньше 180°
Сколько слоев должна иметь нейронная сеть, умеющая выделять выпуклые области?
1 2 4 3
Можно ли построить двухслойную нейронную сеть, выделяющую неограниченную область?
нет в зависимости от задачи да
Где в нейронной сети хранится информация о классификации образов?
в самих нейронах в количестве слоев в весовых значениях в количестве нейронов
Сколько нейронов должен иметь первый слой нейронной сети, умеющей выделять шестиугольник?
2 3 5 1 6 4
Что такое "неподатливое" множество образов?
множество образов, которые нельзя разбить на выпуклые и невыпуклые области множество образов, для классификации которых требуются очень большие вычислительные ресурсы множество образов, которые нельзя классифицировать
Может ли персептрон Розенблатта выделять ограниченную область в пространстве решений?
в зависимости от задачи да нет
При каком условии сеть обратного распространения является устойчивой?
если ее матрица весов симметрична и по главной диагонали стоят единицы если ее матрица весов симметрична и по главной диагонали стоят нули если сеть способна аппроксимировать данную задачу
На вход однослойного персептрона подается вектор (a1...an). В каком случае выходом будет нулевой вектор?
если найдется такой нейрон j, что если для каждого нейрона j будем иметь если для каждого нейрона j будем иметь если найдется такой нейрон j, что
Обучением называют:
процедуру подстройки весовых значений процедуру подстройки сигналов нейронов процедуру вычисления пороговых значений для функций активации
Однослойный персептрон решает задачи:
аппроксимации функций распознавания образов классификации
Алгоритм обучения персептрона – это:
алгоритм "обучения с учителем" алгоритм "обучения без учителя"
Алгоритм обучения персептрона завершает свою работу, когда
абсолютная ошибка станет меньше некоторого малого значения вектор весов перестает изменяться
В каком случае после завершения алгоритма обучения можно сделать вывод, что данный персептрон не смог обучиться?
когда весовые значения стабилизировались, а ошибка выше порога в силу теоремы сходимости такого быть не может
Что называется обучающей выборкой для обучения персептрона?
набор выходных векторов, являющихся точными значениями аппроксимируемой функции набор пар входов и выходов, используемых при обучении набор входных векторов, для которых заранее известны значения аппроксимируемой функции
Нейронная сеть является обученной, если:
при запуске обучающих входов она выдает соответствующие обучающие выходы при подаче на вход некоторого вектора сеть будет выдавать ответ, к какому классу векторов он принадлежит алгоритм обучения завершил свою работу и не зациклился
Что называется "эпохой" в алгоритме обучения персептрона?
один цикл предъявления всей обучающей выборки полный цикл настройки персептрона на все обучающие пары процесс настройки персептрона на одну обучающую пару
Если на данной обучающей паре символ персептрона не совпадает с нужным ответом, то:
нужно запускать другую обучающую пару нужно изменять все весовые значения между одновременно активными нейронами нужно изменять все весовые значения
Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?
если на выходе сеть даст 1 если на выходе сеть даст 0 если сигнал персептрона совпадает с правильным ответом
Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?
если сигнал персептрона не совпадает с нужным ответом если на выходе 0, а нужно 1 всегда, когда на выходе 1 если на выходе 1, а нужно 0
Подаем на вход персептрона вектор а. В каком случае весовые значения нужно увеличивать?
если на выходе 0, а нужно 1 если сигнал персептрона не совпадает с нужным ответом всегда, когда на выходе 0 если на выходе 1, а нужно 0
Если на данной обучающей паре сигнал персептрона совпал с нужным ответом, то нужно
перейти к другой обучающей паре обнулить все весовые значения завершить процесс обучения
Когда алгоритм обучения персептрона зацикливается?
если коэффициенты в алгоритме обучения подобраны неверно если данная задача непредставима персептроном если данная задача не имеет решения
Теорема о сходных персептронах утверждает, что:
алгоритм обучения всегда сходится найдутся задачи, которым персептроны не смогут обучиться если данная задача представляет персептрон, то он способен ей обучиться
Теорема о "зацикливании" персептрона утверждает, что:
если данная задача не представима персептроном, то алгоритм обучения зацикливается любой алгоритм обучения зацикливается если задача не имеет решения, то алгоритм обучения зацикливается
В каком случае персептрон может обучиться решать данную задачу?
если задача представима персептроном если задача имеет решение если задача имеет целое численное решение
Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?
в зависимост от задачи нет да
Все ли нейроны многослойного персептрона возможно обучить?
только нейроны последнего слоя только нейроны первого слоя да
Если данный персептрон заменить персептроном с целочисленными весами, то:
новый персептрон будет решать ту же самую задачу новый персептрон будет решать более широкую задачу новый персептрон будет решать более узкую задачу
Сколько слоев может содержать персептрон?
Один три два любое конечное число
Вопрос о выборе шага при применении процедуры обучения решается следующим образом:
веса и порог следует изменять на число ≤1 веса и порог следует изменять на целое число веса и порог следует изменять на 1
Теорема о двухслойности персептрона утверждает, что:
любой многослойный персептрон может быть представлен в виде двухслойного персептрона в любом многослойном персептроне могут обучаться только два слоя способностью к обучению обладают персептроны, имеющие не более двух слоев
Какой должна быть активационная функция, для того чтобы возможно было применять алгоритм обратного распространения?
слой, состоящий из элементов, которые только принимают входную информацию и распространяют ее по сети слой, не производящий вычислений слой, не являющийся ни входным, ни выходным
Обучающим множеством называется:
множество векторов, которые подаются на вход сети во время алгоритма обучения множество обучающих пар множество векторов, которые должна выдавать обученная нейронная сеть
Обучающей парой называется пара векторов,...
которые должна выдавать обученная нейронная сеть первый из которых является входным вектором, а второй – соответствующим ему выходным вектором которые подаются на вход сети во время алгоритма обучения
Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то
процесс обучения будет ускорен процесс обучения будет замедлен сеть, скорее всего, не обучится
В алгоритме обратного распространения при "проходе вперед"
корректируются весовые значения сети вычисляется значение сети на обучающей паре вычисляется ошибка сети
В алгоритме обратного распространения при "проходе вперед"
вычисляется ошибка сети вычисляется значение сети на обучающей паре корректируются весовые значения сети
В начальный момент времени выходом слоя распознавания является:
единичный вектор нулевой вектор входной вектор
Алгоритм обратного распространения работает, пока:
все обучающие пары не будут использованы заданное число раз ошибка на всем обучающем множестве не достигнет приемлемого уровня ошибка на данной обучающей паре не достигнет приемлемого уровня
Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "прохода вперед"?
выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары) подкорректировать веса сети так, чтобы минимизировать ошибку вычислить выход сети
Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "обратного прохода"?
выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары) подкорректировать веса сети так, чтобы минимизировать ошибку вычислить выход сети
Алгоритм обратного распространения заканчивает свою работу, когда:
величина Δw для каждого нейрона становится ниже заданного порога величина δ становится ниже заданного порога сигнал ошибки становится ниже заданного порога
Сигналом ошибки данного выходного нейрона называется:
величина OUT для нейрона, подающего сигнал на данный выходной нейрон разность между выходом нейрона и его целевым значением производная активационной функции
Чем отличается обучение скрытого нейрона от обучения выходного нейрона?
для скрытого нейрона нельзя вычислить сигнал ошибки для скрытого нейрона не известно целевое значение для скрытого нейрона нужно учитывать номер слоя, в котором он находится
При обучении скрытого нейрона величина δ является:
суммированием величин δ для нейронов последующих слоев и умножением полученной величины на активационную функцию разностью между выходом нейрона и его целевым значением произведением производной активационной функции на сигнал ошибки
При обучении выходного нейрона величина δ является:
произведением производной активационной функции на сигнал ошибки разностью между выходом нейрона и его целевым значением суммированием величин δ для нейронов последующих слоев и умножением полученной величины на активационную функцию
Метод импульса заключается в:
использовании производных второго порядка добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса
Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:
использовании производных второго порядка умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса
Метод импульса позволяет:
уменьшить необходимые вычислительные ресурсы увеличить точность обучения увеличить скорость обучения
Добавление нейронного смещения позволяет:
увеличить точность обучения увеличить скорость обучения уменьшить необходимые вычислительные ресурсы
Проблема переобучения заключается в:
минимизации локальных ошибок в ущерб минимизации глобальной ошибки слишком близкой подгонке к имеющимся значениям обучающего множества увеличении точности вычислений за счет большого увеличения необходимого для обучения времени
Если сеть имеет очень большое число нейронов в скрытых слоях, то:
время, необходимое на обучение сети, минимально сеть может оказаться недостаточно гибкой для решения поставленной задачи возможно переобучение сети
Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?
сеть с большим числом слоев сеть с малым числом слоев сеть с большим числом весов сеть с малым числом весов
К переобучению склонны сети с:
малым числом весов большим числом слоев малым числом слоев большим числом весов
Если сеть имеет небольшое число нейронов в скрытых слоях, то:
время, необходимое на обучение сети, может оказаться очень большим сеть может оказаться недостаточно гибкой для решения поставленной задачи возможно переобучение сети
При методе кросс-проверки считается, что сеть начала переобучаться, если:
ошибка сети на контрольном множестве перестала убывать ошибка сети на контрольном множестве стала расти алгоритм обратного распространения зациклился
Механизм контрольной кросс-проверки заключается в:
циклическом использовании множества обучающих пар резервировании части обучающих пар и использовании их для независимого контроля процесса обучения разделении множества обучающих пар на две части для поочередного запуска алгоритма обратного распространения то на одной, то на другой части
При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:
в начале работы ошибки сети на обучающем и контрольном множествах практически не отличались в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве
Механизм контрольной кросс-проверки необходим для того, чтобы:
оградить сеть от возможности переобучения определить оптимальное число слоев и нейронов проверить точность вычислений, производимых сетью
При методе кросс-проверки считается, что множество обучающихся пар некорректно разделено на две части, если:
в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве в начале работы ошибка сети на обучающем и контрольном множествах практически не отличались
Тестовое множество необходимо для:
тестирования уже отлаженной сети тестирования сети после отработки контрольного множества тестирования сети после каждого цикла обучения
Если сеть слишком близко подгоняет выходные значения к имеющимся обучающим значениям, то:
процесс сходимости начнет происходить слишком медленно сеть может попасть в локальный минимум может возникнуть паралич сети
Сеть начала переобучаться, если:
ошибка сети на контрольном множестве стала расти в сети имеется слишком много скрытых слоев контрольное множество задано некорректно
Если ошибка сети на контрольном множестве стала расти, это означает, что:
контрольное множество задано некорректно сеть начала переобучаться в сети недостает слоев или нейронов для решения данной задачи
Чем тестовое множество отличается от контрольного множества?
тестовое множество используется только один раз тестовое множество используется всякий раз, когда ошибка сети на контрольном множестве начинает расти тестовое множество является подмножеством контрольного множества
Дискриминантной функцией называется:
функция, равная единице в той области пространства объектов, где располагаются объекты из нужного класса, и равная нулю вне этой области функция, моделирующая пространство решений данной задачи активационная функция, используемая в многослойном персептроне
Если сеть содержит один промежуточный слой, то она моделирует:
одну выпуклую "взвешенность" один "сигмовидный склон" по одному "сигмовидному склону" для каждого скрытого элемента
Для решения любой задачи классификации достаточно иметь:
многослойный персептрон с двумя промежуточными слоями многослойный персептрон с достаточно большим числом скрытых элементов многослойный персептрон с тремя промежуточными слоями
Если нейронная сеть не содержит скрытых элементов, то она:
моделирует одинарный "сигмовидный склон" служит классификатором только в линейно-отделимых задачах моделирует конечное число "сигмовидных склонов"
Если сеть содержит два промежуточных слоя, то она моделирует:
по одной выпуклой "взвешенности" для каждого скрытого элемента второго слоя по одной выпуклой "взвешенности" для каждого скрытого элемента первого слоя одну выпуклую "взвешенность" по одному "сигмовидному склону" для каждого скрытого элемента
Паралич сети может наступить, когда:
весовые значения становятся очень большими размер шага становится очень большой размер шага становится очень маленький весовые значения становятся очень маленькими
Если размер шага очень мал, то:
процесс сходимости происходит слишком медленно может возникнуть постоянная неустойчивость сети может возникнуть паралич сети
Если сеть находится в постоянно меняющейся внешней среде, то:
процесс обучения может никогда не сойтись процесс обучения станет происходить слишком медленно может возникнуть паралич сети
Чтобы избежать паралича сети, необходимо:
увеличить размер шага уменьшить весовые значения уменьшить размер шага увеличить весовые значения
Принцип работы слоя Кохонена заключается в том, что:
для данного входного вектора только один нейрон слоя Кохонена выдает на выходе единицу для данного входного вектора не активизируется только один нейрон слоя Кохонена для данного входного вектора только один нейрон слоя Кохонена выдает на входе ноль
По принципу "победитель забирает все" действуют:
нейроны слоя Гроссберга нейроны слоя Кохонена
Если данный нейрон Кохонена является "победителем", то его значение OUT
равно единице равно нулю является максимальным среди всех значений OUT нейронов слоя Кохонена
Значением NET нейрона слоя Гроссберга является:
максимальное весовое значение, связывающее данный нейрон с нейронами слоя Кохонена весовое значение, связывающее данный нейрон с нейроном-победителем из слоя Кохонена минимальное весовое значение, связывающее данный нейрон с нейронами слоя Кохонена
"Победителем" считается нейрон Кохонена
с минимальным значением величины OUT с максимальным значением величины NET с минимальным значением величины NET с максимальным значением величины OUT
Если в обучающее множество входит множество сходных между собой векторов, то сеть должна научиться:
активировать один и тот же нейрон Кохонена, вектор весовых значений которого является усреднением данного множества сходных векторов сопоставлять каждому входному вектору отдельный нейрон активировать один и тот же нейрон Кохонена, вектор весовых значений которого равен максимальному среди сходных векторов
При обучении слоя Кохонена процесс обучения состоит в:
отбрасывании нейронов с нулевыми весовыми значениями выборе нейрона с весовым вектором, имеющим максимальное значение выборе нейрона с весовым вектором, наиболее близким к входному вектору
Задачей слоя Кохонена является:
нахождение нейрона-победителя определение меры сходства входного вектора с данным эталоном классификация группы входных векторов
При обучении слоя Кохонена подстраиваются весовые значения:
всех нейронов, кроме нейрона-победителя всех нейронов слоя только нейрона-победителя
В процессе обучения слоя Кохонена "победителем" объявляется нейрон
имеющий максимальное значение величины NET имеющий наибольшее значение модуля весового вектора для которого скалярное произведение весового вектора на входной вектор принимает максимальное значение
Метод интерполяции заключается в:
активировании группы нейронов Кохонена, имеющей максимальные значения NET активировании лишь одного нейрона Кохонена, имеющего наибольшее значение NET активировании двух нейронов, имеющих наибольшее и наименьшее значения NET
Модификация алгоритма обучения методом "чувства справедливости" заключается в:
повышении весовых значений тех нейронов, которые очень редко "побеждают" блокировании нейронов, которые очень часто побеждают занижении весовых значений тех нейронов, которые очень часто "побеждают"
Метод выпуклой комбинации заключается в том, что в начале процесса обучения всем весам слоя Кохонена присваиваются:
в добавлении шума к входным векторам одно и то же фиксированное значение небольшие случайные значения
Метод аккредитации заключается в:
активировании двух нейронов, имеющих наибольшее и наименьшее значения NET активировании лишь одного нейрона Кохонена, имеющего наибольшее значение NET активировании группы нейронов Кохонена, имеющих максимальные значения NET
Метод коррекции весов пропорционально входу заключается в:
модификации "победившего" нейрона пропорционально поданному на сеть входному вектору модификации не только "победившего" нейрона, но и всех остальных модификации не только "победившего", но и "проигравшего" нейрона
Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является
сам вектор x двоичный вектор, интерпритирующий номер класса, которому принадлежит вектор x вектор y, являющийся эталоном для всех векторов, сходных с вектором x
Обучение слоя Кохонена является:
"обучением без учителя" "обучением с учителем"
При обучении сети встречного распространения обучающей парой является:
пара одинаковых векторов пара векторов, из которых второй (выходной) вектор является кодом класса, к которому принадлежит первый (входной) вектор четверка векторов, из которых два вектора являются входом сети и два других вектора – соответствующим выходом
Обучение слоя Гроссберга является:
"обучением с учителем" "обучением без учителя"
Обучение сети встречного распространения является:
(Отметьте один правильный вариант ответа.) "обучением с учителем" "обучением без учителя"
Если на вход обученной сети встречного распространения подать частично обнуленный вектор, то на выходе мы получим:
полностью восстановленный вектор номер класса полностью восстановленного вектора копию поданного на вход частично обнуленного вектора
Сеть встречного распространения считается обученной, если:
подавая на вход вектора x и y , на выходе мы будем получать их копию подавая на вход вектор x, на выходе мы будем получать номер класса, которому он принадлежит подавая на вход вектора x и y , на выходе мы будем получать меру их сходства
Способна ли сеть встречного распространения аппроксимировать обратимые функции?
да в зависимости от задачи нет
Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор y, на выходе мы получим:
вектор x вектор y пару векторов x и y
Внимание ! Вопросы к тесту выложены исключительно в ознакомительных целях: количество вопросов может не совпадать с действительным, актуальность не поддерживается,- за решением теста Welcome to the cashier! Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор x , на выходе мы получим:
пару векторов x и y вектор y вектор x
При стохастическом методе обучения изменения весовых значений сохраняются, если
они уменьшают целевую функцию они увеличивают целевую функцию в любом случае
Детерминистским методом обучения называется:
метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети метод, выполняющий псевдослучайные изменения весовых значений детерминированный метод обучения с учителем детерминированный метод обучения без учителя
Целевой функцией называется:
разность между желаемым и фактическим выходом сети функция, которую аппроксимирует данная сеть вероятностное распределение весовых значений
При стохастическом методе обучения , если целевая функция увеличивается, то:
объявляется, что сеть не может обучиться данной задаче изменения весовых значений скидываются и производятся новые вычисления производятся повторные изменения весовых значений
Стохастическим методом обучения называется:
метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети недетерминированный метод "обучения без учителя" недетерминированный метод "обучения с учителем" метод, выполняющий псевдослучайные изменения весовых значений
Если случайные изменения весовых значений очень велики, то:
потребуются очень большие затраты вычислительных ресурсов сеть может попасть в локальный минимум процесс обучения может оказаться нестабильным и сеть никогда не обучится
Если случайные изменения весовых значений очень малы, то:
процесс обучения может оказаться нестабильным и сеть никогда не обучится потребуются очень большие затраты вычислительных ресурсов сеть может попасть в локальный минимум
Стратегия избежания локальных минимумов при сохранении стабильности заключается в
больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов достаточно больших изменениях весовых значений малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов достаточно малых изменениях весовых значений
При обучении сеть не сможет выбраться из локального минимума, если:
используется детерминированный метод обучения изменения весовых значений слишком малы изменения весовых значений слишком велики
Метод "имитации отжига" заключается в
больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов достаточно малых изменениях весовых значений малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов достаточно больших изменениях весовых значений
Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:
данное изменение достаточно мало значение искусственной температуры достаточно велико вероятность данного изменения выше случайно выбранного порога
Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?
нет да
Какова роль искусственной температуры при Больцмановском обучении?
при снижении температуры вероятно возможными становятся более маленькие изменения для регулирования скорости сходимости алгоритма обучения
В чем преимущество метода Коши перед Больцмановским методом обучения?
в более точной подстройке весовых значений в процессе обучения Коши используются гораздо более малые вычислительные ресурсы для обучения Коши нужно гораздо меньше времени
Пусть при обучении Коши сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?
нет да
Для какого алгоритма скорость обучения более высокая?
алгоритма обратного распространения алгоритма распределения Коши
Для какого алгоритма более опасен сетевой паралич?
алгоритма обратного распространения алгоритма распределения Коши
Для какого алгоритма необходимо гораздо большее время сходимости?
алгоритма распределения Коши алгоритма обратного распространения
Какая из перечисленных ниже проблем локальных минимумов возникает в алгоритме обратного распространения?
после окончания обучения нет способа проверки, находится ли сеть в локальном или глобальном минимуме нет гарантии, что после конечного числа использований алгоритма обратного распространения глобальный минимум будет найден при попадании в локальный минимум сеть не может оттуда выбраться
В методе измерений сигнала OUT роль дополнительной сжимающей функции заключается в...
поддержание симметрии, сохраняющей небольшие различия между большими весами сильном уменьшение значения очень больших весов сохранение практически без изменений значений малых весов
Комбинирование методов распространения Коши и обратного распространения заключается в:
применении обратного распространения всякий раз, когда распределение Коши дает плохой результат применении распределения Коши всякий раз, когда обратное распространение дает плохой результат для каждого веса изменение вычисляется по обоим алгоритмам, а результат складывается
В чем состоит минус метода ограничения диапазона изменений весовых значений?
есть ряд задач, к которым он неприменим нет доказательства сходимости для данного алгоритма в повышении вероятности сетевого паралича
При комбинированном методе распределения Коши и обратного распространения изменение веса сохраняется, если:
оно увеличивает целевую функцию и вероятность данного изменения достаточно большая оно уменьшает целевую функцию оно увеличивает целевую функцию
Метод изменений сигналов OUT заключается в том, что:
на весовые значения накладывают сжимающую функцию на величины OUT накладывают дополнительную сжимающую функцию если величина OUT велика, то веса, питающие этот нейрон, уменьшаются
Сеть с обратным распространением называется устойчивой, если:
через некоторое число итераций выход сети станет постоянным она способна обучится данной задаче время сходимости сети – конечное
Отсутствие обратных связей гарантирует:
сходимость алгоритма обучения возможность аппроксимировать данную функцию устойчивость сети
Если в данной сети найдутся нейроны, которые на этапе функционирования возбуждаются более, чем один раз, то:
данная сеть является неустойчивой в данной сети присутствуют нейроны Кохонена в данной сети существуют обратные связи
Сеть с обратным распространением называется неустойчивой, если:
выход сети никогда не станет постоянным время сходимости сети – бесконечно сеть не способна обучиться данной задаче
Сеть называется сетью с обратными связями, если:
существуют связи, идущие от выходных нейронов к входным переданное нейроном возбуждение возвращается к данному нейрону и он повторно производит вычисления возбуждение может проходить по сети как в одну сторону, так и в обратную
Сколько слоев полноценных нейронов используется в сети Хопфилда?
три один два четыре
Состоянием сети Хопфилда называется :
текущее значение сигналов OUT стадии обучения и нормального функционирования устойчивость и неустойчивость сети
Если среди запомненных сетью Хопфилда образцов не существует образца, подходящего для данного входного вектора, то:
сеть Хопфильда выдаст ближайший образец сеть Хопфильда должна выдать произвольный вектор, не совпадающий ни с одним образцом сеть Хопфильда будет неустойчивой
Задача сети Хопфилда заключается в
классификации множества входных образов том, что по произвольному сигналу "вспоминается" запомненный образец распознавании образов
Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :
выдать на выходе единицу выдать на выходе заданный входной вектор остановиться в этом образце
Если сеть Хопфилда содержит n нейронов, то она может запомнить примерно:
0,15n образцов 2n образцов n образцов 1/2n образцов
Какая сеть требует меньших затрат вычислительных ресурсов?
сеть Хопфильда сеть Хэмминга
Сеть Хопфилда заменяется на сеть Хэмминга, если:
необходимо повысить число запомненных образцов необходимо обеспечить устойчивость сети необходимо ускорить время сходимости сети нет необходимости, чтобы сеть в явном виде выдавала запомненный образец
Сколько слоев полноценных нейронов имеет сеть Хэмминга?
два четыре один три
Если сеть Хэмминга в каждом слое содержит по n нейронов, то сколько образцов она способна запомнить?
2n образцов 1/2n образцов n образцов 0,15n образцов
Задача сети Хэмминга заключается в:
нахождении номера образца, соответствующего данному входу том, что по произвольному сигналу "вспоминается" запомненный образец нахождении образца с наименьшим расстоянием Хэмминга до данного вектора
Сколько нейронов должна содержать сеть Хемминга для того чтобы она могла запомнить n образцов?
по n в каждом слое по 2n в каждом слое n нейронов в первом слое и более, чем n нейронов во втором слое
Какими должны быть весовые значения тормозящих синаптических связей?
небольшими положительными числами равными величинами из интервала (-1/n,0), где n - число нейронов в одном слое случайными отрицательными числами
Синаптические связи называются тормозящими, если :
они являются обратными и отрицательными они приводят к увеличению значения целевой функции они являются обратными
Если матрица весов не является симметричной, то будет ли данная сеть обратного распространения устойчивой?
в зависимости от задачи да нет
Память называется ассоциативной, если извлечение необходимой информации происходит по:
по содержанию данной информации имеющимся образцам адресу начальной точки данной информации
В чем основное отличие ассоциативной памяти от адресной?
в устройстве с ассоциативной памятью требуется гораздо меньшее количество ресурсов для хранения данной информации в устройстве с ассоциативной памятью при потере части информации не приводит к потере всей информации в устройстве с ассоциативной памятью поиск нужной информации происходит гораздо быстрее
Задачей распознавания образов называется:
поиск идеального образа по имеющейся неполной его версии исследование ассоциаций, которые вызывает данный зашумленный образ определение, к какому классу образов принадлежит данный зашумленный образ
При ортогонализации исходных образов отрицательным фактором является:
возможность появления неустойчивости сети нелокальность сети значительное повышение затраты вычислительных ресурсов
Метод обучения сети называется локальным, если:
он предусматривает избежание попадания в локальные минимумы при добавлении нового обучающего вектора не нужно все вычисление производить заново вычисление весовых значений для каждого нейрона производится локально
Ортогонализация исходных образов позволяет:
избежать локальных минимумов достигнуть максимальной емкости памяти обеспечить устойчивость сети
При методе отказа от симметрии синапсов отрицательным фактором является:
значительное повышение затраты вычислительных ресурсов нелокальность сети возможность появления неустойчивости сети
Метод отказа от симметрии синапсов позволяет:
обеспечить устойчивость сети достигнуть максимальной емкости памяти избежать локальных минимумов
Алгоритмы разобучения применяются для:
"забывания" повторяющихся обучающих пар "забывания" некорректных весовых изменений "забывания" ложных образов
В алгоритме разобучения в качестве степени забывания выбирают достаточно малое число для того, чтобы:
не наступил сетевой паралич гарантировать незначительное ухудшение полезной информации более точно аппроксимировать данную функцию
Если в непрерывной сети Хопфилда коэффициент, определяющий крутизну сигмовидной функции, взять достаточно большим, то:
сходимость сети станет неочевидной сеть станет неустойчивой сеть будет функционировать подобно дискретной сети Хопфилда
Есть ли вероятность того, что в алгоритме разобучения сеть "забудет" правильный образ?
нет в зависимости от задачи да
В методе машины Больцмана изменение состояний нейронов обусловлено:
Если статическая сеть Хопфилда обладает низкой искусственной температурой, то более вероятными становятся:
более большие изменения состояний нейронов более мелкие изменения состояний нейронов
В статической сети Хопфилда вероятность изменения веса является функцией от:
разности между целевым и фактическим значением выхода сети искусственной температуры величины, на которую выход OUT превышает заданный порог
Если статическая сеть Хопфилда обладает большой искусственной температурой, то более вероятными становятся:
более мелкие изменения состояний нейронов более большие изменения состояний нейронов
Метод машины Больцмана позволяет сети Хопфилда:
избежать локальных минимумов ускорить процесс обучения избежать сетевого паралича
В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:
запуска каждой обучающей пары конечного числа запусков сети с некоторого случайного значения после однократного запуска сети с некоторого случайного значения после запуска всех обучающих пар
В алгоритме обучения обобщенной машины Больцмана вычисление незакрепленных вероятностей начинается после:
запуска каждой обучающей пары запуска всех обучающих пар конечного числа запусков сети с некоторого случайного значения однократного запуска сети с некоторого случайного значения
В алгоритме обучения обобщенной машины Больцмана незакрепленные вероятности вычисляются, когда:
входным и выходным нейронам придают значения из обучающего множества сеть начинает работать со случайного значения входным значениям приписываются равные, довольно малые значения
Обучение обобщенной машины Больцмана является:
"обучением без учителя" "обучением с учителем"
Сколько нейронов необходимо для реализации задачи коммивояжера, где n - число городов?
n! нейронов n нейронов n2 нейронов 2n нейронов
В алгоритме обучения обобщенной машины Больцмана изменение весовых значений:
зависит от незакрепленной вероятности зависит от закрепленной вероятности вычисляется по дельта-правилу зависит от числа итераций
В аналого-цифровом преобразователе весдостигается овые значения интерпретируют:
усилители напряжение сопротивление
Задачей аналого-цифрового преобразователя является то, что:
непрерывно растущее напряжение, подаваемое на вход сети, порождало числовое значение сопротивления, соответствующего данному напряжению непрерывно растущее напряжение, подаваемое на вход сети, порождало числовое значение данного напряжения
В задаче коммивояжера каждый город представляется:
строкой из n нейронов, где n - число городов одним нейроном одним слоем нейронов
К какому типу памяти относится ДАП?
адресной гетероассоциативной автоассоциативной
Память называется гетероассоциативной, если:
входной образ может быть только завершен или исправлен входной образ может быть отнесен к некоторому классу образов входной образ может быть ассоциирован с другим образом
Память называется автоассоциативной, если:
входной образ может быть ассоциирован с другим образом входной образ может быть отнесен некоторому классу образов входной образ может быть только завершен или исправлен
Гетероассоциативность ДАП достигается путем:
использования однослойной сети использования многослойной сети наличия обратных связей
Автоассоциативность памяти обусловлена:
наличием обратных связей использованием однослойной сети использованием многослойной сети
Внутренней памятью нейрона называется:
способность запоминать "шаблоны" классов образов множество весовых значений данного нейрона способность оставлять неизменным выходной сигнал до момента синхронизации
Сеть ДАП достигает стабильного состояния, когда:
целевая функция будет минимизирована выходы первого и второго слоя нейронов перестают изменяться только выходы второго слоя нейронов перестают изменяться
В сети ДАП выходы второго слоя нейронов являются:
входами для первого слоя входами для третьего слоя выходами сети
В какой зависимости находятся веса синаптических связей, исходящих из первого слоя нейронов, от весов синаптических связей, исходящих из второго слоя нейронов?
они образуют транспонированные друг другу матрицы они образуют равные матрицы они образуют взаимно обратные матрицы
Завершает ли сеть работу, если выходы второго слоя стабилизировались, а выходы первого слоя продолжают изменяться?
да нет
Метод восстановления ассоциаций заключается в том, что:
по частично зашумленному вектору восстанавливается вектор, ассоциированный с ним определяется, являются ли два заданных вектора взаимно ассоциированными по заданным векторам находятся ассоциации, их соединяющие
Способность ДАП к обобщению заключается в:
нахождении вектора, ассоциированного с частично зашумленным вектором восстановлении частично зашумленного входного вектора генерировании новых ассоциаций
Кратковременной памятью сети ДАП называется:
процесс стабилизации выходных значений состояние нейронов значение коэффициентов весовой матрицы
Если на вход ДАП подать частично обнуленный вектор, то сеть выдаст также частично обнуленный ассоциированный с ним вектор?
нет да в зависимости от задачи
Долговременной памятью сети ДАП называется:
состояние нейронов процесс стабилизации выходных значений значение коэффициентов весовой матрицы
В каком случае сеть ДАП превращается в сеть Хопфилда?
если W=WT если det W=1 если W=W-1
Обучение сети ДАП происходит:
с помощью машины Больцмана по дельта-правилу с помощью однократного вычисления весовых значений
Кодированием ассоциаций называется:
процесс нормального функционирования сети ДАП процесс сопоставления данному входному вектору некоторого ассоциированного с ним вектора процесс обучения сети ДАП
Всегда ли обученная сеть ДАП является устойчивой?
нет да
Кодирование ассоциаций - это:
"обучение без учителя" "обучение с учителем" процесс нормального функционирования сети
Сеть ДАП называется конкурирующей, если:
данному входному вектору можно сопоставить несколько альтернативных ассоциаций у нее существуют весовые соединения между нейронами одного слоя любой нейрон может изменять свое состояние в любой момент времени
Сеть ДАП называется адаптивной, если:
любой нейрон может изменять свое состояние в любой момент времени для каждого нейрона задается своя пороговая функция сеть изменяет свои весовые значения в процессе обучения
В чем преимущество негомогенной сети ДАП перед гомогенной?
для обучения негомогенной ДАП требуется гораздо меньше времени, чем для обучения гомогенной ДАП негомогенная ДАП способна более точно восстанавливать ассоциации для частично зашумленных векторов негомогенная ДАП обладает гораздо более большей емкостью памяти, чем гомогенная ДАП
Сеть ДАП называется асинхронной, если:
для каждого нейрона задается своя пороговая функция ассоциированные векторы имеют разные размерности любой нейрон может изменять свое состояние в любое время
Сеть ДАП называется негомогенной, если:
данному входному вектору можно сопоставить несколько альтернативных ассоциаций ассоциированные вектора имеют разные размерности для каждого нейрона задается своя пороговая функция
Пластичностью называется способность памяти:
распознавать, является ли данная информация новой или она уже была запомнена ранее к восприятию новой информации не разрушать уже запомненные образы
Стабильностью называется способность памяти:
к восприятию новой информации не разрушать уже запомненные образы распознавать, является ли данная информация новой или она уже была запомнена ранее
Обладает ли сеть Хопфилда свойством стабильности-пластичности?
да нет в зависимости от задачи
Почему изученные ранее нейронные сети не обладают свойством стабильности-пластичности?
они не обладают достаточной емкостью памяти в них отсутствуют тормозящие синаптические связи обучение новому образу уничтожает или изменяет результаты предшествующего обучения
Шаблоном критических черт называется:
определение деталей входного образа, являющихся существенными для восприятия системы "шаблон" данного класса ассоциированных друг с другом входных образов определение пороговых значений для активационных функций
Говорят, что в сети АРТ возник адаптивный резонанс, если:
входной образ классифицируется как допустимая модификация уже запомненного образа сеть запомнила данный входной образ как новый "шаблон" процесс вычисления в сети стабилизировался
Шаблон критических черт используется, когда:
запустился процесс запоминания новых «шаблонов» образов система вошла в резонанс с входным образом запустился алгоритм обучения АРТ
В чем заключается отличие АРТ-1 от АРТ-2?
АРТ-1 обрабатывает только битовые сигналы, а АРТ-2 - аналоговые в АРТ-2 введен специальный механизм зависимости активности синапсов от времени в АРТ-2 используется многослойная иерархия слоев
Самоадаптацией алгоритма обучения сети АРТ называется:
процесс запоминания новых "шаблонов" образов процесс обучения сети АРТ без учителя система, которая может самостоятельно принять решение о прекращении поиска резонанса и объявить входной образ новым
Задачей сети АРТ является:
нахождение ассоциаций для данного входного образа классификация входных образов аппроксимация заданной функции
Если входной вектор не соответствует ни одному из запомненных образов, то
создается новая категория образов, сходных с данным входным образом срабатывает блок сброса система выдает ответ, что не может распознать этот образ
Если входной вектор соответствует одному из запомненных образов, то:
выходом распознающего слоя является соответствующий запомненный образец срабатывает блок сброса в распознающем слое возбуждается один нейрон
Сколько функциональных модулей включает в себя сеть АРТ?
два четыре пять три один
В сети АРТ запомненный образ подвергается изменению:
если он достаточно сильно отличается от входящего образа в любом случае если он достаточно похож на входящий образ
каждый нейрон слоя сравнения выдает единичный выход, если на вход к нему поступило не менее двух единиц блок сброса срабатывает каждый раз, когда на его вход подается число, большее, чем 2/3 в слое распознавания каждый раз возбуждается не более двух третьих нейронов
Лотарально-тормозящая связь используется :
внутри приемника 1 внутри слоя распознавания внутри приемника 2 между слоями сравнения и распознавания
В слой сравнения информация поступает из:
внешней среды приемника 1 приемника 2 слоя распознавания слоя сброса
В чем заключается главный недостаток процедуры латерального торможения?
в неспособности когнитрона к самовосстановлению в локализации памяти когнитрона в необходимости большого количества вычислительных итераций
Работа блока сброса заключается в:
сбросе неудачных ассоциаций сравнении вектора, выработанного блоком распознавания с входным вектором сравнении вектора, выработанного блоком сравнения с входным вектором
В момент времени, отличный от начального, выходом слоя распознавания является
вектор, у которого только одна компонента отлична от нуля "шаблон", соответствующий данному входному вектору единичный вектор
В начальный момент времени выходом слоя сравнения является
нулевой вектор единичный вектор входной вектор
Если блок сброса выработал сигнал сброса, то:
на вход сети снова подается тот же самый входной вектор возбуждение в распознающем слое сбрасывается проводится повторное вычисление при возбуждении другого нейрона в распознающем блоке
Перед началом процесса обучения сети АРТ все весовые значения, являющиеся выходными для слоя распознавания принимают:
небольшие равные значения единичные значения случайные, достаточно малые значения
Перед началом процесса обучения сети АРТ все весовые значения, являющиеся входными для слоя распознавания принимают:
случайные, достаточно малые значения небольшие равные значения единичные значения
Если параметр сходства выбрать неоправданно низким, то:
сеть будет относить к одному классу образы, сильно отличающиеся друг от друга сеть будет относить к одному классу только слабо отличающиеся образы неоправданно сильно будет увеличено время обучения
Если параметр сходства выбрать неоправданно высоким, то:
неоправданно сильно будет увеличено время обучения сеть будет относить к одному классу образы, сильно отличающиеся друг от друга сеть будет относить к одному классу только слабо отличающиеся образы
Фаза распознавания инициализируется:
в момент возбуждения победившего нейрона в слое распознавания в момент подачи на вход входного вектора в момент срабатывания слоя сброса
В фазе сравнения блок сброса:
сбрасывает неудачные ассоциации сравнивает входной вектор и вектор, являющийся выходом блока распознавания сравнивает входной вектор и вектор, являющийся выходом блока сравнения
В фазе распознавания свертка вычисляется при помощи скалярного произведения
вектора, выходящего из слоя сравнения на весовой вектор нейрона в слое распознавания входного вектора на весовой вектор нейрона в слое распознавания вектора, выходящего из слоя распознавания на весовой вектор нейрона в слое распознавания
Процесс лотерального торможения обеспечивает, что
система автоматически решает вопрос о прекращении поиска необходимой информации в слое распознавания возбуждается только тот нейрон, чья свертка является максимальной слой сброса снимает возбуждение с неудачно выбранного нейрона в слое распознавания
В фазе сравнения значение приемника 1 устанавливается равным:
единице нулю
В фазе сравнения в слое сравнения возбуждаются те нейроны, которым соответствуют:
наиболее близкие "шаблоны" одновременно единичные компоненты входного вектора и вектора, являющегося выходом для слоя распознавания одновременно единичные компоненты входного вектора и вектора, являющегося выходом для приемника 1
Алгоритм обучения сети АРТ является...
алгоритмом "обучения без учителя" алгоритмом "обучения с учителем"
Фаза поиска инициализируется, если:
если система дает ответ, что данный входной вектор не является новой информацией сходство весов выигравшего нейрона с входным нейроном ниже заданного порога каждый раз при подаче на вход нового вектора
Фаза поиска считается неуспешно завершенной, если:
весовые значения "победившего" нейрона из слоя распознавания будут подкорректированы согласно данному входному вектору входному образу будет сопоставлен нейрон, в котором никакой информации еще не было запомнено найдется нейрон, в котором запомнен образ, достаточно похожий на входной образ
Фаза поиска считается успешно завершенной, если:
найдется нейрон, в котором запомнен образ, достаточно похожий на входной образ весовые значения "победившего" нейрона из слоя распознавания будут подкорректированы согласно данному входному вектору входному образу будет сопоставлен нейрон, в котором никакой информации еще не было запомнено
Всегда ли по окончании фазы поиска входному вектору сопоставляется некоторый нейрон из слоя распознавания?
да в зависимости от задачи нет
Если в процессе обучения некоторый вес был обнулен, то:
он обязательно будет подвергнут новому обучению он больше никогда не примет ненулевого значения
Суть алгоритма быстрого обучения в том, что:
при инициализации алгоритма обучения изначально весовые значения берутся достаточно большими, что увеличивает время обучения обучающий входной вектор подается на вход сети на достаточно длительное время для того, чтобы сеть успела полностью на него настроиться обучающий входной вектор подается на вход сети на очень короткое время и сеть не успевает полностью на него настроиться
Суть алгоритма медленного обучения в том, что:
обучающий входной вектор подается на вход сети на очень короткое время и сеть не успевает полностью на него настроиться при инициализации алгоритма обучения изначально весовые значения берутся достаточно малыми, что увеличивает точность обучения обучающий входной вектор подается на вход сети на достаточно длительное время для того, чтобы сеть успела полностью на него настроиться
В алгоритме обучения сети АРТ процедура самомасштабирования необходима для того, чтобы:
проводить ассоциации между векторами разной размерности различать входные векторы в том случае, когда один вектор является "поднабором" второго сбрасывать слишком большие весовые значения
После окончания алгоритма обучения в нейроне слоя распознавания запоминается информация, являющаяся:
"пересечением" всех предъявленных сходных векторов "объединением" всех предъявленных сходных векторов средним значением всех предъявленных сходных векторов
Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:
будет происходить циклическое изменение весов с каждым новым повтором серии обучающих векторов будет происходить более тонкая настройка весовых значений через конечное число обучающих серий процесс обучения стабилизируется
Устойчивость процесса поиска заключается в том, что:
на фазе распознавания возбуждается только один "выигрышный" нейрон обучение не будет вызывать переключений с одного возбужденного нейрона на другой поиск всегда заканчивается успешно
Характеристика "прямого доступа" заключается в том, что:
на фазе распознавания возбуждается только один "выигрышный" нейрон с каждым новым повтором серии обучающих векторов будет происходить более тонкая настройка весовых значений если на вход обученной сети АРТ подать один из обучающих векторов, то сеть будет активизировать нужный нейрон без инициализации фазы поиска
Проблема локализованности памяти АРТ заключается в том, что:
сеть АРТ способна "запоминать" образы довольно узкого класса при добавлении к обучающему множеству новых векторов приходится переучивать сеть заново при разрушении нейрона из слоя распознавания вся информация о классе образов, хранящаяся в данном нейроне, теряется
Если размер шага очень большой, то:
может возникнуть паралич сети процесс сходимости происходит слишком медленно может возникнуть постоянная неустойчивость сети
Областью связанности данного нейрона называется:
множество нейронов следующего слоя, в которые возбуждение по синоптическим связям передается из данного нейрона множество всех нейронов, от которых возбуждение по синоптическим связям передается на данный нейрон множество нейронов предыдущего слоя, от которых возбуждение по синоптическим связям передается на данный нейрон
В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?
если NET≥0 если NET≥δ где δ - заданное пороговое значение если NET=0
Со всеми ли нейронами предыдущего слоя связан данный нейрон когнитрона?
да нет
Величиной NET нейрона когнитрона является:
отношение взвешенной суммы его тормозящих входов к взвешенной сумме возбуждающих входов отношение взвешенной суммы его возбуждающих входов к взвешенной сумме тормозящих входов взвешенная сумма всех его входов
Когнитрон является:
многослойной нейронной сетью прямого распространения однослойной нейронной сетью с обратными связями многослойной нейронной сетью с обратными связями
Вы можете обратится к нам напрямую, через:
По Skype: molodoyberkut По Telegram: @MolodoyBerkut По ICQ: 657089516