Главная / Искусственный интеллект и робототехника / Основы теории нейронных сетей

Основы теории нейронных сетей - ответы на тесты Интуит

Правильные ответы выделены зелёным цветом.
Все ответы: Одним из популярных направлений Artificial Intelligence является теория нейронных сетей (neuron nets). Данный курс является систематизированным вводным курсом в это направление. Нашей целью является познакомить слушателей с основными нейроно-сетевыми парадигмами, показать область применения этого направления.
Что является входом искусственного нейрона?
(1) множество сигналов
(2) единственный сигнал
(3) весовые значения
(4) значения активационной функции
Память называется гетероассоциативной, если:
(1) входной образ может быть ассоциирован с другим образом
(2) входной образ может быть только завершен или исправлен
(3) входной образ может быть отнесен к некоторому классу образов
Стабильностью называется способность памяти:
(1) не разрушать уже запомненные образы
(2) к восприятию новой информации
(3) распознавать, является ли данная информация новой или она уже была запомнена ранее
Перед началом процесса обучения сети АРТ все весовые значения, являющиеся входными для слоя распознавания принимают:
(1) небольшие равные значения
(2) единичные значения
(3) случайные, достаточно малые значения
Когнитрон является:
(1) однослойной нейронной сетью с обратными связями
(2) многослойной нейронной сетью с обратными связями
(3) многослойной нейронной сетью прямого распространения
Каждый слой неокогнитрона состоит из:
(1) нейронов
(2) плоскостей нейронов
(3) произвольных трехмерных поверхностей нейронов
Теория обучения Хэбба подразумевает:
(1) только локальное обучение нейронов
(2) как локальное, так и глобальное обучение
Персептроном Розенблатта называется:
(1) однослойная нейронная сеть с бинарным входом
(2) однонейронная сеть
(3) многослойная сеть прямого распространения
Алгоритм обучения персептрона – это:
(1) алгоритм "обучения с учителем"
(2) алгоритм "обучения без учителя"
Какой должна быть активационная функция, для того чтобы возможно было применять алгоритм обратного распространения?
(1) всюду дифференцируемой
(2) непрерывной
(3) сжимающей
(4) разжимающей
К переобучению склонны сети с:
(1) большим числом весов
(2) большим числом слоев
(3) малым числом весов
(4) малым числом слоев
Принцип работы слоя Кохонена заключается в том, что:
(1) для данного входного вектора только один нейрон слоя Кохонена выдает на выходе единицу
(2) для данного входного вектора только один нейрон слоя Кохонена выдает на входе ноль
(3) для данного входного вектора не активизируется только один нейрон слоя Кохонена
Детерминистским методом обучения называется:
(1) метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети
(2) метод, выполняющий псевдослучайные изменения весовых значений
(3) детерминированный метод обучения с учителем
(4) детерминированный метод обучения без учителя
Отсутствие обратных связей гарантирует:
(1) устойчивость сети
(2) сходимость алгоритма обучения
(3) возможность аппроксимировать данную функцию
Ортогонализация исходных образов позволяет:
(1) достигнуть максимальной емкости памяти
(2) избежать локальных минимумов
(3) обеспечить устойчивость сети
Матричное умножение XW вычисляет:
(1) выходной нейронный сигнал
(2) выход суммирующего блока
(3) входной нейронный сигнал
(4) вход суммирующего блока
Сеть ДАП достигает стабильного состояния, когда:
(1) выходы первого и второго слоя нейронов перестают изменяться
(2) только выходы второго слоя нейронов перестают изменяться
(3) целевая функция будет минимизирована
Шаблоном критических черт называется:
(1) определение деталей входного образа, являющихся существенными для восприятия системы
(2) определение пороговых значений для активационных функций
(3) "шаблон" данного класса ассоциированных друг с другом входных образов
В фазе распознавания свертка вычисляется при помощи скалярного произведения
(1) входного вектора на весовой вектор нейрона в слое распознавания
(2) вектора, выходящего из слоя распознавания на весовой вектор нейрона в слое распознавания
(3) вектора, выходящего из слоя сравнения на весовой вектор нейрона в слое распознавания
Область связи пресиноптического тормозящего нейрона:
(1) совпадает с областью связи соответствующего ему постсиноптического нейрона
(2) пересекается с областью связи соответствующего ему постсиноптического нейрона
(3) не пересекается с областью связи соответствующего ему постсиноптического нейрона
(4) включает область связи соответствующего ему постсиноптического нейрона
Каждой плоскости простых узлов сопоставлено:
(1) единственная плоскость комплексных узлов
(2) множество плоскостей комплексных узлов
(3) весь массив плоскостей комплексных узлов
Входная звезда Гроссберга используется для:
(1) распознавании определенного образа
(2) классификации образов
(3) сбора информации о сходных образах
Способность персептрона решать определенную задачу называется:
(1) способностью к обучению
(2) представимостью
(3) линейной разделимостью
Что называется "эпохой" в алгоритме обучения персептрона?
(1) процесс настройки персептрона на одну обучающую пару
(2) один цикл предъявления всей обучающей выборки
(3) полный цикл настройки персептрона на все обучающие пары
Какое минимальное количество слоев должна иметь нейронная сеть, для того чтобы к ней возможно было применить алгоритм обратного распространения?
(1) один
(2) два
(3) три
(4) четыре
При методе кросс-проверки считается, что множество обучающихся пар некорректно разделено на две части, если:
(1) в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются
(2) в начале работы ошибка сети на обучающем и контрольном множествах практически не отличались
(3) ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве
Задачей слоя Кохонена является:
(1) классификация группы входных векторов
(2) определение меры сходства входного вектора с данным эталоном
(3) нахождение нейрона-победителя
Если случайные изменения весовых значений очень малы, то:
(1) сеть может попасть в локальный минимум
(2) процесс обучения может оказаться нестабильным и сеть никогда не обучится
(3) потребуются очень большие затраты вычислительных ресурсов
Сколько слоев полноценных нейронов используется в сети Хопфилда?
(1) один
(2) два
(3) три
(4) четыре
Алгоритмы разобучения применяются для:
(1) "забывания" ложных образов
(2) "забывания" некорректных весовых изменений
(3) "забывания" повторяющихся обучающих пар
Активационная функция называется "сжимающей", если
(1) она сужает диапазон значений величины NET диапазона значений OUT
(2) она расширяет диапазон значений величины NET
(3) она сужает диапазон значений величины OUT
(4) она расширяет диапазон значений величины OUT
Кратковременной памятью сети ДАП называется:
(1) состояние нейронов
(2) значение коэффициентов весовой матрицы
(3) процесс стабилизации выходных значений
Задачей сети АРТ является:
(1) классификация входных образов
(2) нахождение ассоциаций для данного входного образа
(3) аппроксимация заданной функции
Фаза поиска инициализируется, если:
(1) сходство весов выигравшего нейрона с входным нейроном ниже заданного порога
(2) каждый раз при подаче на вход нового вектора
(3) если система дает ответ, что данный входной вектор не является новой информацией
Предусмотрена ли в алгоритме обучения когнитрона процедура сбрасывания сильно больших весовых значений?
(1) да
(2) нет
Различные узлы в одной плоскости простых узлов реагируют:
(1) на один и тот же образ
(2) на разные образы
(3) на разные повороты одного и того же образа
Алгоритм обучения персептрона является:
(1) алгоритмом "обучения с учителем"
(2) алгоритмом "обучения без учителя"
Функция называется линейно неразделимой, если:
(1) не существует разделения плоскости на две полуплоскости, реализующие эту функцию
(2) не существует нейронной сети, реализующей данную функцию
(3) данная функция является функцией исключающего "или"
Запускаем обучающий вектор Х. В каком случае весовые значения не нужно изменять?
(1) если на выходе сеть даст 0
(2) если на выходе сеть даст 1
(3) если сигнал персептрона совпадает с правильным ответом
Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "прохода вперед"?
(1) выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети
(2) вычислить выход сети
(3) вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары)
(4) подкорректировать веса сети так, чтобы минимизировать ошибку
(5) повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня
Если сеть слишком близко подгоняет выходные значения к имеющимся обучающим значениям, то:
(1) сеть может попасть в локальный минимум
(2) может возникнуть паралич сети
(3) процесс сходимости начнет происходить слишком медленно
Метод выпуклой комбинации заключается в том, что в начале процесса обучения всем весам слоя Кохонена присваиваются:
(1) небольшие случайные значения
(2) одно и то же фиксированное значение
(3) в добавлении шума к входным векторам
Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?
(1) да
(2) нет
Если сеть Хопфилда содержит n нейронов, то она может запомнить примерно:
(1) 2n образцов
(2) n образцов
(3) 1/2n образцов
(4) 0,15n образцов
Метод машины Больцмана позволяет сети Хопфилда:
(1) избежать локальных минимумов
(2) избежать сетевого паралича
(3) ускорить процесс обучения
Сети прямого распространения - это:
(1) сети, имеющие много слоев
(2) сети, у которых нет соединений, идущих от выходов некоторого слоя к входам предшествующего слоя
(3) сети, у которых нет памяти
(4) сети, у которых есть память
Кодированием ассоциаций называется:
(1) процесс обучения сети ДАП
(2) процесс нормального функционирования сети ДАП
(3) процесс сопоставления данному входному вектору некоторого ассоциированного с ним вектора
В слой сравнения информация поступает из:
(1) внешней среды
(2) слоя распознавания
(3) приемника 1
(4) приемника 2
(5) слоя сброса
Суть алгоритма медленного обучения в том, что:
(1) обучающий входной вектор подается на вход сети на очень короткое время и сеть не успевает полностью на него настроиться
(2) обучающий входной вектор подается на вход сети на достаточно длительное время для того, чтобы сеть успела полностью на него настроиться
(3) при инициализации алгоритма обучения изначально весовые значения берутся достаточно малыми, что увеличивает точность обучения
Стратегия обучения когнитрона заключается в том, что:
(1) нейроны с большей реакцией заставляют возбуждающие синапсы увеличиваться сильней, чем тормозящие
(2) нейроны с меньшей реакцией заставляют возбуждающие синапсы увеличиваться слабее, чем тормозящие
Задачей комплексных узлов является:
(1) уменьшение зависимости реакции системы от позиции образа
(2) уменьшение зависимости реакции системы от поворота образа
(3) классификация входных образов
В статистических алгоритмах обучения величина изменения синоптической связи между двумя нейронами зависит:
(1) от уровня возбуждения пресиноптического нейрона
(2) от уровня возбуждения постсиноптического нейрона
(3) от разности между реальным и желаемым выходами нейрона
(4) изменяется случайным образом
В однонейронном персептроне размерность разделяющей гиперплоскости определяется:
(1) количеством входных значений
(2) количеством выходных значений
(3) весовыми значениями
Теорема о сходных персептронах утверждает, что:
(1) если данная задача представляет персептрон, то он способен ей обучиться
(2) алгоритм обучения всегда сходится
(3) найдутся задачи, которым персептроны не смогут обучиться
Сигналом ошибки данного выходного нейрона называется:
(1) разность между выходом нейрона и его целевым значением
(2) производная активационной функции
(3) величина OUT для нейрона, подающего сигнал на данный выходной нейрон
Дискриминантной функцией называется:
(1) функция, равная единице в той области пространства объектов, где располагаются объекты из нужного класса, и равная нулю вне этой области
(2) активационная функция, используемая в многослойном персептроне
(3) функция, моделирующая пространство решений данной задачи
Обучение слоя Гроссберга является:
(1) "обучением с учителем"
(2) "обучением без учителя"
Какая из перечисленных ниже проблем сходимости возникает в алгоритме обратного распространения?
(1) время сходимости бесконечно
(2) нет доказательства сходимости при конечных изменениях весовых значений
(3) сходимость имеет место только при бесконечно больших изменениях весовых значений
Задача сети Хэмминга заключается в:
(1) нахождении образца с наименьшим расстоянием Хэмминга до данного вектора
(2) нахождении номера образца, соответствующего данному входу
(3) том, что по произвольному сигналу "вспоминается" запомненный образец
Обучение обобщенной машины Больцмана является:
(1) "обучением с учителем"
(2) "обучением без учителя"
Как происходит обучение нейронной сети?
(1) эксперты настраивают нейронную сеть
(2) сеть запускается на обучающем множестве, и незадействованные нейроны выкидываются
(3) сеть запускается на обучающем множестве, и подстраиваются весовые значения
(4) сеть запускается на обучающем множестве, и добавляются или убираются соединения между нейронами
Сеть ДАП называется негомогенной, если:
(1) ассоциированные вектора имеют разные размерности
(2) для каждого нейрона задается своя пороговая функция
(3) данному входному вектору можно сопоставить несколько альтернативных ассоциаций
В начальный момент времени выходом слоя распознавания является:
(1) нулевой вектор
(2) единичный вектор
(3) входной вектор
Характеристика "прямого доступа" заключается в том, что:
(1) если на вход обученной сети АРТ подать один из обучающих векторов, то сеть будет активизировать нужный нейрон без инициализации фазы поиска
(2) на фазе распознавания возбуждается только один "выигрышный" нейрон
(3) с каждым новым повтором серии обучающих векторов будет происходить более тонкая настройка весовых значений
Латеральное торможение данный нейрон получает:
(1) от всех нейронов его слоя
(2) от всех нейронов его области конкуренции
(3) от всех нейронов его области связи
При обучении неокогнитрона обучаются:
(1) все синоптические связи
(2) только синоптические связи внутри каждого слоя
(3) только синоптические связи между слоями
Самоорганизующиеся сети используются для:
(1) аппроксимации функций
(2) классификации образов
(3) распознавания образов
Может ли персептрон Розенблатта выделять ограниченную область в пространстве решений?
(1) да
(2) нет
(3) в зависимости от задачи
Если данный персептрон заменить персептроном с целочисленными весами, то:
(1) новый персептрон будет решать более узкую задачу
(2) новый персептрон будет решать ту же самую задачу
(3) новый персептрон будет решать более широкую задачу
Добавление нейронного смещения позволяет:
(1) увеличить скорость обучения
(2) увеличить точность обучения
(3) уменьшить необходимые вычислительные ресурсы
Паралич сети может наступить, когда:
(1) весовые значения становятся очень большими
(2) весовые значения становятся очень маленькими
(3) размер шага становится очень большой
(4) размер шага становится очень маленький
Сеть встречного распространения считается обученной, если:
(1) подавая на вход вектора x и y , на выходе мы будем получать их копию
(2) подавая на вход вектора x и y , на выходе мы будем получать меру их сходства
(3) подавая на вход вектор x, на выходе мы будем получать номер класса, которому он принадлежит
Комбинирование методов распространения Коши и обратного распространения заключается в:
(1) применении распределения Коши всякий раз, когда обратное распространение дает плохой результат
(2) применении обратного распространения всякий раз, когда распределение Коши дает плохой результат
(3) для каждого веса изменение вычисляется по обоим алгоритмам, а результат складывается
При каком условии сеть обратного распространения является устойчивой?
(1) если ее матрица весов симметрична и по главной диагонали стоят нули
(2) если ее матрица весов симметрична и по главной диагонали стоят единицы
(3) если сеть способна аппроксимировать данную задачу
В алгоритме обучения обобщенной машины Больцмана изменение весовых значений:
(1) зависит от закрепленной вероятности
(2) зависит от незакрепленной вероятности
(3) вычисляется по дельта-правилу
(4) зависит от числа итераций
Что такое множество весовых значений нейрона?
(1) множество значений, характеризующих "силу" соединений данного нейрона с нейронами предыдущего слоя
(2) множество значений, характеризующих "силу" соединений данного нейрона с нейронами последующего слоя
(3) множество значений, моделирующих "силу" биологических синоптических связей
(4) множество значений, характеризующих вычислительную "силу" нейрона
Память называется автоассоциативной, если:
(1) входной образ может быть ассоциирован с другим образом
(2) входной образ может быть только завершен или исправлен
(3) входной образ может быть отнесен некоторому классу образов
Пластичностью называется способность памяти:
(1) не разрушать уже запомненные образы
(2) к восприятию новой информации
(3) распознавать, является ли данная информация новой или она уже была запомнена ранее
Перед началом процесса обучения сети АРТ все весовые значения, являющиеся выходными для слоя распознавания принимают:
(1) небольшие равные значения
(2) единичные значения
(3) случайные, достаточно малые значения
Областью связанности данного нейрона называется:
(1) множество нейронов предыдущего слоя, от которых возбуждение по синоптическим связям передается на данный нейрон
(2) множество всех нейронов, от которых возбуждение по синоптическим связям передается на данный нейрон
(3) множество нейронов следующего слоя, в которые возбуждение по синоптическим связям передается из данного нейрона
Слой неокогнитрона состоит из
(1) одной плоскости нейронов
(2) пары плоскостей нейронов
(3) двух массивов плоскостей нейронов
В алгоритме обучения Хэбба предполагается обучение:
(1) всех синоптических связей
(2) синоптических связей, соединяющих одновременно возбужденные нейроны
(3) синоптических связей только первого слоя нейронов
Сколько слоев имеет персептрон Розенблатта?
(1) один
(2) два
(3) три
(4) любое конечное число
Обучением называют:
(1) процедуру подстройки весовых значений
(2) процедуру подстройки сигналов нейронов
(3) процедуру вычисления пороговых значений для функций активации
Обобщенным многослойным персептроном называется:
(1) многослойная сеть обратного распространения
(2) многослойная сеть прямого распространения
(3) персептрон Розенблатта с произвольным числом входов и выходов
Какая сеть может оказаться недостаточно гибкой, для того чтобы смоделировать имеющуюся зависимость?
(1) сеть с большим числом весов
(2) сеть с большим числом слоев
(3) сеть с малым числом весов
(4) сеть с малым числом слоев
"Победителем" считается нейрон Кохонена
(1) с максимальным значением величины NET
(2) с максимальным значением величины OUT
(3) с минимальным значением величины NET
(4) с минимальным значением величины OUT
Стохастическим методом обучения называется:
(1) метод, использующий последовательную коррекцию весов, зависящую от объективных значений сети
(2) метод, выполняющий псевдослучайные изменения весовых значений
(3) недетерминированный метод "обучения с учителем"
(4) недетерминированный метод "обучения без учителя"
Сеть с обратным распространением называется устойчивой, если:
(1) через некоторое число итераций выход сети станет постоянным
(2) она способна обучится данной задаче
(3) время сходимости сети – конечное
При ортогонализации исходных образов отрицательным фактором является:
(1) возможность появления неустойчивости сети
(2) нелокальность сети
(3) значительное повышение затраты вычислительных ресурсов
Активационная функция применяется для:
(1) активации входного сигнала нейрона
(2) активации выходного сигнала нейрона
(3) активации весовых значений
(4) активации обучающего множества
В какой зависимости находятся веса синаптических связей, исходящих из первого слоя нейронов, от весов синаптических связей, исходящих из второго слоя нейронов?
(1) они образуют транспонированные друг другу матрицы
(2) они образуют взаимно обратные матрицы
(3) они образуют равные матрицы
Самоадаптацией алгоритма обучения сети АРТ называется:
(1) система, которая может самостоятельно принять решение о прекращении поиска резонанса и объявить входной образ новым
(2) процесс обучения сети АРТ без учителя
(3) процесс запоминания новых "шаблонов" образов
Процесс лотерального торможения обеспечивает, что
(1) в слое распознавания возбуждается только тот нейрон, чья свертка является максимальной
(2) система автоматически решает вопрос о прекращении поиска необходимой информации
(3) слой сброса снимает возбуждение с неудачно выбранного нейрона в слое распознавания
Весовые значения тормозящих нейронов:
(1) обучаются по дельта-правилу
(2) обучаются по алгоритму, аналогичному алгоритму обратного распространения
(3) не обучаются
В каждом слое неокогнитрона
(1) количество простых и комплексных плоскостей совпадает
(2) простых плоскостей больше, чем комплексных плоскостей
(3) простых плоскостей не больше, чем комплексных плоскостей
Выходом входной звезды Гроссберга является:
(1) мера сходства входного вектора с весовым вектором
(2) статическая характеристика обучающего набора
(3) номер класса сходных образов
Персептронной представимостью называется:
(1) способность персептрона моделировать определенную функцию
(2) способность персептрона к обучению
(3) разделение гиперпространства решений гиперплоскостью
Что называется обучающей выборкой для обучения персептрона?
(1) набор входных векторов, для которых заранее известны значения аппроксимируемой функции
(2) набор выходных векторов, являющихся точными значениями аппроксимируемой функции
(3) набор пар входов и выходов, используемых при обучении
Обучающей парой называется пара векторов,...
(1) первый из которых является входным вектором, а второй – соответствующим ему выходным вектором
(2) которые должна выдавать обученная нейронная сеть
(3) которые подаются на вход сети во время алгоритма обучения
При методе кросс-проверки считается, что множество обучающихся пар корректно разделено на две части, если:
(1) в начале работы ошибки сети на обучающем и контрольном множествах существенно отличаются
(2) в начале работы ошибки сети на обучающем и контрольном множествах практически не отличались
(3) ошибка сети на обучающем множестве убывает быстрее, чем на контрольном множестве
При обучении слоя Кохонена подстраиваются весовые значения:
(1) всех нейронов слоя
(2) только нейрона-победителя
(3) всех нейронов, кроме нейрона-победителя
Если случайные изменения весовых значений очень велики, то:
(1) сеть может попасть в локальный минимум
(2) процесс обучения может оказаться нестабильным и сеть никогда не обучится
(3) потребуются очень большие затраты вычислительных ресурсов
Состоянием сети Хопфилда называется :
(1) текущее значение сигналов OUT
(2) стадии обучения и нормального функционирования
(3) устойчивость и неустойчивость сети
В алгоритме разобучения в качестве степени забывания выбирают достаточно малое число для того, чтобы:
(1) гарантировать незначительное ухудшение полезной информации
(2) не наступил сетевой паралич
(3) более точно аппроксимировать данную функцию
Слоем нейронной сети называется множество нейронов,
(1) не имеющих между собой синаптических связей
(2) принимающих входные сигналы с одних тех же узлов
(3) выдающих выходные сигналы на одни и те же узлы
Долговременной памятью сети ДАП называется:
(1) состояние нейронов
(2) значение коэффициентов весовой матрицы
(3) процесс стабилизации выходных значений
Если входной вектор соответствует одному из запомненных образов, то:
(1) в распознающем слое возбуждается один нейрон
(2) выходом распознающего слоя является соответствующий запомненный образец
(3) срабатывает блок сброса
Фаза поиска считается успешно завершенной, если:
(1) найдется нейрон, в котором запомнен образ, достаточно похожий на входной образ
(2) входному образу будет сопоставлен нейрон, в котором никакой информации еще не было запомнено
(3) весовые значения "победившего" нейрона из слоя распознавания будут подкорректированы согласно данному входному вектору
Если тормозящий вход данного нейрона слишком мал, то выходной сигнал OUT будет вычисляться по формуле:
(1) files где E - взвешенная сумма его возбуждающих входов и I - взвешенная сумма его тормозящих входов
(2) OUT=E-I, где E- взвешенная сумма его возбуждающих входов и I - взвешенная сумма его тормозящих входов
(3) files, где E- взвешенная сумма его возбуждающих входов и I - взвешенная сумма его тормозящих входов
Месторасположением узла в данной плоскости простых узлов определяется
(1) месторасположение рецептивной области данного узла
(2) образ, на который данный узел реагирует
(3) вид преобразования входного образа, распознающегося данным узлом
В алгоритме обучения персептрона величина изменения синоптической связи между двумя нейронами зависит
(1) от уровня возбуждения пресиноптического нейрона
(2) от уровня возбуждения постсиноптического нейрона
(3) от разности между реальным и желаемым выходами нейрона
Персептрон Розенблатта решает задачи:
(1) в которых множество входов может быть разделено геометрически
(2) классификации входных данных
(3) разделяющие множество входов на два непересекающихся класса
(4) распознавания объектов
Подаем на вход персептрона вектор а. В каком случае весовые значения нужно увеличивать?
(1) если на выходе 0, а нужно 1
(2) если на выходе 1, а нужно 0
(3) если сигнал персептрона не совпадает с нужным ответом
(4) всегда, когда на выходе 0
Какие из перечисленных ниже шагов в алгоритме обратного распространения являются шагами "обратного прохода"?
(1) выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети
(2) вычислить выход сети
(3) вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары)
(4) подкорректировать веса сети так, чтобы минимизировать ошибку
(5) повторять шаги с 1 по 4 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня
Сеть начала переобучаться, если:
(1) ошибка сети на контрольном множестве стала расти
(2) контрольное множество задано некорректно
(3) в сети имеется слишком много скрытых слоев
Модификация алгоритма обучения методом "чувства справедливости" заключается в:
(1) занижении весовых значений тех нейронов, которые очень часто "побеждают"
(2) блокировании нейронов, которые очень часто побеждают
(3) повышении весовых значений тех нейронов, которые очень редко "побеждают"
Пусть при обучении Коши сделанное изменение весовых значений увеличило целевую функцию. Всегда ли сделанное изменение скидывается?
(1) да
(2) нет
Если два образца сильно похожи, то:
(1) они могут вызывать перекрестные ассоциации
(2) они могут нарушать устойчивость сети
(3) они могут объединиться в один образец
В методе машины Больцмана изменение состояний нейронов обусловлено:
(1) статическими закономерностями
(2) детерминированными закономерностями
Сети с обратными связями это:
(1) сети, имеющие много слоев
(2) сети, у которых существуют соединения, идущие от выходов некоторого слоя к входам предшествующего слоя
(3) сети, у которых нет памяти
Кодирование ассоциаций - это:
(1) "обучение с учителем"
(2) "обучение без учителя"
(3) процесс нормального функционирования сети
Из слоя сравнения информация поступает в:
(1) внешнюю среду
(2) слой распознавания
(3) приемник 1
(4) приемник 2
(5) слой сброса
Суть алгоритма быстрого обучения в том, что:
(1) обучающий входной вектор подается на вход сети на очень короткое время и сеть не успевает полностью на него настроиться
(2) обучающий входной вектор подается на вход сети на достаточно длительное время для того, чтобы сеть успела полностью на него настроиться
(3) при инициализации алгоритма обучения изначально весовые значения берутся достаточно большими, что увеличивает время обучения
Приращение веса возбуждающего входа данного постсиноптического нейрона зависит от:
(1) выходного сигнала возбуждающего пресиноптического нейрона и его возбуждающего веса
(2) выходного сигнала тормозящего пресиноптического нейрона и его возбуждающего веса
(3) выходного сигнала возбуждающего пресиноптического нейрона и его тормозящего веса
Рецепторной областью комплексного узла называется:
(1) ограниченная область соответствующей плоскости простых узлов, лежащей в данном слое
(2) объединение ограниченных областей всех плоскостей простых узлов, лежащих в данном слое
(3) ограниченная область поля входных образов
Статистические методы обучения являются:
(1) алгоритмами "обучения с учителем"
(2) алгоритмами "обучения без учителя"
Сколько слоев должна иметь нейронная сеть, умеющая выделять квадрат?
(1) один
(2) два
(3) три
(4) четыре
Теорема о "зацикливании" персептрона утверждает, что:
(1) любой алгоритм обучения зацикливается
(2) если данная задача не представима персептроном, то алгоритм обучения зацикливается
(3) если задача не имеет решения, то алгоритм обучения зацикливается
При обучении выходного нейрона величина δ является:
(1) разностью между выходом нейрона и его целевым значением
(2) произведением производной активационной функции на сигнал ошибки
(3) суммированием величин δ для нейронов последующих слоев и умножением полученной величины на активационную функцию
Если нейронная сеть не содержит скрытых элементов, то она:
(1) моделирует одинарный "сигмовидный склон"
(2) служит классификатором только в линейно-отделимых задачах
(3) моделирует конечное число "сигмовидных склонов"
Обучение сети встречного распространения является:
(1) "обучением с учителем"
(2) "обучением без учителя"
Какая из перечисленных ниже проблем локальных минимумов возникает в алгоритме обратного распространения?
(1) после окончания обучения нет способа проверки, находится ли сеть в локальном или глобальном минимуме
(2) при попадании в локальный минимум сеть не может оттуда выбраться
(3) нет гарантии, что после конечного числа использований алгоритма обратного распространения глобальный минимум будет найден
Если сеть Хэмминга в каждом слое содержит по n нейронов, то сколько образцов она способна запомнить?
(1) 2n образцов
(2) n образцов
(3) 1/2n образцов
(4) 0,15n образцов
В алгоритме обучения обобщенной машины Больцмана закрепленные вероятности вычисляются, когда:
(1) входным и выходным нейронам придают значения из обучающего множества
(2) сеть начинает работать со случайного значения
(3) входным значениям приписываются равные, довольно малые значения
"Обучение с учителем" это:
(1) использование знаний эксперта
(2) использование сравнения с идеальными ответами
(3) подстройка входных данных для получения нужных выходов
(4) подстройка матрицы весов для получения нужных ответов
В чем преимущество негомогенной сети ДАП перед гомогенной?
(1) негомогенная ДАП обладает гораздо более большей емкостью памяти, чем гомогенная ДАП
(2) для обучения негомогенной ДАП требуется гораздо меньше времени, чем для обучения гомогенной ДАП
(3) негомогенная ДАП способна более точно восстанавливать ассоциации для частично зашумленных векторов
В начальный момент времени выходом слоя сравнения является
(1) нулевой вектор
(2) единичный вектор
(3) входной вектор
Устойчивость процесса поиска заключается в том, что:
(1) на фазе распознавания возбуждается только один "выигрышный" нейрон
(2) поиск всегда заканчивается успешно
(3) обучение не будет вызывать переключений с одного возбужденного нейрона на другой
В чем заключается главный недостаток процедуры латерального торможения?
(1) в необходимости большого количества вычислительных итераций
(2) в локализации памяти когнитрона
(3) в неспособности когнитрона к самовосстановлению
При каких из ниже перечисленных условий, в алгоритме обучения неокогнитрона "без учителя" происходит обучение данной синоптической связи?
(1) данная синоптическая связь является межслойной связью
(2) данная синоптическая связь исходит от возбужденного комплексного узла
(3) данная синоптическая связь входит в возбужденный простой узел
(4) простой узел, связанный данной синоптической связью, возбужден более сильно, чем любой другой узел из его области конкуренции
В алгоритме обучения Кохонена обучению подвергаются:
(1) все синоптические связи
(2) синоптические связи только "победившего" нейрона
(3) синоптические связи всех нейронов, чье расстояние до входного вектора меньше заданного порога
Можно ли построить двухслойную нейронную сеть, выделяющую неограниченную область?
(1) да
(2) нет
(3) в зависимости от задачи
Вопрос о выборе шага при применении процедуры обучения решается следующим образом:
(1) веса и порог следует изменять на 1
(2) веса и порог следует изменять на число ≤1
(3) веса и порог следует изменять на целое число
Метод импульса позволяет:
(1) увеличить скорость обучения
(2) увеличить точность обучения
(3) уменьшить необходимые вычислительные ресурсы
Чтобы избежать паралича сети, необходимо:
(1) уменьшить весовые значения
(2) увеличить весовые значения
(3) уменьшить размер шага
(4) увеличить размер шага
Если на вход обученной сети встречного распространения подать частично обнуленный вектор, то на выходе мы получим:
(1) полностью восстановленный вектор
(2) номер класса полностью восстановленного вектора
(3) копию поданного на вход частично обнуленного вектора
При комбинированном методе распределения Коши и обратного распространения изменение веса сохраняется, если:
(1) оно уменьшает целевую функцию
(2) оно увеличивает целевую функцию
(3) оно увеличивает целевую функцию и вероятность данного изменения достаточно большая
Если матрица весов не является симметричной, то будет ли данная сеть обратного распространения устойчивой?
(1) да
(2) нет
(3) в зависимости от задачи
Сколько нейронов необходимо для реализации задачи коммивояжера, где n - число городов?
(1) n нейронов
(2) 2n нейронов
(3) n2 нейронов
(4) n! нейронов
Что означает величина NET?
(1) выход суммирующего блока
(2) значение активационной функции
(3) входной сигнал нейрона
(4) выходной сигнал нейрона
К какому типу памяти относится ДАП?
(1) адресной
(2) автоассоциативной
(3) гетероассоциативной
Если параметр сходства выбрать неоправданно высоким, то:
(1) сеть будет относить к одному классу только слабо отличающиеся образы
(2) сеть будет относить к одному классу образы, сильно отличающиеся друг от друга
(3) неоправданно сильно будет увеличено время обучения
Со всеми ли нейронами предыдущего слоя связан данный нейрон когнитрона?
(1) да
(2) нет
Информация, поступающая из предыдущего слоя неокогнитрона, подается
(1) на все нейроны слоя одновременно
(2) на нейроны массива простых плоскостей
(3) на нейроны массива комплексных плоскостей
В алгоритме Хэбба величина изменения синоптической связи между двумя нейронами зависит:
(1) от уровня возбуждения пресиноптического нейрона
(2) от уровня возбуждения постсиноптического нейрона
(3) от разности между реальным и желаемым выходом системы
Выходом персептрона являются:
(1) значения отрезка [0;1]
(2) значения отрезка [-1;1]
(3) вся числовая ось (-∞;+∞)
Однослойный персептрон решает задачи:
(1) классификации
(2) распознавания образов
(3) аппроксимации функций
Входным слоем обобщенного многослойного персептрона называется:
(1) слой, состоящий из элементов, которые только принимают входную информацию и распространяют ее по сети
(2) первый слой нейронов данной сети
(3) слой, не производящий вычислений
Проблема переобучения заключается в:
(1) слишком близкой подгонке к имеющимся значениям обучающего множества
(2) увеличении точности вычислений за счет большого увеличения необходимого для обучения времени
(3) минимизации локальных ошибок в ущерб минимизации глобальной ошибки
Если данный нейрон Кохонена является "победителем", то его значение OUT
(1) равно нулю
(2) равно единице
(3) является максимальным среди всех значений OUT нейронов слоя Кохонена
При стохастическом методе обучения изменения весовых значений сохраняются, если
(1) они уменьшают целевую функцию
(2) они увеличивают целевую функцию
(3) в любом случае
Сеть с обратным распространением называется неустойчивой, если:
(1) выход сети никогда не станет постоянным
(2) сеть не способна обучиться данной задаче
(3) время сходимости сети – бесконечно
Метод обучения сети называется локальным, если:
(1) при добавлении нового обучающего вектора не нужно все вычисление производить заново
(2) он предусматривает избежание попадания в локальные минимумы
(3) вычисление весовых значений для каждого нейрона производится локально
Значение активационной функции является:
(1) входом данного нейрона
(2) выходом данного нейрона
(3) весовым значением данного нейрона
В сети ДАП выходы второго слоя нейронов являются:
(1) входами для первого слоя
(2) входами для третьего слоя
(3) выходами сети
Говорят, что в сети АРТ возник адаптивный резонанс, если:
(1) входной образ классифицируется как допустимая модификация уже запомненного образа
(2) сеть запомнила данный входной образ как новый "шаблон"
(3) процесс вычисления в сети стабилизировался
В фазе сравнения в слое сравнения возбуждаются те нейроны, которым соответствуют:
(1) одновременно единичные компоненты входного вектора и вектора, являющегося выходом для слоя распознавания
(2) одновременно единичные компоненты входного вектора и вектора, являющегося выходом для приемника 1
(3) наиболее близкие "шаблоны"
Выходом тормозящего пресиноптического нейрона является:
(1) значение средней активности возбуждающих пресинаптических нейронов данной области связи
(2) отношение взвешенной суммы его тормозящих входов к взвешенной сумме возбуждающих входов
(3) взвешенная сумма всех его входов
Рецептивной областью данного простого узла называется:
(1) ограниченная область входного образа, с которой информация поступает на данный узел
(2) множество узлов предыдущего уровня, с которого информация поступает на данный узел
(3) область конкуренции данного простого узла
Выходом выходной звезды Гроссберга является
(1) мера сходства входного вектора с весовым вектором
(2) статическая характеристика обучающего набора
(3) номер класса сходных образов
Представима ли персептроном любая интуитивно вычислимая задача?
(1) да
(2) нет
Нейронная сеть является обученной, если:
(1) алгоритм обучения завершил свою работу и не зациклился
(2) при запуске обучающих входов она выдает соответствующие обучающие выходы
(3) при подаче на вход некоторого вектора сеть будет выдавать ответ, к какому классу векторов он принадлежит
Обучающим множеством называется:
(1) множество обучающих пар
(2) множество векторов, которые подаются на вход сети во время алгоритма обучения
(3) множество векторов, которые должна выдавать обученная нейронная сеть
При методе кросс-проверки считается, что сеть начала переобучаться, если:
(1) ошибка сети на контрольном множестве стала расти
(2) ошибка сети на контрольном множестве перестала убывать
(3) алгоритм обратного распространения зациклился
При обучении слоя Кохонена процесс обучения состоит в:
(1) выборе нейрона с весовым вектором, наиболее близким к входному вектору
(2) выборе нейрона с весовым вектором, имеющим максимальное значение
(3) отбрасывании нейронов с нулевыми весовыми значениями
Стратегия избежания локальных минимумов при сохранении стабильности заключается в
(1) больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов
(2) малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов
(3) достаточно малых изменениях весовых значений
(4) достаточно больших изменениях весовых значений
Задача сети Хопфилда заключается в
(1) том, что по произвольному сигналу "вспоминается" запомненный образец
(2) классификации множества входных образов
(3) распознавании образов
Непрерывная сеть Хопфилда является устойчивой, если:
(1) она имеет симметричную матрицу весов с нулями по главной диагонали
(2) она имеет симметричную матрицу весов с единицами по главной диагонали
(3) она способна аппроксимировать данную функцию
Какие сети характеризуются отсутствием памяти?
(1) однослойные
(2) многослойные
(3) без обратных связей
(4) с обратными связями
Метод восстановления ассоциаций заключается в том, что:
(1) по частично зашумленному вектору восстанавливается вектор, ассоциированный с ним
(2) определяется, являются ли два заданных вектора взаимно ассоциированными
(3) по заданным векторам находятся ассоциации, их соединяющие
Если входной вектор не соответствует ни одному из запомненных образов, то
(1) создается новая категория образов, сходных с данным входным образом
(2) система выдает ответ, что не может распознать этот образ
(3) срабатывает блок сброса
Фаза поиска считается неуспешно завершенной, если:
(1) найдется нейрон, в котором запомнен образ, достаточно похожий на входной образ
(2) входному образу будет сопоставлен нейрон, в котором никакой информации еще не было запомнено
(3) весовые значения "победившего" нейрона из слоя распознавания будут подкорректированы согласно данному входному вектору
Если возбуждающие и тормозящие входы данного нейрона достаточно велики, то его выходной сигнал OUT будет вычисляться по формуле:
(1) files где E - взвешенная сумма его возбуждающих входов и I - взвешенная сумма его тормозящих входов
(2) OUT=E-I, где E- взвешенная сумма его возбуждающих входов и I - взвешенная сумма его тормозящих входов
(3) files, где E- взвешенная сумма его возбуждающих входов и I - взвешенная сумма его тормозящих входов
Каждый узел в плоскости простых узлов получает вход:
(1) только от одной рецептивной области массива комплексных узлов предыдущего уровня
(2) от всех рецептивных областей массива комплексных узлов предыдущего уровня
(3) от всего массива комплексных узлов предыдущего уровня
При обучении персептрона предполагается обучение:
(1) всех синоптических связей
(2) синоптических связей, соединяющих одновременно возбужденные нейроны
(3) синоптических связей только "победившего" нейрона
В однонейронном персептроне длина входного вектора характеризует:
(1) размерность разделяемого пространства
(2) размерность разделяющей поверхности
(3) количество подпространств, определяющих классификацию объектов
(4) количество разделяющих плоскостей
Подаем на вход персептрона вектор a. В каком случае весовые значения нужно уменьшать?
(1) если на выходе 0, а нужно 1
(2) если на выходе 1, а нужно 0
(3) если сигнал персептрона не совпадает с нужным ответом
(4) всегда, когда на выходе 1
В алгоритме обратного распространения при "проходе вперед"
(1) вычисляется значение сети на обучающей паре
(2) вычисляется ошибка сети
(3) корректируются весовые значения сети
Тестовое множество необходимо для:
(1) тестирования уже отлаженной сети
(2) тестирования сети после отработки контрольного множества
(3) тестирования сети после каждого цикла обучения
Метод коррекции весов пропорционально входу заключается в:
(1) модификации не только "победившего" нейрона, но и всех остальных
(2) модификации "победившего" нейрона пропорционально поданному на сеть входному вектору
(3) модификации не только "победившего", но и "проигравшего" нейрона
Пусть при Больцмановском обучении сделанное изменение весовых значений увеличило целевую функцию. Данное изменение не скидывается, если:
(1) вероятность данного изменения выше случайно выбранного порога
(2) данное изменение достаточно мало
(3) значение искусственной температуры достаточно велико
Сеть Хопфилда заменяется на сеть Хэмминга, если:
(1) нет необходимости, чтобы сеть в явном виде выдавала запомненный образец
(2) необходимо повысить число запомненных образцов
(3) необходимо ускорить время сходимости сети
(4) необходимо обеспечить устойчивость сети
В статической сети Хопфилда вероятность изменения веса является функцией от:
(1) величины, на которую выход OUT превышает заданный порог
(2) разности между целевым и фактическим значением выхода сети
(3) искусственной температуры
"Обучение без учителя" характеризуется отсутствием:
(1) желаемого выхода сети
(2) эксперта, корректирующего процесс обучения
(3) обучающего множества
Обучение сети ДАП происходит:
(1) по дельта-правилу
(2) с помощью машины Больцмана
(3) с помощью однократного вычисления весовых значений
Правило двух третьих заключается в том, что:
(1) каждый нейрон слоя сравнения выдает единичный выход, если на вход к нему поступило не менее двух единиц
(2) в слое распознавания каждый раз возбуждается не более двух третьих нейронов
(3) блок сброса срабатывает каждый раз, когда на его вход подается число, большее, чем 2/3
Если в процессе обучения некоторый вес был обнулен, то:
(1) он больше никогда не примет ненулевого значения
(2) он обязательно будет подвергнут новому обучению
Приращение веса тормозящего входа данного постсиноптического нейрона зависит от:
(1) выходного сигнала возбуждающего пресиноптического нейрона и его возбуждающего веса
(2) выходного сигнала тормозящего пресиноптического нейрона и его возбуждающего веса
(3) выходного сигнала возбуждающего пресиноптического нейрона и его тормозящего веса
Чем реакция комплексного узла на данный входной образ отличается от реакции простого узла, лежащего в том же слое?
(1) комплексный узел менее чувствителен к позиции входного образа
(2) комплексный узел менее чувствителен к повороту и другим видам движения входного образа
(3) рецепторная зона комплексного узла гораздо больше рецепторной зоны простого узла
В статистических алгоритмах обучения искусственная температура используется для:
(1) управления размером случайных изменений весовых значений
(2) минимизации целевой функции
(3) уменьшения полной энергии сети
Выпуклой областью называется:
(1) область, которую можно заключить в круг
(2) область, которую нельзя заключить в круг
(3) область, у которой две ее любые точки можно соединить отрезком, полностью принадлежащим этой области
(4) область, внутренние углы которой меньше 180°
В каком случае персептрон может обучиться решать данную задачу?
(1) если задача представима персептроном
(2) если задача имеет решение
(3) если задача имеет целое численное решение
При обучении скрытого нейрона величина δ является:
(1) разностью между выходом нейрона и его целевым значением
(2) произведением производной активационной функции на сигнал ошибки
(3) суммированием величин δ для нейронов последующих слоев и умножением полученной величины на активационную функцию
Если сеть содержит один промежуточный слой, то она моделирует:
(1) один "сигмовидный склон"
(2) по одному "сигмовидному склону" для каждого скрытого элемента
(3) одну выпуклую "взвешенность"
Обучение слоя Кохонена является:
(1) "обучением с учителем"
(2) "обучением без учителя"
Для какого алгоритма необходимо гораздо большее время сходимости?
(1) алгоритма обратного распространения
(2) алгоритма распределения Коши
Сколько нейронов должна содержать сеть Хемминга для того чтобы она могла запомнить n образцов?
(1) по n в каждом слое
(2) по 2n в каждом слое
(3) n нейронов в первом слое и более, чем n нейронов во втором слое
В алгоритме обучения обобщенной машины Больцмана незакрепленные вероятности вычисляются, когда:
(1) входным и выходным нейронам придают значения из обучающего множества
(2) сеть начинает работать со случайного значения
(3) входным значениям приписываются равные, довольно малые значения
Синапсами называются:
(1) точки соединения нейронов, через которые передаются нейронные сигналы
(2) "усики" нейронов, по которым проходят электрохимические сигналы
(3) тело нейрона, в котором происходит обработка электрохимического сигнала
Сеть ДАП называется асинхронной, если:
(1) любой нейрон может изменять свое состояние в любое время
(2) ассоциированные векторы имеют разные размерности
(3) для каждого нейрона задается своя пороговая функция
В момент времени, отличный от начального, выходом слоя распознавания является
(1) единичный вектор
(2) вектор, у которого только одна компонента отлична от нуля
(3) "шаблон", соответствующий данному входному вектору
Если области связи нейронов имеют постоянный размер во всех слоях, то:
(1) может потребоваться большое количество слоев для перекрытия всего входного поля
(2) области связи могут настолько сильно друг друга перекрывать, что многие нейроны выходного слоя будут иметь одинаковую реакцию
(3) могут возникнуть "дыры" в перекрытии областями связи, что может привести к "неопознанным" образам
Способность неокогнитрона к самовосстановлению выражается в:
(1) способности обучения нового узла, в случае если уже обученный узел по каким-то причинам вышел из строя
(2) способности неокогнитрона "доучиваться" при появлении новых обучающих образов
(3) способности неокогнитрона восстанавливать "забытые" образы
Алгоритм обучения Кохонена является:
(1) алгоритмом обучения с учителем
(2) алгоритмом обучения без учителя
Сколько нейронов должен иметь первый слой нейронной сети, умеющей выделять шестиугольник?
(1) 1
(2) 2
(3) 3
(4) 4
(5) 5
(6) 6
Теорема о двухслойности персептрона утверждает, что:
(1) любой многослойный персептрон может быть представлен в виде двухслойного персептрона
(2) в любом многослойном персептроне могут обучаться только два слоя
(3) способностью к обучению обладают персептроны, имеющие не более двух слоев
Метод импульса заключается в:
(1) добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса
(2) умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса
(3) использовании производных второго порядка
Если размер шага очень мал, то:
(1) процесс сходимости происходит слишком медленно
(2) может возникнуть паралич сети
(3) может возникнуть постоянная неустойчивость сети
Способна ли сеть встречного распространения аппроксимировать обратимые функции?
(1) да
(2) нет
(3) в зависимости от задачи
В чем состоит минус метода ограничения диапазона изменений весовых значений?
(1) в повышении вероятности сетевого паралича
(2) есть ряд задач, к которым он неприменим
(3) нет доказательства сходимости для данного алгоритма
Память называется ассоциативной, если извлечение необходимой информации происходит по:
(1) имеющимся образцам
(2) адресу начальной точки данной информации
(3) по содержанию данной информации
В задаче коммивояжера каждый город представляется:
(1) одним нейроном
(2) одним слоем нейронов
(3) строкой из n нейронов, где n - число городов
Что означает величина OUT?
(1) выход суммирующего блока
(2) значение активационной функции
(3) входной сигнал нейрона
(4) выходной сигнал нейрона
Гетероассоциативность ДАП достигается путем:
(1) использования многослойной сети
(2) использования однослойной сети
(3) наличия обратных связей
Обладает ли сеть Хопфилда свойством стабильности-пластичности?
(1) да
(2) нет
(3) в зависимости от задачи
Если параметр сходства выбрать неоправданно низким, то:
(1) сеть будет относить к одному классу только слабо отличающиеся образы
(2) сеть будет относить к одному классу образы, сильно отличающиеся друг от друга
(3) неоправданно сильно будет увеличено время обучения
Величиной NET нейрона когнитрона является:
(1) отношение взвешенной суммы его возбуждающих входов к взвешенной сумме тормозящих входов
(2) отношение взвешенной суммы его тормозящих входов к взвешенной сумме возбуждающих входов
(3) взвешенная сумма всех его входов
В каждом слое неокогнитрона выходы из массива простых плоскостей поступают на вход
(1) массива комплексных плоскостей этого же слоя
(2) массива комплексных плоскостей следующего слоя
(3) массива простых плоскостей следующего слоя
В алгоритме сигнального обучения Хэбба величина синоптической связи между двумя нейронами зависит :
(1) от уровней возбуждения этих нейронов
(2) от выходных уровней этих нейронов
(3) от разности между реальным и желаемым выходом системы
Входом персептрона являются:
(1) значения 0 и 1
(2) вся действительная ось (-∞;+∞)
(3) вектор, состоящий из нулей и единиц
(4) вектор, состоящий из действительных чисел
Скрытым слоем обобщенного многослойного персептрона называется:
(1) слой, состоящий из элементов, которые только принимают входную информацию и распространяют ее по сети
(2) слой, не являющийся ни входным, ни выходным
(3) слой, не производящий вычислений
Если сеть имеет очень большое число нейронов в скрытых слоях, то:
(1) возможно переобучение сети
(2) сеть может оказаться недостаточно гибкой для решения поставленной задачи
(3) время, необходимое на обучение сети, минимально
Значением NET нейрона слоя Гроссберга является:
(1) весовое значение, связывающее данный нейрон с нейроном-победителем из слоя Кохонена
(2) максимальное весовое значение, связывающее данный нейрон с нейронами слоя Кохонена
(3) минимальное весовое значение, связывающее данный нейрон с нейронами слоя Кохонена
Целевой функцией называется:
(1) вероятностное распределение весовых значений
(2) разность между желаемым и фактическим выходом сети
(3) функция, которую аппроксимирует данная сеть
Сеть называется сетью с обратными связями, если:
(1) переданное нейроном возбуждение возвращается к данному нейрону и он повторно производит вычисления
(2) существуют связи, идущие от выходных нейронов к входным
(3) возбуждение может проходить по сети как в одну сторону, так и в обратную
Метод отказа от симметрии синапсов позволяет:
(1) достигнуть максимальной емкости памяти
(2) избежать локальных минимумов
(3) обеспечить устойчивость сети
В каком случае многослойные сети не могут привести к увеличению вычислительной мощности по сравнению с однослойной сетью?
(1) если они имеют два слоя
(2) если они не имеют обратных связей
(3) если они имеют сжимающую активационную функцию
(4) если они имеют линейную активационную функцию
Завершает ли сеть работу, если выходы второго слоя стабилизировались, а выходы первого слоя продолжают изменяться?
(1) да
(2) нет
В чем заключается отличие АРТ-1 от АРТ-2?
(1) в АРТ-2 используется многослойная иерархия слоев
(2) в АРТ-2 введен специальный механизм зависимости активности синапсов от времени
(3) АРТ-1 обрабатывает только битовые сигналы, а АРТ-2 - аналоговые
В фазе сравнения блок сброса:
(1) сравнивает входной вектор и вектор, являющийся выходом блока сравнения
(2) сравнивает входной вектор и вектор, являющийся выходом блока распознавания
(3) сбрасывает неудачные ассоциации
Весовые значения тормозящих нейронов из области связи задаются так, чтобы:
(1) их сумма была равна единице
(2) обеспечить выигрыш только одного нейрона
(3) их сумма не превышала суммы возбуждающих весов из этой же области связи
Каждая плоскость простых узлов реагирует
(1) на один специфический входной образ
(2) на одну ограниченную область входного поля
(3) на все повороты данного входного образа
Хорошо обученная входная звезда Гроссберга способна реагировать:
(1) только на определенный единичный вектор
(2) на любой вектор из данного класса векторов
Какая из следующих функций непредставима персептроном?
(1) исключающее или
(2) исключающее нет
Алгоритм обучения персептрона завершает свою работу, когда
(1) вектор весов перестает изменяться
(2) абсолютная ошибка станет меньше некоторого малого значения
Какие весовые значения должны быть навешаны на сеть до начала процедуры обучения?
(1) небольшие, выбранные случайным образом
(2) небольшие, равные
(3) нулевые
Механизм контрольной кросс-проверки необходим для того, чтобы:
(1) оградить сеть от возможности переобучения
(2) проверить точность вычислений, производимых сетью
(3) определить оптимальное число слоев и нейронов
В процессе обучения слоя Кохонена "победителем" объявляется нейрон
(1) для которого скалярное произведение весового вектора на входной вектор принимает максимальное значение
(2) имеющий наибольшее значение модуля весового вектора
(3) имеющий максимальное значение величины NET
Метод "имитации отжига" заключается в
(1) больших начальных шагах изменения весовых значений и постепенном уменьшении этих шагов
(2) малых начальных шагах изменения весовых значений и постепенном увеличении этих шагов
(3) достаточно малых изменениях весовых значений
(4) достаточно больших изменениях весовых значений
Если среди запомненных сетью Хопфилда образцов не существует образца, подходящего для данного входного вектора, то:
(1) сеть Хопфильда должна выдать произвольный вектор, не совпадающий ни с одним образцом
(2) сеть Хопфильда будет неустойчивой
(3) сеть Хопфильда выдаст ближайший образец
Есть ли вероятность того, что в алгоритме разобучения сеть "забудет" правильный образ?
(1) да
(2) нет
(3) в зависимости от задачи
Входным слоем сети называется:
(1) первый слой нейронов
(2) слой, служащий для распределения входных сигналов
(3) слой, не производящий никаких вычислений
Способность ДАП к обобщению заключается в:
(1) восстановлении частично зашумленного входного вектора
(2) нахождении вектора, ассоциированного с частично зашумленным вектором
(3) генерировании новых ассоциаций
В сети АРТ запомненный образ подвергается изменению:
(1) если он достаточно похож на входящий образ
(2) если он достаточно сильно отличается от входящего образа
(3) в любом случае
Всегда ли по окончании фазы поиска входному вектору сопоставляется некоторый нейрон из слоя распознавания?
(1) да
(2) нет
(3) в зависимости от задачи
При обучении когнитрона обучаются:
(1) все нейроны
(2) только один нейрон в каждом слое
(3) только один нейрон в каждой области конкуренции
Рецептивные области узлов каждой плоскости простых узлов
(1) пересекаются и покрывают все поле входного образа
(2) не пересекаются, но покрывают все поле входного образа
(3) совпадают и покрывают все поле входного образа
Обучение персептрона считается законченным, когда:
(1) ошибка выхода становится достаточно малой
(2) по одному разу запущены все вектора обучающего множества
(3) достигнута достаточно точная аппроксимация заданной функции
Однонейронным персептроном размерность разделяемого пространства определяется
(1) длиной входного вектора
(2) весовыми значениями
(3) пороговым значением активационной функции
(4) контекстом конкретной задачи
Если на данной обучающей паре символ персептрона не совпадает с нужным ответом, то:
(1) нужно изменять все весовые значения
(2) нужно изменять все весовые значения между одновременно активными нейронами
(3) нужно запускать другую обучающую пару
В алгоритме обратного распространения при "проходе вперед"
(1) вычисляется значение сети на обучающей паре
(2) вычисляется ошибка сети
(3) корректируются весовые значения сети
Чем тестовое множество отличается от контрольного множества?
(1) тестовое множество используется только один раз
(2) тестовое множество является подмножеством контрольного множества
(3) тестовое множество используется всякий раз, когда ошибка сети на контрольном множестве начинает расти
Метод аккредитации заключается в:
(1) активировании лишь одного нейрона Кохонена, имеющего наибольшее значение NET
(2) активировании группы нейронов Кохонена, имеющих максимальные значения NET
(3) активировании двух нейронов, имеющих наибольшее и наименьшее значения NET
Какова роль искусственной температуры при Больцмановском обучении?
(1) при снижении температуры вероятно возможными становятся более маленькие изменения
(2) для регулирования скорости сходимости алгоритма обучения
Какая сеть требует меньших затрат вычислительных ресурсов?
(1) сеть Хопфильда
(2) сеть Хэмминга
Если статическая сеть Хопфилда обладает большой искусственной температурой, то более вероятными становятся:
(1) более большие изменения состояний нейронов
(2) более мелкие изменения состояний нейронов
При каком алгоритме обучения обучающее множество состоит только из входных векторов?
(1) обучение с учителем
(2) обучение без учителя
Всегда ли обученная сеть ДАП является устойчивой?
(1) да
(2) нет
Лотарально-тормозящая связь используется :
(1) внутри слоя распознавания
(2) между слоями сравнения и распознавания
(3) внутри приемника 1
(4) внутри приемника 2
После окончания алгоритма обучения в нейроне слоя распознавания запоминается информация, являющаяся:
(1) "пересечением" всех предъявленных сходных векторов
(2) "объединением" всех предъявленных сходных векторов
(3) средним значением всех предъявленных сходных векторов
После окончания алгоритма обучения информация о "шаблоне" данного класса образов хранится:
(1) в весовых значениях некоторого возбуждающего нейрона
(2) в весовых значениях некоторого тормозящего нейрона
(3) в весовых значениях некоторой области конкуренции
Чем различаются комплексные узлы, лежащие в разных слоях неокогнитрона?
(1) каждый слой комплексных узлов реагирует на более широкую область поля входного образа, чем предыдущий
(2) каждый слой комплексных узлов реагирует на большее количество преобразований входного образа, чем предыдущий
Всегда ли в статистических алгоритмах обучения производится изменение весовых значений?
(1) да
(2) нет
Сколько слоев должна иметь нейронная сеть, умеющая выделять выпуклые области?
(1) 1
(2) 2
(3) 3
(4) 4
Когда алгоритм обучения персептрона зацикливается?
(1) если данная задача непредставима персептроном
(2) если данная задача не имеет решения
(3) если коэффициенты в алгоритме обучения подобраны неверно
Алгоритм обратного распространения заканчивает свою работу, когда:
(1) сигнал ошибки становится ниже заданного порога
(2) величина δ становится ниже заданного порога
(3) величина Δw для каждого нейрона становится ниже заданного порога
Если сеть содержит два промежуточных слоя, то она моделирует:
(1) по одному "сигмовидному склону" для каждого скрытого элемента
(2) одну выпуклую "взвешенность"
(3) по одной выпуклой "взвешенности" для каждого скрытого элемента первого слоя
(4) по одной выпуклой "взвешенности" для каждого скрытого элемента второго слоя
При обучении сети встречного распространения обучающей парой является:
(1) пара одинаковых векторов
(2) четверка векторов, из которых два вектора являются входом сети и два других вектора – соответствующим выходом
(3) пара векторов, из которых второй (выходной) вектор является кодом класса, к которому принадлежит первый (входной) вектор
Для какого алгоритма более опасен сетевой паралич?
(1) алгоритма обратного распространения
(2) алгоритма распределения Коши
Синаптические связи называются тормозящими, если :
(1) они являются обратными
(2) они являются обратными и отрицательными
(3) они приводят к увеличению значения целевой функции
В алгоритме обучения обобщенной машины Больцмана вычисление закрепленных вероятностей начинается после:
(1) запуска каждой обучающей пары
(2) после запуска всех обучающих пар
(3) конечного числа запусков сети с некоторого случайного значения
(4) после однократного запуска сети с некоторого случайного значения
Дендритами называются:
(1) точки соединения нейронов, через которые передаются нейронные сигналы
(2) "усики" нейронов, по которым проходят электрохимические сигналы
(3) тело нейрона, в котором происходит обработка электрохимического сигнала
Сеть ДАП называется адаптивной, если:
(1) для каждого нейрона задается своя пороговая функция
(2) сеть изменяет свои весовые значения в процессе обучения
(3) любой нейрон может изменять свое состояние в любой момент времени
Работа блока сброса заключается в:
(1) сравнении вектора, выработанного блоком сравнения с входным вектором
(2) сравнении вектора, выработанного блоком распознавания с входным вектором
(3) сбросе неудачных ассоциаций
Если в процессе обучения на вход сети АРТ подавать повторяющиеся последовательности обучающих векторов, то:
(1) будет происходить циклическое изменение весов
(2) через конечное число обучающих серий процесс обучения стабилизируется
(3) с каждым новым повтором серии обучающих векторов будет происходить более тонкая настройка весовых значений
Каким образом можно уменьшить количество слоев когнитрона, не причинив ущерба его вычислительным свойствам?
(1) путем расширения областей связи в последующих слоях
(2) путем перехода от одномерных слоев к двухмерным слоям
(3) путем введения вероятностных синоптических связей
В алгоритме обучения с учителем сравнение реального выхода с желаемым происходит:
(1) только на выходе системы
(2) только на выходе первого слоя системы
(3) на выходе каждого слоя системы
В алгоритме обучения Кохонена, увеличивая пороговое значение расстояния между входным вектором и весовыми значениями нейрона, мы можем добиться:
(1) объединения нескольких классов образов
(2) разбиения множества входных образов на более мелкие классы
Где в нейронной сети хранится информация о классификации образов?
(1) в количестве нейронов
(2) в весовых значениях
(3) в количестве слоев
(4) в самих нейронах
Все ли нейроны многослойного персептрона возможно обучить?
(1) да
(2) только нейроны первого слоя
(3) только нейроны последнего слоя
Метод ускорения сходимости заключается в:
(1) добавлении к коррекции веса значения, пропорционального величине предыдущего изменения веса
(2) умножении коррекции веса на значение, пропорциональное величине предыдущего изменения веса
(3) использовании производных второго порядка
Если размер шага очень большой, то:
(1) процесс сходимости происходит слишком медленно
(2) может возникнуть паралич сети
(3) может возникнуть постоянная неустойчивость сети
Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор x , на выходе мы получим:
(1) пару векторов x и y
(2) вектор x
(3) вектор y
Метод изменений сигналов OUT заключается в том, что:
(1) на весовые значения накладывают сжимающую функцию
(2) на величины OUT накладывают дополнительную сжимающую функцию
(3) если величина OUT велика, то веса, питающие этот нейрон, уменьшаются
Задачей распознавания образов называется:
(1) поиск идеального образа по имеющейся неполной его версии
(2) определение, к какому классу образов принадлежит данный зашумленный образ
(3) исследование ассоциаций, которые вызывает данный зашумленный образ
Задачей аналого-цифрового преобразователя является то, что:
(1) непрерывно растущее напряжение, подаваемое на вход сети, порождало числовое значение данного напряжения
(2) непрерывно растущее напряжение, подаваемое на вход сети, порождало числовое значение сопротивления, соответствующего данному напряжению
Активационной функцией называется:
(1) функция, вычисляющая выходной сигнал нейрона
(2) функция, суммирующая входные сигналы нейрона
(3) функция, корректирующая весовые значения
(4) функция, распределяющая входные сигналы по нейронам
Автоассоциативность памяти обусловлена:
(1) использованием многослойной сети
(2) использованием однослойной сети
(3) наличием обратных связей
Почему изученные ранее нейронные сети не обладают свойством стабильности-пластичности?
(1) обучение новому образу уничтожает или изменяет результаты предшествующего обучения
(2) они не обладают достаточной емкостью памяти
(3) в них отсутствуют тормозящие синаптические связи
Фаза распознавания инициализируется:
(1) в момент подачи на вход входного вектора
(2) в момент возбуждения победившего нейрона в слое распознавания
(3) в момент срабатывания слоя сброса
В каком случае сигнал OUT совпадает с сигналом NET для данного нейрона когнитрона?
(1) если NET≥0
(2) если NET=0
(3) если NET≥δ где δ - заданное пороговое значение
В каждом слое неокогнитрона выходы из массива комплексных плоскостей поступают на вход
(1) массива комплексных плоскостей этого же слоя
(2) массива комплексных плоскостей следующего слоя
(3) массива простых плоскостей следующего слоя
Метод дифференциального обучения Хэбба заключается в том, что в нем для изменения синоптических связей учитываются:
(1) выходы нейронов в разные моменты времени
(2) производные от выходов нейронов
(3) производные от целевой функции
Какая активационная функция используется в персептроне?
(1) пороговая
(2) гиперболического тангенса
(3) сигмоидальная
На вход однослойного персептрона подается вектор (a1...an). В каком случае выходом будет нулевой вектор?
(1) если для каждого нейрона j будем иметь files
(2) если найдется такой нейрон j, что files
(3) если для каждого нейрона j будем иметь files
(4) если найдется такой нейрон j, что files
Выходным слоем обобщенного многослойного персептрона называется:
(1) слой, состоящий из элементов, которые только выдают выходную информацию из сети
(2) последний слой сети
(3) слой, не производящий вычислений
Если сеть имеет небольшое число нейронов в скрытых слоях, то:
(1) возможно переобучение сети
(2) сеть может оказаться недостаточно гибкой для решения поставленной задачи
(3) время, необходимое на обучение сети, может оказаться очень большим
По принципу "победитель забирает все" действуют:
(1) нейроны слоя Кохонена
(2) нейроны слоя Гроссберга
При стохастическом методе обучения , если целевая функция увеличивается, то:
(1) изменения весовых значений скидываются и производятся новые вычисления
(2) производятся повторные изменения весовых значений
(3) объявляется, что сеть не может обучиться данной задаче
Если в данной сети найдутся нейроны, которые на этапе функционирования возбуждаются более, чем один раз, то:
(1) в данной сети существуют обратные связи
(2) данная сеть является неустойчивой
(3) в данной сети присутствуют нейроны Кохонена
При методе отказа от симметрии синапсов отрицательным фактором является:
(1) возможность появления неустойчивости сети
(2) нелокальность сети
(3) значительное повышение затраты вычислительных ресурсов
Сетью без обратных связей называется сеть,
(1) все слои которой соединены иерархически
(2) у которой нет синаптических связей, идущих от выхода некоторого нейрона к входам этого же нейрона или нейрона из предыдущего слоя
(3) у которой есть синаптические связи
Внутренней памятью нейрона называется:
(1) способность оставлять неизменным выходной сигнал до момента синхронизации
(2) множество весовых значений данного нейрона
(3) способность запоминать "шаблоны" классов образов
Шаблон критических черт используется, когда:
(1) система вошла в резонанс с входным образом
(2) запустился процесс запоминания новых «шаблонов» образов
(3) запустился алгоритм обучения АРТ
В фазе сравнения значение приемника 1 устанавливается равным:
(1) единице
(2) нулю
Принцип "элитного обучения" когнитрона заключается в том, что:
(1) обучается только наиболее сильно возбужденный нейрон из данной области связанности
(2) обучаются нейроны только одной области связи
(3) чем более возбужден нейрон, тем более активно на него действует процесс обучения
Способна ли одна и та же плоскость простых узлов реагировать как на заданный образ, так и на его произвольный поворот?
(1) да
(2) нет
(3) в зависимости от задачи
В алгоритме обучения выходной звезды Гроссберга величина синоптической связи между двумя нейронами зависит
(1) от уровней возбуждения этих нейронов
(2) от выходных уровней этих нейронов
(3) от разности между реальным и желаемым выходом
Однонейронный персептрон с двумя входами:
(1) разделяет плоскость XOY на две полуплоскости
(2) разделяет трехмерное пространство XOY на два полупространства
(3) выделяет замкнутую область
В каком случае после завершения алгоритма обучения можно сделать вывод, что данный персептрон не смог обучиться?
(1) в силу теоремы сходимости такого быть не может
(2) когда весовые значения стабилизировались, а ошибка выше порога
Если до начала процедуры обучения по алгоритму обратного распространения все весовые значения сети сделать равными, то
(1) сеть, скорее всего, не обучится
(2) процесс обучения будет замедлен
(3) процесс обучения будет ускорен
Механизм контрольной кросс-проверки заключается в:
(1) разделении множества обучающих пар на две части для поочередного запуска алгоритма обратного распространения то на одной, то на другой части
(2) резервировании части обучающих пар и использовании их для независимого контроля процесса обучения
(3) циклическом использовании множества обучающих пар
Если в обучающее множество входит множество сходных между собой векторов, то сеть должна научиться:
(1) активировать один и тот же нейрон Кохонена, вектор весовых значений которого является усреднением данного множества сходных векторов
(2) активировать один и тот же нейрон Кохонена, вектор весовых значений которого равен максимальному среди сходных векторов
(3) сопоставлять каждому входному вектору отдельный нейрон
При обучении сеть не сможет выбраться из локального минимума, если:
(1) изменения весовых значений слишком малы
(2) изменения весовых значений слишком велики
(3) используется детерминированный метод обучения
Если сеть Хопфилда нашла среди запомненных ею образцов, образец соответствующий данному входному вектору, то сеть должна :
(1) остановиться в этом образце
(2) выдать на выходе единицу
(3) выдать на выходе заданный входной вектор
Если в непрерывной сети Хопфилда коэффициент, определяющий крутизну сигмовидной функции, взять достаточно большим, то:
(1) сеть будет функционировать подобно дискретной сети Хопфилда
(2) сеть станет неустойчивой
(3) сходимость сети станет неочевидной
Можно ли построить однослойную нейронную сеть с обратными связями?
(1) да
(2) нет
Если на вход ДАП подать частично обнуленный вектор, то сеть выдаст также частично обнуленный ассоциированный с ним вектор?
(1) да
(2) нет
(3) в зависимости от задачи
Сколько функциональных модулей включает в себя сеть АРТ?
(1) один
(2) два
(3) три
(4) четыре
(5) пять
Алгоритм обучения сети АРТ является...
(1) алгоритмом "обучения с учителем"
(2) алгоритмом "обучения без учителя"
Обучение тормозящего входа возбуждающего нейрона
(1) не производится
(2) не отличается от обучения возбуждающего входа
(3) отличается от обучения возбуждающего входа
Простой узел возбуждается, если:
(1) хотя бы в одной комплексной плоскости предыдущего слоя появится "его" образ в его рецептивной области
(2) хотя бы одна его рецептивная область из комплексной плоскости предыдущего слоя подверглась возбуждению
(3) во всех комплексных плоскостях предыдущего слоя появится «его» образ в его рецептивной области
Метод обучения Уидроу-Хоффа отличается от метода обучения персептрона
(1) способом вычисления ошибки нейрона
(2) способом вычисления модификации весовых значений
(3) количеством синоптических связей, которые необходимо обучить
Сколько булевых функций от двух переменных можно представить персептроном?
(1) одну
(2) две
(3) десять
(4) четырнадцать
(5) шестнадцать
Если на данной обучающей паре сигнал персептрона совпал с нужным ответом, то нужно
(1) перейти к другой обучающей паре
(2) завершить процесс обучения
(3) обнулить все весовые значения
Алгоритм обратного распространения работает, пока:
(1) ошибка на всем обучающем множестве не достигнет приемлемого уровня
(2) ошибка на данной обучающей паре не достигнет приемлемого уровня
(3) все обучающие пары не будут использованы заданное число раз
Если ошибка сети на контрольном множестве стала расти, это означает, что:
(1) сеть начала переобучаться
(2) контрольное множество задано некорректно
(3) в сети недостает слоев или нейронов для решения данной задачи
Метод интерполяции заключается в:
(1) активировании лишь одного нейрона Кохонена, имеющего наибольшее значение NET
(2) активировании группы нейронов Кохонена, имеющей максимальные значения NET
(3) активировании двух нейронов, имеющих наибольшее и наименьшее значения NET
В чем преимущество метода Коши перед Больцмановским методом обучения?
(1) для обучения Коши нужно гораздо меньше времени
(2) в процессе обучения Коши используются гораздо более малые вычислительные ресурсы
(3) в более точной подстройке весовых значений
Сколько слоев полноценных нейронов имеет сеть Хэмминга?
(1) один
(2) два
(3) три
(4) четыре
Если статическая сеть Хопфилда обладает низкой искусственной температурой, то более вероятными становятся:
(1) более большие изменения состояний нейронов
(2) более мелкие изменения состояний нейронов
При каком алгоритме обучения обучающее множество состоит как из входных, так и из выходных векторов?
(1) "обучение с учителем"
(2) "обучение без учителя"
В каком случае сеть ДАП превращается в сеть Хопфилда?
(1) если W=WT
(2) если W=W-1
(3) если det W=1
Из слоя распознавания информация поступает в:
(1) внешнюю среду
(2) слой сравнения
(3) приемник 1
(4) приемник 2
(5) слой сброса
В алгоритме обучения сети АРТ процедура самомасштабирования необходима для того, чтобы:
(1) различать входные векторы в том случае, когда один вектор является "поднабором" второго
(2) сбрасывать слишком большие весовые значения
(3) проводить ассоциации между векторами разной размерности
При предъявлении на вход обученного когнитрона некоторого вектора
(1) должен возбудиться только один нейрон последнего слоя
(2) должны возбудиться нейроны только одной области конкуренции в выходном слое
При использовании неокогнитрона как классификатора, можем ли мы классифицировать образы независимо от их позиции, ориентации, размера и т.п.?
(1) да
(2) нет
Почему для статистических алгоритмов обучения распределение Коши является более приемлемым, чем распределение Больцмана?
(1) использование распределения Коши существенно уменьшает время обучения
(2) использование распределения Коши дает более точные аппроксимации заданных функций
(3) использование распределения Коши позволяет избегать локальных минимумов
Сколько слоев должна иметь нейронная сеть, умеющая выделять невыпуклые области?
(1) один
(2) два
(3) три
(4) четыре
Можем ли мы за конечное число шагов после запуска алгоритма обучения персептрона сказать, что персептрон не может обучиться данной задаче?
(1) да
(2) нет
(3) в зависимост от задачи
Чем отличается обучение скрытого нейрона от обучения выходного нейрона?
(1) для скрытого нейрона нельзя вычислить сигнал ошибки
(2) для скрытого нейрона не известно целевое значение
(3) для скрытого нейрона нужно учитывать номер слоя, в котором он находится
Для решения любой задачи классификации достаточно иметь:
(1) многослойный персептрон с двумя промежуточными слоями
(2) многослойный персептрон с тремя промежуточными слоями
(3) многослойный персептрон с достаточно большим числом скрытых элементов
Если в алгоритме обучения сети встречного распространения на вход сети подается вектор x, то желаемым выходом является
(1) двоичный вектор, интерпритирующий номер класса, которому принадлежит вектор x
(2) вектор y, являющийся эталоном для всех векторов, сходных с вектором x
(3) сам вектор x
Для какого алгоритма скорость обучения более высокая?
(1) алгоритма обратного распространения
(2) алгоритма распределения Коши
Какими должны быть весовые значения тормозящих синаптических связей?
(1) равными величинами из интервала (-1/n,0), где n - число нейронов в одном слое
(2) случайными отрицательными числами
(3) небольшими положительными числами
В алгоритме обучения обобщенной машины Больцмана вычисление незакрепленных вероятностей начинается после:
(1) запуска каждой обучающей пары
(2) запуска всех обучающих пар
(3) конечного числа запусков сети с некоторого случайного значения
(4) однократного запуска сети с некоторого случайного значения
Искусственный нейрон
(1) является моделью биологического нейрона
(2) имитирует основные функции биологического нейрона
(3) по своей функциональности превосходит биологический нейрон
Сеть ДАП называется конкурирующей, если:
(1) у нее существуют весовые соединения между нейронами одного слоя
(2) любой нейрон может изменять свое состояние в любой момент времени
(3) данному входному вектору можно сопоставить несколько альтернативных ассоциаций
Если блок сброса выработал сигнал сброса, то:
(1) возбуждение в распознающем слое сбрасывается
(2) на вход сети снова подается тот же самый входной вектор
(3) проводится повторное вычисление при возбуждении другого нейрона в распознающем блоке
Проблема локализованности памяти АРТ заключается в том, что:
(1) при разрушении нейрона из слоя распознавания вся информация о классе образов, хранящаяся в данном нейроне, теряется
(2) при добавлении к обучающему множеству новых векторов приходится переучивать сеть заново
(3) сеть АРТ способна "запоминать" образы довольно узкого класса
Если к обучающему множеству добавить новые вектора, вызовет ли это необходимость переучивать когнитрон заново или нет?
(1) да
(2) нет
Какой тип обучения можно использовать при обучении неокогнитрона?
(1) "обучение с учителем"
(2) "обучение без учителя"
В алгоритме обучения Кохонена величина синоптической связи между двумя нейронами зависит:
(1) от уровней возбуждения этих нейронов
(2) от выходных уровней этих нейронов
(3) от разности между реальным и желаемым выходами системы
(4) от разности между весовым значением и входами системы
Что такое "неподатливое" множество образов?
(1) множество образов, для классификации которых требуются очень большие вычислительные ресурсы
(2) множество образов, которые нельзя разбить на выпуклые и невыпуклые области
(3) множество образов, которые нельзя классифицировать
Сколько слоев может содержать персептрон?
(1) один
(2) два
(3) три
(4) любое конечное число
Добавление к коррекции веса значения, пропорционального величине предыдущего изменения веса, используется при методе:
(1) добавления нейронного смещения
(2) импульса
(3) экспоненциального сглаживания
(4) ускорения сходимости
Если сеть находится в постоянно меняющейся внешней среде, то:
(1) процесс обучения может никогда не сойтись
(2) может возникнуть паралич сети
(3) процесс обучения станет происходить слишком медленно
Пусть F - обратимая функция и F(x)=y. Если сеть встречного распространения обучена аппроксимировать эту функцию, то, если на вход подать только вектор y, на выходе мы получим:
(1) пару векторов x и y
(2) вектор x
(3) вектор y
В методе измерений сигнала OUT роль дополнительной сжимающей функции заключается в...
(1) сильном уменьшение значения очень больших весов
(2) сохранение практически без изменений значений малых весов
(3) поддержание симметрии, сохраняющей небольшие различия между большими весами
В чем основное отличие ассоциативной памяти от адресной?
(1) в устройстве с ассоциативной памятью при потере части информации не приводит к потере всей информации
(2) в устройстве с ассоциативной памятью поиск нужной информации происходит гораздо быстрее
(3) в устройстве с ассоциативной памятью требуется гораздо меньшее количество ресурсов для хранения данной информации
В аналого-цифровом преобразователе весовые значения интерпретируют:
(1) напряжение
(2) сопротивление
(3) усилители