Cтраница 4
Зэ Существуют разновидности алгоритмов обучения, которые не требуют предварительного обучения сети на обучающей выборке, а обучаются прямо в процессе решения реальной задачи. Таковы, например, самоорганизующиеся сети ( карты) Кохонена. [46]
В начале работы алгоритма обучения с сокращением число нейронов в скрытых слоях сети заведомо избыточно. Затем из нейронной сети постепенно удаляются синапсы и нейроны. Существуют два подхода к реализации алгоритмов сокращения. [47]
Обучение сети как задача оптимизации. [48] |
Базовой идеей всех алгоритмов обучения является учет локального градиента в пространстве конфигураций для выбора траектории быстрейшего спуска по функции ошибки. Функция ошибки, однако, может иметь множество локальных минимумов, представляющих суб-оптимальные решения. Поэтому градиентные методы обычно дополняются элементами стохастической оптимизации, чтобы предотвратить застревание конфигурации сети в таких локальных минимумах. [49]
В соответствии с алгоритмом обучения ДАу отличны от 0 только для тех у, к-рыо равны J, Поэтому Да для данного многогранника по Модулю равна числу 4 -элементов, возбужденных при попадании точки в этот многогранник. [50]
Дополнительная информация об алгоритмах обучения приведена в приложении. [51]
Блок-схема персептрона, соответствующая алгоритму обучения. [52] |
Кибернетическая система, реализующая алгоритм обучения (2.17), соответствует персептрону. [53]
В настоящее время предложены алгоритмы обучения, более привлекательные в смысле биологической аналогии. Примером является алгоритм рециркуляции для сетей, в которых скрытые блоки соединены с входными. При обучении веса связей перестраиваются таким образом, чтобы минимизировать частоту смены активности каждого блока. Таким образом, обученная сеть имеет стабильные состояния и может функционировать в режиме ассоциативной памяти. [54]
С другой стороны, алгоритм обучения должен иметь возможность переучиваться, если ситуация изменилась или обучение было неточно. [55]