Cтраница 3
Рассмотренные выше алгоритмы обучения и самообучения используются совместно при функционировании модели семантической сети. Сообщения человека-диспетчера, поступающие через диалоговую подсистему, могут быть неявно адресованы, а следовательно, и отражены в разных уровнях семантической сети. [31]
Позволяет использовать любые собственные алгоритмы обучения в виде внешних программных модулей. [32]
Каждый из алгоритмов обучения распознаванию образов, описанный в гл. [33]
Частным случаем алгоритмов обучения с учителем является задача формирования единственного обобщенного понятия на основе предъявленного множества примеров и контрпримеров данного понятия. [34]
Важным классом алгоритмов обучения, обогативших нейронные и нечеткие технологии, считаются эволюционные алгоритмы. Они оперируют популяциями хромосом, оцениваемых функциями приспособленности, и используют эволюционную и генетическую обусловленность изменения последовательности битов или чисел. Таким образом эффективно, исследуется пространство возможных решений. Оптимальное решение ищется в серии последовательных приближений аргументов с лучшими значениями функций приспособленности, генерируемых в результате мутации и скрещивания хромосом. [35]
Популяция нейросетей. [36] |
Особенности реализации алгоритма обучения на основе ГА сводятся к следующему. Нз-за нелинейности функции активации ( в работе используется сиг-моидальная функция) поверхность многомерной функции Е является сложной, содержащей в общем случае глобальный и множество локальных минимумов. Основная задача обучения НС фактически сводится к нахождению глобального минимума многомерной функции ошибки. [37]
Адекватность модели по результатам расчета с использованием пакета Neuropro.| Рассчитанная значимость входов с использованием пакета Neuropro. [38] |
Критерием останова алгоритма обучения является минимум средней ошибки для обучающей выборки. [39]
Важное обобщение алгоритма обучения персептрона, называемое дельта-правилом, переносит этот метод на непрерывные входы и выходы. [40]
Модель нейрона. [41] |
Разработан ряд алгоритмов обучения многослойных сетей - настройки весов и смещений из условия минимизации функционала, оценивающего сумму квадратов отклонений выхода сети от выхода моделируемого объекта. [42]
Для однослойного перцептрона алгоритм обучения очевиден. [43]
Второе направление разрабатывает алгоритмы обучения метины распознаванию заранее нефиксированного набора образов. Обучение ведется человеком-оператором ( учителем), причем характерно то, что оператор сам умеет различать образы и классифицировать их, но не может сформулировать точного правила, которым он сам при этом руководствуется, следовательно, не может и построить алгоритма для распознавания образа вычислительной машиной. Имеется в вгду следующий эксперимент. Оператор показывает машине несколько конкретных экземпляров-объектов тех образов, которые машина должна научиться распознавать, сообщая ей условным кодом, к какому образу каждый экземпляр относится. Машина обладает одним и тем же алгоритмом обучения независимо от того, какое множество образов выбрано оператором. Благодаря заложенному в машину алгоритму обучения она, наблюдая поступающие на ее вход объекты, вырабатывет некоторые критерии, позволяющие ей в дальнейшем узнавать любые новые объекты, относящиеся к тем же образам. [44]
Реализуемые в нейропакетах алгоритмы обучения нейронных сетей можно разделить на три группы: градиентные, стохастические, генетические. Градиентные алгоритмы ( первого и второго порядков) основаны на вычислении частных производных функции ошибки по параметрам сети. В стохастических алгоритмах поиск минимума функции ошибки ведется случайным образом. Генетические алгоритмы комбинируют свойства стохастических и градиентных алгоритмов: на основе аналога генетического наследования реализуют перебор вариантов, а на основе аналога естественного отбора - градиентный спуск. [45]