Алгоритм - обучение - Большая Энциклопедия Нефти и Газа, статья, страница 3
В истоке каждой ошибки, за которую вы ругаете компьютер, вы найдете, по меньшей мере, две человеческие ошибки, включая саму ругань. Законы Мерфи (еще...)

Алгоритм - обучение

Cтраница 3


Рассмотренные выше алгоритмы обучения и самообучения используются совместно при функционировании модели семантической сети. Сообщения человека-диспетчера, поступающие через диалоговую подсистему, могут быть неявно адресованы, а следовательно, и отражены в разных уровнях семантической сети.  [31]

Позволяет использовать любые собственные алгоритмы обучения в виде внешних программных модулей.  [32]

Каждый из алгоритмов обучения распознаванию образов, описанный в гл.  [33]

Частным случаем алгоритмов обучения с учителем является задача формирования единственного обобщенного понятия на основе предъявленного множества примеров и контрпримеров данного понятия.  [34]

Важным классом алгоритмов обучения, обогативших нейронные и нечеткие технологии, считаются эволюционные алгоритмы. Они оперируют популяциями хромосом, оцениваемых функциями приспособленности, и используют эволюционную и генетическую обусловленность изменения последовательности битов или чисел. Таким образом эффективно, исследуется пространство возможных решений. Оптимальное решение ищется в серии последовательных приближений аргументов с лучшими значениями функций приспособленности, генерируемых в результате мутации и скрещивания хромосом.  [35]

36 Популяция нейросетей. [36]

Особенности реализации алгоритма обучения на основе ГА сводятся к следующему. Нз-за нелинейности функции активации ( в работе используется сиг-моидальная функция) поверхность многомерной функции Е является сложной, содержащей в общем случае глобальный и множество локальных минимумов. Основная задача обучения НС фактически сводится к нахождению глобального минимума многомерной функции ошибки.  [37]

38 Адекватность модели по результатам расчета с использованием пакета Neuropro.| Рассчитанная значимость входов с использованием пакета Neuropro. [38]

Критерием останова алгоритма обучения является минимум средней ошибки для обучающей выборки.  [39]

Важное обобщение алгоритма обучения персептрона, называемое дельта-правилом, переносит этот метод на непрерывные входы и выходы.  [40]

41 Модель нейрона. [41]

Разработан ряд алгоритмов обучения многослойных сетей - настройки весов и смещений из условия минимизации функционала, оценивающего сумму квадратов отклонений выхода сети от выхода моделируемого объекта.  [42]

Для однослойного перцептрона алгоритм обучения очевиден.  [43]

Второе направление разрабатывает алгоритмы обучения метины распознаванию заранее нефиксированного набора образов. Обучение ведется человеком-оператором ( учителем), причем характерно то, что оператор сам умеет различать образы и классифицировать их, но не может сформулировать точного правила, которым он сам при этом руководствуется, следовательно, не может и построить алгоритма для распознавания образа вычислительной машиной. Имеется в вгду следующий эксперимент. Оператор показывает машине несколько конкретных экземпляров-объектов тех образов, которые машина должна научиться распознавать, сообщая ей условным кодом, к какому образу каждый экземпляр относится. Машина обладает одним и тем же алгоритмом обучения независимо от того, какое множество образов выбрано оператором. Благодаря заложенному в машину алгоритму обучения она, наблюдая поступающие на ее вход объекты, вырабатывет некоторые критерии, позволяющие ей в дальнейшем узнавать любые новые объекты, относящиеся к тем же образам.  [44]

Реализуемые в нейропакетах алгоритмы обучения нейронных сетей можно разделить на три группы: градиентные, стохастические, генетические. Градиентные алгоритмы ( первого и второго порядков) основаны на вычислении частных производных функции ошибки по параметрам сети. В стохастических алгоритмах поиск минимума функции ошибки ведется случайным образом. Генетические алгоритмы комбинируют свойства стохастических и градиентных алгоритмов: на основе аналога генетического наследования реализуют перебор вариантов, а на основе аналога естественного отбора - градиентный спуск.  [45]



Страницы:      1    2    3    4