Алгоритм - обратное распространение - ошибка - Большая Энциклопедия Нефти и Газа, статья, страница 2
"Имидж - ничто, жажда - все!" - оправдывался Братец Иванушка, нервно цокая копытцем. Законы Мерфи (еще...)

Алгоритм - обратное распространение - ошибка

Cтраница 2


Существуют различные алгоритмы обучения нейронных сетей, одним из наиболее популярных является алгоритм обратного распространения ошибки ( Backpropagation, BP), в современном виде разработанный в Массачусетском технологическом институте и являющийся по существу методом градиентного спуска.  [16]

17 Модель для Австралии. Целевая и описательные переменные. [17]

Использовалась классическая 10 - 3 - 1 сеть с прямой связью и алгоритмом обратного распространения ошибки. Сеть имела 10 входных узлов, 3 узла в скрытом слое и выходной слой, состоящий из одного узла.  [18]

В последующих разделах обсуждаются различные модули нечеткого управления, для обучения которых применяется алгоритм обратного распространения ошибки.  [19]

Поскольку обсуждаемая нами структура представляет собой многослойную сеть и, как уже отмечалось, алгоритм обратного распространения ошибки можно обобщить на любую сеть с прямым распространением сигнала, то ничто не препятствует тому, чтобы предлагаемый модуль нечеткого управления обучать также, как и обычную нейронную сеть.  [20]

Представленные зависимости (5.18), (5.21) и (5.22) определяют способ модификации весов и параметров на основе алгоритма обратного распространения ошибки.  [21]

Гибридная нейронная сеть формально по структуре идентична многослойной нейронной сети с обучением, например, по алгоритму обратного распространения ошибки, но скрытые слои в ней соответствуют этапам функционирования нечеткой системы.  [22]

Если говорить об обучении сети ( шаг 2), то наиболее часто встречается развитие топологии однонаправленных сетей с применением алгоритма обратного распространения ошибки с целью локального обучения.  [23]

В большинстве имеющихся нейронно-сетевых пакетов реализованы методы пакетной обработки, импульса, изменения величины шага, и даже более совершенные варианты алгоритмов типа алгоритма обратного распространения ошибки и квази-ньютоновские методы. В литературе описано много других алгоритмов, реализующих иные подходы к задаче оптимизации. Так, в основанном на идеях статистической физики методе замораживания стабилизация алгоритма осуществляется за счет понижения температурного параметра. Наконец, в последнее время пользуются успехом так называемые генетические алгоритмы, в которых набор весов рассматривается как индивид, подверженный мутациям и скрещиванию, а в качестве показателя его качества берется критерий ошибки. По мере того, как нарождаются новые поколения, все более вероятным становится появление оптимального индивида.  [24]

25 Первый опыт с нейроконтроллером, аппроксимирующим коэффициенты ПИД-регулятора.| Применение ГА для настройки параметров нейроконтроллера. [25]

Алгоритм обратного распространения ошибки также подошел бы для этой цели, но он требует информации об ошибке на эффекторном слое ИНС. Для получения такой информации в схеме обучения необходимо предусмотреть обращенный нейроэмулятор объекта, роль которого сводится к преобразованию ошибки на выходе объекта в выходной сигнал на выходе нейроконтроллера, что существенно усложняет процедуру тренировки.  [26]

Уидроу-Хоффа правило обучения - правило обучения сети с одним скрытым слоем. Оно является предшественником алгоритма обратного распространения ошибки и на него иногда ссылаются как на дельта-правило. Как известно, персептрон ограничивается бинарными выходами.  [27]

Этим термином также обозначается определенный класс нейронных сетей. Поскольку для их обучения до настоящего времени вполне успешно использовался алгоритм обратного распространения ошибки, то нет никаких препятствий к тому, чтобы применить его для любой сети этого класса.  [28]

Как уже отмечалось, задача сети, состоящей из слоев L1 - L3, заключается в определении степени соответствия входных данных каждому правилу. Для наилучшей адаптации этой сети к поставленной задаче будем применять алгоритм обратного распространения ошибки, под которой понимается разность между заданным ( эталонным) значением выходной величины и фактическим значением на выходе сети.  [29]

Его задача заключается в объединении соответствующих посылок с одним общим выводом. Поскольку чаще всего нечеткая операция OR реализуется недифференцируемой функцией максимум, то использование алгоритма обратного распространения ошибки, включающего вычисление производной, может оказаться затруднительным. Тем не менее приведенные модификации применяются повсеместно и практически используются в большинстве модулей нечеткого управления, которые будут обсуждаться в следующих подразделах.  [30]



Страницы:      1    2    3    4