Градиентный алгоритм - Большая Энциклопедия Нефти и Газа, статья, страница 1
Женщина верит, что дважды два будет пять, если как следует поплакать и устроить скандал. Законы Мерфи (еще...)

Градиентный алгоритм

Cтраница 1


1 Прямоугольные импульсы, поступающие на множительные звенья системы с синхронным детектированием. [1]

Градиентный алгоритм (9.6), (9.7) обычно реализуется в цифровой или аналогово-цифровой аппаратуре следующим образом [10], [13]: сначала делается поисковый ( пробный) шаг а по первой координате, а затем определяется приращение функции F, вызванное этим пробным шагом, и запоминается.  [2]

Рассмотренный градиентный алгоритм адаптации имеет простую геометрическую интерпретацию.  [3]

Это итеративный градиентный алгоритм обучения, который используется с целью минимизации среднеквадратичного отклонения текущего выхода и желаемого выхода многослойных нейронных сетей.  [4]

В градиентном алгоритме на каждой итерации вычисляется направление антиградиента адаптивного рельефа и делается шаг заданной величины. В процессе обучения величина шага уменьшается. Большие значения шага на начальных итерациях обучения могут приводить к возможному возрастанию значения функции ошибки. В конце обучения величина шагов мала и значение функции ошибки уменьшается на каждой итерации.  [5]

Как и любой градиентный алгоритм, метод обратного распространения застревает в локальных минимумах функции ошибки, т.к. градиент вблизи локального минимума стремится к нулю. Шаг в алгоритме обратного распространения выбирается неоптимально. Точный одномерный поиск дает более высокую скорость сходимости.  [6]

Итерационные алгоритмы аналогичны градиентным алгоритмам параметрической оптимизации в том смысле, что на каждой итерации происходит движение в направлении экстремума целевой функции. Приращениям варьируемых переменных в данном случае соответствуют перестановки элементов ( парные или групповые) между узлами. Итерационные алгоритмы обеспечивают получение решений, улучшающих характеристики базового варианта.  [7]

Итерационные алгоритмы аналогичны градиентным алгоритмам параметрической оптимизации, так как на каждой итерации происходит движение в направлении экстремума целевой функции. Приращениям варьируемых переменных в данном случае соответствуют перестановки элементов ( парные или групповые) между узлами. Итерационные алгоритмы обеспечивают получение решений, улучшающих характеристики базового варианта. Основным недостатком этих алгоритмов являются большие затраты машинного времени по сравнению с затратами в последовательных алгоритмах.  [8]

Эталонная модель в беспоисковых градиентных алгоритмах АПО играет весьма существенную роль. Она формирует желаемый характер переходного процесса регулирования, устанавливая конкрет - ные значения различных показателей качества. Правильный выбор эталонной модели в значительной степени определяет результат оптимизации, конечные показатели качества оптимизируемой системы регулирования.  [9]

В данной статье исследуется стохастический градиентный алгоритм для рекуррентного оценивания параметров нелинейного стохастического динамического объекта класса Гаммерштейна с разными видами помех, которые присутствуют на выходе объекта. Один вариант - это представление помехи в виде суперпозиции двух случайных последовательностей, одна из которых является мартингальной, а вторая - произвольная с конечной дисперсией. Второй вариант имеет вид скользящего среднего с конечной корреляционной функцией. Для обоих вариантов найдены необходимые и достаточные условия сходимости стохастического градиентного алгоритма. Оценена его скорость сходимости. С применением этих результатов в задаче слежение определяется адаптивная управления, которое является оптимальным в том смысле, что в асимптотике ошибка слежения за выходом объекта минимальна и оценки параметров сильно состоятельны.  [10]

Исследуем, обеспечивает ли градиентный алгоритм идентификации (11.57) сходимость параметрической ошибки к нулю при t - оо.  [11]

К первой группе относятся: градиентный алгоритм ( метод скорейшего спуска); методы с одномерной и двумерной оптимизацией целевой функции в направлении антиградиента; метод сопряженных градиентов; методы, учитывающие направление антиградиента на нескольких шагах алгоритма.  [12]

В этом случае имеет место градиентный алгоритм оптимизации, характеризующийся широкой областью, но невысокой скоростью сходимости, причем по мере приближения к экстремальной точке скорость сходимости снижается.  [13]

Алгоритм обратного распространения - это итеративный градиентный алгоритм, который используется с целью минимизации среднеквадратического отклонения текущего выхода многослойного персептрона и требуемого выхода.  [14]

А обычно ведет к нестабильности стохастического градиентного алгоритма НК.  [15]



Страницы:      1    2    3    4