Cтраница 1
Прямоугольные импульсы, поступающие на множительные звенья системы с синхронным детектированием. [1] |
Градиентный алгоритм (9.6), (9.7) обычно реализуется в цифровой или аналогово-цифровой аппаратуре следующим образом [10], [13]: сначала делается поисковый ( пробный) шаг а по первой координате, а затем определяется приращение функции F, вызванное этим пробным шагом, и запоминается. [2]
Рассмотренный градиентный алгоритм адаптации имеет простую геометрическую интерпретацию. [3]
Это итеративный градиентный алгоритм обучения, который используется с целью минимизации среднеквадратичного отклонения текущего выхода и желаемого выхода многослойных нейронных сетей. [4]
В градиентном алгоритме на каждой итерации вычисляется направление антиградиента адаптивного рельефа и делается шаг заданной величины. В процессе обучения величина шага уменьшается. Большие значения шага на начальных итерациях обучения могут приводить к возможному возрастанию значения функции ошибки. В конце обучения величина шагов мала и значение функции ошибки уменьшается на каждой итерации. [5]
Как и любой градиентный алгоритм, метод обратного распространения застревает в локальных минимумах функции ошибки, т.к. градиент вблизи локального минимума стремится к нулю. Шаг в алгоритме обратного распространения выбирается неоптимально. Точный одномерный поиск дает более высокую скорость сходимости. [6]
Итерационные алгоритмы аналогичны градиентным алгоритмам параметрической оптимизации в том смысле, что на каждой итерации происходит движение в направлении экстремума целевой функции. Приращениям варьируемых переменных в данном случае соответствуют перестановки элементов ( парные или групповые) между узлами. Итерационные алгоритмы обеспечивают получение решений, улучшающих характеристики базового варианта. [7]
Итерационные алгоритмы аналогичны градиентным алгоритмам параметрической оптимизации, так как на каждой итерации происходит движение в направлении экстремума целевой функции. Приращениям варьируемых переменных в данном случае соответствуют перестановки элементов ( парные или групповые) между узлами. Итерационные алгоритмы обеспечивают получение решений, улучшающих характеристики базового варианта. Основным недостатком этих алгоритмов являются большие затраты машинного времени по сравнению с затратами в последовательных алгоритмах. [8]
Эталонная модель в беспоисковых градиентных алгоритмах АПО играет весьма существенную роль. Она формирует желаемый характер переходного процесса регулирования, устанавливая конкрет - ные значения различных показателей качества. Правильный выбор эталонной модели в значительной степени определяет результат оптимизации, конечные показатели качества оптимизируемой системы регулирования. [9]
В данной статье исследуется стохастический градиентный алгоритм для рекуррентного оценивания параметров нелинейного стохастического динамического объекта класса Гаммерштейна с разными видами помех, которые присутствуют на выходе объекта. Один вариант - это представление помехи в виде суперпозиции двух случайных последовательностей, одна из которых является мартингальной, а вторая - произвольная с конечной дисперсией. Второй вариант имеет вид скользящего среднего с конечной корреляционной функцией. Для обоих вариантов найдены необходимые и достаточные условия сходимости стохастического градиентного алгоритма. Оценена его скорость сходимости. С применением этих результатов в задаче слежение определяется адаптивная управления, которое является оптимальным в том смысле, что в асимптотике ошибка слежения за выходом объекта минимальна и оценки параметров сильно состоятельны. [10]
Исследуем, обеспечивает ли градиентный алгоритм идентификации (11.57) сходимость параметрической ошибки к нулю при t - оо. [11]
К первой группе относятся: градиентный алгоритм ( метод скорейшего спуска); методы с одномерной и двумерной оптимизацией целевой функции в направлении антиградиента; метод сопряженных градиентов; методы, учитывающие направление антиградиента на нескольких шагах алгоритма. [12]
В этом случае имеет место градиентный алгоритм оптимизации, характеризующийся широкой областью, но невысокой скоростью сходимости, причем по мере приближения к экстремальной точке скорость сходимости снижается. [13]
Алгоритм обратного распространения - это итеративный градиентный алгоритм, который используется с целью минимизации среднеквадратического отклонения текущего выхода многослойного персептрона и требуемого выхода. [14]
А обычно ведет к нестабильности стохастического градиентного алгоритма НК. [15]