Cтраница 3
Траектории спуска полученного таким образом алгоритма матричного случайного поиска имеют криволинейный характер, что создает ему преимущество при оптимизации сложных объектов. [31]
Библиотека передаточных функций. [32] |
На рис. 13 представлена блок-схема алгоритма локального случайного поиска с возвратом. Поиск основан на определении знака приращения целевой функции при случайном направлении пробного шага. Если направление пробного шага оказалось результативным ( знак приращения соответствует цели поиска: плюс при поиске максимума и минус при поиске минимума), то в этом же направлении делается рабочий шаг - переход к новой опорной точке. Если в результате пробного шага приращение целевой функции не соответствует поставленной задаче, то опорная точка сохраняется прежней и движение происходит в противоположном направлении. В случае успешного выполнения этого пробного шага направление поиска сохраняется. В противном случае необходим поиск нового случайного направления и коррекция шага по дополнительному критерию, учитывающему общее число изменений направлений поиска. [33]
Кроме регулярного поиска, существует множество алгоритмов случайного поиска, в основе которых лежит случайный перебор состояний системы из множества возможных состояний [ X ], обеспечивающих множество значений Y, на выходе системы. [34]
Использование идеи биологической эволюции для синтеза алгоритмов случайного поиска явилось первой бионической идеей, которая была реализована немедленно и в многочисленных модификациях. [35]
Непрямой алгоритм структурно-параметрической оптимизации представляет сочетание алгоритма случайного поиска, метода аппроксимации на основе линейного и неполного квадратичного полиномов с использованием алгоритма шаговой регрессии и стохастического аналога метода Ньютона на основе алгоритма шаговой регрессии. [36]
Это похоже на самообучение ] Значит, алгоритм случайного поиска способен к самообучению. [37]
Эта подпрограмма составлена на основе изложенного выше алгоритма случайного поиска с самообучением с учетом особенностей выбранного типа ЦВМ. [38]
Рассмотрим некоторые алгоритмы случайного поиска и прежде всего - алгоритм чисто случайного поиска, впервые примененный в гомеостате Эшби. Поиск основан на определении знака приращения функции качества при случайном направлении пробного шага. Если направление пробного шага оказалось результативным ( знак приращения соответствует цели поиска: плюс при поиске максимума или минус при поиске минимума), то в этом же направлении делается рабочий шаг, а из нового положения - пробный шаг в случайном направлении. Если в результате пробного шага приращение показателя качества не соответствует поставленной задаче, то рабочий шаг не производится, а система либо возвращается в исходное положение и делает пробный шаг в другом направлении, либо осуществляет пробный шаг в новом направлении из той точки, куда ее привел предыдущий ( неверный) пробный шаг. Эти варианты чисто случайного поиска называются соответственно случайным поиском с возвратом и случайным поиском с пересчетом. На рис. 1.9 показано движение системы при обоих вариантах поиска. [39]
Градиентный поиск (3.3.21) является частным случаем по крайней мере двух алгоритмов случайного поиска. [40]
Поскольку распределение каждого шага формируется с учетом результатов предыдущих шагов, алгоритм случайного поиска получается, по существу, обучающимся. [41]
В последнее время для мпогоэкстремальных задач оптимизации большой размерности широко используются алгоритмы случайного поиска. [42]
Поскольку распределение каждого шага формируется с учетом результатов предыдущих шагов, алгоритм случайного поиска получается, по существу, обучающимся. [43]
Известные в настоящее время алгоритмы случайного поиска - ненаправленный случайный поиск, алгоритм случайного поиска с возвратом, алгоритм наилучшей пробы, алгоритм покоординатного обучения - отно-сятся к классу локальных методов поиска. Глобальный поиск, решающий задачу отыскания глобального экстремума многоэкстремального объекта, является наиболее сложной поисковой процедурой. Большинство методов глобального поиска имеет статистический характер и связано с использованием случайных начальных условий в комбинации с локаль-ным поиском. Это было использовано при решении задачи оптимального распределения потоков в сложной сети магистральных газопроводов. [44]
Несложный анализ показывает, что рассмотренный коллектив оптимизирующих стохастических автоматов фактически реализует алгоритм случайного поиска с обучением. [45]