Алгоритм - стохастическая оптимизация - Большая Энциклопедия Нефти и Газа, статья, страница 1
В технологии доминируют два типа людей: те, кто разбираются в том, чем не они управляют, и те, кто управляет тем, в чем они не разбираются. Законы Мерфи (еще...)

Алгоритм - стохастическая оптимизация

Cтраница 1


Алгоритмы стохастической оптимизации, за исключением градиентных методов, могут быть отнесены к так называемым поисковым методам детерминированной оптимизации.  [1]

Все алгоритмы однопараметрической стохастической оптимизации, описанные в § 3.2 и использующиеся в непрямых алгоритмах оптимизации, по своему замыслу могут быть также отнесены к непрямым алгоритмам оптимизации.  [2]

К алгоритмам стохастической оптимизации необходимо тем более прибегать при решении задач оптимизации, возникающих при физическом моделировании, при котором, как правило, экспериментальные данные подвержены различного рода искажениям. В этом случае, если исследователь ставит задачу оптимизации некоторого выбранного критерия качества ( математического описания которого нет, но есть возможность получать значения функции в результате натурных обычно трудоемких экспериментов) алгоритмы стохастической оптимизации используются поитерационно.  [3]

Рассматриваемые ниже алгоритмы однопараметрической многоэкстремальной стохастической оптимизации не требуют непрерывности f ( x) ( они годны для решения задачи оптимизации гладких функций), что существенно для практических задач, так как исследователь обычно не знает свойств целевой функции построенной математической модели; более того, ему не требуется получения точки экстремума с высокой степенью точности, потому что используемая им математическая модель не является абсолютно адекватной реальной конструкции.  [4]

Во всех алгоритмах стохастической оптимизации векторы х - , определяемые из приведенного выше рекуррентного соотношения, также являются случайными, и поэтому для них необходимо рассматривать сходимость в вероятностном смысле. Обычно в методах стохастической оптимизации пользуются тремя видами сходимости: сходимостью по вероятности, сходимостью в среднеквадратичном и сходимостью почти наверное, или с вероятностью единица.  [5]

Основными требованиями сходимости алгоритмов стохастической оптимизации являются ограниченность и замкнутость решения целевой функции, требования, накладываемые на асимптотическую скорость изменения шаговых множителей [ см. условия (3.4) ], а также ряд естественных предположений относительно ограниченности влияния случайных помех.  [6]

Прежде чем перейти к конкретным алгоритмам, напомним условия, при которых сходятся алгоритмы стохастической оптимизации. Строгий анализ сходимости и скорости сходимости алгоритмов представляет интерес фактически лишь для разработчиков методов оптимизации и выходит за рамки данной книги, поэтому в дальнейшем мы ограничимся лишь кратким их описанием.  [7]

Излагаются основы математических методов, используемых при планировании и обработке результатов эксперимента. Рассматриваются вопросы первичной обработки данных, методы прикладной статистики, методы экстремального планирования экспериментов, алгоритмы стохастической оптимизации.  [8]

К алгоритмам стохастической оптимизации необходимо тем более прибегать при решении задач оптимизации, возникающих при физическом моделировании, при котором, как правило, экспериментальные данные подвержены различного рода искажениям. В этом случае, если исследователь ставит задачу оптимизации некоторого выбранного критерия качества ( математического описания которого нет, но есть возможность получать значения функции в результате натурных обычно трудоемких экспериментов) алгоритмы стохастической оптимизации используются поитерационно.  [9]

В ряде случаев, когда не требуется найти экстремум с высокой степенью точности, данные алгоритмы могут конкурировать с алгоритмами нелинейного программирования. Кроме некоторых алгоритмов случайного поиска, б6 ль-шая часть алгоритмов детерминированной оптимизации малоэффективна при оптимизации в условиях помех. Большинство алгоритмов стохастической оптимизации обладает свойствами сглаживания, а потому может с успехом применяться для решения задач негладкой ( недифференцируемой) детерминированной оптимизации.  [10]

Получение коэффициентов функции регрессии производится с помощью МНК. Так как далее МНК будет использоваться неоднократно в алгоритмах стохастической оптимизации, приведем все вычисления, которые производятся данным методом.  [11]



Страницы:      1