Cтраница 1
Непрямой алгоритм структурно-параметрической оптимизации представляет сочетание алгоритма случайного поиска, метода аппроксимации на основе линейного и неполного квадратичного полиномов с использованием алгоритма шаговой регрессии и стохастического аналога метода Ньютона на основе алгоритма шаговой регрессии. [1]
Достоинством непрямых алгоритмов является высокая надежность, помехоустойчивость, простота настройки параметров. Фактически пользователю достаточно задать границы области по независимым переменным [ для решения задачи (3.2) ], начальную точку поиска [ для решения задач (3.1), (3.3) ], размерность вектора независимых переменных и резервное количество вычислений целевой функции. [2]
Основные различия между непрямыми алгоритмами стохастической оптимизации связаны с выбором вида аппроксимирующей функции и способами сочетания рабочих и пробных шагов, вводимых в процессе поиска. [3]
Ее решение р ( х) может быть получено с помощью прямого или непрямого алгоритма МГЭ, развитого в данной главе. Напряжения в любой точке определяются через др / дх, т.е. компоненты vt ( x), которые также находятся посредством стандартных операций МГЭ. [4]
Однако, вследствие того что априорная информация относительно условий проведения поиска при решении практических задач оптимизации в усло-виях помех почти всегда незначительна, появляется необходимость построения таких непрямых алгоритмов стохастической оптимизации, которые попутно с процессом поиска получали бы информацию относительно свойств оптимизируемой функции на основании всей ранее полученной информации. При оптимизации сложных систем высокой эффективности следует ожидать именно от подобного рода трудоемких алгоритмов. [5]
Основная ценность заключается в автоматическом построении достаточно адекватной аппроксимирующей функции ( регрессии) без предварительного модельного ее задания, которое требуется в регрессионном анализе. Ранее подчеркивалось, что например все алгоритмы нелинейного программирования, которые используют производные, а также непрямые алгоритмы стохастической оптимизации основаны на линейном или квадратичном представлении модели целевой функции. В МГУА удается исключить это ограничение и тем самым построить более точную аппроксимирующую функцию. [6]