Cтраница 2
Ясно, что критерий (2.12) относится лишь к задачам безусловной оптимизации. В задаче условной оптимизации критерий (2.12) следует заменить на критерий е-стацио-нарности, соответствующий данной задаче. [16]
Метод наискорейшего спуска. [17] |
Решение задач математического программирования значительно более трудоемко по сравнению с задачами безусловной оптимизации. Ограничения типа равенств или неравенств требуют их учета на каждом шаге оптимизации. [18]
Исходную задачу условной оптимизации, содержащую функции ограничений, обычно сводят к задаче безусловной оптимизации, что позволяет использовать для ее решения хорошо отработанные методы поиска безусловного экстремума, рассмотренные в предыдущих параграфах. [19]
В данном параграфе излагаются методы, относящиеся к числу наиболее эффективных способов решения задач безусловной оптимизации. В его модификациях ( квазиньютоновских алгоритмах) матрица вторых производных аппроксимируется с помощью информации о значениях градиентов функции /, и эти модификации, таким образом, являются методами первого порядка. [20]
Задача выпуклого программирования при наличии хорошего начального приближения может быть сведена к последовательности задач безусловной оптимизации. При этом сложность задач от шага к шагу не возрастает, чем предложенный метод выгодно отличается от метода штрафных функции. [21]
Эта задача методом штрафных функций в принципе с любой степенью точности сводится к задаче безусловной оптимизации. [22]
Лагранжа для того и служит, чтобы от задачи условной оптимизации перейти к задаче безусловной оптимизации по расширенному ( за счет множителей Лагранжа) набору аргументов оптимизации. [23]
Две переменных, которые должны удовлетворять условию неотрицательности, полагаются равными нулю, решается задача безусловной оптимизации, и отбираются решения, лежащие в требуемой области; эта операция производится для всевозможных выборок из неотрицательных переменных по две. [24]
Так, экстремальные задачи с ограничениями ( условно-экстремальные задачи) методом штрафных функций сводятся к задачам безусловной оптимизации, то же самое относится и к методу регуляризации. Весьма существенный раздел этой главы посвящен стабилизирующим свойствам методов градиентного типа, позволяющим находить нормальное решение некорректных задач, не прибегая к процедуре регуляризации. [25]
Таким образом, задача оптимизации для целевой функции f ( x) с ограничениями (6.13) свелась к последовательности задач безусловной оптимизации для вспомогательной функции (6.14), решение которых может быть проведено с помощью методов спуска. [26]
То есть в суррогатной двойственности ограничения (2.2) заменяются одним ограничением ( в общем случае несколькими ограничениями, но общим числом меньшим, чем / и), в то время как в лагранжевой двойственности переходят к задаче безусловной оптимизации. [27]
В этом случае получим задачу безусловной оптимизации по двум переменным. [28]
Переход к осредненной постановке предполагает, что решение задачи повторяют многократно и в качестве значения задачи принимают среднее из значений функции / о ( х) полученных при каждом единичном решении. Естественно, что при решении задачи безусловной оптимизации такой переход не эффективен, так как получить среднее значение функции / 0 большее, чем ее максимальное значение, мы не можем. В задачах же условной оптимизации переход к усредненной постановке может быть эффективным, если для каждого единичного решения вместо требования о том, чтобы х принадлежало D, потребовать, чтобы ограничения задачи выдерживались в среднем. [29]
Прежде всего заметим, что поставленная нами задача может не иметь решения. Поэтому в дальнейшем при анализе задачи безусловной оптимизации будем предполагать, что существует пексг-торая точка х, на которой достигается решение задачи. [30]