Cтраница 1
Одномерная задача оптимизации в общем случав формулируется следующим образом. Найти наименьшее ( или наибольшее) значение целевой функции у / ( х, заданной на множестве а, и определить значение проектного параметра х & а, при котором целевая функция принимает экстремальное значение. Существование решения поставленной задачи вытекает из следующей теоремы. [1]
Одномерная задача оптимизации в общем случае формулируется следующим образом. [2]
В настоящей работе для решения одномерной задачи оптимизации воспользуемся предложенным в [1] подходом, в основе которого лежит использование свойств скользящих режимов. Суть подхода заключается в следующем. Выход оптимизируемого объекта сравнивается с подобранным специальным образом задающим воздействием, которое является монотонно убывающей функцией времени. Входное воздействие объекта формируется на основе сигнала рассогласования между выходом объекта и задающим воздействием и должно свести это рассогласование к нулю. Специфика построения такой следящей системы заключается в том, что объект управления является нелинейным статическим звеном, локальный коэффициент усиления которого неизвестен и меняется как по величине, так и по знаку. [3]
Представляет интерес сравнительный анализ решений одномерной задачи оптимизации в различных постановках. [4]
Первые три параграфа данной главы посвящены одномерным задачам оптимизации, в двух последних рассматриваются многомерные задачи. Выделение и подробный разбор одномерных задач имеет определенный смысл. Эти задачи наиболее просты, на них легче понять постановку вопроса, методы решения и возникающие трудности. В ряде случаев, хотя и очень редко, одномерные задачи имеют самостоятельный практический интерес. Однако самое главное заключается в том, что алгоритмы решения многомерных задач оптимизации часто сводятся к последовательному многократному решению одномерных задач и не могут быть поняты без умения решать такие задачи. [5]
Подставив (5.92) в (5.91) и используя ограничения, получим одномерную задачу оптимизации. [6]
Итак, обсудим математические вопросы, связанные со следующей постановкой одномерной задачи оптимизации: определяя значения непрерывной функции / ( х) в некотором конечном числе точек отрезка [ а, Ь ], нужно приближенно найти ее наименьшее ( или наибольшее) значение на данном отрезке. [7]
Задачу решают, понижая размерность методом последовательного приближения и последующего расчета одномерной задачи оптимизации КС согласно логико-комбинаторному методу. [8]
Метод покоординатного спуска не требует вычислений производных функции качества и на каждом шаге предполагает решение одномерной задачи оптимизации. [9]
В отличие от мелкошаговых разработан ряд крупношаговых методов, в которых значения шага ( коэффициент Кь) выбирается путем решения одномерной задачи оптимизации, как указывалось выше. Движение по ДН на малый шаг не выводит за пределы допустимой области, движение по ПДН одновременно улучшает зачение Я0, а движение по НПДН обеспечивает максимальное улучшение значения Я0 без нарушения ограничений. [10]
В отличие от мелкошаговых разработан ряд крупношаговых методов, в которых значения шага ( коэффициент Хь) выбирается путем решения одномерной задачи оптимизации, как указывалось выше. Движение по ДН на малый шаг не выводит за пределы допустимой области, движение по ПДН одновременно улучшает зачение Но, а движение по НПДН обеспечивает максимальное улучшение значения Я0 без нарушения ограничений. [11]
И хотя окончательное решение задачи оптимизации не получено, соотношение (4.133) сводит решение ( я - 1) - мерной задачи к одномерной: подобрать всего лишь одну концентрацию, после первого реактора С1 с тем, чтобы из цепочки соотношений (4.133) получить Сп Ск. Конечно, решение одномерной задачи оптимизации много легче многомерной. [12]
И хотя окончательное решение задачи оптимизации не получено, соотношение (2.174) сводит решение ( п - 1) - мерной задачи к одномерной: подбирают концентрацию только после первого реактора С так, чтобы из цепочки соотношений (2.174) получить С Ск. Конечно, решение одномерной задачи оптимизации гораздо легче, чем многомерной. [13]
Метод Ньютона даст точное решение задачи. Второе. [14] |
В § 2 мы рассмотрели одномерные задачи оптимизации, в которых целевая функция зависит лишь от одного аргумента. Однако в большинстве реальных задач оптимизации, представляющих практический интерес, целевая функция зависит от многих проектных параметров. [15]