Решение задач оптимизации - Контрольная работа

бесплатно 0
4.5 48
Сущность операции безусловной оптимизации функции нескольких переменных, способы решения этой задачи методами прямого поиска. Способы использования градиентных методов в этой области. Сравнительный анализ двух алгоритмов по скорости и точности их работы.

Скачать работу Скачать уникальную работу

Чтобы скачать работу, Вы должны пройти проверку:


Аннотация к работе
ФУНКЦИЯ НЕСКОЛЬКИХ ПЕРЕМЕННЫХ, БЕЗУСЛОВНАЯ ОПТИМИЗАЦИЯ, УСЛОВНАЯ ОПТИМИЗАЦИЯ, МЕТОДЫ ПРЯМОГО ПОИСКА, ГРАДИЕНТНЫЕ МЕТОДЫ,УСЛОВНЫЙ ЭКСТРЕМУМ. Цель работы - отработка навыков решения задач безусловной оптимизации функции нескольких переменных методами прямого поиска и отработка навыков решения задач безусловной оптимизации градиентными методами.С развитием производственных отношений в стране, перед наукой встает серьезная и очень важная проблема оптимизации рыночных отношений, внедрения компьютерной обработки данных в экономику. Значительное число нерешенных задач стоит перед человечеством накануне второго тысячелетия. Во времена, когда борьба уже идет не за минуты и секунды, а за микросекунды, не за метры и сантиметры, а за миллиметры и доли миллиметров, когда возможность учесть, а главное исследовать влияние косвенных факторов на жизненно важные области деятельности человека, становится не второстепенной, оптимизационные методы минимизации и максимизации приобретают все большую ценность и востребованность. Развитие численных линейных методов решения задач линейного программирования очень важно в нынешнее время, поскольку сложность решаемых задач взваливает всю работу на современные ЭВМ, работающие с «единичками» и «ноликами», и «не подозревающих» о существовании производных, первообразных, интегралов и пр. Применение оптимизационных задач имеет особый успех при проектировании и анализе больших технических систем.Вершина, давшая наибольшее значение целевой функции отображается относительно двух других вершин и таким образом становится новой базовой точкой, вокруг которой строится новый образец и снова выполняется поиск. Работа алгоритма начинается с построения регулярного симплекса в пространстве независимых переменных и оценивания значений целевых функции в каждой точке. Затем определяется вершина с максимальным значением целевой функции и проектируется через центр тяжести оставшихся вершин в новую точку. Некоторые замечания: Если вершина с максимальным значением целевой функции построена на предыдущем шаге, то отбрасывается вершина со следующим по величине значением целевой функции. Если некоторая вершина симплекса не исключается на протяжении нескольких итераций, то необходимо уменьшить размер симплекса и построить новый симплекс, выбрав в качестве базовой точку с минимальным значением целевой функции.Поиск по образцу заключается в реализации единственного шага из полученной базовой точки вдоль прямой, соединяющей эту точку с предыдущей базовой точкой. Как только движение по образцу не приводит к уменьшению целевой функции, точка хр(к 1) фиксируется в качестве временной базовой точки и выполняется исследующий поиск. Если же исследующий поиск не дал результата, необходимо вернуться в предыдущую точку и провести исследующий поиск. Был ли исследующий поиск удачным (найдена ли точка с меньшим значением целевой функции)? Т.к. поиск был удачным, переходим к поиску по образцу: хр(2) = 2*х(1) - х(0);хр(2) = [-5;-6]T;f(xp(2)) =290<412;метод Коши обеспечивает высокую точность при очень малом количестве итераций, т.к. использует информацию о производных. Этот метод использует информацию о вторых производных целевой функции. Эта информация появляется при квадратичной аппроксимации целевой функции, когда при ее разложении в ряд Тейлора учитываются члены ряда до второго порядка включительно. В случае, когда матрица Гессе положительно определена, то направление поиска по методу Ньютона оказывается направлением спуска. В основе метода лежит организация поиска вдоль сопряженных направлений, причем для получения сопряженных направлений используется квадратичная аппроксимация целевой функции и значения компонент градиента.Вывод: метод сопряженных градиентов вобрал в себя все лучшее от методов Коши и Ньютона, т.е. одинаково хорошо доставляет минимум функции на значительном удалении от х* и вблизи нее. Данный метод обладает положительными чертами метода Ньютона, однако, использует информацию только о первых производных. В этом методе приближение к очередной точке в пространстве оптимизируемых параметров задается формулой x(k 1) = x(k) a(k)?s(k) . Нахождение минимума целевой функции Квазиньютоновским методом: Описание алгоритма: Данный метод обладает положительными чертами метода Ньютона, однако, использует информацию только о первых производных. В этом методе приближение к очередной точке в пространстве оптимизируемых параметров задается формулой: Направление поиска определяется выражением: , где - матрица порядка (метрика).оптимизация функция градиентныйРассмотренные группы методов безусловной оптимизации можно сравнить по скорости и точности их работы. Методы прямого поиска, хотя и не требуют большей, чем значения целевой функции, информации о поведении последней, однако, производят большое количество итераций при доставлении решения с высокой точностью, так как поиск производится ими «вслепую».

Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность
своей работы


Новые загруженные работы

Дисциплины научных работ





Хотите, перезвоним вам?