Решение задачи многомерной оптимизации при помощи компьютера - Курсовая работа

бесплатно 0
4.5 114
Современные математические модели и методы дискретной оптимизации. Решение прикладных задач при помощи методов: покоординатного, градиентного и наискорейшего спуска, сопряженных градиентов. Анализ средств программирования, описание программного продукта.

Скачать работу Скачать уникальную работу

Чтобы скачать работу, Вы должны пройти проверку:


Аннотация к работе
Каждый человек время от времени оказывается в ситуации, когда достижение некоторого результата может быть осуществлено не единственным способом. На практике оказывается, что в большинстве случаев понятие «наилучший» может быть выражено количественными критериями - минимум затрат, минимум времени, максимум прибыли и т.д. Задачи на отыскание оптимального решения называются задачами оптимизации. Применяемые в процессе оптимизации методы получили название методов оптимизации. Математическая модель представляет собой стройную и глубокую совокупность знаний о математических моделях со своими проблемами, с собственными путями развития, обусловленными внутренними и внешними причинами и задачами.На протяжении всей своей эволюции человек, совершая те или иные деяния, стремился вести себя таким образом, чтобы результат, достигаемый как следствие некоторого поступка, оказался в определенном смысле наилучшим. Строя жилище, он искал такую его геометрию, которая при наименьшем расходе топлива, обеспечивала приемлемо комфортные условия существования. Наилучшие в определенном смысле решения задач принято называть оптимальными. При постановке и решении задач оптимизации возникают два вопроса: что и как оптимизировать? Ответ на первый вопрос получается как результат глубокого изучения проблемы, которую предстоит решить.Пусть задана функция n действительных переменных n f(x1, x2, x3, ..., xn) = f(x), определенная на множестве X ? R , где x - вектор-столбец, обозначающий точку в n-мерном евклидовом пространстве с координатами x1, x2, x3, ..., xn .Все методы спуска решения задачи безусловной минимизации различаются либо выбором направления спуска, либо способом движения вдоль направления спуска. Это позволяет написать общую схему методов спуска. Последовательные приближения x1, x2, … строятся по следующей схеме: в точке xk выбирают направление спуска - Sk; Направление Sk выбирают таким образом, чтобы обеспечить неравенство f(xk 1)<f(xk) по крайней мере для малых значений величины hk. На вопрос, какому из способов выбора направления спуска следует отдать предпочтение при решении конкретной задачи, однозначного ответа нет.Здесь через М обозначена точка n-мерного пространства с координатами x1, x2, . . Изменяя эту переменную, будем двигаться от начальной точки x1=x10 в сторону убывания функции, пока не дойдем до ее минимума при x1=x11, после которого она начинает возрастать. ,xn=xn0 и рассмотрим функцию f как функцию одной переменной x2: f(x11, x22, x30 . Изменяя x2 , будем опять двигаться от начального значения x2=x20 в сторону убывания функции, пока не дойдем до минимума при x2=x21 .Точку с координатами {x11, x21, x30 . , которой соответствует монотонная последовательность значений функции f(M0) >= f (M1)>= f(M2) >= Обрывая ее на некотором шаге k можно приближенно принять значение функции f(Mk) за ее наименьшее значение в рассматриваемой области.Рассмотрим функцию f, считая для определенности, что она зависит от трех переменных x,y,z. Вычислим ее частные производные дf/дх, дf/ду, дf/дz и образуем с их помощью вектор, который называют градиентом функции: grad f(x, у, z) = дf (х, у,z) /дх*i дf( x, у, z)/ду*j дf(x, y,z)/дг*k. Противоположное ему направление, которое часто называют антиградиентным, представляет собой направление наиболее быстрого убывания функции. Модуль градиента grad (х, у,z)| =O (дf/дх (х, у,z))2 (дf/ду( x, у, z))2 (дf/дг(x, y,z))2. определяет скорость возрастания и убывания функции в направлении градиента и антиградиента. Основная его идея состоит в том, чтобы двигаться к минимуму в направлении наиболее быстрого убывания функции, которое определяется антиградиентом.При использовании метода наискорейшего спуска на каждой итерации величина шага ак выбирается из условия минимума функции f(x) в направлении спуска, т. е. f(x[k]-akf’(x[k])) = f(x[k] - af"(x[k])). С математической точки зрения на каждой итерации необходимо решать задачу одномерной минимизации по а функции j(a) = f(x[k] - af"(x[k])) . Определяется величина шага ak, путем одномерной минимизации по а функции j(a) = f(x[k] - af"(x[k])). В рассматриваемом методе направление движения из точки х[k] касается линии уровня в точке x[k 1] (Рис. Действительно, шаг ak выбирается путем минимизации по а функции ?(a) = f(x[k] - af"(x[k])).Рассмотрим теперь совершенно иной подход к решению систем линейных уравнений, при котором к искомому точному решению x* системы Ax=b строится последовательность приближенных решений x0, x1, ..., xk,... При этом процесс вычислений организуется таким способом, что каждое очередное приближение дает оценку точного решения со все уменьшающейся погрешностью, и при продолжении расчетов оценка точного решения может быть получена с любой требуемой точностью.

Вы можете ЗАГРУЗИТЬ и ПОВЫСИТЬ уникальность
своей работы


Новые загруженные работы

Дисциплины научных работ





Хотите, перезвоним вам?