2.3.2 Метод градиента
В этом методе используется градиент целевой функции, шаги совершаются по направлению наибыстрейшего уменьшения целевой функции, что, естественно, ускоряет процесс поиска оптимума.
Идея метода заключается в том, что находятся значения частных производных по всем независимым переменным ,= 1, n , которые определяют направление градиента в рассматриваемой точке
=, и осуществляется шаг в направлении обратном направлению градиента, т.е. в направлении наибыстрейшего убывания целевой функции (если ищется минимум). Итерационный процесс имеет вид
где параметр задает длину шага.
Алгоритм метода градиента при непосредственном его применении включает в себя следующие этапы.
1) Задается начальное значение вектора независимых переменных (), определяющего точку, из которой начинается движение к минимуму.
2) Рассчитывается значение целевой функции в начальной точке ().
3) Определяется направление градиента в начальной точке (рис. 2.10).
Рисунок 2.10 –Характер движения к оптимуму в методе градиента
4) Делается шаг в направлении антиградиента при поиске минимума, в результате чего попадают в точку .
5) Процесс поиска продолжается, повторяя все этапы с п. 2, т.е. вычисляется)определяется направление градиента в точкеu1, делается шаг и т.д.
Важной задачей в этом методе является выбор шага. Если размер шага слишком мал, то движение к оптимуму будет долгим из-за необходимости расчета целевой функции и ее частных производных в очень многих точках. Если же шаг будет выбран слишком большим, то в районе оптимума может возникнуть "рыскание", которое либо затухает слишком медленно, либо совсем не затухает. На практике сначала шаг выбирается произвольно. Если окажется, что направление градиента в точке u1 существенно отличается от направления в точкеu2, то шаг уменьшают, если отличие векторов по направлению мало, то шаг увеличивают. Изменение направления градиента можно определять по углу поворота градиента рассчитываемого на каждом шаге по соответствующим выражениям.
Итерационный процесс поиска обычно прекращается, если выполняются неравенства ,∂,
, где– заданные числа. Недостатком градиентного метода является то, что при его использовании можно обнаружить только локальный минимум целевой функции. Для нахождения других локальных минимумов поиск необходимо производить из других начальных точек.
- Содержание
- Введение
- 1 Классический медод решения задач нелинейного программирования
- 1.1 Постановка задачи
- 1.2 Экстремум функции одной переменной
- 1.3 Экстремумы функций многих переменных
- 1.4 Метод неопределенных множителей Лагранжа
- 1.4.1 Основные положения
- 1.4.2 Геометрическая интерпретация метода множителей Лагранжа
- 1.4.3 Экономическая трактовка метода множителей Лагранжа
- 1.4.4 Особые случаи
- 1.5 Особенности реальных задач
- 2 Численные методы решения задач нелинейного программирования
- 2.1 Общая характеристика методов решения задач нелинейного программирования
- 2.2 Методы одномерной оптимизации
- 2.2.1 Метод прямого сканирования
- 2.2.2 Метод половинного деления
- 2.2.3 Метод "золотого сечения"
- 2.2.4 Метод Фибоначчи
- 2.3 Методы многомерной оптимизации
- 2.3.1 Метод Гаусса-Зайделя
- 2.3.2 Метод градиента
- 2.3.3 Метод наискорейшего спуска
- 2.3.4 Метод квантования симплексов
- 2.3.5 Поиск при наличии "оврагов" целевой функции
- 2.4 Методы поиска условного экстремума
- 2.4.1 Метод проектирования вектора-градиента
- 2.4.2 Метод ажурной строчки
- 2.5 Проблемы поиска глобального экстремума
- 3 Численные методы решения задач нелинейного программирования
- 3.1 Графический метод решения задач нелинейного программирования
- 3.2 Метод множителей Лагранжа
- 3.3 Компьютерная реализация решений задач нелинейного программирования
- 3.3.1 Решение задач нелинейного программирования в среде приложенияExcel
- 3.3.2 Решение задач нелинейного программирования в среде приложения Matlab
- Перечень ссылок
- Приложение а Блок-схемы методов