3.8. Метод скорейшего спуска (градиента) для случая системы линейных алгебраических уравнений
В рассматриваемом ниже итерационном методе вычислительный алгоритм строится таким образом, чтобы обеспечить минимальную погрешность на шаге (максимально приблизиться к корню).
Представим систему линейных уравнений в следующем виде:
(3.38)
Запишем выражение (3.38) в операторной форме:
(3.39)
Здесь приняты следующие обозначения:
; ; . (3.40)
В методе скорейшего спуска решение ищут в виде
, (3.41)
где и - векторы неизвестных на p и p+1 шагах итераций; вектор невязок на p-ом шаге определяется выражением
, (3.42)
а (3.43)
В формуле (3.43) используется скалярное произведение двух векторов, которое определяется следующей формулой:
(3.44)
В формуле (3.43) - транспонированная матрица Якоби, вычисленная на p-ом шаге. Матрица Якоби вектор – функции f(x) определяется как
(3.45)
Нетрудно убедиться, что для системы (3.39) матрица Якоби равна
(3.46)
Как и для метода простой итерации, достаточным условием сходимости метода градиента является преобладание диагональных элементов. В качестве нулевого приближения можно взять .
Замечания
Как видно из выражения (3.45), матрица Якоби не зависит от шага итерации.
Требования минимизации погрешности на каждом шаге обусловили то, что метод градиента более сложен (трудоемок), чем методы Якоби и Зейделя.
В методе градиента итерационный процесс естественно закончить при достижении , вектор невязок входит в вычислительную формулу.
Обсуждение
В приближенных методах можно обеспечить практически любую погрешность, если итерационный процесс сходится.
Итерационный процесс можно прервать на любом k–ом шаге и продолжить позднее, введя в качестве нулевого шага значения x(k).
В качестве недостатка приближенных методов можно отметить то, что они часто расходятся, достаточные условия сходимости (преобладание диагональных элементов) можно обеспечить только для небольших систем из 3 – 6 уравнений.
Пример 3.7. Методом скорейшего спуска решим систему уравнений
Так как диагональные элементы матрицы являются преобладающими, то в качестве начального приближения выберем:
Следовательно, вектор невязок на нулевом шаге равен
Далее последовательно вычисляем
Отсюда
причем
Аналогично находятся последующие приближения и оцениваются невязки. Что касается данного примера, можно отметить, что итерационный процесс сходится достаточно медленно (невязки уменьшаются).
Yandex.RTB R-A-252273-3
- Ю. Я. Кацман прикладная математика Численные методы
- Оглавление
- 4.1. Постановка задачи 33
- 1. Элементы теории погрешностей
- Вопросы для самопроверки
- 2. Численное интегрирование
- 2.1. Постановка задачи
- 2.2. Формула прямоугольников
- 2.3. Формула трапеций
- 2.4. Формула Симпсона
- 2.5. Вычисление определенных интегралов методами Монте–Карло
- Вопросы для самопроверки
- Численное решение систем линейных алгебраических уравнений (слау)
- 3.1. Решение задач линейной алгебры
- 3.2. Метод Гаусса
- 3.3. Схема Гаусса с выбором главного элемента
- 3.4. Вычисление обратной матрицы методом Гаусса
- 3.5. Вычисление определителей методом Гаусса
- 3.6. Метод простой итерации (метод Якоби)
- 3.7. Метод Зейделя
- 3.8. Метод скорейшего спуска (градиента) для случая системы линейных алгебраических уравнений
- Вопросы для самопроверки
- 4. Приближенное решение нелинейных и трансцендентных уравнений
- 4.1. Постановка задачи
- 4.2. Графическое решение уравнений
- 4.3. Метод половинного деления (дихотомии)
- 4.4. Метод хорд
- 4.5. Метод Ньютона (метод касательных)
- 4.6. Комбинированный метод
- Вопросы для самопроверки
- 5. Приближенное решение систем нелинейных уравнений
- 5.1. Метод Ньютона
- 5.2. Метод градиента (метод скорейшего спуска)
- Вопросы для самопроверки
- 6. Решение обыкновенных дифференциальных уравнений
- 6.1. Методы решения задачи Коши
- 6.2. Метод рядов, не требующий вычисления производных правой части уравнения
- 6.3. Метод Рунге-Кутта
- 6.4. Многошаговые методы
- 6.5. Экстраполяционные методы Адамса
- 6.6. Интерполяционные методы Адамса
- Вопросы для самопроверки
- 7. Интерполирование и приближение функций
- 7.1. Задача интерполирования и аппроксимации функций
- 7.2. Интерполирование алгебраическими многочленами
- 7.3. Интерполяционная формула Ньютона
- 7.4. Сходимость интерполяционного процесса
- 7.5. Задача обратного интерполирования
- 7.6. Отыскание параметров эмпирических формул методом наименьших квадратов
- 7.7. Суть метода наименьших квадратов
- Основные свойства матрицы Грама
- Вопросы для самопроверки
- Литература
- Прикладная математика Численные методы