Постановка задачи решения системы уравнений в терминах методов оптимизации
Задача решения системы уравнений:
(1)
с
эквивалентна задаче минимизации функции
(2)
или какой-либо другой возрастающей функции от абсолютных величин
невязок (ошибок)
,
. Задача отыскания минимума (или максимума) функции
переменных и сама по себе имеет большое практическое значение.
Для решения этой задачи итерационными методами начинают с произвольных значений
и строят последовательные приближения:
или покоординатно:
(3)
которые сходятся к некоторому решению
при
.
Различные методы отличаются выбором «направления» для очередного шага, то есть выбором отношений
.
Величина шага (расстояние, на которое надо передвинуться в заданном направлении в поисках экстремума) определяется значением параметра
, минимизирующим величину
как функцию от
. Эту функцию обычно аппроксимируют её тейлоровским разложением или интерполяционным многочленом по трем-пяти выбранным значениям
. Последний метод применим для отыскания max и min таблично заданной функции
.
Градиентные методы
Основная идея методов заключается в том, чтобы идти в направлении наискорейшего спуска, а это направление задаётся антиградиентом
:
где
выбирается:
- постоянной, в этом случае метод может расходиться;
- дробным шагом, то есть длина шага в процессе спуска делится на некое число;
- наискорейшим спуском:
Метод сопряжённых градиентов
Метод сопряженных градиентов основывается на понятиях прямого метода многомерной оптимизации — метода сопряжённых направлений.
Применение метода к квадратичным функциям в
определяет минимум за
шагов.
Алгоритм
- Задаются начальным приближением и погрешностью:
- Рассчитывают начальное направление:
- Если
или
, то
и останов.
- Иначе
- если
, то
и переход к 3;
- иначе
и переход к 2.