
100
4.4 Градиентные методы
Рассмотрим общую задачу минимизации квадратичной невязки
выходных сигналов модели и объекта для функционала
[]
.)()(
0
2
∫
−=
t
Mo
dttytyJ (4.66)
Настройка модели может рассматриваться как движение по ги-
перповерхности
)(
= в пространстве параметров
к экстре-
мальной точке. В соответствии с этим, задача определения парамет-
ров модели интерпретируется как задача оптимизации целевой функ-
ции
)(
. Для решения такой задачи могут использоваться градиент-
ные методы, основанные на итерационной процедуре приближения к
экстремуму целевой функции, характеризующейся соотношением:
]
,)()()()1( kgradJkkk
+ (4.67)
где
)(k
- текущее приближение к истинному вектору параметров
*
β
; )(k
- служебный параметр, характеризующий длину k-го шага
итерационного процесса;
- номер итерации.
Для определения направления движения к экстремуму использу-
ется градиент – n- мерный вектор, составляющие которого являются
частными производными функции
)(
, вычисленными в точке х:
....,,)(
21
⎥
⎦
⎤
⎢
⎣
⎡
∂
∂
∂
∂
∂
∂
=∇
n
JJJ
J
βββ
β
(4.68)
Градиент указывает направление наискорейшего роста функции (об-
ратное направление будет направлением наискорейшего спуска).
Градиент функции может быть определен аналитически, а если функ-
ция
)(
не задана, то с помощью экспериментов.
Существует много модификаций градиентных методов, отли-
чающихся способом выбора двух основных параметров – направле-
ния спуска и величины шага вдоль этого направления. Итерационные
методы спуска, в принципе, получают решение за бесконечное число
шагов. На практике вычисления прекращаются при выполнении не-