Оптимальное управление
Slide 305
'
&
$
%
Обучение нейросетевой модели движения ЛА
в режиме реального времени (V)
Таким образом видно, что опять ключевым моментом (особенно для динамических
сетей) является вычисление якобиана J
k
ошибок сети по на стра иваемым
параметрам.
Отличие только в способе оптимизации — ФК использует рекуррентную
процедуру. Если оценивать параметры, линейно связанные с наблюдениями, то
ФК обладает бесконечной памятью, т. е. действительно реализует рекуррентный
МНК (фактически нет различия между и спользованием МНК на всей выборке и
использованием на этой выборке ФК указанным выше способом).
Однако для нелинейной системы это уже не будет справедливым, поскольку J
k
вообще говоря является случайной величиной (зависит от конкретного состояния)
и могут получаться противоречивые направления на каждом ша ге оценивания.
Из-за этого, по-видимому, стирается информация в матрице ковариации P
k
о
предыдущих измерениях и в конце концов оценка расходится.
Slide 306
'
&
$
%
Обучение нейросетевой модели движения ЛА
в режиме реального времени (VI)
Поэтому при обучении нейросети использовать в ФК по одному поступающему измерению
нельзя — нужно делать оценку на интервале наблюдений, чтобы обновление матрицы P
k
происходило более корректно.
Можно в качестве вектора наблюдений взять не текущий выход сети, а последовательность
значений на некотором скользящем интервале наблюдения
y
k
= [y
i−l
, y
i−l+1
, . . . , y
i
]
T
,
где l — длина скользящего интервала, индекс i относится к моменту времени (шагу
дискретизации), а индекс k указывает номер оценки. Ошибка также будет векторной
величиной:
e
k
= [e
i−l
, e
i−l+1
, . . . , e
i
]
T
,
тогда якобиан будет не вектором, а матрицей. Если в текущий мом ент наблюдается вектор
y
i
, тогда вектор ошибки будет составным вектором из векторов ошибки в мом енты времени,
относящиеся к скользящему интервалу, якобиан станет блочным, а все уравнения ФК
останутся без изменения.
Для экономии времени оценка параметров производится не на каждом шаге дискретизации, а
прорежена в десять раз (дискретизация 0.01 с, а обновление параметров сети происходит
каждую 0.1 с). Вычислительный эксперимент показывает, что такое «огрубление» вполне
приемлемо, поскольку несущественно сказывается на точности модели.
Ю. В. Тюменцев 153