что эквивалентно независимости компонент вектора X.
Следствие 2. Пусть случайный вектор X = (X
1
, X
2
, . . . , X
n
)
T
имеет мно-
гомерное стандартное нормальное распределение (напомним: это соответствует
тому, что все компоненты вектора независимы и имеют распределение Φ
0,1
). Об-
разуем новый вектор Y = AX, где A — ортогональная матрица. Тогда вектор Y
также будет иметь многомерное стандартное нормальное распределение.
Доказательство. Ортогональная матрица, по определению, обладает свойством
A
T
= A
−1
. По этой причине C(Y ) = AC(X)A
T
= AA
T
= E и, следовательно,
f
Y
(t) =
1
(2π)
n/2
exp
½
−
1
2
t
T
t
¾
=
n
Y
i=1
ϕ
0,1
(t
i
) = f
X
(t),
что и требовалось доказать.
3.7. Математическое ожидание суммы случайного числа
слагаемых
Ранее было введено понятие σ-алгебры σ(X) = { X
−1
(B), B ∈ B(R)}, порож-
денной случайной величиной X. Она состоит из событий, о реализации которых
можно судить по значениям X. Пусть имеется теперь последовательность случай-
ных величин {X
n
}. Для любых k ≤ m ≤ ∞ введем σ-алгебру σ(X
k
, . . . , X
m
), которая
порождена событиями вида
T
m
i=k
A
i
, где A
i
∈ σ(X
i
). Это более богатая σ-алгебра,
чем, к примеру, σ(X
k
) или σ(X
k
, . . . , X
m−1
), так как некоторые из множеств A
i
могут
совпадать с Ω.
Теорема. Если случайные величины X
1
, X
2
, . . . независимы, то для любых k ≥ 1,
n ≥ 1 σ-алгебры σ(X
1
, . . . , X
n
) и σ(X
n+k
, X
n+k+1
, . . .) независимы.
Схема доказательства состоит в следующем. Сначала проверяется независимость
произвольного события вида
T
n
i=1
A
i
и события вида
T
m
i=n+k
A
i
, где A
i
∈ σ(X
i
),
n + k ≤ m < ∞. Затем устанавливается независимость алгебр, порожденных со-
бытиями такого вида. Переход к пределу при m → ∞ осуществляется с помощью
свойства непрерывности вероятности. Как уже доказано ранее, независимость алгебр
обеспечивает независимость порожденных ими σ-алгебр.
Пусть на вероятностном пространстве < Ω, S, P > задана последовательность
{X
n
} независимых случайных величин и некоторая целочисленная случайная вели-
чина ν ≥ 0. Значения n можно интерпретировать как дискретные моменты времени.
Определение. Случайная величина ν ≥ 0 называется не зависящей от будуще-
го, если для любого n событие {ν ≤ n} не зависит от σ-алгебры σ(X
n+1
, X
n+2
, . . .).
Определение. Если {ν ≤ n} ∈ σ(X
1
, . . . , X
n
) при всех n , то такая случайная
величина ν называется марковской или марковским моментом.
Ясно, что марковский момент не зависит от будущего, так как σ(X
1
, . . . , X
n
) и
σ(X
n+1
, X
n+2
, . . .) независимы.
Примерами марковских моментов могут служить случайные величины
ν
1
= inf{k ≥ 1 : X
k
≥ N},
поскольку
{ν
1
≤ n} =
n
\
k=1
{X
k
≥ N} ∈ σ(X
1
, . . . , X
n
),
а также
ν
2
= inf{k ≥ 1 : S
k
≥ N},
65