57
Определённая таким образом энтропия непрерывной слу-
чайной величины функции X(t) равна средней относительной
энтропии, приходящейся на один отсчёт. Эта величина также
удовлетворяет неравенствам (2.4.3) и (2.4.4), причём в качестве
H
max1
используется максимальное значение относительной эн-
тропии непрерывной случайной величины при заданных ог-
раничениях. Например, если задана средняя мощность σ
2
слу-
чайной функции X(t), оба неравенства совместно дают
[]
)2log(
2
1
)(
2
σπ
etXH ≤ ,
(3.3.1)
причём максимальной относительной энтропией на один отсчёт
обладает нормальная случайная функция с нулевым математи-
ческим ожиданием, дисперсией (средней мощностью)
2
σ
и рав-
номерным в полосе F
энергетическим спектром (белый шум).
«Энтропийной мощностью» случайной функции X(t),
имеющей ширину спектра
F∆
и энтропию Н нат/отсчёт, назы-
вается средняя мощность белого шума с такой же шириной
спектра и тем же значением энтропии на отсчёт
)12exp(
2
1
−= HN
π
.
(3.3.2)
Относительная энтропия на один отсчёт нормальной слу-
чайной функции, имеющей спектр плотности мощности G(f),
вычисляется по формуле
[] []
1
() ln 2 ( )
2
F
HXt e FGf df
F
π
∆
=⋅∆⋅
∆
∫
,
(3.3.3)
а энтропийная мощность равна
∆
−∆=
∫
∆F
dffG
F
FN )(ln
1
exp
.
(3.3.4)
Второй способ введения энтропийных характеристик слу-
чайной функции опирается на понятие точности воспроизведе-
ния реализации этой функции. Пусть x(t) есть реализация непре-
рывной случайной функции X(t), которую необходимо передать,
58
а z(t) – реализация другой случайной функции Z(t), которая в
действительности принимается. Обозначим как ),( ZX
неко-
торую заранее заданную количественную меру различия этих
двух случайных функций. Тогда
-энтропией
]
)(tXH
ρ
ε
слу-
чайной функции X(t) называется минимальное среднее количе-
ство взаимной информации в единицу времени между X(t) и Z(t),
необходимое для того, чтобы
),( ZX .
Часто в качестве меры отличия используют среднеквадра-
тическую ошибку воспроизведения стационарной случайной
функции X(t) при помощи стационарной и стационарно свя-
занной с ней случайной функции Z(t)
2
0
(,) M( )XZ X Z
ρ
=−
.
(3.3.5)
Если Z(t) – это цифровой сигнал, то
-энтропия численно
равна минимальному среднему количеству двоичных символов
в единицу времени, необходимых для восстановления функции
X(t) со среднеквадратической ошибкой, не превышающей
.
Для нормальной стационарной случайной функции X(t),
имеющей спектр плотности мощности G(f),
-энтропия при
среднеквадратическом критерии точности (3.3.5) вычисляется
по формуле
[]
0
()
() log
f
Gf
HXt df
ε
λ
∆
=
∫
,
(3.3.6)
где
f
– полоса частот, в которой
≥)( fG
. Коэффициент
выбирается таким образом, чтобы площадь фигуры, ограничен-
ной снизу осью f, а сверху – прямой G=
(в области f∆ ) либо
кривой G(f) (вне области f
), была равна
2
ε
. Эта фигура за-
штрихована на рис. 3.3.1.
Понятие
- энтропии может
быть применено и к последова-
тельности дискретных случайных
величин.
При вычислении
-энтропии
случайной величины X, когда рас-
G(f)
f
λ
∆f
ε
2
Рис. 3.1