31
§ 3. ВЗАИМНАЯ СОБСТВЕННАЯ УСЛОВНАЯ
ИНФОРМАЦИЯ
ВЕРОЯТНОСТНЫХ
СХЕМ
Так как выражение (1.3.5) представляет взаимную информацию исходов
а
5
,Ь
{
и в то же время оно не зависит от исхода b
s
, то величину log — рас-
J
Pi
сматривают как собственную информацию, содержащуюся в исходе а
{
.
[Определение 3.3: Величина I(a
f
)=/og— называется
Pi
собственной информацией,
содержащейся в исходе а^А.
(1.3.6)
Собственная информация, содержащаяся в исходе a
it
является функцией
только вероятностного распределения схемы А. Она изменяется от нуля в слу-
чае реализации достоверного исхода до бесконечности, когда р(а
|
) = р
1
->0.
Величину I(a
s
) интерпретируют как априорную неопределённость события щ
либо как количество информации, необходимое для разрешения этой неопре-
делённости. Между взаимной информацией двух исходов I(a
s
;bj) и собст-
венной информацией исхода I(aj) имеется принципиальное различие, состоя-
щее в том, что первое понятие может быть распространено на произвольные,
в том числе и непрерывные, вероятностные схемы. Величина 1(а
4
) определена
только для дискретных схем.
Случайная величина
Л..,1(аД...
Ia(»i)
=
имеет математическое ожидание, величина которого определяется по фор-
муле:
EI
A(
A
I)
=
-"ZPi
/
^Pi'
Определение 3.4: Величина EI
A
(ai) называется средней
собственной информацией.
Очевидно, что Е1
А
(а|) = Н(А) - средняя собственная информация равна
средней неопределённости при реализации исходов вероятностной схемы А.
На объединенной вероятностной схеме АВ рассмотрим условное
распределение {р^
,...,pj
m
|.