
28
Полное среднее количество информации, содержащееся в
Y относительно X , можно теперь записать в виде
()
()( )
1
,,
n
ii
i
YX Py I y X
=
=
∑
. (5.44)
Основное свойство частного количества информации состоит в том,
что частное количество информации, содержащееся в отдельном
состоянии
i
y
, всегда больше либо равно нулю, т.е. величина не
отрицательная:
()
,0
i
IyX≥ .
Из этого свойства вытекают два важных следствия:
1. Так как частное количество информации
)
,
i
yX неотрицательно, то и
полное среднее количество информации больше или равно нулю
()
,0IYX ≥
⎡⎤
⎣⎦
.
2. Так как
()
,0IYX ≥ , то
)
)
,
XY H X
.
Таким образом, потеря информации
)
,
XY не превосходит
энтропии исходного сообщения.
Во многих практически важных случаях возникает задача
определения частного количества информации, содержащегося в
i
y
относительно
k
, т.е. определения
)
,
ik
yx . Например, по принятому
одиночному импульсу, величина которого характеризуется
i
y ,
определяется величина
k
передаваемого импульсного сигнала в условиях
воздействия помехи, которая разрушает информацию об истинной
величине передаваемого импульса. Наиболее достоверной в этом случае
следует считать ту величину
k
, относительно которой содержится
наибольшее количество информации. Это частное количество
информации, содержащееся в
i
y относительно
k
, равно
()
()
()
,log
ki
ik
k
xy
Iyx
Px
=
. (5.45)
Это частное количество информации (5.45) называют также случайной
информацией связи.
Рассмотрим основные свойства частного количества информации,
содержащегося
i
y
относительно
k
.
1.Частное количество информации может иметь как положительные, так и
отрицательные значения.
Представим формулу (5.45) в виде