
17
При фиксированном состоянии
k
совокупность условных
вероятностей (5.21) определяет частную условную энтропию
() ()()
1
log
n
kikik
i
Yx P y x P y x
=
=−
∑
, (5.22)
которая характеризует среднее количество информации, несущее
элементом
Y после того, как стало известно состояние
k
элемента X .
При сильной статистической связи
X и Y частная условная энтропия
будет малой и, наоборот, при слабой статистической связи – большой.
Если частную условную энтропию (5.22) усреднить по всем
состояниям
k
с учетом вероятности появления каждого из состояний
()
k
x , то получим выражение условной энтропии сообщения Y
относительно элемента сообщения
X :
()
()
()
()
()()
1
11
log
m
kk
k
nm
kik ik
ik
HYX Px HYx
xPyx Pyx
=
==
==
=−
∑
∑∑
. (5.23)
Так как в соответствии с теоремой умножения вероятностей имеем
()()
()
)
)
,
ki k ik i ki
xy PxPyx PyPxy==,
То выражение (5.23) можно переписать в виде
()
()
()
11
,log
nm
ki ik
ik
YX Px y Py x
==
=−
∑∑
. (5.24)
Основной смысл условной энтропии состоит в том, что она
показывает, какую энтропию дает сообщение элемента
Y , если уже
известна энтропия сообщения
X .
Свойства условной энтропии.
1. Если элементы сообщения
X и Y статистически независимы, то
условная энтропия
()
YX равна энтропии
)
Y , т.е.
()
()
YX HY= .
Действительно, если элементы
X и Y статистически независимы, то
()
()
ik i
yx Py= и соотношение (5.23) приобретает вид