1.5. Количество информации от опыта в общем случае
Передача информации инициируется либо самим источником информации,
либо осуществляется по запросу. На приемной стороне любой системы переда-
чи информации до получения сигнала от интересующего нас источника неиз-
вестно, какой из возможных сигналов будет передан, но считается известным
распределение вероятностей Р(x
i
) по всем сигналам. Неопределенность ситуа-
ции до приема сигнала характеризуется энтропией:
).(log)()(
1
i
m
i
i
xPxPXH
∑
=
−=
(1.32)
Далее в приемное устройство поступает принятый сигнал. Поскольку
предполагается, что принятый сигнал соответствует переданному (помехи от-
сутствуют), то неопределенность относительно источника информации снима-
ется полностью.
Таким образом, в результате приема сигнала, с одной стороны, произошло
уменьшение неопределенности с Н(Х) до нуля, а с другой стороны, получено
количество информации I, численно
равное энтропии Н(Х). Отсюда следует,
что количество информации может быть определено как мера снятой неопреде-
ленности. Численное значение количества информации о некотором объекте
равно разности энтропий объекта до и после приема сигнала. Значит, понятие
энтропия является первичным, исходным, а понятие количество информации –
вторичным, производным понятием. Энтропия есть мера неопределенности,
а
количество информации – мера изменения неопределенности.
Если помехи существуют, то принятый сигнал в той или иной степени не
тождественен переданному. Здесь исчезает численное совпадение I и H. Коли-
чество информации будет меньше, чем при отсутствии помех, так как прием
сигнала не уменьшает энтропию до нуля.
Рассмотрим случай, когда между элементами сообщения
и помехой стати-
стические связи отсутствуют, искажения отдельных элементов сообщения яв-
ляются событиями независимыми и адресату известна совокупность условных
вероятностей
)1,1()/( mjmiyxP
ji
≤≤
того, что вместо элемента сооб-
щения x
i
будет принят элемент сообщения y
j
.
.
Среднее количество неопределенности, которым мы обладали до опыта,
равнялось Н(Х). Представим теперь что мы приняли какой-то сигнал y
j
и оцени-
ваем, какова неопределенность (после опыта) соответствия его некоторому пе-
реданному x
i
. Эта неопределенность равна
H(x
i
/
y
j
) = -logP(x
i
/
y
j
). (1.33)
Как видим, неопределенность этого соответствия является случайной ве-
личиной, значения которой при каждом заданном y
j
наступают с вероятностями
18