§3
В рассматриваемом параграфе вводятся понятия различных видов мер ин-
формации, заданных на конечных вероятностных схемах. Устанавливаются
связи между введёнными понятиями; приводится связь с энтропией вероят-
ностной схемы. Доказана теорема о невозрастании средней взаимной инфор-
мации при сюръективном отображении.
Рассмотрим две конечные вероятностные схемы:
Л m
Pi v>Pi»—9Pm>/ i=l
A =
Исследуем вопрос об измерении количества информации, содержащейся в
исходе а^ при условии, что исход bj €В реализовался. Естественно, что появ-
ление исхода bj изменяет безусловную априорную вероятность появления ис-
хода aj до апостериорной условной вероятности рj
2
= p(a
s
/bj). В качестве ко-
личественной меры такого изменения примем величину
р(а:/Ь:)
I(a
^
)=fog£
fe) d-3.1)
Если реализация исхода bj не влияет на вероятность появления исхода a
i?
то есть если эти исходы независимы, то p(aj) = p(aj/bj), и введённое коли-
чество информации, как следует из формулы (1.3.1), будет равно нулю.
Можно рассматривать количество информации, получаемое при реализации
исхода bj, если известно, что исход а
4
имеет место. Аналогично (1.3.1) полу-
чаем:
10^)= log = log-*-. м
P(bj) qj
Заметим, что имеет место равенство:
I(bj;a,)= log log log ^=1(а
|;
Ь
Л
).
(1
.
3в3)
4j Pi4j Pi
ВЗАИМНАЯ СОБСТВЕННАЯ, УСЛОВНАЯ ИНФОРМАЦИЯ
ВЕРОЯТНОСТНЫХ СХЕМ