50
8. Почему вводится понятие условной энтропии? Запишите выражение для
условной энтропии и поясните её смысл.
9. Приведите выражение для энтропии двух взаимосвязанных ансамблей.
10. Как связаны между собой понятия количества информации и энтропии?
11. В чём различаются понятия частного и среднего количества информации?
12. Когда энтропия источника с двумя состояниями достигает максимума?
13. От чего не зависит энтропия случайного процесса?
14. Запишите выражение для энтропии объединения нескольких независи-
мых источников информации.
15. Перечислите свойства количества информации.
3. ИСТОЧНИКИ ДИСКРЕТНЫХ СООБЩЕНИЙ
3.1. Энтропия эргодического источника
Достаточно хорошей математической моделью дискретных источников,
встречающихся на практике, являются так называемые эргодические источни-
ки. Назовём эргодическим источником r-го порядка такой источник, у которого
вероятность появления некоторого символа x
j
зависит от r предыдущих. Для та-
кого источника может быть найдено конечное число характерных состояний S
1
,
S
2
,..., таких, что условная вероятность появления очередного символа зависит
лишь от того, в каком из этих состояний находится источник. Вырабатывая
очередной символ, источник переходит из одного состояния в другое либо воз-
вращается в исходное состояние.
Определим энтропию эргодического источника в предположении, что он
работает длительное время и, всякий раз, когда мы ждём появления очередного
символа, нам известно, какие символы были выбраны ранее, и, следовательно,
известно, в каком характерном состоянии находится источник.
Обозначим через P(S
i
) вероятность того, что источник находится в состоя-
нии S
i
, причём
å
=
=
n
i
i
SP
1
.1)( (3.1)
Предположим, мы установили, что источник находится в состоянии S
b
. У
нас имеется неопределённость, из какого состояния S
k
источник, выработав не-
который символ, перешёл в состояние S
b
. Так как вероятность состояния S
b
за-
висит только от предыдущего состояния S
k
и не зависит от того, в каких состо-
яниях находился источник ранее, неопределённость источника в состоянии S
k
можно найти по формуле, аналогичной (2.14):
)./(log)/()(
/
kbk
kb
bk
SSPSSPSH
(3.2)