54
Следствие 1. Типичные последовательности приблизительно равноверо-
ятны. Для доказательства из (3.6) найдём Р(С):
.2)(2
)()( d--d+-
<<
HMHM
CP
При
Поэтому при достаточно большом М можно положить
P(C) » 2
-MH(X)
.
(3.11)
Из (2.11) видно, что все последовательности С равновероятны и число их
N
T
= 2
MH(X)
. (3.12)
В случае, если все n символов источника независимы и равновероятны, то
N
T
= 2
Mlogn
= n
M
. (3.13)
Легко видеть, что (3.13) определяет число всех возможных последователь-
ностей длины М, содержащих n различных символов.
Следствие 2. Чтобы экспериментально определить энтропию эргодиче-
ского источника, у которого вероятностные связи распространяются на очень
большое число символов, нам необходимо располагать последовательностью
ещё большей длины (
); при этом вычисленная энтропия будет как угодно
близка к своему пределу log1/P(C) = H(X).
3.3. Избыточность источника сообщений
Как известно, энтропия характеризует среднее количество информации,
несомое одним символом источника. Она максимальна, когда символы выраба-
тываются источником с равной вероятностью. Если же некоторые символы по-
являются чаще других, энтропия уменьшается, а при появлении дополнитель-
ных вероятностных связей между символами становится ещё меньше. Чем
меньше энтропия источника отличается от максимальной, тем рациональнее он
работает, тем большее количество информации несут его символы.
Для сравнения источников по их информативности введём параметр, назы-
ваемый избыточностью, равный
.
)(
)()(
max
max
XH
XHXH
R
= (3.14)
Источник, избыточность которого R = 0, называется оптимальным. Если
R
=
1, то Н(Х) = 0, и, следовательно, информация, вырабатываемая источником,
равна нулю. В общем случае
Чем меньше избыточность R, тем раци-
ональнее работает источник.