85
где
i
– длина кодового слова, сопоставляемая
i
x сообщению.
При установлении оптимальных границ для L исходят из следующих сооб-
ражений. Во-первых, количество информации, несомое кодовым словом, не
должно быть меньше количества информации, содержащегося в соответствую-
щем сообщении, иначе при кодировании будут происходить потери в передава-
емой информации. Во-вторых, кодирование будет тем более эффективным, чем
большее количество информации будет содержать в себе каждый кодовый сим-
вол. Это количество информации максимально, когда все кодовые символы
равновероятны, и равно
При этом i-е кодовое слово будет нести количе-
ство информации, равное .log m
i
Шенноном сформулирована следующая теорема. При кодировании сооб-
щений
i
x в алфавите, насчитывающем m символов, при условии отсутствия
шумов, средняя длина кодового слова не может быть меньше, чем
,
log
)(
m
ЧЗ
L ³
(7.2)
где H(X) – энтропия сообщения.
Если вероятности сообщений не являются целочисленными степенями
числа m, точное достижение указанной границы невозможно, но при кодирова-
нии достаточно длинными группами к этой границе можно сколь угодно при-
близиться.
Данная теорема не дает явных рецептов для нахождения кодовых слов со
средней длиной (7.2), а поэтому она является теоремой существования. Важ-
ность этой теоремы состоит в том, что она определяет предельно возможную
эффективность кода, позволяет оценить, насколько тот или иной конкретный
код близок к самому экономному, и, наконец, придает прямой физический
смысл одному из основных понятий теории информации – энтропии множества
сообщений как минимальному числу двоичных символов (m = 2), приходящих-
ся в среднем на одно сообщение.
Приведем два известных способа построения кодов, которые позволяют
приблизиться к равновероятности и независимости кодовых символов.
7.1.1. Код Шеннона-Фано.
Для построения этого кода все сообщения X
i
выписываются в порядке
убывания их вероятностей (табл. 7.3).
Таблица 7.3
Построение кода Шеннона-Фано
x
P(x
i
)
Разбиение сообщений
на подгруппы
Код
i
L
xi
x
0,35 1 1 1 1 2 0,70
x
0,15 1 0 1 0 2 0,30
x
0,13 0 1 1 0 1 1 3 0,39