
114
ГЛАВА
III.
ОПТИМАЛЬНОЕ
КОДИРОВАНИЕ
Доказанная теорема 3.4.1 позволяет привести интерпретацию энтропии ис-
точника . В случае |в| - 2, согласно теореме, среднее число двоичных сим-
волов алфавита В, требуемых для кодирования буквы, порождённой источни-
ком, не меньше энтропии источника и не превосходит эту энтропию более чем
на единицу.
Аналогично можно показать, что при кодировании не отдельных букв, по-
рождённых источником, a m-грамм с соответствующим вероятностным расп-
ределением, среднее число символов кодового алфавита В, приходящихся на
одну кодируемую букву, будет не более средней длины кодового слова. Ра-
венство достигается в случае выполнения условий леммы
3.4.1.
Подойдём к
этому вопросу, введя соответствующие определения.
Введём коэффициент сжатия, обобщающий понятие средней длины кодо-
вого слова. Предположим, что кодируются последовательности некоторого мар-
ковского источника
[A,P(S)]
С энтропией Н^. Пусть =(a
ilV
..,a^) последо-
вательность, полученная на рассматриваемом источнике. Обозначим а(с^)
длину соответствующего кодового слова.
Определение4.1.
Коэффициентом сжатия последова-
тельности длины I назовем величину
где р(с^) - вероятность последовательности
с,.При*
= 1,
(3.4.8)
Определение 4.2. Величина
ц = lim \x
t
коэффициентом сжатия кода.
|i
= lim \х
е
, называется
(3.4.9)
Докажем фундаментальную теорему А.Я.Хинчина
3
, в которой выводится
нижняя грань возможного "сжатия" информации при кодировании, исполь-
зующем вероятностное распределение р(?) на алфавите источника [А,р(?)].
Значение теоремы состоит в том, что, согласно ей, для любого возможного
способа кодирования, в данных условиях, нельзя добиться большего сжатия,
чем —™.
logD
3
См.
Библиографию
[68]