Глава
3.
Кодирование
для
дискретных
источников
без
памяти
Ответы на эти вопросы
дает
теорема Шеннона о кодировании
источников.
Перед тем, как приступить к рассмотрению этой тео-
ремы, возьмем в качестве примера двоичного кодирования кодовую
конструкцию, изображенную на рис. 3.1.
Начиная
от корня кодового дерева число ребер на каждом уровне
удваивается, причем, слева располагаются ребра, соответствующие
единицам, а справа - нулям кодовых слов. Кодовые слова образу-
ются при прохождении соответствующих ребер, ведущих от корня к
оконечным
узлам. В качестве примера
будем
рассматривать кодовое
слово ОНО.
Если мы пройдем N уровней, то получим 2
N
оконечных узлов, ко-
торые соответствуют кодовым словам с длиной log
2
2'
v
6HT = N бит и
можно закодировать 2
N
событий. Предположим далее, что этим око-
нечным узлам соответствуют 2^ равновероятных событий из всего
алфавита источника. Тогда, на кодирование каждого события затра-
чивается ровно N бит, что равно энтропии источника. Связь между
средней длиной кодового слова и энтропией источника обобщает тео-
рема кодирования источников.
Теорема
3.1.1.
Теорема
кодирования
источников
I.
Для любого дискретного источника без памяти X с конечным алфа-
витом и энтропией Н(х)
существует
D- ичный префиксный код, в
котором средняя длина кодового слова п удовлетворяет неравенству
ШВД (3.1)
<
и
<
+1
.
log£>
- ~\ogD
Термин
префиксный
код означает, что никакое начало кодового
слова не может быть другим кодовым словом. Это значит, что поток
событий может быть закодирован без специального разделения этих
событий. В
случае
D = 2 используется двоичный код. Если энтропия
задана в битах, то средняя длина п также выражается в битах, что
прямо
указывает на использование двоичного кода.
Теорема кодирования источников указывает на то, что средняя
длина кодового слова не может быть меньше энтропии. Однако, как
будет
показано в разделах 5.2 и 5.5, при блоковом кодировании ис-
точников,
средняя длина кодового слова может приближаться к эн-
тропии как угодно близко. Это обстоятельство еще раз подчерки-
вает важность понятия энтропии. Энтропия - есть мера минималь-
ных средних затрат. Примером практической реализации неравен-
ства (3.1) является код Хаффмана, рассматриваемый в следующем
разделе.