Глава
5.
Стационарные
дискретные
источники
с
памятью
Для этого необходимо учитывать зависимость
между
событиями.
Оценим
условные вероятности р(а/а), p(b/a), p(c/a), p(d/a), p(a/b),
... и p(d/d)
двух
последовательных событий
путем
подсчета частот
парных событий. После этого источник может быть разложен на че-
тыре подисточника, соответствующих первым символам в парных
событиях.
На
рис. 5.6 этот первый шаг рассуждений наглядно продемон-
стрирован. Здесь символ а определяет один из
четырех
нодисточни-
ков.
Событиям, происходящим за.символом а (путям на графе), при-
писываются веса, равные вероятностям, например р(
а
'(Ь) = р(Ь/а).
Таким
образом, каждый такой подисточник уже может рассматри-
ваться как некоторый самостоятельный источник без памяти. Энтро-
пия
такого источника может быть вычислена известными методами.
Исходный источник с памятью представляет собой стохастическую
совокупность
четырех
нодисточников без памяти, а его энтропия
определяется средними значениеми энтропии этих нодисточников.
Мы
можем продолжить рассуждения, рассматривая все более длин-
ные состояния подисточников (например, векторы а, а или а,
Ъ,
с, d)
до тех пор, пока вся память исходного источника не
будет
охвачена.
Рис.
5.6. Представление источника в виде цепи Маркова
(первый шаг).
Эти эвристические рассуждения обобщены в
следующем
опреде-
лении.
Определение
5.3.5.
Конечный дискретный
марковский
источник
с
памятью
г полностью определяется следующими условиями:
1. Задано непустое множество состояний S = {S\,S2,
• • •
,SN},
причем, S содержит векторы длины г;
2. Каждое состояние Sj
соответствует
дискретному источнику без
памяти с алфавитом Xi =
{2:1,0:2,..
•
,хм}
и
вероятностями j-
ых символов алфавита p^'(j);