\
2.2.
Энтропия
и
избыточность
15,
I
\
С
ростом неопределенности информация также растет
и для
невоз-
\можного
события
стремится
к
бесконечности. Таким образом,
ин-
формация
соответствует всем приведенным ранее рассуждениям
и
удовлетворяет аксиомам
1 - 3. С
точки зрения теории вероятности,
определение информации можно рассматривать как некоторое отоб-
ражение событий. Аналогичное отображение имеют стохастические
переменные.
В
следующих разделах это
будет
поясняться
на
приме-
рах.
2.2. Энтропия
и
избыточность
После того,
как
информация отдельного события определена,
рас-
смотрим источник событий.
Для его
описания
будем
использовать
информацию,
которую несут содержащиеся
в
нем события. По ана-
логии
с
термодинамикой введем понятие энтропии.
В
термодинамике
энтропия
является мерой неупорядоченности системы.
В
теории ин-
формации
энтропия определена как мера неопределенности источни-
ка.
Используя информацию отдельных событий, выразим энтропию
источника следующим образом:
Элтропия
простейшего источника
без
памяти
X с
алфавитом
X —
{х\,х<2,
• • •
,£JV}
и
соответствующим вероятностям
Р\,Р2,
• • •
,PN
равна
N
H(x)
= ^2-
Pi
\og
2
(
Pi
)6nT. (2.4)
г
Представим себе игру,
в
которой некоторое событие источника долж-
но
быть предсказано. Если источник
отдает
предпочтение опреде-
ленному событию, смело ставьте
на
него
и, в
основном,
вы
будете
выигрывать. Если
все
события равновероятны,
то
ставьте
на
любое
событие: если неопределенность источника максимальна, шансы
на
выигрыш минимальны.
Пример:
Оценка энтропии.
Поясним
эту
связь
на
примере простейшего дискретного источ-
ника
без
памяти
из
табл.
2.1.
Информация источника представля-
ет собой
результат
эксперимента
со
случайными событиями
а,
Ь,
с,
d.
Пусть
в
результате
повторения этого эксперимента
мы
получаем по-
следовательность
{а,Ъ,а,d
t
а,а,с,d,b,a,a,b,...}.
(2.5)