
§1
(1.1.1)
АКСИОМАТИЧЕСКОЕ ВВЕДЕНИЕ В ТЕОРИЮ ЭНТРОПИИ
ВЕРОЯТНОСТНЫХ СХЕМ
Исходным понятием для построения рассматриваемой теории является по-
нятие вероятностной схемы. Пусть (Q, М, Р) - вероятностное пространство,
- полная группа попарно несовместимых событий.
Определение 1.1. Пара А = ({а|},(p(aj))) называется вероят-
ностной схемой.
Говорят, что вероятностная схема А дискретна, если число событий {aj
не более чем счётно. В этом случае А будем записывать в виде:
^р(а,),..., р(а
к
),...
где а
к
- исход вероятностной схемы, р(а
к
) - вероятность исхода,
£р(а
к
) =1, р(а
к
)>0.
к
Если число событий {а
к
} более чем счётно, то вероятностная схема А на-
зывается непрерывной. Тогда её задают, описывая множество возможных ис-
ходов и указывая с помощью плотности распределения вероятностей р(х) ве-
роятностное распределение на исходах. На протяжении данного курса будем,
как правило, рассматривать конечные вероятностные схемы.
Важной характеристикой схемы является энтропия - средняя мера нерав-
новероятности исходов схемы. Энтропия и близкое понятие информация по-
разному определялись рядом авторов. Приведём некоторые из этих
определений.
Согласно Р. Хартли
1
количество информации, содержащееся в сообщении,
должно удовлетворять двум требованиям:
a. Пусть сообщение Т,, записанное в алфавите Aj, [А^п^ имеет длину
i?,,
а сообщение Т
2
, записанное в алфавите А
2
, |А
2
|=п
2
, имеет длину
(
2
•
Тогда если выполнено iij
1
=П2
2
,
то сообщения Т
г
и Т
2
несут одина-
ковое количество информации.
b.
Количество информации, содержащееся в сообщении, пропорционально
его длине.
1
См. Библиографию [98].