
конкретизировать определение сигнала. Сигнал — это значение физической
величины, которое отображает состояние источника сообщений. Поскольку
множество сообщений можно рассматривать как множество случайных
событий, то отображающее значение физической величины также будет
случайным.
Следовательно, случайную величину можно принять к качестве модели
сигнала. В общем случае состояние системы' (передаваемое сообщение)
изменяется во времени, поэтому указанная случайная величина также будет
изменяться во времени, .зависеть от времени. Случайная величина, зависящая
от времени (некоторого параметра), называется слу-ч а ^ ной фуи к ц и е и.
Следовательно, случайная функция является моделью сигнала.
УСТАНОВЛЕНИЕ КОЛИЧЕСТВЕННОЙ МЕРЫ
ИНФОРМАЦИИ
КОМБИНАТОРНОЕ ОПРЕДЕЛЕНИЕ КОЛИЧЕСТВА
ИНФОРМАЦИИ
Комбинаторное определение количества информации дано американским
инженером Р. Хартли. Это определение предполагает модель с
детерминированной связью (помехи отсутствуют) между дискретными
состояниями
ДВУХ систем без их вероятностного описания.
До получения сведений о состоянии системы имеется априорная
неопределенность ее состояния. Сведения позволяют снять эту
неопределенность, то есть определить состояние системы. Поэтому
количество информации можно определить как меру снятой
неопределенности, которая растет с ростом числа состояний системы.
Количественная мера информации устанавливается следующими
аксиомами.
Аксиома 1. Количество информации, необходимое для снятия
неопределенности состояния системы, представляет собой монотонно
возрастающую функцию числа состояний системы.
В качестве количественной меры информации можно выбрать
непосредственно число состояний системы mx , которое является
единственной характеристикой множества X.
Однако такое определение не удобно с точки зрения его практического
применения. Поэтому в теории информации вводится несколько иная
количественная мера информации, которая является функцией mx. Вид
указанной функции позволяет установить аксиома 2.
Аксиома 2. Неопределенность состояния сложной системы, состоящей из
двух подсистем, равна сумме неопределенностей подсистем.
Если для снятия неопределенности первой подсистемы необходимо
количество информации, равное /(т;), а для второй подсистемы количество
информации, равное I(т1), то
для снятия неопределенности сложной системы необходимо количество
информации, равное где m1— число состояний первой подсистемы: m2—
число состояний второй подсистемы; т1 т2—число состояний сложной
системы. Единственным решением полученного функционального уравнения
является логарифмическая функция I (т)= Кlogam , которая определяет
количество информации как логарифм числа состояний системы.
Произвольный коэффициент К выбирается равным единице, а основание
логарифма а определяет единицу измерения количества информации. В
зависимости от значения а единицы измерения называются двоичными (а=2),
троичными (a=3) и в общем случае a-ичными. В дальнейшем под
СИМВОЛОМ
1оg будем понимать двоичный логарифм. Двоичная единица иногда
обозначается bit; (от английского binari digit— двоичный знак). Каждое
передаваемое слово из п букв, записанное в алфавите. Cодержащем т букв,
можно рассматривать как отдельное «укрупненное» состояние источника
сообщений. Всего таких состояний (слов) будет m
n
.
Тогда количество информации, которое несет слово из п букв, равно
I=logam
n
=nlogam. Отсюда следует, что одна буква несет loga т а-ичных
единиц информации. Бели единица измерения информации а=т, то
количество информации в слове (1=п) измеряется количеством содержащихся
в нем букв, а единица измерения информации определяется размером
алфавита т. Таким образом, одна a-ичная единица содержит loga т й-ичных
единиц информации.
ОПРЕДЕЛЕНИЕ КОЛИЧЕСТВА ИНФОРМАЦИИ ПО
К. ШЕННОНУ
Согласно комбинаторному определению количества информации для
установления записанного в регистр двоичного числа, имеющего п разрядов,
требуется п двоичных единиц информации (по одной двоичной единице или
по одному двоичному вопросу на выяснение содержания каждого разряда).
Определить записанное в регистр число посредством задания меньшего числа
вопросов, получив меньшее количество информации, невозможно, если мы об
этом числе ничего, кроме того, что оно записано в регистр, не знаем.
Количество необходимой информации можно уменьшить только в том случае,
если мы будем располагать некоторыми априорными сведениями о числе, в
частности, о способе его записи (генерации).
Допустим, некоторое устройство вырабатывает (генерирует) число как
независимую последовательность из единиц и пулей, которые появляются
соответственно с вероятностями, равными р и q=1—р. В этом случае при
неограниченном возрастании длины последовательности п с вероятностью,
равной единице, появляются последовательности, количество единиц в
которых незначительно отличается от среднего значения, равного пр. Такие
последовательности называются типичными. Они различаются между собой
только размещением единиц, а не их количеством. Поскольку количество
()
),2()1(21 mImImmI