очевидно, но чтобы понять природу явления, следует обратиться к
микроструктуре. Этим занимается статистическая физика, изучающая
равновесные состояния макросистем на микроуровне.
Статистическое истолкование второго закона термодинамики дал
австрийский физик Л.Больцман (1844-1906), на могиле которого
выгравирована формула S = k lnP, где k – постоянная Больцмана, а P –
статистический вес, т.е. число способов, которыми может быть
осуществлено это состояние.
В качестве примера рассмотрим распределение 4-х частиц по двум
ячейкам. Очевидно, возможны следующие 5 состояний: (4,0), (3,1), (2,2),
(1,3), (0,4). Но число способов реализации этих состояний различно: 1, 4,
6, 4, 1. Наибольший статистический вес – у состояния (2,2), т.е. при
равнораспределении. Значит, вероятность нахождения системы в таком
состоянии максимальна. С ростом числа частиц этот максимум становится
всё более резким. Например, при N = 8 имеем P(7,1) = 8, P(6,2) =28, P(5,3)
= 56, P(4,4) =70. Общая формула для распределения N частиц по m
ячейкам P(N
1
,N
2
,...,N
m
) = N!/(N
1
!N
2
!...N
m
!), где N
i
– число частиц в i-й
ячейке.
В газе роль ячеек играют степени свободы молекул: поступательные,
вращательные, внутренние (энергетические уровни). Число молекул в 1
см
3
при нормальных условиях (число Лошмидта) равно 2.7·10
19
. При этом
максимум P настолько высок, что с подавляющей вероятностью
осуществляется закон равнораспределения молекул по степеням свободы.
Таким образом, согласно Больцману, энтропия есть мера вероятности
пребывания системы в данном состоянии. Рост энтропии в замкнутой
системе соответствует стремлению к равнораспределению, при котором S
= S
max
. Равнораспределение означает однообразие, неопределённость, хаос.
Противоположные понятия: разнообразие, определённость, порядок. С
ними ассоциируется термин "информация". В переводе с латинского это
слово означает разъяснение, изложение. В словарях оно определяется как
"сведения, передаваемые из одного места в другое".
Дадим количественное определение информации. Чем больше
неопределённость до получения сообщения о событии, тем большее
количество информации поступает при получении сообщения. Значит,
можно измерять информацию величиной ликвидированной
неопределённости. Рассмотрим опыт, у которого возможны исходы x
1
, x
2
,
..., x
m
с вероятностями p
1,
p
2
,..., p
m
; p
i
≥ 0 ; Σp
i
= 1. Американский инженер
К.Шеннон в 1948 году ввёл понятие информационной энтропии H,
характеризующей неопределённость результата опыта, H = -Σp
i
log
2
p
i
. В
случае достоверного исхода, когда p
1
= 1, p
2
= p
3
=···= p
m
= 0, имеем H = 0,
т.е. неопределённость отсутствует. А максимальное значение H
достигается, когда все исходы равновероятны. Ясно, что H и S между
56