иногда, успешно решая одну из них, мы ухудшаем состояние двух других.
Поэтому необходимо уметь оценивать все стороны того или иного технического
решения, количественно рассчитывать не только выигрыш, получаемый от
реализации этого решения, но и плату за него. Одной из величин, которые
позволяют производить такие расчеты, является энтропия.
В 1948 г. американский инженер К. Шеннон заметил, что проблемы передачи
и обработки информации имеют много общего с проблемами статистической
физики и могут быть описаны на том же языке с помощью понятия энтропии.
Под информацией обычно понимается сообщение, содержащее элемент
новизны. Оно может быть передано по каналам связи посредством сигналов,
имеющих различную физическую природу. Для передачи сигналов могут
использоваться электромагнитные волны радиодиапазона или видимого света
(оптическая связь) или звуковые волны (акустическая связь). Помехи, которые
имеются в линиях связи, приводят к искажению сигналов. Кроме того, сигналы
могут искажаться при их преобразовании в устройствах, используемых в линиях
связи. Все это приводит к тому, что передаваемый сигнал приходит по
назначению не с достоверностью, а с некоторой конечной вероятностью.
Вероятность получения сигнала зависит от способов и условий передачи
информации и может быть рассчитана. Механизм передачи информации можно
сравнить с движением молекулы в газе, испытывающей множество случайных
столкновений, в результате которых можно указать только вероятность ее
прихода в заданную точку пространства.
По аналогии со статистической физикой случайный беспорядок,
возникающий в системе передаваемых сигналов, характеризуется с помощью
энтропии системы, которая пропорциональна логарифму вероятности прихода
сигнала. С помощью таким образом введенной энтропии можно определить и
количество информации, содержащееся в переданном сообщении. Развитие этих
представлений привело к созданию новой самостоятельной науки — теории
информации, которая, в свою» очередь, легла в основу науки об управлении
сложными системами — кибернетики.
Другая проблема, в которой широко используется понятие энтропии, — это
проблема экологии. Необратимые изменения в окружающей среде,
возникающие в процессе человеческой деятельности, также подчиняются
законам термодинамики. Их отличие, правда, состоит в том, что мир, в котором
мы существуем, представляет собой не замкнутую, а открытую систему,
постоянно взаимодействующую со всей Вселенной путем энерго- и
массообмена. Термодинамика такой открытой системы очень сложна, и поэтому
выводы, следующие из рассмотренной термодинамики замкнутой системы, к
ней неприменимы. Однако методы рассмотрения, основанные на статистическом
подходе, остаются прежними и позволяют сделать важные заключения о
процессах, происходящих в живой природе.
Характерным примером здесь является процесс теплообмена Земли с
окружающим пространством. Если рассматривать часть Вселенной, которой
принадлежит наша планета, как совокупность физических объектов,
образующих замкнутую систему, то согласно обычной термодинамике она