|
|
|
|
В разделе 2.4 была приведена знаменитая формула Больцмана, определяющая связь энтропии со статистическим весом P системы
Вероятность Wi появления состояния i равна
Как уже отмечалось, в середине XX века (1948 г.) была создана теория информации, с появлением которой введенная Больцманом функция (1) пережила второе рождение. Американский инженер-связист Клод Шеннон предложил ввести меру количества информации I с помощью статистической формулы энтропии и взять за единицу информации I=1 :
Такая информация получается при бросании монеты (Р=2).
Бит - двоичная единица информации (binary digits), она оперирует двумя возможностями: да или нет, числа в двоичной системе записываются последовательностью нулей и единиц.
Пользуясь формулами (1) и (2), вычислим информацию, которая содержится в одном сообщении. Оно состоит из N букв языка, состоящего из М букв.
Преобразуем последнюю зависимость с помощью приближенной формулы Стирлинга
Представим в формуле (3) параметры N! и Ni! в форме (4), получим
Выразим Ni через WiN, тогда последнее выражение примет вид
Перейдем к логарифму с основанием два
Последняя формула позволяет количественно определить информацию I, которая есть в сообщении из N букв языка, содержащего М букв, а на одну букву приходится информация I1 = I/N, т. е.
Величина (6) названа Шенноном энтропией.
Напомним, что выражение (1) для термодинамической энтропии после аналогичных преобразований можно представить в форме (5)
Подробнее о связи термодинамической и информационной энтропий