|
|
|
|
Современное естествознание уделяет внимание различным процессам переноса - массы, энергии, импульса (количества движения). Все процессы, протекающие во времени, так или иначе связаны с явлениями переноса и изучаются в различных областях науки.
Рассмотрим явление переноса энергии, которая является общей мерой различных процессов и видов взаимодействия. Все формы движения превращаются друг в друга в строго определенных количественных соотношениях. Именно это обстоятельство и позволило ввести понятие энергии и закон ее сохранения. Перенос энергии осуществляется с помощью тех или иных носителей и всегда происходит в сторону ее уменьшения. Перенос энергии часто характеризуют удельным потоком - количеством энергии (Дж), переносимой сквозь единичную нормальную площадку (1 м2) в единицу времени (с); единицей измерения служит Дж/(м2с) или Вт/м2.
Носителями энергии помимо различных элементарных частиц служат также электромагнитные волны, гравитационные поля, волны упругих колебаний, сыпучие или возмущенные массы. Важна различная качественная окраска процесса, которую иногда отождествляют с понятием "информация". Например, можно сказать, что замерена плотность потока электромагнитной энергии в 100 Вт/м2, но эта энергия может быть весьма различной по длине волны, когерентности, поляризованности, характеру колебаний и т. д. Поток в 100 Вт/м2 может быть зафиксирован от нагретого тела, лазера или живого объекта.
Перенос массы может осуществляться путем диффузии, испускания частиц вещества (атомов, электронов и т. д.), а также благодаря течению массы. Его измеряют как удельный поток массы (кг/м2), меняющейся в разных процессах более чем на десять порядков. В классической механике сформулирован закон сохранения массы; в модели переноса массы содержатся также и параметры, характеризующие качество переносимой массы, т. е. индивидуальность отдельных компонентов и условий протекания процессов. Изменение количества движения текущих масс среды или отдельных тел, частиц приводит к переносу импульса.
Количество движения определяется произведением плотности на вектор скорости течения. На основе закона сохранения количества движения можно составить уравнение движения, в котором также фигурируют параметры, определяющие качество процесса.
Итак, процессы переноса энергии, массы, импульса, имеют качественную окраску (разнообразие), которая может отождествляться с термином "информация". Это пока весьма неопределенное понятие, про которое основатель кибернетики Норберт Винер писал: " Информация есть информация, а не материя и не энергия". Разные исследователи вкладывали неоднозначный смысл в этот термин - от всеобщего фундаментального понятия типа "все законы физики можно воспринимать как информацию, заложенную в вещество природой", до утверждения академика Н. Н. Моисеева, что это понятие историческое. Необходимость его введения возникает на тех этапах развития материального мира, когда возникает живая природа и общество и возникает потребность изучать целенаправленные действия, процедуру принятия решений при изменении внешних условий и т. п. Во всех остальных случаях, по мнению Н. Н. Моисеева, можно обойтись без термина "информация" и протекающие процессы описывать с помощью законов физики и химии.
Известно классическое определение информации по Эшби, как меры структурного разнообразия. Подчеркнем - не просто разнообразия, а структурного разнообразия, что имеет существенное значение, поскольку указывает на связь этого понятия со структурой, т. е. каким-то порядком. Если рассматривать большие системы, то их структура определяется функциональным назначением. Следовательно, просматривается связь: информация - функциональное назначение - порядок. Эти интуитивные соображения становятся более четкими при совместном анализе энтропии и информации.
Французский физик Леон Бриллюэн (1889- 1969) сформулировал так называемый негэнтропийный принцип информации: количество накопленной и сохраняемой в структуре систем информации I равно уменьшению ее энтропии S. Обычно энтропию S измеряют как меру хаоса X вблизи состояния термодинамического равновесия:
Из второго начала термодинамики, как было показано ранее, следует безвозвратная потеря качества энергии. Однако реальная эволюция ведет не только к росту беспорядка, но и порядка. Этот процесс связан с переработкой информации. Сопоставим неопределенность с понятием информации, а количество информации - с уменьшением неопределенности. Информационная мера упорядоченности П равна разности между максимальным Xmax и текущим значениями меры хаоса, то есть
Иначе говоря, мера хаоса и мера упорядоченности являются взаимодополняющими функциями. Пусть все состояния равновероятны, тогда X = Xmax и П = 0. При полной упорядоченности, наоборот, X = 0 и П = Xmax. Например, при фиксированном числе микросостояний насколько возрастает мера порядка dП, настолько же убывает и мера беспорядка dX, т. е.
Следовательно, две противоположности - гармония и хаос находятся в неустойчивом равновесии, а их сумма есть величина постоянная.
Отметим, что неживая природа, действуя бесцельно и безразлично, выбирает вариант, дающий малое количество информации. Осмысленное действие живой системы резко сужает поле выбора. Количество информации при этом растет во все убыстряющемся темпе и "в оборот" вступает все больше вещества и энергии. Деятельность разумного и духовно развитого человека направлена на повышение упорядоченности окружающей среды. Если эта деятельность прекращена, то "слепые" силы природы увеличивают неупорядоченность и уничтожают следы труда человека. В процессе упорядочения человек уменьшает энтропию среды, иными словами, как бы извлекает негэнтропию из окружающей среды, а затем использует ее для конструирования собственных тканей и для поддержания жизненных процессов. Наряду с другими оценками результат труда можно характеризовать повышением упорядоченности, то есть количеством управляющей информации или негэнтропии введенной человеком в окружающую среду.
Итак, по-видимому, бесспорно утверждение, что информация - изменяющийся во времени фактор, находящийся в сложном взаимодействии с различными состояниями материи и энергии. Эти соображения позволяют расширить предложенное Эшби определение информации: информация - мера изменения во времени и в пространстве структурного разнообразия систем.
Приведенные выше размышления о природе информации показывают, что это сложное и до конца не выясненное понятие, которое, похоже, настолько фундаментально, как и естественнонаучные категории материи, энергии, времени.
В начале этого раздела было указано, что для измерения количества информации американский ученый К. Шеннон предложил использовать заимствованную из термодинамики вероятностную формулу энтропии. Желающие могут подробно ознакомится c параграфом о связи между информацией по Шеннону и термодинамической энтропией Сначала использование формулы Шеннона было вызвано соображениями удобства расчетов, но постепенно стал проясняться глубокий смысл этой операции. Информация содержится повсюду: в живой клетке и в мертвом кристалле, в живой и в машинной памяти. Информационные взаимодействия присущи как материальному, так и духовному миру. Понимание этого открыло перед естествознанием еще один путь познания окружающего нас мира с помощью вероятностной формулы
Принципиально новым явилась введенная Шенноном мера количества информации, с помощью этой статистической формулы энтропии. На общность такого подхода указывает использование формулы Больцмана - Шеннона не только в технических трудах, но и в работах биологов, психологов, лингвистов, искусствоведов, философов и т. д. Как писал Шеннон: "Теория информации, как модный опьяняющий напиток, кружит голову всем вокруг". "Модный напиток" не вскружил голову К. Шеннону. Он понимал, что его теория не универсальна, что предложенные им для измерения количества информации новые единицы измерения (биты) не учитывают таких важных свойств информации, как ее ценность и смысл. Однако в отказе от конкретного содержания информации ради сопоставимости количества разнообразных сообщений и заключается глубокий смысл. Предложенные Шенноном для измерения количества информации биты пригодны для оценки любых сообщений будь то известие о рождении ребенка, телевизионный спектакль, астрономические наблюдения и т. д. Это похоже на числа, с помощью которых можно определить количество овец, деревьев, шагов и т. д.
Опираясь на созданную Шенноном теорию, многие ученые пытались найти такие меры количества информации, которые учитывали бы ее ценность и смысл. Но создать универсальные оценки не удалось: для разных процессов различными будут критерии ценности и последние субъективны, т. к. зависят от того, кто будет ими пользоваться. Запах, несущий огромное количество информации для собаки, неуловим для человека. Все эти частные различия игнорируются мерой, предложенной Шенноном, и поэтому она в равной мере пригодна для исследования всех видов информационных процессов.
Теория информации это крупный шаг в развитии научной мысли, так как позволяет углубить представления о сущности, единстве противоположностей понятий информации и энтропии и помочь в познании тайн природы, благодаря новому плодотворному методу.