P f I 1
. (1.2)
Для определения вида неизвестной функции
f считаем, что для
I выполняется правило
аддитивности, т.е. общая информация поступившая от двух когерентных источников 1 и 2
должна быть равна сумме отдельных вкладов
.
2
1
I I I
Понятно, что для выполнения этого
условия функция
f должна обладать следующим свойством:
2
1
2
1
1
1
1
1
1
P P f P P f P f .
Простейшей математической функцией, обладающей такого рода свойством является
логарифмическая, следовательно,
P P I log
1
log
. (1.3)
величина
I всегда положительна, так как
.
1
0
P В зависимости от выбора
основания логарифма в формуле (1.5) количество информации измеряется в «битах», «дитах» и
«натах» соответственно в случаях двоичных, десятичных и натуральных логарифмов. Наиболее
часто, как известно, за единицу количества информации кибернетике принято такое ее
количество, которое содержится в сообщении о совершении одного из двух равновероятных
событий.
Такая единица количества информации носит название бит или двоичная единица.
Например, информация, извлекаемая из исхода бросания симметричной монеты равна:
1
2
log
2
1
log
2
2
I бит.
Известно, что вероятности обладают свойством мультипликативности: вероятность
одновременных независимых событий равна произведению их вероятностей. Но, количество
информации как мера множества должна обладать свойствами аддитивности. Как отмечено
выше, единственная математическая функция, отвечающая этим свойствам, – логарифм, и
.
log
log
log
B A B A
Следовательно, эту формулу можно ввести как условие, выражающее свойство
аддитивности информации. Тогда рассмотрение его как функционального уравнения, позволило
бы получить (1.4) в виде его единственного решения. Из уравнения (1.3) следует важный,
единственно универсальный смысл информации: информативными являются события с малой
априорной (доопытной, теоретической) вероятностью, что много информации несут в себе
неожиданные события. Этот вывод не относится к редким, неповторяющимся событиям.
В конкретных случаях смысл информации несколько зависит от условия ее приема.
Например, одним из возможных носителей информации является электромагнитное поле. А вот
результат приема электромагнитного излучения не всегда однозначен: влияет флуктуация
количество фотонов, потеря фазы электромагнитной волны и т.д. Таким образом, как
количество, так и смысл информации не определяются полностью ее источником и
переносчиком – материальной средой. Результат приема зависит от ее интерпретации субъектом.
На вопрос, что такое информация, в настоящее время нет однозначного ответа. По сути
информация и материальна, и духовна.
Г.Хакен использует термин информация в различных смыслах. В частности, в [1] им
показано, что возникает новый тип информации связанный с коллективными переменными или
параметрами порядка. В некоторых случаях для исследования открытых сложных систем
понятие информации в смысле Шеннона оказывается более подходящим, чем понятие энтропии.
Процессам, нарушающим равновесное состояние в системе, противостоят внутренние
релаксационные процессы. Если интенсивность возмущающих процессов меньше, чем
интенсивность релаксационных, то можно ввести понятие о локальном равновесии, которое
устанавливается в малом объеме. Эта идея была высказана И.Пригожиным и позволила