Казахского государственного женского педагогического университета



Pdf көрінісі
бет106/423
Дата07.01.2022
өлшемі6,41 Mb.
#20043
1   ...   102   103   104   105   106   107   108   109   ...   423
P
f
I
1
 . (1.2) 
 Для определения вида неизвестной функции 
f
 считаем, что для 
I
 выполняется правило 
аддитивности,  т.е.  общая  информация  поступившая  от  двух  когерентных  источников  1  и  2 
должна  быть  равна  сумме  отдельных  вкладов 
.
2
1
I
I
I


  Понятно,  что  для  выполнения  этого 
условия функция 
f
 должна обладать следующим свойством:  
 






















2
1
2
1
1
1
1
1
1
P
P
f
P
P
f
P
f
.  
Простейшей  математической  функцией,  обладающей  такого  рода  свойством  является 
логарифмическая, следовательно
 
P
P
I
log
1
log



. (1.3) 
величина 
I
  всегда  положительна,  так  как 
.
1
0


P
  В  зависимости  от  выбора 
основания логарифма в формуле (1.5) количество информации измеряется в «битах», «дитах» и 
«натах» соответственно в случаях двоичных, десятичных и натуральных логарифмов. Наиболее 
часто,  как  известно,  за  единицу  количества  информации  кибернетике  принято  такое  ее 
количество,  которое  содержится  в  сообщении  о  совершении  одного  из  двух  равновероятных 
событий. 
 Такая  единица  количества  информации  носит  название  бит  или  двоичная  единица. 
Например, информация, извлекаемая из исхода бросания симметричной монеты равна: 
 
1
2
log
2
1
log
2
2




I
бит. 
 Известно,  что  вероятности  обладают  свойством  мультипликативности:  вероятность 
одновременных  независимых  событий  равна  произведению  их  вероятностей.  Но,  количество 
информации  как  мера  множества  должна  обладать  свойствами  аддитивности.  Как  отмечено 
выше, единственная математическая функция, отвечающая этим свойствам, – логарифм, и  
 
 
.
log
log
log
B
A
B
A


  
 Следовательно,  эту  формулу  можно  ввести  как  условие,  выражающее  свойство 
аддитивности информации. Тогда рассмотрение его как функционального уравнения, позволило 
бы  получить  (1.4)  в  виде  его  единственного  решения.  Из  уравнения  (1.3)  следует  важный, 
единственно  универсальный  смысл  информации:  информативными  являются  события  с  малой 
априорной  (доопытной,  теоретической)  вероятностью,  что  много  информации  несут  в  себе 
неожиданные события. Этот вывод не относится к редким, неповторяющимся событиям. 
 В  конкретных  случаях  смысл  информации  несколько  зависит  от  условия  ее  приема. 
Например, одним из возможных носителей информации является электромагнитное поле. А вот 
результат  приема  электромагнитного  излучения  не  всегда  однозначен:  влияет  флуктуация 
количество  фотонов,  потеря  фазы  электромагнитной  волны  и  т.д.  Таким  образом,  как 
количество,  так  и  смысл  информации  не  определяются  полностью  ее  источником  и 
переносчиком – материальной средой. Результат приема зависит от ее интерпретации субъектом. 
На  вопрос,  что  такое  информация,  в  настоящее  время  нет  однозначного  ответа.  По  сути 
информация и материальна, и духовна.  
 Г.Хакен  использует  термин  информация  в  различных  смыслах.  В  частности,  в  [1]  им 
показано, что возникает новый тип информации связанный с коллективными переменными или 
параметрами  порядка.  В  некоторых  случаях  для  исследования  открытых  сложных  систем 
понятие информации в смысле Шеннона оказывается более подходящим, чем понятие энтропии.  
 Процессам,  нарушающим  равновесное  состояние  в  системе,  противостоят  внутренние 
релаксационные  процессы.  Если  интенсивность  возмущающих  процессов  меньше,  чем 
интенсивность  релаксационных,  то  можно  ввести  понятие  о  локальном  равновесии,  которое 
устанавливается  в  малом  объеме.  Эта  идея  была  высказана  И.Пригожиным  и  позволила 




Достарыңызбен бөлісу:
1   ...   102   103   104   105   106   107   108   109   ...   423




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет