Казахского государственного женского педагогического университета



Pdf көрінісі
бет107/423
Дата07.01.2022
өлшемі6,41 Mb.
#20043
1   ...   103   104   105   106   107   108   109   110   ...   423
Қазақ мемлекеттік қыздар педагогикалық университетінің Хабаршысы № 1 (77), 2019 
 
73 
 
описывать состояния в этой области теми же параметрами, что и в равновесном. Этот принцип 
ввели  и  при  медленном  изменении  внешних  воздействий,  то  есть  для  времен,  больших 
характерного времени релаксационного процесса формирующего равновесие.  
 Если,  какие-то  процессы  не  позволяют  системе  прийти  в  устойчивое  равновесие,  где 
прирост энтропии 
0


S
, то она придет в состояние с минимальным производством энтропии. 
Эта  теорема  о  минимуме  производства  энтропии  в  стационарных  состояниях  совместно  с 
принципом  локального  равновесия  положены  И.Пригожиным  в  основу  современной 
термодинамики необратимых процессов. 
 При  определенных  условиях  суммарное  уменьшение  энтропии  в  системе,  за  счет  обмена 
потоками  с  внешней  средой,  может  превысить  ее  внутреннее  производство.  Ее  состояние 
становится  неустойчивым,  в  ней  возникают  крупномасштабные  флуктуации.  При  этом  за  счет 
внутренней  перестройки  системы  из  хаоса  могут  возникнуть  упорядоченные  структуры.  Это 
явление  получило  название  самоорганизации.  Современная  общенаучная  методология 
синергетика – теория самоорганизации материи и ее движения рассматривает реальные объекты 
как  открытые  системы,  обменивающиеся  с  внешним  миром  энергией  и  информацией,  т.е. 
базируется,  в  основном,  на  достижениях  нелинейной  физики  хаоса  и  порядка.  Поэтому  в 
синергетике информация является ключевым понятием и основным объектом исследовании [2-
4,13]. 
 Самоорганизация  всегда  структурна  и  одновременно  стохастична.  Эти  два  фактора  - 
нарушение симметрии и вероятностный характер явления обеспечивают достаточность условия 
для  порождения  системой  информации.  В  науку  введено  новое  понятие  «синергетическая 
информация»,  означающее,  что  информация  определяется  через  дискретные  вероятности 
i
P
 
появление структур в процессе самоорганизации:  
 
i
P
I
log


, (1.4) 
где 
I
 всегда неотрицательна, так как 
.
1
0


i
P
  
 Одно  из  определений  информации  дается  как  разность  энтропии  равновесного  и 
неравновесного  состояний,  открывает  возможности  применения  ее  для  описания  объектов 
различной природы. Система, находящаяся вне точек устойчивости может принимать различные 
состояния,  и  ей  необходима  информация  о  выборе  того  или  иного  состояния.  Здесь  одна  из 
возможностей заключается в том, что эта информация заложена в системе генетически.  
 Понятие энтропии связано также с распределением вероятностей случайных величин. При 
равновероятном  распределении  энергии 
i
E
  вероятность  реализации  подсистем  определяется 
как: 
 
Г
E
P
I


/
1
, следовательно, энтропия определяется следующим выражением: 
 
 
I
E
P
Г
S
ln




, (1.5) 
по смыслу средневероятного эта формула записывается в виде:  
 
 
i
i
i
i
i
i
E
P
P
P
P
S




,
ln
. (1.6) 
 Энтропия,  определенная  по  формуле  (1.6)  называется  информационной  энтропией.  Из 
сравнения  формул  (1.2)  и  (1.5)  видно,  что  энтропия  определяет  средневероятное  значение 
информации.  При  равновероятном  распределении  подсистем  неопределенность  о  системе 
достигает  максимума,  т.е.  вся  информация  о  системе  стирается  и  превращается  в  энтропию 
(формула  (.1.2)).  Приобретение  информации  сопровождается  уменьшением  неопределенности, 
поэтому количество информации можно измерять количеством исчезнувшей неопределенности, 
т.е. энтропии /7/:  
 


Достарыңызбен бөлісу:
1   ...   103   104   105   106   107   108   109   110   ...   423




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет