Қазақ мемлекеттік қыздар педагогикалық университетінің Хабаршысы № 1 (77), 2019
73
описывать состояния в этой области теми же параметрами, что и в равновесном. Этот принцип
ввели и при медленном изменении внешних воздействий, то есть для времен, больших
характерного времени релаксационного процесса формирующего равновесие.
Если, какие-то процессы не позволяют системе прийти в устойчивое равновесие, где
прирост энтропии
0
S , то она придет в состояние с минимальным производством энтропии.
Эта теорема о минимуме производства энтропии в стационарных состояниях совместно с
принципом локального равновесия положены И.Пригожиным в основу современной
термодинамики необратимых процессов.
При определенных условиях суммарное уменьшение энтропии в системе, за счет обмена
потоками с внешней средой, может превысить ее внутреннее производство. Ее состояние
становится неустойчивым, в ней возникают крупномасштабные флуктуации. При этом за счет
внутренней перестройки системы из хаоса могут возникнуть упорядоченные структуры. Это
явление получило название самоорганизации. Современная общенаучная методология
синергетика – теория самоорганизации материи и ее движения рассматривает реальные объекты
как открытые системы, обменивающиеся с внешним миром энергией и информацией, т.е.
базируется, в основном, на достижениях нелинейной физики хаоса и порядка. Поэтому в
синергетике информация является ключевым понятием и основным объектом исследовании [2-
4,13].
Самоорганизация всегда структурна и одновременно стохастична. Эти два фактора -
нарушение симметрии и вероятностный характер явления обеспечивают достаточность условия
для порождения системой информации. В науку введено новое понятие «синергетическая
информация», означающее, что информация определяется через дискретные вероятности
i P
появление структур в процессе самоорганизации:
i P I log
, (1.4)
где
I всегда неотрицательна, так как
.
1
0
i P
Одно из определений информации дается как разность энтропии равновесного и
неравновесного состояний, открывает возможности применения ее для описания объектов
различной природы. Система, находящаяся вне точек устойчивости может принимать различные
состояния, и ей необходима информация о выборе того или иного состояния. Здесь одна из
возможностей заключается в том, что эта информация заложена в системе генетически.
Понятие энтропии связано также с распределением вероятностей случайных величин. При
равновероятном распределении энергии
i E вероятность реализации подсистем определяется
как:
Г E P I
/
1
, следовательно, энтропия определяется следующим выражением:
I E P Г S ln
, (1.5)
по смыслу средневероятного эта формула записывается в виде:
i i i i i i E P P P P S
,
ln
. (1.6)
Энтропия, определенная по формуле (1.6) называется информационной энтропией. Из
сравнения формул (1.2) и (1.5) видно, что энтропия определяет средневероятное значение
информации. При равновероятном распределении подсистем неопределенность о системе
достигает максимума, т.е. вся информация о системе стирается и превращается в энтропию
(формула (.1.2)). Приобретение информации сопровождается уменьшением неопределенности,
поэтому количество информации можно измерять количеством исчезнувшей неопределенности,
т.е. энтропии /7/: