В ы с ш е е п р о ф е с с и о н а л ь н о е о б р а з о в а н и е информатика и программироВание осноВы информатики



Pdf көрінісі
бет15/196
Дата09.01.2022
өлшемі4,7 Mb.
#23908
түріУчебник
1   ...   11   12   13   14   15   16   17   18   ...   196
Байланысты:
1 Основы информатики

2.4. синтаксическая мера информации
2.4.1. вероятностный подход
Информация  нуждается  в  измерении.  На  практике  количество
информации измеряется с точки зрения синтаксической адекватно-
сти. Исторически сложились два подхода к измерению информации:
вероятностный и объемный. В 1940-х гг. К. Шеннон предложил ве-
роятностный  подход,  а  работы  по  созданию  ЭВМ  способствовали
развитию объемного подхода.
Рассмотрим вероятностный подход к измерению количества ин-
формации  в  соответствии  с  первой  концепцией  информации  (см.
подразд. 2.1).


16
Пусть система
α может принимать одно из N состояний в каждый
момент  времени,  причем  каждое  из  состояний  равновероятно.  На-
пример, в качестве системы могут выступать опыты с подбрасывани-
ем монеты (
N
= 2) или бросанием игральной кости (N = 6).
Количество  информации  системы
α  вычисляется  по  формуле,
предложенной Р. Хартли:
H
H
N
N
=
( )
ln
ln
.
α =
=
log
2
2
При

= 2 количество информации минимально и равно H = 1.
Поэтому в качестве единицы информации принимается количество
информации,  связанное  с  двумя  равновероятными  состояниями
системы, например: «орел» — «решка», «ложь» — «истина». Такая еди-
ница количества информации называется
бит.
Введем  понятие  вероятности.  Вероятность  события
A  —  это  от-
ношение числа случаев
M, благоприятствующих событию A, к обще-
му количеству случаев
N:
Р
M
N
=
.


Достарыңызбен бөлісу:
1   ...   11   12   13   14   15   16   17   18   ...   196




©emirsaba.org 2024
әкімшілігінің қараңыз

    Басты бет