Репрезентативность информации связана с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта. Важное значение здесь имеют:
правильность концепции, на базе которой сформулировано исходное понятие;
обоснованность отбора существенных признаков и связей отображаемого явления.
Нарушение репрезентативности информации нередко приводит к существенным ее погрешностям.
Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, то есть
,
где Ic– количество семантической информации,
Vд – объем данных.
Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п.
Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации, как и репрезентативность, обусловлена выбранной методикой ее отбора и формирования.
Приведем классификацию информации, данную С.А. Бешенковым и Е.А. Ракитиной 3, с. 43:
По способу восприятия:
визуальная,
аудиальная,
обонятельная,
вкусовая,
тактильная.
По степени значимости:
личная,
специальная,
общественная.
Личная – это знания, опыт, интуиция, умения, планы, прогнозы, эмоции, чувства, наследственная память конкретного человека. Специальная делится на научную, производственную, техническую, управленческую. Общественнаявключает в себя общественно-политическую, научно-популярную, обыденную, эстетическую.
По форме представления:
текстовая,
числовая,
графическая,
звуковая.
По способам (субъектам) обмена:
социальная,
техническая,
биологическая,
генетическая.
Приведем другой вариант классификации информации:
по сфере применения информации (экономическая, географическая, социологическая и пр.);
по характеру источников информации (первичная, вторичная, обобщающая и пр.);
по характеру носителя информации (информация, «зашифрованная» в молекулах ДНК или в длинах световых волн, информация на бумажном или магнитном носителе и пр.).
В зависимости от типа носителя различают следующие виды информации 1, с. 51:
документальную;
акустическую (речевую);
телекоммуникационную.
Документальная информация представляется в графическом или буквенно-цифровом виде на бумаге, а также в электронном виде на магнитных и других носителях.
Речевая информация возникает в ходе ведения разговоров, а также при работе систем звукоусиления и звуковоспроизведения. Носителем речевой информации являются звуковые колебания в диапазоне частот от 200…300 Гц до 4…6 кГц.
Телекоммуникационная информация циркулирует в технических средствах обработки и хранения информации, а также в каналах связи при ее передаче. Носителем информации при ее обработке техническими средствами и передаче по проводным каналам связи является электрический ток, а при передаче по радио- и оптическому каналам – электромагнитные волны.
Источник информации может вырабатывать непрерывное сообщение (сигнал), в этом случае информация называется непрерывной, или дискретной – информация называется дискретной.
Например, сигналы, передаваемые по радио и телевидению, а также используемые в магнитной записи, имеют форму непрерывных, быстро изменяющихся во времени зависимостей. Такие сигналы называются непрерывными, или аналоговыми сигналами. В противоположность этому в телеграфии и вычислительной технике сигналы имеют импульсную форму и называются дискретными сигналами.
Сравнивая непрерывную и дискретную формы представления информации, нетрудно заметить, что при использовании непрерывной формы для создания вычислительной машины потребуется меньшее число устройств (каждая величина представляется одним, а не несколькими сигналами), но эти устройства будут сложнее (они должны различать значительно большее число состояний сигнала).
Информация, циркулирующая в обществе, требует специальных средств и методов обработки, хранения и использования. Сформировались новые научные дисциплины – кибернетика, бионика, робототехника и другие, имеющие своей целью изучение закономерностей информационных процессов.
Существует три подхода к измерению информации:
I подход. – Неизмеряемость информации в быту (информация как новизна).
II подход. – Технический или объемный (информация как сообщения в форме знаков или сигналов, хранимые, перерабатываемые и обрабатываемые с помощью технических устройств).
В вычислительной технике применяются две стандартные единицы измерения информации: бит и байт. Поскольку компьютер предназначен для обработки больших объемов информации, то используют производные единицы – килобайт (Кб), мегабайт (Мб), гигабайт (Гб). Обычно приставка «кило» означает тысячу, а приставка «мега» - миллион. Но в вычислительной технике осуществляется привязка к принятой двоичной системе кодирования.
В силу этого один килобайт равен не 1000 байтов, а 210 = 1024 байта.
Аналогично, 1 Мб = 210 Кб = 1024 Кб = 220 байтов = 1 048 576 байтов.
1 Гб = 210 Мб = 1024 Мб = 220 Кб = 230 байтов = 1 073 741 824 байта.
III подход. – Вероятностный. Измерение информации в теории информации (информация как снятая неопределенность).
Получение информации (ее увеличение) означает увеличение знания, что, в свою очередь, означает уменьшение незнания или информационной неопределенности.
За единицу количества информации принимают выбор одного из двух равновероятных сообщений («да» или «нет», «1» или «0»). Она также названа битом.