ИЗМЕРЕНИЕ И ПРЕДСТАВЛЕНИЕ ИНФОРМАЦИИ

1.3.1. Информация и формы ее адекватности (см. конспект лекций)

Измерение информации

Для измерения информации вводятся два параметра: количество информации и объем данных . Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности (рис. 1.3).

Рис. 1.3. Меры информации

Синтаксическая мера оперирует с обезличенной информацией, не выража­ющей смыслового отношения к объекту. Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и, в соответствии с этим, используются различные единицы измерения объема данных. Например, в двоичной системе счисления единицей измерения является бит.

Пример 1.2. Сообщение 10111011 в двоичной системе счисления имеет объем данных = 8 бит.

Количество информации на синтаксическом уровне невозможно опреде­лить без рассмотрения понятия неопределенности состояния системы (энтропии системы), поскольку получение информации о системе всегда связано с изменением степени неосведомленности потребителя о ее состоянии.

Пусть до получения информации потребитель имеет некоторые предварительные (ап­риорные) сведения о системе . Мерой его неосведомленности о системе является некоторая функция . После получения сообщения потребитель приобрел некоторую дополни­тельную информацию . Она уменьшит его априорную неосведомленность так, что апостериорная неопределенность состояния системы (т. е. неопределенность состояния после получения сообщения ) станет равной . Тогда количество информации о системе, полученной в сообщении , опре­делится по формуле

.

Таким образом, количество информации измеряется уменьшением неопределенности со­стояния системы.

Если конечная неопределенность обратится в нуль, то первоначальное не­полное знание заменится полным знанием и . Иными словами, энтропия системы может рассматриваться как мера недостающей информации.

Согласно формуле Шеннона, энтропия системы, имеющей возможных состояний, равна

,

где – вероятность того, что система находится в -м состоянии .

Для случая, когда все состояния системы равновероятны, т. е. , ее энтропия определяется соотношением

.

Часто информация кодируется числовыми кодами в той или иной системе счисления (например, при представлении информации в компьютере). Одно и то же количество разрядов в разных системах счисления может передать разное число состояний отображаемого объекта, которое определяется по формуле

,

где – число всевозможных отображаемых состояний, – основание системы счисления (число различных символов, применяемых при кодировании), – число разрядов в сообщении.

Пример 1.3. По каналу связи передается -разрядное сообщение, использующее различных символов. Так как количество всевозможных кодовых комбинаций равно , то при равной вероятности появления любой из них количество информации, приобретенной абонентом в результате получения сообщения, будет равно (формула Хартли).

Если в качестве основания логарифма принять , то . В данном случае коли­чество информации будет равно объему данных ( ). Для неравновероятных состояний системы всегда .

Коэффициент информативности (лаконичность) сообще­ния определяется по формуле

, причем .

С увеличением уменьшается объем работы по преобразованию информации в системе. Поэтому стремятся к повышению информативности, для чего раз­рабатываются специальные методы оптимального кодирования информации.

Для измерения смыслового содержания информации, т. е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семанти­ческие свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя.

Тезаурус – совокупность сведений, которыми располагает пользо­ватель или система.

В зависимости от соотношений между смысловым содержанием информации и тезаурусом пользователя изменяется количество семантической информации , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус (рис. 1.4). Рассмотрим два предельных случая, когда коли­чество семантической информации равно 0:

§ при пользователь не воспринимает поступающую информацию;

§ при пользователь все знает, и поступающая информация ему не нужна.

Рис. 1.4. Зависимость количества семантической информации от его тезауруса

Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания со своим тезаурусом (т. е. при ), когда поступающая информация понятна пользователю и несет ему ранее не известные сведения.

Количество семантической информации, получаемой пользователем в сообщении, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (являться семантическим шумом) для пользователя некомпетентного.

Относительной мерой количества семантической информации является коэффициент содержательности , который определяется по формуле

.

Прагматическая мера определяет ценность информации для достижения пользователем поставленной цели. Эта мера также является величиной относительной, обусловленной особеннос­тями использования информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах, в которых изме­ряется целевая функция.

Пример 1.4. В экономической системе ценность инфор­мации можно определить приростом экономического эффекта функционирования, достигнутым благодаря использованию этой информации для управления системой, по формуле

,

где – ценность информационного сообщения для системы управления ;

– априорный ожидаемый экономический эффект функционирования системы управления ;

– ожидаемый эффект функционирования системы при условии, что для управления будет использована информация, содержащаяся в со­общении .

Для сопоставления введенные меры информации представим в виде таблицы.


Таблица 1.1