Субъективный (содержательный) подход

Цель работы: научиться решать задачи на количественное измерение информационного объема текстовой информации.

 

Методические указания.

В связи с разными подходами к определению информации выделяют два подхода к измерению информации.

Субъективный (содержательный) подход

При данном подходе информация – это сведения, знания, которые человек получает из различных источников. Таким образом, сообщение информативно (содержит ненулевую информацию), если оно пополняет знания человека.

При субъективном подходе информативность сообщения определяется наличием в нем новых знаний и понятностью для данного человека (определение 1). Разные люди, получившие одно и тоже сообщение, по-разному оценивают количество информации, содержащееся в нем. Это происходит оттого, что знания людей об этих событиях, явлениях до получения сообщения были различными. Сообщение информативно для человека, если оно содержит новые сведения, и неинформативно, если сведения старые, известные. Таким образом, количество информации в сообщении зависит от того, насколько ново это сообщение для получателя и определяется объемом знаний, который несет это сообщение получающему его человеку.

При содержательном подходе возможна качественная оценка информации: достоверность, актуальность, точность, своевременность, полезность, важность, вредность…

С точки зрения информации как новизны мы не можем оценить количество информации, содержащейся в новом открытии, музыкальном стиле, новой теории развития.

Субъективный подход основывается на том, что получение информации, ее увеличение, означает уменьшение незнания или информационной неопределенности (определение 2).

Единица измерения количества информации называется бит (bit – binary digit), что означает двоичный разряд.

Количество информации – это количество бит в сообщении.

Сообщение, уменьшающее информационную неопределенность (неопределенность знаний) в два раза, несет для него 1 бит информации.

Что же такое «информационная неопределенность»?

Информационная неопределенность о некотором событии – это количество возможных результатов события.

Пример_1: Книга лежит на одной из двух полок – верхней или нижней. Сообщение о том, что книга лежит на верхней полке, уменьшает неопределенность ровно вдвое и несет 1 бит информации.

Сообщение о том, что произошло одно событие из двух равновероятных, несет 1 бит информации.

Пример_2: Нестеров живет на Ленинградской улице. Мы получили сообщение, что номер его дома есть число четное, которое уменьшило неопределенность. После получения такой информации, мы стали знать больше, но информационная неопределенность осталась, хотя и уменьшилась в два раза.

Пример_3:Ваш друг живет в 16-ти этажном доме. Сколько информации содержит сообщение о том, что друг живет на 7 этаже.

Решение: Информационная неопределенность (количество возможных результатов события) равна 16. Будем задавать вопросы, на которые можно ответить только «да» или «нет». Вопрос будем ставить так, чтобы каждый ответ приносил 1 бит информации, т.е. уменьшал информационную неопределенность в два раза.

Задаем вопросы: - Друг живет выше 8-го этажа?

- Нет.

После этого ответа число вариантов уменьшилось в два раза, следовательно, информационная неопределенность уменьшилась в два раза. Получен 1 бит информации.

- Друг живет выше 4-го этажа?

- Да.

Число вариантов уменьшилось еще в два раза, получен еще 1 бит информации.

- Друг живет выше 6-го этажа?

- Да.

После данного ответа осталось два варианта: друг живет или на 7 этаже, или на 8 этаже. Получен еще 1 бит информации.

- Друг живет на 8-м этаже?

- Нет.

- Все ясно. Друг живет на 7-м этаже.

Каждый ответ уменьшал информационную неопределенность в два раза. Всего было задано 4 вопроса. Получено 4 бита информации. Сообщение о том, что друг живет на 7-м этаже 16-ти этажного дома несет 4 бита информации.

 

Научный подход к оценке сообщений был предложен еще в 1928 году Р. Хартли.

Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных событий (равновероятность обозначает, что ни одно событие не имеет преимуществ перед другими). Тогда количество информации, заключенное в этом сообщении, - x бит и число N связаны формулой:

2x = N

где x – количество информации или информативность события (в битах);

N – число равновероятных событий (число возможных выборов).

Данная формула является показательным уравнением относительно неизвестной x. Решая уравнение, получим формулу определения количества информации, содержащемся в сообщении о том, что произошло одно из N равновероятных событий, которая имеет вид:

x = log2N

логарифм от N по основанию 2.

Если N равно целой степени двойки, то такое уравнение решается легко, иначе справиться с решением поможет таблица логарифмов.

Если N = 2 (выбор из двух возможностей), то x = 1 бит.

Возвращаясь к примеру_3, если воспользоваться формулой для подсчета количества информации в сообщении о том, что друг живет на 7-м этаже 16-ти этажного дома, то x = log216 = 4 бита.

Пример_4: Какое количество информации несет сообщение о том, что встреча назначена на июль?

Решение: В году 12 месяцев, следовательно, число равновероятных событий или число возможных выборов N = 12. Тогда количество информации x = log212. Чтобы решить это уравнение воспользуемся таблицей логарифмов или калькулятором.

Ответ: x = 3,58496 бита.

Пример_5: При угадывании целого числа в диапазоне от 1 до N было получено 8 бит информации. Чему равно N?

Решение: Для того, чтобы найти число, достаточно решить уравнение N=2x , где x = 8. Поскольку 28 = 256, то N = 256. Следовательно, при угадывании любого целого числа в диапазоне от 1 до 256 получаем 8 бит информации.

Ситуации, при которых точно известно значение N, редки. Попробуйте по такому принципу подсчитать количество информации, полученное при чтении страницы книги. Это сделать невозможно.

Формула для нескольких неравновероятных событий была выведена в 1948 году Клодом Шенноном и названа его именем (формула Шеннона). Она имеет следующий вид:

В этой формуле:

I - количество информации, которое несет сообщение.

N - количество возможных событий.

pi - вероятность отдельного события.

 

Для расчета вероятности отдельного события (pi) используют следующую формулу:

В этой формуле:

Ni - количество определенных событий.

pi - вероятность отдельного события.

N - количество возможных событий.

 

Существует формула для расчета количества информации об одном событии из множества:

В этой формуле:

Ii - количество информации об одном событии.

pi - вероятность отдельного события.