Мера информации по Шеннону
Сообщения могут быть закодированы разными символами. Число разных символов, из которых образуются сообщения, составляет основание кода, (русский алфавит имеет 33 символа, двоичный код – 2 символа, код Бодо – 5 символов и т.д.).
Совокупность различных символов, составляющих основание кода, назовем алфавитом.
Пусть
- основание кода и передается последовательность
, где
- один из символов из алфавита. Число всевозможных сообщений, которые можно создать равно
. Информация, содержащаяся в ансамбле из N сообщений, должна быть пропорциональна длине последовательности. Р. Хартли в 1928 г. предложил за меру количества информации в ансамбле из N сообщений принять величину
.
Но мера информации по Хартли не учитывает вероятностный характер появления элементов последовательности
.
Мера – это одна из характеристик исследуемого объекта. Это может быть длина, ёмкость и т.д. В данном случае необходимо определить меру информации, содержащемся в каждом элементе ансамбля и среднюю меру информации в ансамбле в целом.
Мера должна обладать двумя свойствами:
1. мера исследуемого объекта не должна быть отрицательной,
2. если объект состоит из нескольких элементов, каждый обладающий определённой мерой, полная мера объекта равна суме мер отдельных составляющих, (условие аддитивности) .
Пусть ансамбль
состоит из элементов
. Выберем два элемента
из этого ансамбля, имеющих совместную вероятность реализации этих элементов
.
Обозначим через
меру информации, содержащемся в элементе
. Тогда, используя свойство аддитивности меры, запишем меру информации, содержащуюся в ансамбле из двух элементов
,
,
. (2.1)
Дифференцируя левую и правую части выражения (**.1) по
, получим
.
.
В результате имеем

Умножив обе части полученного равенства на
, получим уравнение
. (2.2)
Уравнение (***.2) имеет решение, если
, (2.3)
где С – постоянная величина.
Интегрируя уравнение (***.3), получим
,
(2.4)
Определим
из условия: если событие
происходит с вероятностью
, то оно не несёт никакой информации для абонента. Поэтому функция
и
.
Так как мера информации не должна быть отрицательной, а
и
.
Так как мера информации не должна быть отрицательной, а
, то коэффициент
должен быть отрицательным. Если
, то мера информации имеет вид

и измеряется в неперах, [Неп]. Однако на практике, ввиду развития цифровой техники и использования двоичной системы счисления чаще применяется основание логарифма, равное 2. Тогда
и мера информации, или количество информации, содержащаяся в элементе
, будет равна
. (2.5)
В дальнейшем основание логарифма 2 будем опускать. Мера информации
измеряется в битах, (Бит).
Каждый элемент ансамбля обладает своим количеством информации
, реализующимся с вероятностью
. Таким образом, мера информации – это характеристика элемента ансамбля
, являющаяся случайной величиной с реализациями в виде количества информации
, появляющихся с вероятностями
, (Таблица 1).
| Таблица 2.1 | |||
|
|
|
|
| P |
|
|
|
|
|
|
|