Энтропия дискретного ансамбля сообщений
Среднее количество информации, содержащееся в ансамбле , определяется математическим ожиданием
. (2.6)
Величина называется энтропией ансамбля
и имеет размерность
. Под термином сообщение понимается элемент ансамбля
: это может быть символ или набор символов, образующих некоторое сообщение и т. д.
Пример 1.Положим, образуют ансамбль сообщений
. Вероятности реализаций этих сообщений соответственно равны
0.1,
0.4,
0.2,
0.3. Определим количество информации, содержащуюся в каждом сообщении, и меру неопределённости в ансамбле
.
После расчетов получим
3.3219
,
1.3219
,
2.3219
,
1.7369
.
Энтропия ансамбля равна 1.84644
.
Как видно, наибольшее количество информации содержится в сообщении , которая реализуется с наименьшей вероятностью, и наименьшее количество информации содержится в сообщении
, вероятность реализации которой наибольшая. Чем ближе к единице вероятность реализации сообщения, тем меньше информации содержится в этом сообщении. Эти выводы хорошо согласуются с субъективным представлением о ценности получаемых сведений.
Пример 2. Положим, одно из сообщений ансамбля реализуется с вероятностью
0. Тогда какое-то другое сообщение будет реализовываться с вероятностью
1. Вычислим энтропию вновь полученного ансамбля
.
.
Получили неопределённость типа . Разрешив эту неопределённость, получим
. Неопределённость в ансамбле
отсутствует.
Энтропия характеризует меру средней неопределённости ансамбля
.Пусть задан ансамбль
: {
} с распределением вероятностей
,
. Тогда энтропия
удовлетворяет неравенству
В дальнейшем используем неравенство , рисунок 2.1. Знак равенства будет только в случае
. Тогда имеем
.
Из последнего неравенства следует, что знак равенства в правой части неравенстве (2.7) будет в том случае, если
= 1 или
.
Энтропия ансамбля
будет максимальной, если все события
равновероятны. Ценность информации в каждом
сообщении, с точки зрения частоты её появления в результате опытов, будет равна
.
Вычислим энтропию произведения ансамблей :
и
:
. Произведение ансамблей образует матрицу сообщений
с распределением вероятностей
.
Пользуясь определением энтропии ансамбля, запишем энтропию произведения ансамблей
=
(2.8)
Условная энтропия
зависит от условной меры информации
- количества информации, содержащаяся в сообщении
, при условии, что уже реализовалось сообщение
, т.е.
- это не случайное событие в условной мере информации
, случайность реализации
учитывается в вероятности
.
Если ансамбли и
независимы, т.е.
, то энтропия произведения ансамблей равна сумме энтропий ансамблей
и
. (2.9)
Пользуясь методикой, применяемой при доказательстве неравенства (2.6), можно показать, что
. (2.10)
Если имеется множество ансамблей , то энтропия произведения ансамблей равна
,
(2.11)