Закон аддитивности информации

Пусть задано множество X, содержащее N1 элементов xi Є X,а также множество Y,содержащее N2 элементов yj Є Y. Составим пары элементов (xi yj). Очевидно, что множество пар будет содержать N1·N2 элементов.

Количество информации (двоичных разрядов), необходимое, чтобы каждой паре (xi yj) поставить в соответствие двоичный код составит:

log2(N1·N2)= log2 N1+ log2 N2

Последнее выражение носит название закона аддитивности информации.

 

Формула Хартли получена при ограничениях.

 

1. Отсутствие смысловой ценности информации.

 

2. N возможных состояний равновероятны:

log N = -log 1/N = -log p

p = 1/N— вероятность появления одного сообщения.

 

3. Между элементарными сигналами отсутствует корреляция, и все значения равновероятны. Утверждение об отсутствии корреляции следует из того, что для передачи сообщений используются все возможные сигналы. Равная вероятность всех N значении сигналов следует из формулы:

 

log N = - log 1/N= - log p

р=1/N— вероятность появления любого значения из N возможных.

 

Возникают ситуации, в которых отмеченные выше ограничения не действуют, поэтому для них формула Хартли дает неверные результаты. Другое представление количества информации было найдено Клодом Шенноном примерно через 20 лет после опубликования формулы Хартли.

 

Пусть дан некоторый ансамбль сообщений с указанием вероятности появления каждого из них {X,P(x)}.При этом суммарная вероятность всех сообщений должна быть равна единице. В этом случае говорят, что ансамбль представляет собой полную группу событий. В ансамбле не указывается конкретное число сообщений, т.к. оно не имеет особого значения.

x1, x2,… xi xn Σ Pi = 1

{X,P(x)} =

P1, P2,…Pi…Pn

 

Верхняя строка содержит сообщение (значение дискретной случайной величины), нижняя — вероятности их появления.

Пусть получено сообщение xi, вероятность которого Pi. Очевидно, что сообщение содержит некоторую информацию, обозначим её I(xi).Что принять в качестве количественной меры информации в данном случае. Поскольку кроме вероятности появления этого сообщения ничего неизвестно, то естественным является связать количество информации в этом сообщении с вероятностью его появления.

Жизненный опыт подсказывает, что информация о событии тем значительнее, чем меньше вероятность появления такого события. Однако, мера количества информации в виде 1/P(xi)не удобна по двум причинам: она не обладает свойством аддитивности и не обслуживает случай достоверного события.

В теории информации в качестве меры количества информации принята логарифмическая мера.

Определение 1. Количеством собственной информации в сообщении xi Є Xназывается число I(xi),определяемое соотношением:

I(xi)= log 1/P(xi)=-log P(xi) (1)

Единица измерения количества информации и её названия зависит от основания логарифма. Если основанием логарифма является:

· Число 2, т.е. log2P(xi)[бит]

· Число e, т.е. logeP(xi)=lnP(xi)[нат] «natural digit»

· Число 10, т.е. . lg10P(xi)[дит]

 

Собственная информация неотрицательно и сообщение, имеющее меньшую вероятность несет большую информацию.

Количество информации, определяемое соотношением (1) является действительной функцией на ансамбле {X,P(x)}и следовательно, представляет собой случайную функцию со значениями I(x1), I(x2),…, I(xn).

Среднее количество информации, содержащееся в одном сообщении можно выразить:

 

M [I(xi)]=Σ Pi I(xi)=-Σ P ilogPi (2)

Выражение (2) является формулой Шеннона и решает одну из основных задач теории информации, задачу количественной меры информации. Для двоичных сообщений формула имеет вид:

I[X] = -Σ Pi log2Pi [бит]

Формула Шеннона отображает общий случай, для произвольного закона распределения, когда вероятности отдельных сообщений не равны. Легко показать, что формула Хартли является частным случаем формула Шеннона, когда вероятности сообщений равны между собой. Если в формуле Шеннона принять одинаковую вероятность всех сообщений равную Pi(xi)=1/N=1/2n, если N=2n, то после преобразований получим:

 

-Σ Pi log2Pi = N·1/N·log2 1/(1/N) = log2N = n

Следует подчеркнуть, что получить информацию можно только в результате опыта (наблюдения) и количество её зависит от вероятностных свойств источника, а свойства, в свою очередь от природы самого источника.

 

Энтропия

Поскольку сообщения случайные, то и количество инф,ормации получаемой вкаждом наблюдении, является случайной величиной. Для интегральной оценки источника используют среднюю меру, называемую энтропией.

Определение. Математическое ожидание H(X) случайной величины I(xi),определенной на ансамбле {X,P(x)}называется энтропией этого ансамбля:

H(X) = Σ I(xi) P(xi) = -Σ P(xi) log2P(xi)бит/выход источника

 

Энтропия источника – среднее количество информации в одном сообщении. Не следует путать энтропию источника с количеством информации в одном конкретном сообщении I(xi).

Свойства энтропии источника дискретных сообщений:

1. Энтропия ограничена, неотрицательна, вещественна. Это вытекает из свойства вероятности:

0 ≤ P(xi) ≤ 1

2. Энтропия детерминированного сообщения равна нулю.

 

Запишем формулу энтропии в виде:

 

H(X) = -P1 log2Pi - Σ Pi log2Pi = 0 , где P1log2Pi=0 (2)

Если P1=1, то сумма всех остальных вероятностей равна 0. Первый член в выражении (2) равен нулю. Рассмотрим одно слагаемое в сумме, устремив Pi→0.

lim(-Pi log2Pi)=lim P log21/Pi= lim log2ß/ ßi

Pi→0 Pi→0 ß → ∞

 

Раскрыв неопределённость по Лопиталю, получим:

lim (1/ ß) ·ln2 = 0

Энтропия детерминированного сообщения равна нулю. Иными словами, сообщения, содержание которого известно, информации не несёт.

 

3. Энтропия альтернативного сообщения.

Альтернативный источник имеет только два выходных значения с вероятностями p и q, где q=(1-p), выражение для энтропии имеет вид:

H=-p log2(p-q) log2q

Это функция двух переменных p и q. Учитывая, что q=(1-p), получим:

H=-p log2(p-(1-p)) log2(1-p)

Изменяя p от 0 до 1 можно построить график рис. 2.

ХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХХ

 

4. Энтропия дискретного источника со многими состояния максимальна, если состояния равновероятны.

 

Термин «энтропия» имеет несколько неопределённый смысл, что вызвано использованием его в термодинамике и статистической механике для выражения несколько иных понятий.

 

Результатом рассмотрения информационных моделей сигналов являлась оценка информации для каждого символа:

I(xi) = -log2P(xi)

И формула энтропии источника дискретных сообщений:

H(x) = M[I(xi)] = -Σ Pi log2Pi

Из свойств энтропии следует, что количество информации в битах на символ лежит в пределах:

0 ≤ H(X) ≤ log2N

Нижний предел соответствует отсутствию неопределённости, а верхний максимальной неопределённости или равновероятности исходов наблюдений. Если распределение алфавита неравномерно информационное содержание алфавита меньше максимального и может быть найдено по формуле Шеннона:

H(x) = - Σ Pi log2Pi

В формуле предполагается, что символы источника является статистически независимыми, т.е. для двух символов (xjxk):

P(xj,xk) = P(xj/xk) P(xk) = P(xj) P(xk)

Если такое утверждение справедливо для источника, то такой источник называется источником без памяти.Энтропия источника без памяти называется безусловной энтропией.

Между максимальной энтропией Hmax(x)и безусловной Hбез(x)должно соблюдаться очевидное условие:

Hбез(x) ≤ Hmax(x)

Уменьшение безусловной энтропии обусловлено различием вероятностей сообщений.

Энтропия, учитывающая статистическую зависимость между сообщениями, называется условной и находится по формуле:

 

Hусл(x) = Σ P(xi) Hусл(x/xi), бит/сообщение.

 

Где Hусл(x/xi) = - Σ P(xj/xi) log2P(xj/xi)

Условная частная энтропия, вычисляемая для каждого сообщения xi. Между услновной энтропией и безусловной соблюдается неравенство:

Hусл (x) ≤ Hбез(x)

По сравнению с безусловной энтропией условная энтропия учитывает более тонкую структуру вероятностных свойств источника, поэтому является более точной характеристикой источника.

Если элементы источника, образующие последовательность не являются независимыми, то такой источник называется источником с памятью.

 

Зависимость символов означает, что для последовательности Ксимволов неопределённость относительно К-го символа уменьшается, если известны (K-1) предыдущие. В слове СТУДЕН_неопределённость относительно последней буквы уменьшается, если известны предшествующие.

Энтропия системы зависимых случайных величин

 

 

или , (1.4)

где H(X) - безусловная энтропия величины Х;

H(Y) - безусловная энтропия величины Y;

H(Y/X) - условная энтропиявеличины Y относительно величины Х;

H(X/Y) - условная энтропия величины X относительно Y.

Для независимых величин и .

Условная энтропия X относительно Y

, (1.5)

где P(xi/yj) - вероятность значения xi величины X при условии, что величина Y приняла значение yj (условная вероятность).

Условная энтропия величины X относительно значения yj величины Y

. (1.6)