Дискретный канал передачи информации

 

Рассмотрим модель канала передачи информации

 

, ,

,

[бит] - количество информации (мера неопределённости), содержащаяся в элементе ансамбля .

[бит] - количество информации, содержащееся в элементе при условии, на входе канала реализуется элемент ансамбля . Иногда её называют остаточной неопределённостью в элементе при условии реализации на входе канала элемента .

[бит] - количество информации, содержащееся в элементе на выходе канала связи относительно элемента на входе канала. Используя безусловную и условную вероятности и , можно получить

- количество информации, содержащееся в элементе относительно элемента .

Суммируя по всем возможным элементам и с соответствующими весами , получим

 

(2.19)

- количество взаимной информации, содержащейся в ансамбле относительно ансамбля .

(Зюко. Помехоустойчивость и эффективность систем связи. «Связь». 1972, 360 с.)

Выразим количество взаимной информации через энтропии ансамблей:

= . (2.20 а)

Формулу (2.18 а) можно интерпретировать как среднее количество информации, переданное по каналу связи. Условная энтропия зависит от характеристик шума и интерпретируется как среднее количество информации, теряемое в канале связи из-за шума, и её называют ненадёжностью [ Р. Фано , стр 66].

Используя соотношение (2.17), можно показать

. (2.20 б)

Энтропия - это среднее количество принятой информации, необходимое для определения принятого сигнала. Условная энтропия - среднее количество принятой информации, когда известны вероятностные характеристики ансамбля Y. Ввиду того, что сигнал и шум аддитивны и независимы, а характеристики сигнала учитываются в расчетах условной энтропии , то - среднее количество информации, необходимое для определения помехи, или энтропия помехи (шума) в канале связи. При отсутствии помех в канале связи

= =0 и = .

Пример 1. Положим, сигналы в канале передачи данных не искажаются, т.е. шумы в канале отсутствуют. Условная вероятность появления символов и в этом случае равна

Тогда условная энтропия равна нулю и количество взаимной информации определяется энтропией ансамбля Z. Но ранее было показано, что = . Из этого равенства и отсутствия шума следует, что , то есть количество взаимной информации на выходе канала связи относительно входа равна энтропии (неопределённости) ансамбля на входе канала передачи данных. И чем больше энтропия , тем больше информации передаётся по каналу связи.

Пример 2. Положим, сигналы в канале передачи данных искажаются настолько, что сигналы на приёмном конце канала передачи данных можно считать статистически независящими от передаваемых значений . В этом случае условная вероятность запишется как

и количество взаимной информации будет равно нулю, то есть абонент не получит никакой информации, хотя он будет фиксировать принимаемые символы .

Из рассмотренных примеров видно, чем больше энтропия , тем больше информации может быть передано по каналу. Для дискретных источников информации, как было показано ранее, энтропия принимает наибольшее значение, если элементы ансамбля равновероятны. Это положение относится как к ансамблю X, так и к ансамблям Y и Z то есть

, , где N и K – количество элементов ансамблей X и Y. Для непрерывных распределений вероятностей , , имеющих конечную дисперсию, энтропия принимает максимальное значение, если значения x и y распределены по нормальному закону.

Ансамбль сообщений, энтропия которых равна максимальному значению, является оптимальным ансамблем в смысле наибольшего количества передаваемой информации [Клюев].

Для оценки того, насколько отличается энтропия ансамбля от максимального значения вводится понятие коэффициента сжатия:

.

Из определения видно, что . При каждое сообщение несёт максимальную информацию. Избыточность информации, содержащаяся в ансамбле, характеризуется коэффициентом избыточности

.

Чтобы уменьшить избыточность, содержащуюся в ансамбле X источника информации, создается новый ансамбль Y символов, энтропия которой близка к максимальному значению. Затем с помощью элементов ансамбля Y составляются сообщения из ансамбля X.