Скорость передачи информации и

Пропускная способность канала связи

Ввиду того, что канал связи считается стационарным, на вход канала поступает последовательность символов , где каждый символ , образует n-разрядный код. Количество комбинаций, которое можно образовать с использованием кода с основанием D, равно . Множество этих комбинаций образует пространство значений кодовых комбинаций . Символы при ансамбле Y обозначают моменты времени реализации величины . Например, для двумерного ансамбля c основанием кода, равным D=3, имеем

.

На выходе канала имеем последовательность символов , где каждый символ . Точно так же можно образовать множество кодовых комбинаций, составляющих пространство .

Последовательность символов поступает в канал в течение .

Количество информации, которое передается по каналу связи, за время наблюдения согласно (1.18) равно

. (4.2)

Скоростью передачи информации по каналу связи называется величина

. (4.3)

Скорость передачи информации R отражает среднюю скорость передачи информации в единицу времени.

Максимальная скорость передачи информации называется пропускной способностью канала связи

. (4.4)

Рассмотрим в выражении (1.18) разность . Чем больше энтропия , тем больше пропускная способность канала связи. Величина определяет среднюю неопределённость, содержащуюся в ансамбле Y, которая зависит от распределения вероятности элементов ансамбля Y. Поэтому максимизация скорости передачи информации происходит по распределению вероятности элементов ансамбля Y.

Упростим выражение (4.2).

. В силу того, что канал - стационарный и реализации элементов ансамблей и в моменты времени и независимы. Тогда

.

Но ансамбли за время передачи информации неизменны, т.е. . Тогда имеем

(4.5)

Условная энтропия в (4.2) представляется как

= =

= .

Воспользуемся условием независимости символов попарно на входе и выходе канала связи, а также стационарностью канала. Тогда соответствующие вероятности и условная энтропия будут равны

= ,

= ,

= =

= = . (4.6)

Если отсчёты во времени эквидистантны, то , где - интервал дискретизации по времени. Подставив (4.5), (4.6) и в (4.4), получим

. (4.7)

Введём скорость передачи символов

.

Тогда пропускную способность можно записать как

(4.8)

В таблице 4.1 представлены характеристики источника сообщений, кодера источника и канала связи.

Таблица 4.1  
   

 

Канал без шумов

Шум в канале связи искажает физические параметры сигнала, что в свою очередь приводит к искажению символов. Вероятностная характеристика искажений – это условная вероятность . Будем считать, сигнал в канале не искажается, если . Тогда для канала без шумов справедливо выражение

(4.9)

Из выражения (**.9) следует, , т.е. пропускная способность канала связи равна

= (4.10)

Если используется код с основанием D ,то энтропия ансамбля достигает наибольшего значения при . Тогда пропускная способность канала равна

. (4.11)

Теорема Шеннона о кодирование источника независимых сообщений для канала без шумов. (Шеннон, стр. 270)

Пусть источник имеет энтропию , а канал имеет пропускную способность . Тогда можно закодировать сообщения таким образом, что можно передавать их со средней скоростью

, где .

Передавать сообщения со скоростью большей, чем , невозможно.

Доказательство. Будем считать источник сообщений согласованным с каналом по скорости передачи информации, если . Тогда

. (4.12)

Энтропия не превышает . Запишем

= ,. (4.13)

где .

Подстановка (4.13) в (4.12) позволяет получить

, (4.14)

где .

Если принять , то , т.е. не имеет смысла передавать сообщения.

 

Канал с шумами

 

Наличие шума в канале связи приводит к тому, что условная энтропия не равна нулю. Условную энтропию Шеннон назвал ненадёжностью канала, так как она зависит от шума в канале связи. В результате возникает вопрос, существует ли метод кодирования, позволяющий передавать информацию с определённой скоростью . На это вопрос отвечает теорема Шеннона (Шеннон стр.280).

Пусть дискретный канал обладает пропускной способностью , а дискретный источник – энтропией . Если < , то существует такая система кодирования, что сообщения источника могут быть переданы по каналу с произвольно малой частотой ошибок, (или со сколь угодно малой энтропией ). Если > , то можно закодировать источник таким образом, что ненадёжность канала будет меньше, чем , где сколь угодно мало. Не существует способа кодирования, обеспечивающего ненадёжность, меньшую, чем .

Нет доказательства

Пример 4.1. Определим пропускную способность двоичного симметричного канала связи. Модель двоичного симметричного канала показан на рисунке 4.4.

В канал связи поступают символы 1 и 0, отображающие реальные физические сигналы.

1) Канал симметричный. Вероятности искажения символов равны , вероятности неискажённого приема символов равны .

2) Канал стационарный, так как условные вероятности не зависят от времени.

Пропускную способность вычислим по формуле (4.8). Энтропию определим из условия при отсутствии шума. Энтропия принимает максимальное значение, равное 1, при . Условная энтропия равна

Подставляя полученные величины в (4.8), получим

.

Как видно из формулы, пропускная способность зависит скорости поступления символов в канал и от вероятности искажения символов.

Положим, задан ансамбль сообщений X с распределением вероятностей P , (Таблица 4.2) . Сообщения генерируются со скоростью .Способ кодирования определён и каждому сообщению приписан двоичный код. Энтропия ансамбля сообщений X равна ,

Таблица 4.2
X P код
0.6
0.2
0.1
0.07
0.03
       

вероятности реализации символов «1» и «0» равны

,

энтропия ансамбля символов Y равна

,

средняя длина кода равна .

Положим, в канале действует такой шум, что вероятность ошибочного перехода равна . Сможет ли канал обеспечить передачу сообщений ?

1)

2) Будем считать . Тогда = 204.826 .

3) Будем считать . Тогда и пропускная способность канала равна =

= = 108.764

Как видно, пропускная способность канала значительно ниже скорости генерации информации источником и часть информации может быть утеряна. В этом случае можно уменьшить скорость генерации сообщений или уменьшить вероятность ошибок . Положим, каким-то образом удалось уменьшить вероятности ошибок до величины 0.01. Тогда пропускная способность канала увеличится до величины . При таком соотношении скорости поступления информации в канал и пропускной способности канала искажения информации в канале из-за величин и не будет.

Непрерывный канал связи

 

Как и прежде, сигналы поступают в канал в дискретные моменты времени, но значения сигналов принимают непрерывные значения из некоторого множества. Примером такого канала является передача амплитудно-модулированных, фазомодулированных или частотно-модулированных сигналов. Сами сигналы могут быть как детерминированными, так и являться случайными процессами. Сигнал и шум взаимно независимы и в канале связи складываются алгебраически, т.е сигнал и шум аддитивны

, (4.15)

где - шум в канале с известной плотностью вероятности ,

- непрерывный по множеству значений сигнал, поступающий в канал связи. Плотность распределения вероятности значений сигнала может быть произвольной

Чтобы упростить записи, в дальнейшем будем писать

, (4.16)

помня, что - непрерывные величины, а их реализациями являются . Запишем равенство (4.16) через реализации

(4.17)

Условная плотность распределения при фиксированном значении должна удовлетворять соотношению

. (4.18)

Используя (**.17), получим условную плотность распределения

(4.19)

Пропускная способность непрерывного канала связи определяется подобным образом, что и для дискретного канала, но максимизация пропускной способности производится по всем возможным распределениям :

, (4.20)

где - время, затраченное на передачу одного значения ,

- скорость передачи сигналов в канале - количество значений , переданных по каналу в единицу времени.

Определим условную энтропию :

(4.21)

Из (4.21) видно, что условная энтропия зависит от плотности распределения вероятности шума.

Пример 4.3. Вычислим энтропию случайной величины , подчиненной нормальному закону с математическим ожиданием, равным m, и дисперсией, равной .

=

Сделаем замену переменных .

 

 

.

Как видно, энтропия не зависит от математического ожидания m.

Пусть - энтропия случайной величины с математическим ожиданием, равным нулю, и дисперсией, равной . Энтропия случайной величины не превышает энтропии нормального закона распределения вероятности

,(4.22)

где знак равенства имеет место тогда и только тогда, когда случайная величина распределена по нормальному закону.

 

Положим, - произвольная плотность распределения вероятности случайной величины . Случайная величина подвергается преобразованию

.

Определим математическое ожидание случайной величины

=

. (4.23)

Рассмотрим разность . Правая часть этой разности есть . Поэтому

.

Знак равенства будет только тогда, когда справедливо равенство

или

.

Таким образом, энтропия достигает максимального значения при нормальном законе распределения вероятности. При этом накладываются условия:

- дисперсия случайной величины ограничена,

- область определения плотности распределения вероятности – ( ).

При рассмотрении пропускной способности канала связи никаких ограничений на вид распределения вероятности шума не накладывалось. В частном случае, наиболее употребляемом на практике, предполагается, что шум - нормальный белый. Это означает, что значения шума распределены по нормальному закону и они не коррелированны. При таких предположениях имеет место теорема Шеннона (Фано, стр. 176)

 

Если в непрерывном постоянном канале с дискретным временем аддитивный шум имеет гауссовское распределение с нулевым средним и дисперсией, равной , а мощность сигнала на входе не может превышать определенной величины , то пропускная способность этого канала на событие определяется формулой

.(4.24)

Знак равенства достигается лишь тогда, когда сигнал на входе канала - гауссовский с нулевым средним и дисперсией, равной .

Как известно, пропускная способность канала имеет вид

.

Определим . Из соотношений (4.15) - (4.18) следует,

. В силу независимости сигнала и шума .

По определению

.

Подставим вместо условной плотности плотность распределения шума и, учитывая, что шум распределён по нормальному закону, получим

. (4.25)

Используя общее определение пропускной способности канала (4..20)

. (4.25)

Если сигнал на входе канала распределен по нормальному закону, то и сумма (4.16) также распределена по нормальному закону, что является необходимым условием максимального значения энтропии . В этом случае пропускная способность достигает максимального значения (знак равенства в (4.24)).