Скорость передачи информации и
Пропускная способность канала связи
Ввиду того, что канал связи считается стационарным, на вход канала поступает последовательность символов
, где каждый символ
, образует n-разрядный код. Количество комбинаций, которое можно образовать с использованием кода с основанием D, равно
. Множество этих комбинаций образует пространство значений кодовых комбинаций
. Символы при ансамбле Y обозначают моменты времени реализации величины
. Например, для двумерного ансамбля c основанием кода, равным D=3, имеем
.
На выходе канала имеем последовательность символов
, где каждый символ
. Точно так же можно образовать множество кодовых комбинаций, составляющих пространство
.
Последовательность символов
поступает в канал в течение
.
Количество информации, которое передается по каналу связи, за время наблюдения
согласно (1.18) равно
. (4.2)
Скоростью передачи информации по каналу связи называется величина
. (4.3)
Скорость передачи информации R отражает среднюю скорость передачи информации в единицу времени.
Максимальная скорость передачи информации
называется пропускной способностью канала связи
. (4.4)
Рассмотрим в выражении (1.18) разность
. Чем больше энтропия
, тем больше пропускная способность канала связи. Величина
определяет среднюю неопределённость, содержащуюся в ансамбле Y, которая зависит от распределения вероятности элементов ансамбля Y. Поэтому максимизация скорости передачи информации происходит по распределению вероятности элементов ансамбля Y.
Упростим выражение (4.2).
. В силу того, что канал - стационарный и реализации элементов ансамблей
и
в моменты времени
и
независимы. Тогда
.
Но ансамбли
за время передачи информации неизменны, т.е.
. Тогда имеем
(4.5)
Условная энтропия в (4.2) представляется как
=
=
=
.
Воспользуемся условием независимости символов попарно на входе и выходе канала связи, а также стационарностью канала. Тогда соответствующие вероятности и условная энтропия будут равны
=
,
=
,
=
=
=
=
. (4.6)
Если отсчёты во времени эквидистантны, то
, где
- интервал дискретизации по времени. Подставив (4.5), (4.6) и
в (4.4), получим
. (4.7)
Введём скорость передачи символов
.
Тогда пропускную способность можно записать как
(4.8)
В таблице 4.1 представлены характеристики источника сообщений, кодера источника и канала связи.
| Таблица 4.1 | ||
| ||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Канал без шумов
Шум в канале связи искажает физические параметры сигнала, что в свою очередь приводит к искажению символов. Вероятностная характеристика искажений – это условная вероятность
. Будем считать, сигнал в канале не искажается, если
. Тогда для канала без шумов справедливо выражение
(4.9)
Из выражения (**.9) следует,
, т.е. пропускная способность канала связи равна
=
(4.10)
Если используется код с основанием D ,то энтропия ансамбля
достигает наибольшего значения при
. Тогда пропускная способность канала равна
. (4.11)
Теорема Шеннона о кодирование источника независимых сообщений для канала без шумов. (Шеннон, стр. 270)
Пусть источник имеет энтропию
, а канал имеет пропускную способность
. Тогда можно закодировать сообщения таким образом, что можно передавать их со средней скоростью
, где
.
Передавать сообщения со скоростью большей, чем
, невозможно.
Доказательство. Будем считать источник сообщений согласованным с каналом по скорости передачи информации, если
. Тогда
. (4.12)
Энтропия
не превышает
. Запишем
=
,. (4.13)
где
.
Подстановка (4.13) в (4.12) позволяет получить
, (4.14)
где
.
Если принять
, то
, т.е. не имеет смысла передавать сообщения.
Канал с шумами
Наличие шума в канале связи приводит к тому, что условная энтропия
не равна нулю. Условную энтропию
Шеннон назвал ненадёжностью канала, так как она зависит от шума в канале связи. В результате возникает вопрос, существует ли метод кодирования, позволяющий передавать информацию с определённой скоростью
. На это вопрос отвечает теорема Шеннона (Шеннон стр.280).
Пусть дискретный канал обладает пропускной способностью
, а дискретный источник – энтропией
. Если
<
, то существует такая система кодирования, что сообщения источника могут быть переданы по каналу с произвольно малой частотой ошибок, (или со сколь угодно малой энтропией
). Если
>
, то можно закодировать источник таким образом, что ненадёжность
канала будет меньше, чем
, где
сколь угодно мало. Не существует способа кодирования, обеспечивающего ненадёжность, меньшую, чем
.
Нет доказательства
Пример 4.1. Определим пропускную способность двоичного симметричного канала связи. Модель двоичного симметричного канала показан на рисунке 4.4.
В канал связи поступают символы 1 и 0, отображающие реальные физические сигналы.
1) Канал симметричный. Вероятности искажения символов равны
, вероятности неискажённого приема символов равны
.
2) Канал стационарный, так как условные вероятности не зависят от времени.
Пропускную способность вычислим по формуле (4.8). Энтропию
определим из условия
при отсутствии шума. Энтропия
принимает максимальное значение, равное 1, при
. Условная энтропия равна


Подставляя полученные величины в (4.8), получим
.
Как видно из формулы, пропускная способность зависит скорости поступления символов в канал и от вероятности искажения символов.
Положим, задан ансамбль сообщений X с распределением вероятностей P , (Таблица 4.2) . Сообщения генерируются со скоростью
.Способ кодирования определён и каждому сообщению приписан двоичный код. Энтропия ансамбля сообщений X равна
,
| Таблица 4.2 | |||
| X | P | код | |
| 0.6 | ||
| 0.2 | ||
| 0.1 | ||
| 0.07 | ||
| 0.03 | ||
вероятности реализации символов «1» и «0» равны
,
энтропия ансамбля символов Y равна
,
средняя длина кода равна
.
Положим, в канале действует такой шум, что вероятность ошибочного перехода равна
. Сможет ли канал обеспечить передачу сообщений ?
1) 
2) Будем считать
. Тогда
= 204.826
.
3) Будем считать
. Тогда
и пропускная способность канала равна
=
=
= 108.764 
Как видно, пропускная способность канала значительно ниже скорости генерации информации источником и часть информации может быть утеряна. В этом случае можно уменьшить скорость генерации сообщений
или уменьшить вероятность ошибок
. Положим, каким-то образом удалось уменьшить вероятности ошибок до величины
0.01. Тогда пропускная способность канала увеличится до величины
. При таком соотношении скорости поступления информации
в канал и пропускной способности канала искажения информации в канале из-за величин
и
не будет.
Непрерывный канал связи
Как и прежде, сигналы поступают в канал в дискретные моменты времени, но значения сигналов принимают непрерывные значения из некоторого множества. Примером такого канала является передача амплитудно-модулированных, фазомодулированных или частотно-модулированных сигналов. Сами сигналы могут быть как детерминированными, так и являться случайными процессами. Сигнал и шум взаимно независимы и в канале связи складываются алгебраически, т.е сигнал и шум аддитивны
, (4.15)
где
- шум в канале с известной плотностью вероятности
,
- непрерывный по множеству значений сигнал, поступающий в канал связи. Плотность распределения вероятности
значений сигнала может быть произвольной
Чтобы упростить записи, в дальнейшем будем писать
, (4.16)
помня, что
- непрерывные величины, а их реализациями являются
. Запишем равенство (4.16) через реализации
(4.17)
Условная плотность распределения
при фиксированном значении
должна удовлетворять соотношению
. (4.18)
Используя (**.17), получим условную плотность распределения
(4.19)
Пропускная способность непрерывного канала связи определяется подобным образом, что и для дискретного канала, но максимизация пропускной способности производится по всем возможным распределениям
:

, (4.20)
где
- время, затраченное на передачу одного значения
,
- скорость передачи сигналов в канале - количество значений
, переданных по каналу в единицу времени.
Определим условную энтропию
:


(4.21)
Из (4.21) видно, что условная энтропия
зависит от плотности распределения вероятности шума.
Пример 4.3. Вычислим энтропию случайной величины
, подчиненной нормальному закону с математическим ожиданием, равным m, и дисперсией, равной
.
=

Сделаем замену переменных
.





.
Как видно, энтропия
не зависит от математического ожидания m.
Пусть
- энтропия случайной величины
с математическим ожиданием, равным нулю, и дисперсией, равной
. Энтропия случайной величины
не превышает энтропии нормального закона распределения вероятности
,(4.22)
где знак равенства имеет место тогда и только тогда, когда случайная величина
распределена по нормальному закону.
Положим,
- произвольная плотность распределения вероятности случайной величины
. Случайная величина подвергается преобразованию
.
Определим математическое ожидание случайной величины 
=
. (4.23)
Рассмотрим разность
. Правая часть этой разности есть
. Поэтому




.
Знак равенства будет только тогда, когда справедливо равенство
или
.
Таким образом, энтропия достигает максимального значения при нормальном законе распределения вероятности. При этом накладываются условия:
- дисперсия
случайной величины ограничена,
- область определения плотности распределения вероятности – (
).
При рассмотрении пропускной способности канала связи никаких ограничений на вид распределения вероятности шума не накладывалось. В частном случае, наиболее употребляемом на практике, предполагается, что шум - нормальный белый. Это означает, что значения шума распределены по нормальному закону и они не коррелированны. При таких предположениях имеет место теорема Шеннона (Фано, стр. 176)
Если в непрерывном постоянном канале с дискретным временем аддитивный шум имеет гауссовское распределение с нулевым средним и дисперсией, равной
, а мощность сигнала на входе не может превышать определенной величины
, то пропускная способность этого канала на событие определяется формулой
.(4.24)
Знак равенства достигается лишь тогда, когда сигнал на входе канала - гауссовский с нулевым средним и дисперсией, равной
.
Как известно, пропускная способность канала имеет вид
.
Определим
. Из соотношений (4.15) - (4.18) следует,
. В силу независимости сигнала и шума
.
По определению
.
Подставим вместо условной плотности
плотность распределения шума и, учитывая, что шум распределён по нормальному закону, получим
. (4.25)
Используя общее определение пропускной способности канала (4..20)

. (4.25)
Если сигнал на входе канала распределен по нормальному закону, то и сумма (4.16) также распределена по нормальному закону, что является необходимым условием максимального значения энтропии
. В этом случае пропускная способность достигает максимального значения (знак равенства в (4.24)).