Скорость передачи информации и пропускная способность канала связи.
В условиях отсутствия помех скорость передачи информации определяется количеством информации, переносимым символом сообщения в единицу в единицу времени равна: С =n * H
n –количество символов, вырабатываемых источником сообщений за единицу времени, Н – энтропия снимаемая при получении одного символа сообщения.
Техническая скорость
V=1/ (симв/сек),
Где - время передачи одного символа вторичного алфавита.
Тогда, для сообщений составленных из равновероятных взаимонезависимых символов равной длительности скорость передачи информации
С=(1/) * log2 m (бит/сек).
В случае неравновероятных символов равной длительности
С= (бит/сек).
Пропускная способность (или емкость канала связи) есть максимальная скорость передачи информации по данному каналу связи:
(бит/сек).
Для двоичного кода:
(бит/сек).
При наличии помех пропускная способность канала связи вычисляется как произведение количества принятых в секунду знаков n на разность энтропии источника сообщений и условной энтропии:
Cn=n*[H(A)-H(A/B)]
или
Cn=n*[H(B)-H(B/A)]
Информационные потери при передачи сообщений по каналам связи с шумами
Среднее Количество информации, содержащееся в принятом ансамбле сообщений
а) с помощью энтропии объединения
І(А,В)=Н(А)+Н(В)-Н(А,В) (4,4)
б) с помощью условной энтропии:
І(А,В)=Н(А)-Н(А/В) (4.5)
Смысл выражения: Н(А)- энтропия источника,
Н(А/В) – среднее количество информации потерянное в канале из-за ошибок.
І(А,В)=I(В,А) (4-6)
Из формул (4.4)- (4.5) можно вывести формулу удобную для расчетов:
(4.7)
Дифференциальная энтропия
На практике множество возможных состояний источника информации составляет континуум, т.е. источники – непрерывные.
Определим энтропию непрерывного источнмка информации следующим образом: разобъем диапозон изменения непрерывной случайной величины
U, на конечное число п малых интервалов Cu . Поскольку Cu мало, вероятность р ( ) реализации значения u из интервалаui , ui+Cu:
p( )=
Тогда энтропия дискретной случайной величины U может быть задана в виде
или
Так как
то
По мере уненьшения р ( ), всё больше приближается к вероятности р( ) равной нулю, а свойства дискретной величины U - к свойствам непрерывной случайной величины U . Переходя к пределу при 0 получаем следующее выражение для энтропии H(U) непрерывного источника:
или
(3,4)
Эта величина при 0 стремится к бесконечности, что полностью соответствует определению о том, что неопредленность выбора из бесконечно большого числа возможных состояний (значений) бесконечно велика.
Первый член в правой части соотношения (3.4) - конечное значение, которое зависит только от закона распределения непрерывной случайной величины U и независит от шага квантования Cu .
Второй член того же соотношения зависит лиш от шага квантования случайной величины U, из-за него H(U) обращается в бесконечность.
Один из подходов для получения конечной характеристики информационных свойств непрерывного источника состоит в том, что в качестве неопределенности непрерывного источника принимают первый член соотношения (3.4) :
(3.5)
Она получила название относительной дифференциальной энтропии или просто дифференциальной энтропии непрерывного источника информации.
Свойства дифференциальной энтропии:
а. Если единственным ограничением для случайной величины U являетсяобласть её возможных значений , то максимальной дифференциальной энтропией обладает равномерное распределение вероятностей в этой области.
б. Если ограничения на область значений непрерывной случайной величины U отсутствует, но известно, что дисперсия её ограничена , то максимальной дифференциальной энтропией обладает нормальное распределение величины U.
Основная литература:2[111-119J; 3(109-114]; 9J44-46].
Контрольные вопросы:
1. Как связаны между собой понятия количества информации и энтропия?
2. Определите понятие избыточности.
3. Определите количество информации в сообщении, составленном из к неравновероятных символов.
4. Дайте определение дифференциальной энтропии и сформулируйте её основные свойства.