Частотное разделение сигналов (частотное уплотнение)

Разделение сигналов – обеспечение независимой передачи и приема многих сигналов по одной линии связи или в одной полосе частот, при котором сигналы сохраняют свои свойства и не искажают друг друга.

При частотном разделении каждый сигнал занимает свой частотный интервал, не занятый другими сигналами, т.е. каждому из n сигналов, которые должны передаваться, присваивается своя частота: сигналу 1 – f1, сигналу 2 – f2, сигналу n – fn. На передающей стороне (ПУ) помещаются генераторы частот F1, … Fn? Каждый из которых генерирует синусоидальные колебания частотой f1, f2,…, fn, а также полосовые фильтры ПФ1…, ПФn с центральными частотами, соответствующим частотам генераторов.

На приемной стороне (КП) каждый из посланных сигналов выделяется сначала полосовым фильтром, настроенным на данную частоту, а затем выпрямляется демодуляторами (ДМ1 – ДМ2), после чего постоянный ток либо непосредственно, либо через выходные исполнительные элементы ВИЭ включает электромеханические реле (Р1, …, Рn).Для включения реле Р1 нужно замкнуть ключом К1 цепь генератора Г1, который посылает в линию связи частоту f1. На КП это сигнал проходит только через фильтр ПФ1 и после выпрямления включает реле Р1. Порядок посылки сигналов может быть любой, т.е. после сигнала частотой f1 может быть послан сигнал частотой f5. Если замкнуть все ключи одновременно, то в линию связи будут посланы одновременно все частоты и включатся сразу все реле.

Энтропия и информация

Количество информации о каком либо событии или объекте следует оценивать степенью определенности знаний об этом событии (объекте). Количество информации о событии равно логарифму обратной вероятности этого события: I=log(1\P).

Для измерения степени неопределенности исхода какого-либо случайного события используют меру, математически совпадающую с мерой количества информации. Основоположник теории информации К. Шеннон назвал меру неопределенности Н энтропией:

Знак минус перед суммой, означает что энтропия положительна, т.к. логарифмы чисел меньше 1 отрицательны. Максимум энтропии наступает, когда все вероятности Pi одинаковы. Это случай максимальной неопределенности перед получением сообщения. Энтропия обращается в 0, если одно из состояний системы достоверно, а вероятность остальных равна 0. При увеличении числа состояний системы энтропия увеличивается.

Взаимосвязь энтропии и информации нашло отражение в формуле:

H + I = 1,где Н – энтропия, Y – информация.

Явления, исход которых не может быть однозначно определен до того, как они произошли, называются случайными.

Пусть опыт имеет n равномерных исхода. Неопределенность каждого исхода зависит от n .Чем больше n тем больше неопределенность каждого исхода.

Мера неопределенности – функция числа исходов f(n).

Свойства f(n):

1) Неопределенность одного события из одного f(1) =0 (n=1). Неопределенности нет.

2) f(n) возрастает при росте n. Возрастающая функция.

Единицей измерений неопределенности при двух возможных равновероятных исходах является бит.

F(n)=log2n = H Это энтропия. Измеряется в битах.

– для одного варианта исхода.

H=- -для всех.(если для каждого из n исходов своя вероятность )

Разность между энтропиями разных опытов H(α) и Hα(β) показывает, что новые сведения относительно опыта получаем произведя опыт α. Эта величина называется информацией.

I(α,β) – информация относительно опыта β, содержащаяся в опыте α.

Единица измерения энтропии H может быть использована для измерения информации.

Энтропия равна информации относительно опыта, которая содержится в нем самом.

Энтропия = информации, которую мы получаем в результате получения опыта.