Частотное разделение сигналов (частотное уплотнение)
Разделение сигналов – обеспечение независимой передачи и приема многих сигналов по одной линии связи или в одной полосе частот, при котором сигналы сохраняют свои свойства и не искажают друг друга.
При частотном разделении каждый сигнал занимает свой частотный интервал, не занятый другими сигналами, т.е. каждому из n сигналов, которые должны передаваться, присваивается своя частота: сигналу 1 – f1, сигналу 2 – f2, сигналу n – fn. На передающей стороне (ПУ) помещаются генераторы частот F1, … Fn? Каждый из которых генерирует синусоидальные колебания частотой f1, f2,…, fn, а также полосовые фильтры ПФ1…, ПФn с центральными частотами, соответствующим частотам генераторов.
На приемной стороне (КП) каждый из посланных сигналов выделяется сначала полосовым фильтром, настроенным на данную частоту, а затем выпрямляется демодуляторами (ДМ1 – ДМ2), после чего постоянный ток либо непосредственно, либо через выходные исполнительные элементы ВИЭ включает электромеханические реле (Р1, …, Рn).Для включения реле Р1 нужно замкнуть ключом К1 цепь генератора Г1, который посылает в линию связи частоту f1. На КП это сигнал проходит только через фильтр ПФ1 и после выпрямления включает реле Р1. Порядок посылки сигналов может быть любой, т.е. после сигнала частотой f1 может быть послан сигнал частотой f5. Если замкнуть все ключи одновременно, то в линию связи будут посланы одновременно все частоты и включатся сразу все реле.
Энтропия и информация
Количество информации о каком либо событии или объекте следует оценивать степенью определенности знаний об этом событии (объекте). Количество информации о событии равно логарифму обратной вероятности этого события: I=log(1\P).
Для измерения степени неопределенности исхода какого-либо случайного события используют меру, математически совпадающую с мерой количества информации. Основоположник теории информации К. Шеннон назвал меру неопределенности Н энтропией:
Знак минус перед суммой, означает что энтропия положительна, т.к. логарифмы чисел меньше 1 отрицательны. Максимум энтропии наступает, когда все вероятности Pi одинаковы. Это случай максимальной неопределенности перед получением сообщения. Энтропия обращается в 0, если одно из состояний системы достоверно, а вероятность остальных равна 0. При увеличении числа состояний системы энтропия увеличивается.
Взаимосвязь энтропии и информации нашло отражение в формуле:
H + I = 1,где Н – энтропия, Y – информация.
Явления, исход которых не может быть однозначно определен до того, как они произошли, называются случайными.
Пусть опыт имеет n равномерных исхода. Неопределенность каждого исхода зависит от n .Чем больше n тем больше неопределенность каждого исхода.
Мера неопределенности – функция числа исходов f(n).
Свойства f(n):
1) Неопределенность одного события из одного f(1) =0 (n=1). Неопределенности нет.
2) f(n) возрастает при росте n. Возрастающая функция.
Единицей измерений неопределенности при двух возможных равновероятных исходах является бит.
F(n)=log2n = H Это энтропия. Измеряется в битах.
– для одного варианта исхода.
H=- -для всех.(если для каждого из n исходов своя вероятность )
Разность между энтропиями разных опытов H(α) и Hα(β) показывает, что новые сведения относительно опыта получаем произведя опыт α. Эта величина называется информацией.
I(α,β) – информация относительно опыта β, содержащаяся в опыте α.
Единица измерения энтропии H может быть использована для измерения информации.
Энтропия равна информации относительно опыта, которая содержится в нем самом.
Энтропия = информации, которую мы получаем в результате получения опыта.