2. Сигналы связи

advertisement
Федеральное государственное образовательное бюджетное
учреждение высшего профессионального образования
“Сибирский государственный университет
телекоммуникаций и информатики”
Б.И. Филиппов
Теория электрической связи
Учебное пособие
Рекомендуется для студентов телекоммуникационных вузов, изучаюших
теорию и практику передачи информации по каналам связи
по направлению подготовки дипломированных специалистов 552500,
654200 (радиотехника), 550400 (телекоммуникации), по направлению общепрофессиональных дисциплин (ОПД) – «Теория электрической связи»,
«Радиотехнические цепи и сигналы» и др.
Новосибирск
2011
1
УДК 621.391 (075)
ББК 32.81
Б.И. Филиппов
Теория электрической связи
Т33 2011. – 284 с.: ил.
Данная книга состоит из двух частей.
В первой части излагаются физические явления в нелинейных электрических
и параметрических цепях, применяемых в системах связи. Выявляются основные
характеристики и особенности схем нелинейных устройств, рассматриваются различные математические методы, применяемые при расчете таких цепей и
устройств. Кроме того, в этой части рассматриваются случайные процессы, их
представление, вероятностные и числовые характеристики.
Во второй части рассматривается теория передачи сигналов как единая научная дисциплина, основу которой составляют теория сигналов, теория помехоустойчивости и теория информации.
Излагаются общие закономерности передачи информации по каналам связи,
определяются потенциальные возможности способов передачи и приема сигналов,
сравниваются различные системы связи между собой.
Книга предназначена для студентов электротехнических университетов связи
и инженеров, работающих в области радиотехники и связи.
Рецензенты: зав.кафедрой САПР СибГУТИ,
д.т.н., профессор Сединин В.И.
ученый секретарь ФГУП “СНИИМ”
д.т.н.,профессор, действительный член
Россияской метрологической академии
Пальчун Ю.А.
2
Предисловие
Настоящий учебник составлен в соответствии с программой по курсу «Теория электрической связи». В основу учебника положены лекции, читавшиеся автором в Сибирском Государственном Университете Телекоммуникаций и Информатики (СибГУТИ), г. Новосибирск. В работе были использованы учебные пособия,
написанные проф. А.А. Макаровым и доц. Л.А. Чиненковым кафедры Радиотехнических систем СибГУТИ.
Курс теории электрической связи базируется на материалах теории линейных
и нелинейных электрических цепей, теории случайных процессов и призван создать общие основы для изучения студентами с единых позиций современной теории связи. Автор стремился там, где это возможно, освободить изложение от обилия математических фактов и строгости в доказательствах с целью сделать ясным
физическое толкование полученных результатов. С этой же целью основные положения теории иллюстрируются конкретными примерами из различных областей
техники связи.
В работе над книгой большую помощь оказали автору сотрудники кафедры
радиотехнических систем СибГУТИ. Ценные замечания были сделаны проф. В.И.
Седининым и проф. Ю.А. Пальчуном. Пользуясь случаем, автор выражает всем,
способствующим улучшению книги, свою искреннюю благодарность.
Автор
3
Часть I. Теория нелинейных электрических цепей
1.
Задачи курса ТЭС
Общие сведения о курсе
Курс «Теория электрической связи» (ТЭС) относится к числу фундаментальных дисциплин подготовки высококвалифицированных инженеров, владеющих современными методами анализа и синтеза систем и устройств связи различного
назначения. В нем принят единый методологический подход к решению задач
электросвязи на основе вероятностных представлений.
Целью курса является изучение основных закономерностей и методов передачи информации по каналам связи. В курсе рассматриваются:
1) способы математического представления сообщений, сигналов и помех;
2) методы формирования сигналов и их преобразования в электрических цепях;
3) вопросы анализа помехоустойчивости и пропускной способности систем
электросвязи;
4) методы помехоустойчивого кодирования, оптимального приема сообщений;
5) принципы многоканальной передачи и распределения информации в сетях связи;
6) вопросы оптимизации систем электросвязи.
Курс ТЭС базируется на таких дисциплинах, как высшая математика, физика,
теория электрических цепей (ТЭЦ), электроника, квантовые приборы и микроэлектроника, вычислительная техника и программирование.
Курс ТЭС вместе с курсом ТЭЦ составляют теоретическую основу техники
связи, элементы которой изучаются в последующих инженерных дисциплинах.
Общие сведения о системах электросвязи
Передача сообщений на расстояние из одного пункта в другой может быть
осуществлена с помощью какого-либо материального носителя (бумаги, магнитной
ленты, диска, флэш-карты и др.) перемещаемого в пространстве, либо с помощью
физического процесса, способного распространятся на расстояния (электрический
ток, звуковые и электромагнитные волны и др.). Физический процесс, несущий передаваемое сообщение из точки в точку, называется сигналом.
В процессе передачи по системе связи сообщение может подвергаться многочисленным преобразованиям, существенно меняющим его электрическое представление и физические характеристики. Однако, следует иметь в виду, что объектом передачи является не электрическое представление сообщения, а та полезная
информация, содержащаяся в передаваемом сообщении, которая должна оставаться неизменной при всех преобразованиях.
Информацией называется совокупность сведений о каком-либо явлении, событии или объекте, которые увеличивают знания получателя о них.
4
Если в системах для передачи сообщений в качестве несущих используются
электрические или электромагнитные сигналы, то такие системы называются системами электросвязи, в отличие от звуковых, гидроакустических и других систем
связи. Обобщенная структурная схема простейшей системы электросвязи изображена на рис. 1.1.
Источник
информации
Кодер
Модулятор
Выходное
устройство
Генератор
несущей
частоты
Линия связи
Помехи
передатчик
Входное
устройство
Демодулято
р(детектор)
Декодер
Получатель
приемник
Рисунок 1.1. Обобщенная структурная схема системы связи
Источник сообщения – человек, автомат, ЭВМ, датчик. Сообщениями могут
быть: речь (системы телефонной связи); текст (системы телеграфной связи); неподвижное изображение (фототелеграфные системы связи); подвижные изображения
(телевизионные системы связи); параметры каких-либо устройств (системы телеметрии); команды управления каким-либо устройствами (системы телеуправления); данные (системы передачи данных).
Кодирующее устройство (кодер) в общем случае осуществляет:
1) преобразование сообщения, поступающего от источника сообщений, в
первичный электрический сигнал;
2) преобразование в случае необходимости, непрерывного сигнала в дискретный;
3) статистическое (эффективное) кодирование с целью увеличения скорости
передачи информации (устранение избыточности в сообщении);
4) помехоустойчивое кодирование (введение избыточных символов) с целью повышения помехоустойчивости системы связи.
Генератор несущего колебания – формирует электрические колебания, которые являются переносчиком сообщения. Сигналом – переносчиком обычно служит
5
либо гармоническое колебание, либо периодическая последовательность импульсов, либо шумоподобный сигнал.
Модулятор – изменяет один (или несколько) параметров сигнала переносчика в соответствии с модулирующим сообщением, поступающим от кодера. В процессе модуляции могут изменяться амплитуда, частота или фаза гармонической несущей; амплитуда, длительность импульсов, частота следования, фаза импульсного
переносчика; тип использования шумоподобного сигнала. Иногда одновременно
может осуществляться модуляция нескольких параметров сигнала-переносчика.
Выходное устройство ограничивает спектр частот передаваемого сигнала
для устранения помех от соседних по частоте сигналов и увеличения эффективности использования полосы частот; обычно увеличивает мощность сигнала для
обеспечения требуемой помехоустойчивости приема информации, передает сигнал
в среду распространения. Таким образом, выходное устройство содержит полосовые фильтры, усилитель мощности и излучатель сигнала. Кодирующее устройство,
модулятор, генератор несущего колебания и выходное устройство образуют передатчик.
Линия связи – совокупность технических средств (физическая цепь, волновод, кабель и т.п.), либо окружающая среда, через которые сигнал поступает от передатчика к приемнику. В линии связи сигнал претерпевает изменения из-за воздействия помех и искажений.
Помехи – это всякое постороннее воздействие на сигнал, препятствующее
правильному приему (флуктуационный тепловой шум, атмосферные помехи, помехи от других передатчиков и т.п.).
Входное устройство – выделяет из линии связи сигнал нужного (требуемого)
передатчика и усиливает его до необходимого уровня. Таким образом, входное
устройство содержит полосовые фильтры и усилители.
Демодулятор (детектор) – преобразует принятый модулированный сигнал в
сообщение, которым осуществлялась модуляция, и содержащее переданную информацию.
Декодер – производит обратное преобразование принятых сигналов (кодовых
комбинаций) в исходное сообщение.
Получатель сообщения – человек, автомат, ЭВМ, реле и т. п.
Входное устройство, детектор, декодер образуют приемник.
Основная задача совершенствования систем связи состоит в том, на передаче
за счет модуляции и кодирования создать сигнал, наименее подверженный дей6
ствующим помехам и искажениям, а на приеме за счет фильтрации, детектирования и декодирования выделить передаваемое сообщение с наименьшими искажениями.
Наряду с понятием «система связи» часто оперируют более узким понятием –
«канал связи». Это совокупность технических средств (включая линию связи),
обеспечивающих передачу сообщений от источника к получателю.
Практика построения систем связи показала экономическую целесообразность использования ее многими абонентами, что приводит к созданию многоканальных систем связи. Это, несомненно, усложняет системы связи, т. к. требует
объединения сигналов разных абонентов на передаче и, самое трудное, разделение
их на прием без заметных взаимных помех.
Система связи, позволяющая осуществлять передачу сообщений только в одну сторону, называется односторонней (симплексный режим). В случае двухстороннего обмена потребуется система связи для передачи сообщений в противоположном направлении (дуплексный режим).
Практически классической является задача обмена между многими (сотнями
и тысячами) отправителей и получателей в самых различных комбинациях. В этом
случае используемые системы связи объединяются в сеть связи. Наиболее перспективное построение систем связи (при большом числе абонентов) связано с использованием электронных узлов коммутации, когда связь между абонентами осуществляется через один или несколько узлов коммутации с использованием систем
связи различного типа, т. е. сети связи, которая имеет конечной целью передачу
любой информации в любую точку страны (мира). Эта информация будет в основном цифровой. Как будет показано далее, цифровой сигнал является универсальным и позволяет передавать все виды сообщений, включая и телевизионные. Коммутация сообщений в сети связи осуществляется с помощью кодированных сигналов и ЭВМ при использовании существующих каналов связи (спутниковых, радиорелейных, кабельных, оптических и др.).
Кодер + Декодер = Кодек
Модулятор + Демодулятор = Модем
Кодер + Декодер + Модулятор + Демодулятор = Кодем
7
2.
Сигналы связи
2.1. Формирование и преобразование сигналов. Кодирование и декодирование. Модуляция и демодуляция
Сигналы – в широком смысле физические явления, колебания, процессы
осуществляющие перенос информации из одного пункта в другой, т.е. это переносчик сообщения (информации).
Электрический сигнал – некоторое электрическое возмущение отображающее передаваемое сообщение.
Таким образом, под сигналом будем понимать функцию времени, в которую
тем или иным образом «вложено» передаваемое сообщение.
В радиотехнике (и радиотехнических системах) сообщения передаются посредством радиоволн, т. е. электромагнитного поля. Его мы и будем называть сигналом (радиосигналом).
Информация → сообщение → сигнал
U(t)
S(t)
Рисунок 2.1. Сущность преобразования информации в сигнал
2.2.
Классификация сигналов и их основные свойства
С информационной точки зрения сигналы могут быть:
1) детерминированными;
2) случайными.
Критерием такой классификации является возможность или невозможность
предсказания их мгновенных значений в любые моменты времени.
Детерминированные – такие сигналы, для которых математическим описанием является заранее известная (определенная) функция времени, т. е. позволяющая
предсказать мгновенное значение в любой момент времени 𝑈(𝑡𝑖 ) с вероятностью 1.
Примеры:
1) 𝑈(𝑡) = 𝑈0 cos(𝜔0 𝑡 + 𝜑0 ),
𝑈0 = const – амплитуда,
𝜑0 = const – начальная фаза,
𝜔0 = const – частота,
𝜓 = (𝜔0 𝑡 + 𝜑0 ) – полная фаза.
8
𝐴 , 0 ≤ 𝑡 ≤ (𝜏и + 𝑇),
2) 𝑈(𝑡) = { и
0, 𝜏и ≤ 𝑡 ≤ 𝑇.
U(t)
τи
Аи
t
T
Рисунок 2.2. Последовательность однополярных прямоугольных импульсов
Случайные сигналы – такие сигналы, математическое описание которых является случайной функцией времени, т. е. мгновенные значения этих сигналов заранее неизвестны и могут бить предсказаны лишь с некоторой вероятностью 𝑃 <
1.
Примеры: сигналы речи, музыки, параметры последовательности принимаемых радиоимпульсов на входе радиолокационного приемника (𝐴𝑖 , 𝑡 𝑖 , 𝜏𝑖 ).
Строго говоря, детерминированных сигналов в природе не существую, т.к.
полностью известные сигналы не содержат в себе информации.
Реальные сигналы являются случайными по двум основным причинам:
а) случайной природой сообщений;
б) случайным характером помех, воздействующих на сигнал при его передаче. Математическое описание сигналов базируется на аппарате теории вероятностей, теории случайных процессов и математической статистике.
Значение детерминированных сигналов – при определенных условиях модель
детерминированного сигнала может быть применена как более простая, например,
при
𝑈с ≫ 𝑈п .
Кроме
того,
часть
параметров
сигнала
являются
детерминированными.
По виду временной функции
а)
б)
в)
г)
непрерывные;
дискретные;
цифровые;
импульсные.
9
Uнепр
tнепр
Uдискр
Uнепр
U(t)
tдискр
Uдискр
Рисунок 2.3. Варианты структуры сигналов
U(t)
Непрерывный по
амплитуде и по времени
0
U(t)
t
Дискретный по амплитуде,
непрерывный по времени
0
t
U(t)
Непрерывный по амплитуде,
дискретный по времени
0
t
U(t) Дискретный по времени и
по амплитуде
0
t
Рисунок 2.4. Четыре класса сигналов
Особой разновидностью дискретных сигналов являются цифровые сигналы –
у них отсчетные значения представляются в форме чисел (обычно в двоичной системе счисления по соображениям простоты аппаратурной реализации и обработки). Двоичная система счисления идеально подходит для описания импульсных
последовательностей.
Рассмотренные виды сигналов используются в реальных системах связи.
В частности, дискретизация непрерывного сигнала по времени производится
по теореме Котельникова, а квантование сигналов по уровню использует ИКМ
(импульсно кодовая модуляция). Сигнал ИКМ – цифровой сигнал.
10
Пример:
Для речевого сигнала длина кодовой комбинации 𝑛 = 7, тогда число уровней
𝑁 = 27 = 128, и в разные моменты времени 𝑈(𝑡𝑖 ) → 0100110;
𝑈(𝑡𝑖 ) → 1100011.
Импульсные сигналы – важный для техники связи класс сигналов (например,
рис. 2.5).
U(t)
а)
0
t
U(t)
б)
0
t
Рисунок 2.5. а) видеоимпульсы;
б) радиоимпульсы
По физическим характеристикам любой сигнал связи характеризуется рядом основных физических характеристик, необходимых для определения требований к каналу связи, по которым они передаются (рис. 2.6).
Сигнал связи
Канал связи
к получателю
Рисунок 2.6
Основные характеристики сигнала:
1) длительность сигнала – 𝑇с ;
2) ширина спектра – 𝐹с ;
3) динамический диапазон – 𝐷с .
𝑇с – интервал времени, в пределах которого сигнал существует.
𝐹с – характеризует скорость изменения сигнала на интервале 𝑇с .
11
ξ(t)
а)
0
t
η(t)
б)
0
t
Рисунок 2.6. а) быстро меняющаяся функция;
б) медленно меняющаяся функция
Чем выше скорость изменения функции, тем шире спектр: 𝐹𝜉 > 𝐹𝜂 .
Спектр одиночного импульса:
S(ω)
предельное
ограничение
1
0,22
0,12
0
2π/τ
4π/τ
ω
Рисунок 2.7. Представление модуля функции типа sin 𝑥⁄𝑥
Практически (и теоретически) большинство сигналов имеют бесконечный
спектр. Тогда, казалось бы, ширина полосы пропускания канала должна быть бесконечна. Реально это не так.
Под полосой сигнала 𝐹с понимают ту полосу частот ∆𝑓, в пределах которой
сосредоточена основная энергия (мощность) сигнала.
𝑃с (∆𝑓 = ∞) = 100%, 𝑃с (∆𝑓 = 𝐹с ) = 90 ÷ 95%,
где 𝑃с – мощность сигнала.
Динамический диапазон сигнала 𝐷с определяется выражением:
12
𝐷с = 10 log
𝑃max
.
𝑃min
U(t)
Umax
Umin
0
t
Рисунок 2.8. Пределы изменения уровня (напряжения) сигнала
Физический объем сигнала – обобщенная характеристика сигнала связи (𝑉с ).
𝑉с = 𝑇с 𝐹с 𝐷с ,
𝑇с ≤ 𝑇к – время, в течение которого канал занят сигналом,
𝐹с ≤ 𝐹к – полоса пропускания канала связи,
𝐷с ≤ 𝐷к – динамический диапазон сигнала, который пропускает канал связи с
допустимыми искажениями.
По виду передаваемого сообщения
Вид сигнала определяется видом сообщения:
1. Телефонный (речевой) сигнал.
2. Телеграфный сигнал.
3. Фототелеграфный сигнал.
4. Передача данных.
5. Сигнал вещания.
6. Телевизионный сигнал.
Телефонный сигнал
Формируется микрофоном.
Речь имеет диапазон частот 50 ÷ 10000 Гц.
Основные требования – разборчивость, натуральность окраски.
МККТТ (Международный консультативный комитет по телефонии и телеграфии) рекомендует ограничить полосу частот 0,3 ÷ 3,4 кГц; 𝐷с = 25 ÷ 35 дБ.
Телеграфный сигнал
13
U(t)
U(t)
а)
б)
1
0
0
1
1
τи
1
t
1
0
0
1
t
Рисунок 2.9. а) однополярные импульсы;
б) двуполярные импульсы
𝜏и – определяет скорость передачи сообщения.
1
Скорость передачи: 𝑉 = [Бод].
1
𝜏и
Полоса частот: 𝐹с = = 𝑉 [Бод].
и
1 Бод = 1 Илл/сек.
𝑉 = 50, 100, 200 Бод – скорость передачи.
Сигнал передачи данных
Аналогичен телеграфному сигналу, но отличается более высокой скоростью
передачи.
𝑉 = 600, 1200, 2400, 4800, 9600 Бод.
Фототелеграфный сигнал
Используется при передаче неподвижных изображений (фото, полос газет,
чертежей, карт погоды). В факсимильных аппаратах скорость вращения барабанов:
𝑉 = 60, 90, 120 (Оборот/минута),
𝐹max = 732, 1100, 1465 Гц соответственно,
𝐷с = 25 дБ.
Сигнал звукового вещания
Речь диктора 𝐷с = 25 ÷ 35 дБ.
Художественное чтение 𝐷с = 40 ÷ 50 дБ.
Симфонический оркестр 𝐷с = 65 дБ.
Спектр сигнала звукового вещания ∆𝑓 = 30 ÷ 15000Гц.
Телевизионный сигнал
Отличается от факсимильной передачи тем, что изображение подвижно.
∆𝑓 = 0 ÷ 6 МГц, 𝐷с = 40 дБ.
2.3.
Кодирование, декодирование. Модуляция и демодуляция
14
Это основные преобразования сигналов в системах связи при передаче сообщений от источника к получателю.
Кодирование используется при передаче дискретных сообщений, а также при
передаче непрерывных сообщений цифровым методом (ИКМ). Кодирование – это
представление элементов дискретного общения в виде кодовых комбинаций по
определенному правилу соответствия.
Кодовая комбинация – совокупность элементов.
Пример: телеграфный код № 2 (две комбинации):
01100
10011
𝑛 = 5 – число элементов в кодовой комбинации,
код двоичный (𝑚 = 2, где 𝑚 – основание кода).
В вычислительной технике используется 32-х и более элементный код.
Декодирование – обратное преобразование для восстановления сообщения из
принятого сигнала.
Модуляция – преобразование первичного сигнала сообщения в другой сигнал
наиболее пригодный для передачи по каналам связи, т.е. наилучшим образом согласованный по своим характеристикам линии связи с характеристикой линии связи. Для модуляции используется (по существу это перенос спектра сигнала) гармонический переносчик более высокой частоты (несущей).
𝑈несущее (𝑡) = 𝑈0 cos(𝜔0 𝑡 + 𝜑0 ),
𝑈0 = 𝑓[𝑈Ω (𝑡)] – амплитудная модуляция,
𝜔0 = 𝑓[𝑈Ω (𝑡)] – частотная модуляция,
𝜑0 = 𝑓[𝑈Ω (𝑡)] – фазовая модуляция.
𝜔 – высокие частоты (ВЧ),
Ω – низкие частоты (НЧ),
𝑈Ω – модулирующий сигнал.
Демодуляция – преобразование ВЧ модулированного сигнала в НЧ немодулированный. Сигнал на выходе демодулятора примерно соответствует сигналу на
входе модулятора.
2.4.
Детерминированные (регулярные) сигналы и их классификация
15
Детерминированные (регулярные) сигналы описываются известными функциями времени. Реальные сигналы и помехи – случайные функции времени.
Детерминированные сигналы применяются:
1. При возможных измерениях и испытаниях систем связи.
2. В технике связи случайные сигналы обычно являются отрезками (отдельными реализациями) регулярных сигналов.
Детерминированные сигналы делятся на:
1. Периодические.
2. Непериодические.
3. Почти периодические.
Периодический сигнал
𝑆(𝑡) = 𝑆(𝑡 + 𝑇).
S(t)
0
t
T
Рисунок 2.10. Периодическая последовательность импульсов сложной формы
Разложим сигнал 𝑆(𝑡) в ряд Фурье:
∞
∞
𝑛=1
𝑛=1
𝑐0
𝑐0
𝑥(𝑡) =
+ ∑ 𝑐𝑛 cos(𝑛𝜔0 𝑡 − 𝜑𝑛 ) =
+ ∑ (𝑎𝑛 cos 𝜔0 𝑛𝑡 + 𝑏𝑛 sin 𝜔0 𝑛𝑡) =
2
2
∞
1
= ∑ 𝑐𝑛̇ 𝑒 𝑗𝑛𝜔0 𝑡 ,
2
𝑛=−∞
где:
𝑇
2
𝑐0 = ∫ 𝑆(𝑡)𝑑𝑡,
𝑇
0
𝑇
2
𝑎𝑛 = ∫ 𝑆(𝑡) cos 𝑛𝜔0 𝑡𝑑𝑡,
𝑇
0
16
𝑇
2
𝑏𝑛 = ∫ 𝑆(𝑡) sin 𝑛𝜔0 𝑡𝑑𝑡 ,
𝑇
𝑐𝑛 = √𝑎𝑛2 + 𝑏𝑛2 ,
0
𝑇
2
𝑐̇𝑛 = ∫ 𝑆(𝑡)𝑒 −𝑗𝑛𝜔0 𝑡 𝑑𝑡,
𝑇
𝜔0 =
0
2𝜋
,
𝑇
𝜔0 – основная частота сигнала (первая гармоника),
𝜑𝑛 = arctg
𝑏𝑛
.
𝑎𝑛
Непериодические сигналы (описываются непериодическими функциями времени) имеют сплошной спектр. Для его разложения используется преобразование
Фурье.
Прямое преобразование Фурье:
∞
𝑆(𝑗𝜔) = ∫ 𝑆(𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡.
−∞
Обратное преобразование Фурье:
∞
1
𝑥(𝑡) =
∫ 𝑆(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔.
2𝜋
−∞
Почти периодические сигналы
𝑆(𝑡) – непрерывный по времени сигнал,
𝑆(𝑗𝜔) – дискретный спектр сигнала.
Это модулированные сигналы.
2.5.
Разложение сигналов в ряд по ортогональным функциям
Для исследования различных свойств сообщений, сигналов и помех удобно
использовать разложение этих процессов в ряды.
17
Любой процесс (с некоторыми математическими ограничениями) можно
представить в виде ряда:
∞
𝑥(𝑡) = ∑ 𝑐𝑘 𝜑𝑘 (𝑡) ,
(2.1)
𝑘=−∞
𝜑𝑘 – ортогональные простейшие функции, неслучайные. Например:
𝑇
2
1
𝐸 ,
∫ 𝜑𝑖 (𝑡)𝜑𝑘 (𝑡)𝑑𝑡 = { 𝑘
𝑇→∞ 2
0,
если 𝑖 = 𝑘,
если 𝑖 ≠ 𝑘,
lim
−
𝑇
2
𝑐𝑘 – случайный коэффициент:
𝑇
2
𝑐𝑘 =
1
∫ 𝑥(𝑡)𝜑𝑘 (𝑡)𝑑𝑡,
𝐸𝑘
−
𝑇
2
𝐸𝑘 – энергия ортогональных функций.
cos 𝑘𝜔0 𝑡,
Если 𝜑𝑘 = { sin 𝑘𝜔0 𝑡,
𝑒 𝑗𝑘𝜔0 𝑡 ,
то ряд (2.1) Фурье:
∞
𝑘
𝑘=1
𝑘=∞
𝑐0
1
𝑥(𝑡) = + ∑ (𝑎𝑘 cos 𝑘𝜔0 𝑡 + 𝑏𝑘 sin 𝑘𝜔0 𝑡) = ∑ 𝑐̇𝑘 𝑒 𝑗𝑘𝜔0𝑡 ,
2
2
𝑇
2
𝑐̇𝑘 = ∫ 𝑥(𝑡) 𝑒 −𝑗𝑘𝜔0𝑡 𝑑𝑡,
𝑇
0
𝑇
2
𝑎𝑘 = ∫ 𝑥(𝑡) cos 𝑘𝜔0 𝑡𝑑𝑡,
𝑇
0
𝑇
𝑇
2
𝑏𝑘 = ∫ 𝑥(𝑡) sin 𝑘𝜔0 𝑡𝑑𝑡 ,
𝑇
2
𝑐0 = ∫ 𝑥(𝑡)𝑑𝑡.
𝑇
0
3.
0
Теорема и ряд Котельникова
Радиотехнические сигналы подразделяются на непрерывные и дискретные.
Непрерывные сигналы (функции) могут принимать любые, сколь угодно близкие
18
друг к другу значения, в любые моменты времени. Примером непрерывного сигнала является гармоническое колебание.
Дискретные (цифровые) сигналы могут принимать только заранее известные
значения, отличающиеся одно от другого на конечную величину, причем изменяться эти значения могут только в определенные моменты времени. Примером
дискретного сигнала является (рис. 3.1) периодическая последовательность прямоугольных импульсов, которая в момент времени 𝑘Т/2 принимает значения 0 или 𝐴.
U(t)
A
t
T
τи
Рисунок 3.1. Периодическая последовательность прямоугольных однополярных
импульсов
Любая непрерывная функция, спектр которой не содержит частот выше 𝜔в ,
полностью определяется своими отсчетами, взятыми через интервал времени –
теорема Котельникова.
∆𝑡 =
𝜋
1
=
,
𝜔в 2𝑓в
𝑓в (𝜔в ) – наивысшая частота спектра сигнала.
x(t)
x(ω)
x(∆t)
x(2∆t)
а)
б)
0
ωв
t
∆t
ω
Рисунок 3.2. а) последовательность отсчетов непрерывной функции;
б) ограничение спектра непрерывной функции
∆𝑡 = const =
1
2𝑓в
– интервал Котельникова,
𝑥(𝑡) → 𝑥(𝑘∆𝑡) – аппроксимирующая функция.
19
Доказательство: теорема Котельникова основывается на преобразовании
Фурье:
∞
1
𝑥(𝑡) =
∫ 𝑆(𝑗𝜔)𝑒 𝑗𝜔𝑡 𝑑𝜔.
2𝜋
−∞
−𝜔в ≤ 𝜔 ≤ 𝜔в ,
∆𝑡 → 𝑘∆𝑡:
𝜔в
1
𝑥(𝑘∆𝑡) =
∫ 𝑆(𝑗𝜔)𝑒 𝑗𝜔𝑘∆𝑡 𝑑𝜔.
2𝜋
−𝜔в
Далее теорема Котельникова основывается на разложении функции 𝑆(𝑗𝜔) в
комплексный ряд Фурье, на осуществлении перехода от 𝑡 → 𝜔, от
𝑥(𝑡) →
𝑆(𝑗𝜔) и от 𝑇 → 2𝜔в .
С математической точки зрения теорема Котельникова означает представление сигнала в виде ряда:
∞
𝑥(𝑡) = ∑ 𝑥(𝑘∆𝑡)
𝑘=−∞
sin 𝜔в (𝑡 − 𝑘∆𝑡)
,
𝜔в (𝑡 − 𝑘∆𝑡)
𝑘∆𝑡 – отсчеты, (𝑘 = 0, 1, 2 …),
sin 𝜔в (𝑡−𝑘∆𝑡)
𝜔в (𝑡−𝑘∆𝑡)
– функция отсчетов.
Ряд Котельникова – это разложение сигнала 𝑥(𝑡) в ряд по ортогональным
функциям:
∞
𝑥(𝑡) = ∑ 𝑐𝑖 𝜑𝑖 (𝑡) ,
𝑐𝑖 ⟹ 𝑥(𝑘∆𝑡),
𝑖=−∞
𝜑𝑖 (𝑡) ∼
sin 𝑥
.
𝑥
Выводы:
1. Ряд Котельникова является основание для восстановления на приеме непрерывного сигнала по отсчетам.
2. Ряд Котельникова лежит в основе всех импульсных способов передачи
сигналов.
ИКМ – импульсно-кодовая модуляция,
АИМ – амплитудно-импульсная модуляция,
ШИМ – широтно-импульсная модуляция,
ФИМ – фазоимпульсная модуляция.
Замечание:
1. ∆𝑡 > ∆𝑡Кот – нельзя, т.к.:
20
max ∆𝑡 = ∆𝑡Кот =
1
.
2𝑓в
Иначе будет потеряна информация об исходном сообщении.
2. ∆𝑡 < ∆𝑡Кот можно, но точность передачи не возрастет; если
∆𝑡 → 0, то 𝑥(𝑘∆𝑡) → 𝑥(𝑡).
3.1.
Восстановление непрерывного сигнала по отсчетам
Для восстановления исходного непрерывного сигнала из импульсов – отсчетов надо эти импульсы подать на вход идеального фильтра нижних частот (ИФНЧ),
который имеет следующие характеристики.
Амплитудно-частотная характеристика идеального ФНЧ (АЧХ ИФНЧ) имеет
вид:
k(ω)
–ωв
ω
ωв
0
Рисунок 3.3. АЧХ ИФНЧ
Идеальная реакция ИФНЧ, т.е. реакция на дельта-импульс, имеет вид:
𝑔ИФНЧ (𝑡) = 𝐴
∆𝑡 =
𝜋
,
𝜔в
𝜔в ∆𝑡 = 𝜋,
𝑡=
sin 𝜔в 𝑡
,
𝜔в 𝑡
𝜔в (𝑘∆𝑡) = 𝜋𝑘,
𝜔в 𝑡 = 𝜋𝑘,
𝜋𝑘
= 𝑘∆𝑡.
𝜔в
Формула (3.2) определяет точки, где функция
Спектр на выходе ИФНЧ:
21
(3.2)
sin 𝑥
𝑥
обращается в ноль.
𝑆(𝜔) = 𝑘𝑆д (𝜔) =
𝑘
𝑆 (𝜔),
∆𝑡 𝑥
𝑆д (𝜔) – спектр дискретизированного сигнала,
𝑆𝑥 (𝜔) – спектр входного воздействия,
𝜔д = 2𝜔в – частота дискретизации.
g(t)
0
–2Dt
t
Dt
2Dt
Рисунок 3.4. Импульсная характеристика ИФНЧ
Сущность восстановления исходного сигнала по отсчетам Котельникова показана на рис. 3.5.
22
S(n∆t)
t
S(–∆t) sinΩm(t+n∆t)
Ωm(t+n∆t)
S(0) sinΩmt
Ωmt
t
t
S(2∆t) sinΩm(t–2∆t) t
Ωm(t–2∆t)
t
S(t)
t
t
Рисунок 3.5. Процесс восстановления сигнала по отсчетам Котельникова 𝑆(𝑛𝛥𝑡)
Таким образом, с точностью до постоянного множителя мы получим на выходе ИФНЧ спектр исходного сигнала. С временной точки зрения мы получим исходный непрерывный сигнал 𝑥(𝑡).
3.2.
налов
Погрешности дискретизации и восстановления непрерывных сиг-
Теорема Котельникова справедлива только для сигналов с финитным (ограниченным) спектром. На рис. 3.6 показаны некоторые варианты финитных спектров.
Финитный сигнал:
|𝑆(𝑗𝜔)|2
𝐺(𝜔) =
.
𝑇
23
S(w)
1
2
wв
0
w
Рисунок 3.6. Пример финитных сигналов (с ограниченным спектром)
Однако спектры реальных информационных сигналов бесконечны. В этом
случае Теорема Котельникова справедлива с погрешностью. Погрешность дискретизации определяется энергией спектральных оставляющих сигнала, лежащих за
пределами частоты 𝜔в (рис. 3.7).
Реальный сигнал:
∞
∆𝐸д = ∫ |𝑆(𝑗𝜔)|2 𝑑𝜔,
𝜔в
∆𝐸д – погрешность дискретизации.
S(ω)
0
ωв
ω
Рисунок 3.7. Спектр сигнала, ограниченного ωв
Вторая причина возникновения погрешностей – неидеальность восстанавливающего ФНЧ. При этом нарушается ортогональность функции типа sin 𝑥/𝑥 и
происходит смещение нулей.
24
Таким образом, погрешность дискретизации и восстановление непрерывного
сигнала определяется следующими причинами:
1. Спектры реальных сигналов не финитны;
2. АЧХ идеальных ФНЧ неидеальна.
Пример:
Если в качестве ФНЧ использовать RC-фильтр, то восстановленный сигнал
на его выходе будет иметь вид, представленный на рис. 3.8, с учетом того, что импульсная реакция RC-фильтра:
1
1
−
𝐶ф 𝑅ф
𝑔(𝑡) =
𝑒
.
𝐶ф 𝑅ф
R
Rф
а)
x(t)
б)
Cф
0
t
Рисунок 3.8. а) полученный на приеме сигнал;
б) переданный сигнал
Вывод:
Чем выше частота дискретизации 𝜔д = 2𝜔в и чем ближе спектральная характеристика ФНЧ к идеальной, тем восстановленный сигнал ближе к переданному.
3.3. Структурная схема передачи аналогового сигнала отсчетами Котельникова
На рис. 3.9 изображена структурная схема передачи аналогового сигнала с
использованием теоремы Котельникова.
Сообщение от источника преобразовывается в первичный сигнал и поступает
на фильтр нижних частот (ФНЧ), который определяет интервал дискретизации
𝜋
1
∆𝑡 = = , где 𝐹в – частота среза ФНЧ. Далее в дискретизаторе непрерывная
Ωв
2𝐹в
функция преобразуются в дискретные отсчеты, которые с помощью переносчика
(модулятора) преобразуются в сигнал, согласованный с линией связи. На приемной
стороне после демодулятора отсчеты подаются на ФНЧ и далее сообщение поступает к получателю.
25
Источник
информации
2
1
ФНЧ
Дискретиза
тор
4
5
Модулятор
3
Ген.
несущ.
ГОИ
6
Линия связи
8
7
Демодулятор
ФНЧ
Получатель
Рисунок 3.9. Структурная схема передачи аналогового сигнала отсчетами Котельникова
Временные и спектральные характеристики сигналов в различных точках
структурной схемы показаны на рис. 3.10, 3.11.
26
Временная
Спектральная
U(t)
U(ω)
1)
0
U(t)
t
0
U(ω)
t
0
Uг(ω)
ω
2)
0
Uг(t)
ω
Ωв
3)
0
S(t)
∆t
t
0 Ω
S(ω)
3Ω
t
0 Ω
3Ω
7Ω ω
5Ω
4)
0
Ω – Ωв Ω + Ωв
S(t)
6Ω
ω
7Ω + Ωв
S(ω)
5)
0
t
ωн
ωн – Ωв ωн + Ωв ωн + 7Ω + Ωв
0
ω
Рисунок 3.10. Временные и спектральные характеристики сигналов на передающей
стороне
27
S(t)
SM(ω)
6)
0
t
N0
0
ωн
ωн – Ωв ωн + Ωв ωн + 7Ω + Ωв
ω
S(t)
7)
0
t
V(ω)
V(t)
передаваемый
принятый
8)
0
t
0
ωв
ω
Рисунок 3.11. Временные и спектральные характеристики сигналов на приемной
стороне (𝑁0 – спектральная плотность мощности флуктуационной помехи)
28
4.
Методы формирования и преобразования сигналов
4.1.
Классификация радиотехнических цепей
Любая радиотехническая (электрическая) цепь описывается дифференциальным уравнением
𝑑𝑢
𝑑𝑛 𝑢
𝑎0 𝑢 + 𝑎1
+ ⋯ + 𝑎𝑛 𝑛 = 0.
𝑑𝑡
𝑑𝑡
Если 𝑎 = const, то это линейная электрическая (радиотехническая) цепь
(ЛЭЦ). Она состоит из линейных элементов 𝑅, 𝐿, 𝐶.
R
C
L
Рисунок 4.1. Линейные элементы (ЛЭ)
Для линейной цепи справедлив принцип суперпозиции: реакция на суммарное
воздействие равна сумме реакций на каждое из воздействий в отдельности.
Например:
𝑈
𝑖 = – характеристика ЛЭЦ.
𝑅
𝑈вх = 𝑈1 + 𝑈2 ,
𝑖1 =
𝑖вх =
𝑈1
,
𝑅
𝑖2 =
𝑈2
→
𝑅
𝑈вх 𝑈1 𝑈2
=
+
= 𝑖1 + 𝑖2 .
𝑅
𝑅
𝑅
В линейной цепи невозможно появление новых частот, не содержащихся во
входном воздействии (сигнале).
1. Если
𝑎𝑛 = 𝑎𝑛 (𝑖, 𝑈),
то цепь называется нелинейной (НЭЦ) и состоит из нелинейных 𝑅(𝑖), 𝐿(𝑖),
𝐶(𝑖).
29
R
C
L
Рисунок 4.2. Нелинейные элементы (НЭ)
Для НЭЦ не справедлив принцип суперпозиции. Пусть НЭЦ описывается
уравнением:
𝑖 = 𝑎2 𝑈 2 ,
𝑈вх = 𝑈1 + 𝑈2 ,
𝑖1 = 𝑎2 𝑈12 ,
𝑖2 = 𝑎2 𝑈22 ,
𝑖вх = 𝑎(𝑈1 + 𝑈2 )2 ≠ 𝑖1 + 𝑖2 .
В НЭЦ возникают новые частоты, не содержащиеся во входном воздействии.
2. Если
𝑎𝑛 = 𝑎𝑛 (𝑡),
то цепь называется параметрической (ПЭЦ) и состоит из элементов, зависящих от времени:
∫
∫
∫
R
C
L
Рисунок 4.3. Параметрические элементы (ПЭ)
Для ПЭЦ:
а) справедлив принцип суперпозиции;
б) возможно появление новых частот.
ПЭЦ конструируется на основе нелинейных элементов, на которые мы подаем напряжение независящее от времени.
30
вход
Параметрич.
элемент
Uвх(t)
выход
Uвых(t)
Uупр(t)
Рисунок 4.4. Пример использования параметрического элемента
𝑅(𝑡) = 𝑓[𝑈упр (𝑡)],
𝐶(𝑡) = 𝑓[𝑈упр (𝑡)],
𝐿(𝑡) = 𝑓[𝑈упр (𝑡)].
Принципы преобразования спектров
Ux(t)
воздействие
ПЭ
НЭ
Uy(t)
отклик
Рисунок 4.5. Использование ПЭ (НЭ)
Таблица 1 – Характеристики сигналов
На входе НЭ (ПЭ)
Спектр воздействия: 𝑆𝑥 (𝑗𝜔)
Функция плотности вероятностей: 𝑊𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )
Функция распределения вероятностей: 𝐹𝑛 (𝑥1 , 𝑥2 , … , 𝑥𝑛 )
Математическое ожидание: 𝑚𝑥 (𝑡)
Дисперсия: 𝜎𝑥2
Функция корреляции: 𝐵𝑥 (𝜏)
Интервал корреляции: 𝜏0𝑥
Коэффициент корреляции: 𝑘𝑥 (𝜏)
Энергетический спектр: 𝐺𝑥 (𝜔)
Полоса спектра: ∆𝜔эфф 𝑥
На выходе НЭ (ПЭ)
𝑆𝑦 (𝑗𝜔)
𝑊𝑛 (𝑦1 , 𝑦2 , … , 𝑦𝑛 )
𝐹𝑛 (𝑦1 , 𝑦2 , … , 𝑦𝑛 )
𝑚𝑦 (𝑡)
𝜎𝑦2
𝐵𝑦 (𝜏)
𝜏0𝑦
𝑘𝑦 (𝜏)
𝐺𝑦 (𝜔)
∆𝜔эфф 𝑦
Преобразования бывают:
Пассивные преобразования – такое преобразование, в результате которого не
возникает новых частот.
Активные преобразования – такое преобразование, в результате которого
возникают новые частоты (которых не было в исходном возмущении). Активное
31
преобразование возможно только с использованием нелинейного или параметрического элемента (т.е. возможно только в нелинейных или параметрических цепях).
Рассмотрим нелинейную цепь:
𝑖 = 𝑎0 + 𝑎1 𝑈 + 𝑎2 𝑈 2 ,
где 𝑖 – параметр цепи,
𝑈 = 𝑈(𝑡) = 𝑈 cos 𝜔𝑡,
𝑈 – возмущение (воздействие),
𝑖 = 𝑎0 + 𝑎1 (𝑈 cos 𝜔𝑡) + 𝑎2 𝑈 2 cos 2 𝜔𝑡.
Т.к.
cos 2 𝜔𝑡 =
1 − cos 2𝜔
⟹
2
𝑖 = 𝑎0 + 𝑎1 𝑈 cos 𝜔𝑡 +
Амплитуда 1-й
гармоники
𝑎2 (𝑈)2 𝑎2 (𝑈)2
+
cos2𝜔𝑡.
2
2
Постоянная
составляющая
Амплитуда 2-ой
гармоники
Иногда появление новых частот является вредным явлением, например, при
усилении НЧ сигналов, что приводит к нелинейным искажениям.
Относительный уровень нелинейных искажений определяется коэффициентом гармоник и рассчитывается по формуле:
√𝐼12 + 𝐼22 + ⋯ + 𝐼𝑛2
Кг =
.
𝐼1
iвых(t)
iвх(t)
0
Ω
t
0
Ω
2Ω
t
Рисунок 4.6. Спектры токов на входе и выходе НЭ
Рассмотрим воздействие бигармонического колебания на нелинейный элемент:
32
𝑖 = 𝑎0 + 𝑎1 𝑈 + 𝑎2 𝑈 2 ,
𝑈(𝑡) = 𝑈1 cos 𝜔1 𝑡 + 𝑈2 cos 𝜔2 𝑡,
𝑖(𝑡) = 𝑎0 + 𝑎1 (𝑈1 cos 𝜔1 𝑡) + 𝑎1 (𝑈2 cos 𝜔2 𝑡) +
+𝑎2 (𝑈12 cos 2 𝜔1 𝑡) + 𝑎2 (𝑈22 cos 2 𝜔2 𝑡) + 2𝑎2 𝑈1 𝑈2 cos 𝜔1 𝑡 cos 𝜔2 𝑡 =
= 𝑎0 + 𝑎1 𝑈1 cos 𝜔1 𝑡 + 𝑎1 𝑈2 cos 𝜔2 𝑡 +
𝑎2 𝑈12 𝑎2 𝑈12
𝑎2 𝑈22
+
cos 2𝜔1 𝑡 +
+
2
2
2
𝑎2 𝑈22
+
cos 2𝜔2 𝑡 + 𝑎2 𝑈1 𝑈2 cos(𝜔2 − 𝜔1 ) 𝑡 + 𝑎2 𝑈1 𝑈2 cos(𝜔2 + 𝜔1 ) 𝑡.
2
Sвх(ω)
Sвых(ω)
0 ω1
ω2
ω
0
ω1
2ω1 ω1–ω2ω2 ω2+ω1
2ω2 ω
Рисунок 4.7. Спектры напряжений (токов) при воздействии бигармонического колебания на НЭ
Для параметрической цепи:
𝑞(𝑡) = 1 + cos 𝜔р 𝑡 ,
𝑈(𝑡) = 𝑈𝑚 cos 𝜔0 𝑡,
𝑖(𝑡) = 𝑈(𝑡) ∙ 𝑞(𝑡) = (1 + cos 𝜔р 𝑡)𝑈𝑚 cos 𝜔0 𝑡 =
= 𝑈𝑚 cos 𝜔0 𝑡 +
𝑈𝑚
𝑈𝑚
cos(𝜔0 + 𝜔р ) 𝑡 +
cos(𝜔0 − 𝜔р )𝑡.
2
2
При преобразованиях кроме нелинейных элементов используются фильтры,
т.е. линейные элементы.
4.2.
Виды преобразования спектров сигнала
1. Умножение частоты – умножение частоты в целое число раз по отношению к частоте входного сигнала.
33
Sвх(ω)
0
Sвых(ω)
ω0
0
S(ω)
ω0
ω
АЧХ фильтра
ω
2ω0 3ω0 4ω0
0
ω
3ω0
Рисунок 4.8. Пример умножения частоты на 3
а)
VD
Uвых
б)
Uвых
VT
L
–
C
L
–
+
Eсм
+
Eсм
C
–
E
+
Рисунок 4.9. Функциональные схемы умножителей частоты:
а) на диоде;
б) на транзисторе
2. Деление частоты – получение частоты в 𝑛 раз меньше, чем частота входного сигнала.
3. Преобразование частоты – суммарно-разностные частоты, получаемые
при преобразовании частоты из частот входного сигнала и некоторой частоты
вспомогательного сигнала.
34
VD
ω0
L
C
ωг
Eсм
Рисунок 4.10. Функциональная схема преобразователя частоты
Sвх(ω)
0
Sвых(ω)
ω0
0
S(ω)
ω0
ωг
ω
АЧХ
2ω0 ωг – ω0
ωг
ωг + ω0
ωг + ω0
0
2ωг ω
ω
Рисунок 4.11. Пример преобразования частоты «вверх»
4. Модуляция.
В технике связи сигналы на большие расстояния предаются с помощью модуляции (с использованием для этой цели вспомогательного переносчика) т.е.
вспомогательного несущего колебания. При модуляции, как и при преобразовании
частоты, происходит перенос низкочастотного (НЧ) спектра в область высоких частот (ВЧ).
Примечание: модулированные колебания меньше искажаются в канале связи,
чем НЧ сигналы, т.к. НЧ относительно широкополосные, а модулированные – узкополосные. Таким образом:
1) можно бороться с искажением;
35
2) при использовании вспомогательного несущего колебания можно осуществлять частотную селекцию, которая используется в многоканальных системах
связи, т.к. такие сигналы можно разделять с помощью фильтров.
Модуляция – управление одним (или несколькими) из параметров несущего
колебания по закону НЧ сигнала.
𝑈(𝑡) = 𝑈𝑚 cos(𝜔0 𝑡 + 𝜑).
АМ
ЧМ
ФМ
5. Детектирование – это процесс, обратный процессу модуляции.
При детектировании выявляется, по какому закону промодулирован сигнал.
4.3.
Амплитудно-модулированные сигналы
При амплитудной модуляции амплитуда высокочастотного (ВЧ) сигнала изменяется по закону передаваемого низкочастотного (НЧ) сигнала.
При модуляции гармоническим колебанием:
𝑈(𝑡) = 𝑈𝑚 cos 𝜔0 𝑡,
где 𝑈(𝑡) – несущее колебание,
𝑈Ω (𝑡) = 𝐴 cos Ω𝑡,
𝑈Ω (𝑡) – модулирующее колебание.
При АМ:
𝑈𝑚 = 𝑈𝑚 (𝑡) = 𝑈0 + ∆𝑈 cos Ω𝑡.
Если ∆𝑈~𝐴, то:
𝑈АМ (𝑡) = (𝑈0 + ∆𝑈 cos Ω𝑡) cos 𝜔0 𝑡 = 𝑈0 (1 + 𝑚 cos Ω𝑡) cos 𝜔0 𝑡,
𝑚 = ∆𝑈/𝑈0 – коэффициент глубины модуляции,
cos 𝜔0 𝑡 – несущее ВЧ колебание,
𝜔0 ≫ Ω,
∆𝑈 – амплитуда огибающей,
cos Ω𝑡 – модулирующее НЧ колебание.
36
S(t)
а)
0
UАМ(t)
б)
огибающая
t
U0
0
t
несущее
колебание
Рисунок 4.12. а) модулирующее колебание;
б) модулированное колебание
UАМ(t)
m = ∆U/U0 < 1
0
UАМ(t)
t
m >1
перемодуляция
0
t
Рисунок 4.13. Временные характеристики АМ-колебания при различных 𝑚
Если модулирующий сигнал более сложной формы (не гармоническое колебание):
U(t)
а)
0
UАМ(t)
огибающая
t
б)
0
t
Рисунок 4.14. Временные характеристики:
а) модулирующего колебания сложной формы;
б) АМ-колебания
Огибающая изменяется в соответствии с формой модулирующего сигнала.
4.4.
Дискретная амплитудная модуляция (ДАМ)
37
Модулирующее колебание может быть не только непрерывным, но и дискретным. На рис. 4.14 приведен пример модуляции дискретным сигналом.
S(t)
S(t)
0
t
UДАМ(t)
0
t
UДАМ(t)
0
0
t
t
Рисунок 4.15. Пример ДАМ
Таким образом, под АМ понимается изменение амплитуды ВЧ сигнала переносчика, по закону передаваемого НЧ сигнала.
4.5. Спектральное
модулированного сигнала
и
векторное
представление
амплитудно-
Спектральное представление:
𝑈АМ (𝑡) = 𝑈0 [1 + 𝑚 cos Ω𝑡] cos 𝜔0 𝑡 =
= 𝑈0 cos 𝜔0 𝑡 +
𝑚𝑈0
𝑚𝑈0
cos(𝜔0 − Ω)𝑡 + +
cos(𝜔0 + Ω)𝑡.
2
2
UАМ(t)
U0
mU0/2
0
Ω
ω0 – Ω
mU0/2
ω0
ω0 + Ω
ω
Рисунок 4.16. Спектральное представление АМ-сигнала при модуляции чистым
тоном
Ширина спектра АМ сигнала в 2 раза шире спектра передаваемого (модулирующего) сигнала.
38
4.6. Определение глубины модуляции по спектральной диаграмме
(графический метод)
𝑈нес = 𝑈0 , 𝑚 =?
𝑈бок =
𝑚𝑈0
2𝑈бок
⟹𝑚=
.
2
𝑈0
Векторное представление:
𝜑(𝑡) = 𝜔0 𝑡 – фаза колебания (пройденный путь),
𝜔0 – угловая скорость частоты.
∆𝑡 → ∆𝜑 → 𝜔0 ∆𝑡,
(𝜔0 − Ω)𝑡 → ∆𝜑н.бок → (𝜔0 − Ω)∆𝑡,
(𝜔0 + Ω)𝑡 → ∆𝜑в.бок → (𝜔0 + Ω)∆𝑡,
𝜔0 𝑡 → ∆𝜑нес → 𝜔0 ∆𝑡.
U0
mU0
2
mU0
2
∆φнесущ.
∆φн.бок
φ0
∆φв.бок
Рисунок 4.17. Векторная диаграмма АМ-колебания
Принято при изображении модулированного колебания вектор несущей 𝑈0
считать неподвижным, а векторы боковых выражаются относительно концов несущей.
Модулирующий
вектор
ω0 + Ω
ω0 – Ω
U0
Модулированный
вектор
ti
UАМ(ti) = U0+Uмод
tj
ω0 – Ω
ω0 + Ω
U0
Модулированный
вектор
ω0 + Ω
UАМ(tj) = U0
U0
tk
ω0 – Ω
UАМ(tk) = 0; m = 1
Рисунок 4.18. Векторное представление АМ-колебания в различные моменты
времени (𝑡𝑖 , 𝑡𝑗 , 𝑡𝑘 )
Вывод:
Аналитическое, спектральное и векторное представление АМ сигнала
равноценны и его полностью определяют.
39
4.7.
Спектр АМ сигнала при модуляции сообщением сложной формы
Рассмотрим два случая:
1) cложное периодическое колебание;
2) cложное непериодическое колебание.
Колебание периодическое:
𝑈Ω (𝑡) – периодическое колебание,
𝑈Ω (𝑡) = 𝑆(𝑡) – модулирующее колебание.
Данное колебание (функцию) можно разложить в ряд Фурье:
𝑁
𝑆(𝑡) = ∑ 𝐶𝑛 cos(𝑛Ω𝑡 + 𝜑𝑛 ).
𝑛=0
Количество гармоник по теореме Котельникова:
𝑁=
𝑇
= 2𝐹𝑚 𝑇.
∆𝑡
Основная частота (первая гармоника):
Ω=
2𝜋
.
𝑇
АМ колебание с учетом 𝑆(𝑡):
𝑁
𝑈АМ (𝑡) = 𝑈0 [1 + ∑ 𝑚𝑛 𝑛 cos Ω𝑡] cos 𝜔0 𝑡.
𝑛=1
Порциональные коэффициенты модуляции:
𝑚𝑛 =
𝐶𝑛
.
𝑈0
40
S(t)
a)
0
2T
T
t
SНЧ(ω)
б)
0 Ω 3Ω
ω
SАМ(ω)
в)
верхняя боковая
полоса частот
нижняя боковая
полоса частот
0
ω0 – 3Ω
∆ωэфф = 2Ωmax
ω
ω0 + 4Ω
Рисунок 4.19. а) временная характеристика модулирующего периодического
колебания;
б) спектр модулирующего периодического колебания;
в) спектр амплитудно-модулированного колебания
Сигнал непериодический:
S(t)
SНЧ(ω)
а)
б)
0
t
T
0 Ωн
Ωв
ω
SАМ(ω)
нижняя боковая
полоса частот
в)
верхняя боковая
полоса частот
∆ωэфф = 2Ωmax
0
ω0 – Ωв
ω0
ω0 – Ωн ω0 + Ωн
ω0 + Ωв
ω
Рисунок 4.20. а) временная характеристика непериодического колебания;
б) спектральная характеристика непериодического колебания;
в) спектральная характеристика непериодического амплитуд-номодулированного колебания
41
Выводы:
1. Спектр АМ колебания получается из спектра НЧ путем переноса
модулирующего сигнала по оси частот вправо на величину 𝜔0 – ВБПЧ.
2. НБПЧ достраивается как зеркальное отображение ВБПЧ относительно
𝜔0 , при этом амблитуды боковых уменьшаются в два раза по отношению к
модулирующему сигналу.
4.8. Амплитудная модуляция с подавленной несущей (балансная
модуляция)
Из смысла модуляции информацию передают НЧ состовляющие
содержащиеся только в спектре боковых состовляющих т.е. в которых есть Ω.
Полезными являются только боковые частоты; 𝜔0 – не содержит полезной
информации, и ее целесообразно подавить. Такой вид модуляции называют балансной модуляцией (БМ).
SАМ(ω)
U0
а)
mU0
2
0
ω0 – Ω
mU0
2
ω0
ω0 + Ω
ω
SБМ(ω)
mU0
2
mU0
2
б)
0
ω0 – Ω
ω0
ω0 + Ω
ω
Рисунок 4.21. а) спектр АМ-колебания при модуляции чистым тоном;
б) спектр АМ-колебания с подавленной несущей
Это дает существенный энергетический выигрыш. Оценим этот выигрыш.
42
𝑈АМ (𝑡) определяет мощность:
𝑇
1
𝑃ср = ∫[𝑈АМ (𝑡)]2 𝑑𝑡,
𝑇
0
где 𝑇 – период наблюдения.
Составляющие спектра АМ-колебания:
𝜔АМ : {𝜔0 − Ω; 𝜔0 ; 𝜔0 + Ω}.
Из равенства Парсеваля для периодического сигнала:
𝑁
𝑃ср = ∑ 𝑃ср (𝜔𝑛 ),
𝑛=0
где 𝑁 – максимальный номер гармоники.
Средняя мощность на сопротивлении 𝑅:
𝑈2
𝑃ср ,
2𝑅
тогда
𝑃ср.нес
𝑃ср.верх.бок =
𝑈02
= ,
2𝑅
𝑚𝑈0 2
( 2 )
2𝑅
𝑚2 𝑈02
=
.
8𝑅
Суммарная мощность АМ:
𝑃∑АМ = 𝑃ср.несущ + 2𝑃ср.бок
𝑈02
𝑚2 𝑈02 𝑈02
𝑚2
𝑚2
=
+2
=
[1 +
] = 𝑃ср.несущ [1 +
].
2𝑅
8𝑅
2𝑅
2
2
43
SБМ(ω)
mU0
2
ω0 – Ω
0
mU0
2
ω
ω0 + Ω
ω
Рисунок 4.22. Спектр АМ сигнала с подавленной несущей
𝑈БМ (𝑡) =
𝑚𝑈0
𝑚𝑈0
cos(𝜔0 − Ω)𝑡 +
cos(𝜔0 + Ω)𝑡,
2
2
НБЧ
ВБЧ
или во временной области:
𝑈БМ (𝑡) = 𝑈Ω cos Ω𝑡 ∙ 𝑈0 cos 𝜔0 𝑡.
Модулированное БМ колебание получается перемножением НЧ сигнала и ВЧ
сигнала.
UБМ(t)
cos2Ωt
0
t
cosω0t
Рисунок 4.23. Временная характеристика БМ-сигнала при модуляции чистым
тоном
Огибающая сигнала БМ не повторяет форму модулирующего сигнала.
44
Замечание: при детектировании БМ сигнала на приеме необходимо
восстановить 𝜔0 для нормальной работы детектора. БМ в технике связи
применение не нашла.
Выводы:
1. Мощность боковых равна половине мощности несущей (при 𝑚 = 1).
2. Подавление несущей дает большой энергетический выигрыш.
3. Сэкономленную мощность можно направить на увеличение мощности
боковых полос, что дает увеличение качества связи.
4.9.
Однополосная АМ модуляция
Из спектра АМ колебания видно, что НБПЧ содержит ту же информацию,
что и ВБПЧ, т.е. дублирует ее. Следовательно можно оставить одну из них. За счет
этого можно уменьшить ∆𝜔эфф в 2 раза.
SАМ(ω)
а)
0 ω0 – Ωв
ω0 – Ωн ω0 ω0 + Ωн
ω0 + Ω в
ω
SАМ(ω)
б)
0
ω0
ω
ω0
ω
SАМ(ω)
в)
0
Рисунок 4.24. а) спектр АМ модуляции;
б) спектр АМ с подавленной одной боковой (ОБП);
в) спектр ОБП с подавленной несущей
Полность подавлять несущую нельзя, т.к. возникнут трудности при
детектировании.
4.10. Получение АМ колебаний
45
Модулятор – устройство, обеспечивающее получение модулированных
колебаний (сигналов). В результате модуляции появляются новые частоты,
которых не было в передаваемом сообщении, поэтому в модуляторе должны
использоваться нелинейные или параметрические элементы. При воздействии
сигнала на нелинейный элемент создается множество новых частот, как нужных,
так и ненужных. Нужные частоты выделяются с помощью полосовых фильтров.
Функциональная схема
Uω0(t)
UАМ(t)
НЭ
UΩ(t)
Рисунок 4.25. Сущность получения АМ-колебания
L
ω0
VD
Uω0(t)
Cбл.1
Сбл.2
С
Uвых АМ(t)
–
+
E
UΩ(t)
Рисунок 4.26. Принципиальная схема модулятора на диоде
Источник 𝐸 задает рабочую точку.
𝑥𝐶.бл. – емкостное сопротивление.
𝑥𝐶.бл.1 (𝜔0 ) → 0,
𝑥𝐶.бл.1 (Ω) → большое,
𝑥𝐶.бл.2 (𝜔0 , Ω) → 0,
𝑖НЭ = 𝑖д = 𝑎0 + 𝑎1 𝑈 + 𝑎2 𝑈 2 – вольтамперная характеристика диода,
𝜔𝑖 = 𝑘𝜔1 ± 𝑘𝜔2 , где 𝑘 + 𝑙 = 𝑁,
𝜔𝑖 – комбинационные частоты.
46
Si(ω)
АЧХ фильтра
0 Ω
ω0 – Ω
2Ω
ω
ω0 + Ω
ω0
Рисунок 4.27. Сущность получения АМ-колебания
Спектр сигнала на выходе модулятора определяется следующим образом:
𝑆вых (𝜔) = 𝑆вх (𝜔)𝑘(𝜔),
𝑘(𝜔) – АЧХ L-фильтра.
VT
Uω0
С
C1
UΩ
+
Eсм
L
Сбл.2
Cбл.1
–
L
–
+
Eпит
Рисунок 4.28. Принципиальная схема модулятора на транзисторе
𝑥𝐶1 – емкостное сопротивление, для низких частот большое, для высоких
частот маленькое.
Вид модуляции и вид схемы определяется тем электродом усилительного
элемента, на который подается модулирующее колебание.
47
4.11. Выбор режима работы модулятора для обеспечения неискаженной
модуляции
Для правильного выбора режима работы модулятора используется
статическая модуляционная характеристика (СМХ). Под неискаженной АМ
понимается такая, при которой форма огибающей модулированного сигнала не
отличается от 𝑈Ω (𝑡).
СМХ – это зависимость амплитуды первой гармоники выходного тока 𝐼1
модулятора (нелинейного элемента) от напряжения смещения Есм при амплитуде
ВЧ несущей 𝑈𝜔0 = const и амплитуде НЧ модулирующего сигнала 𝑈Ω = 0.
𝐼𝑚1 = 𝑓(𝐸см ) при 𝑈𝜔0 = const = 𝑈0 , 𝑈Ω (𝑡) = 0.
Разновидности СМХ
СМХ может быть снята двумя способами:
1. 𝐼𝑚𝑘 = 𝑓(𝐸см ) – амплитуда тока в контуре,
𝐼𝑚𝑘 = 𝐼𝑚1 𝑄 – ток первой гармоники в контуре,
𝑄 – добротность контура.
2. 𝑈𝑚𝑘 = 𝑓(𝐸см ) – амплитуда напряжения в контуре, т.к. 𝑈𝑚𝑘 = 𝐼𝑚1 𝑅экв ,
𝑅экв – эквивалентное сопротивление на контуре.
Практически используется 𝑈𝑚𝑘 = 𝑓(𝐸см ).
VT
Uвых(t)
Uω0
С
Сбл.2
Cбл.1
–
Eсм
–
+
+
Eпит
Рисунок 4.29. Схема снятия СМХ
Рассмотрим СМХ на примере полевого транзистора:
48
L
iз
iст
1
2
3
0
1
Uз
0
t
Eсм.1
2
Eсм.2
3
Есм.3
Рисунок 4.30. Зависимость тока стока от 𝐸см
линейный
участок
Jm1
Jm1
∆Jm1
РТ
0
Есм
0
UАМ(t)
На контуре
t
огибающая
∆UΩ
Eсм
0
Рисунок 4.31. Пример получения неискаженного АМ-колебания
Рабочая точка на СМХ выбирается следующим образом:
49
t
1. Определяем линейный участок и его границы.
2. На середине линейного участка выбираем рабочую точку (Р.Т.) и находим
необходимое 𝐸см .
3. Определяем допустимая максимальная амплитуда модулирующего колебания в пределах линейного участка.
Замечание: выход 𝑈Ω (𝑡) за границы линейного участка приводит к линейным
искажениям (сверху или снизу).
𝑈𝑚𝑘 = 𝐼𝑚1 ∙ 𝑅экв .
Огибающая ≈ 𝑈Ω (𝑡).
Два типа искажения огибающей при неправильном выборе рабочей точки:
1) ограничение огибающей сверху (по max) – Р.Т. смещена вправо;
2) искажение огибающей снизу (по min – отсечка) – Р.Т. смещена влево.
UАМ(t)
UАМ(t)
а)
б)
0
t
0
t
Рисунок 4.32. а) Р.Т. смещена вправо (𝑚 < 1);
б) Р.Т. смещена влево (𝑚 > 1)
4.12. Балансный модулятор
Для получения балансной модуляции (без несущей) должна быть использована только двухтактная схема.
50
VD1
+
i1
U1(t)
U1(t)
–
+
–U1(t)
U2(t)
+
R1
–
C
ω0
L
R2
i2
–
VD2
Рисунок 4.33. Схема балансного модулятора на диодах
В этой схеме 𝑅н состоит из 𝑅1 и 𝑅2 .
𝑖д = 𝑎0 + 𝑎1 𝑈 + 𝑎2 𝑈 2
(4.1)
𝑈д1 = 𝑈1 + 𝑈2 ,
(4.2)
𝑈д2 = −𝑈1 + 𝑈2 .
(4.3)
где 𝑖д – ВАХ,
Подставим (4.2) и (4.3) в (4.11), получим:
𝑖д1 = 𝑎0 + 𝑎1 (𝑈1 + 𝑈2 ) + 𝑎2 (𝑈1 + 𝑈2 )2 ,
𝑖д2 = 𝑎0 + 𝑎1 (−𝑈1 + 𝑈2 ) + 𝑎2 (−𝑈1 + 𝑈2 )2 .
Из 𝑖д1 вычтем 𝑖д2 и получим ток нагрузки 𝑖н :
𝑖н = 2𝑎1 𝑈1 + 4𝑎2 𝑈1 𝑈2 .
Вывод:
В двухтактной схеме ток нагрузки пропорционален 𝑈1 и 𝑈1 ∙ 𝑈2 .
Рассмотрим 2 варианта включения двухтактной схемы – в зависимости от того, чем являются 𝑈1 (𝑡) и 𝑈2 (𝑡) (ВЧ или НЧ колебания).
51
1-ый случай:
Ω,
𝑆𝑖н (𝜔) = { 𝜔0 − Ω,
𝜔0 + Ω,
𝑈1 = 𝑈Ω cos Ω𝑡,
}
𝑈2 = 𝑈0 cos 𝜔0 𝑡 ,
где 𝑆𝑖н (𝜔) – спектр тока, протекающего через нагрузку.
Sвх(ω)
а)
0
Ω
ω
ω0
Siн(ω)
б)
АЧХ колебательного
контура
0
Ω
ω0 – Ω ω0
ω0 + Ω
ω
ω0 – Ω
ω0 + Ω
ω
Sвых(ω)
в)
0
ω0
Рисунок 4.34. а) спектр тока на входе;
б) спектр тока, протекающего в нагрузке;
в) спектр тока, создающего напряжение на колебательном контуре
2-ой случай:
𝜔0 ,
𝑆𝑖н (𝜔) = {𝜔0 − Ω,
𝜔0 + Ω.
𝑈1 = 𝑈0 cos 𝜔0 𝑡 ,
}
𝑈2 = 𝑈Ω cos Ω𝑡,
52
Sвх(ω)
а)
Ω
0
ω0
ω
Sвых(ω)
б)
ω0 – Ω
0
ω0
ω
ω0 + Ω
Рисунок 4.35. а) спектр тока на входе;
б) спектр тока на выходе (на нагрузке)
Контур на выходе не нужен, получаем классическую АМ.
4.13. Кольцевой модулятор (двойной балансный)
VD1
+
VD4
i1
VD3
U1
R1
i3
–
+
–
+
i4
U2
U1
–
R2
VD2
i2
Рисунок 4.36. Функциональная схема кольцевого модулятора
53
VD3
R1
–
U2
+
–
U1
+
Рисунок 4.37. Эквивалентная схема для тока 𝑖3
Найдем ток нагрузки 𝑖н , решив систему:
𝑖д1 = 𝑎0 + 𝑎1 (𝑈1 + 𝑈2 ) + 𝑎2 (𝑈1 + 𝑈2 )2 ,
𝑖д2 = 𝑎0 + 𝑎1 (−𝑈1 + 𝑈2 ) + 𝑎2 (−𝑈1 + 𝑈2 )2 ,
𝑖д3 = 𝑎0 + 𝑎1 (𝑈1 − 𝑈2 ) + 𝑎2 (𝑈1 − 𝑈2 )2 ,
𝑖д4 = 𝑎0 + 𝑎1 (−𝑈1 − 𝑈2 ) + 𝑎2 (−𝑈1 − 𝑈2 )2 ,
{ 𝑖н = 𝑖д1 − 𝑖д2 − 𝑖д3 + 𝑖д4 .
Получим:
𝑖н = 8𝑎2 𝑈1 𝑈2 ,
𝑈вых = 𝑈КМ = 𝑖н 𝑅н .
Выводы:
1. В спектре тока будут только комбинационные частоты.
2. Не нужен колебательный контур.
3. Данная схема инвариантна по отношению к 𝑈1 и 𝑈2 .
Применения кольцевого модулятора:
1. Для получения балансной модуляции (БМ).
2. Для получения БМ с одной боковой полосой (ОБМ).
UΩ
Ω
ω0
ω0 – Ω
ω0 – Ω
ω0 + Ω
либо ω0 – Ω
Uω0
Рисунок 4.38. Структурная схема получения ОБП
54
3. Для преобразования частот 𝜔1 и 𝜔2 в суммарную (𝜔1 + 𝜔2 ) или
разностную (𝜔1 − 𝜔2 ).
4. Для измерения разности фаз сигналов одной частоты.
Пусть:
𝑈1 (𝑡) = 𝑈0 cos(𝜔0 𝑡 + 𝜑),
𝑈2 (𝑡) = 𝑈0 cos 𝜔0 𝑡,
𝑖н = 8𝑎2 𝑈02 cos(𝜔0 𝑡 + 𝜑) cos 𝜔0 𝑡 = 4𝑎2 𝑈02 cos 𝜑 + 4𝑎2 𝑈02 cos(2𝜔0 𝑡 + 𝜑)
НЧ
ВЧ
Элементарный ФНЧ:
Rф
cosφ
Cф
Рисунок 4.39. Реализация измерения разности фаз сигналов 𝑈1 (𝑡) и 𝑈2 (𝑡)
С помощью ФНЧ избавляемся от ВЧ.
5. В качестве синхронного детектора – фазовый детектор.
4.14. Амплитудные модуляторы на интегральных микросхемах
Ранее были рассмотрены модуляторы (балансный и кольцевой), токи в
нагрузке которых соответственно:
𝑖БМ = 2𝑎1 𝑈1 + 4𝑎2 𝑈1 𝑈2 ,
𝑖КМ = 8𝑎2 𝑈1 𝑈2 ,
т.е. основной операцией получения АМ является операция перемножения,
поэтому основным элементом интегральной микросхемы (ИМС) является перемножитель:
55
Вход 1
Выход
U1(t)
U2(t)
Вход 2
Рисунок 4.40. Эквивалентная схема перемножителя
Он должен осущесвлять перемножение двух аналоговых величин
(низкочастотного и высокочастотного). Таковыми ИМС являются в частности:
КР140МА1; К525ПС1; К525ПС2; К525ПС3.
В зависимости от структурной схемы и электрических параметров
(характеристик) аналоговые перемножители делятся:
Аналоговые перемножители (АП)
Модуляторы на
ИМС
Квадратичные
перемножители
К525ПС1
ПС2
ПС3
КР140МА1
Рисунок 4.41. Классификация аналоговых перемножителей
Аналоговый перемножитель предназначен для реализации передаточной
функции:
𝑈𝑧 = 𝑘𝑈𝑥 𝑈𝑦 ,
где 𝑈𝑧 – выходное напряжение,
𝑈𝑥 , 𝑈𝑦 – входные сигналы,
0 < 𝑘 < ∞ – коэффициент пропорциональности.
Важнейшие параметры для АП:
- диапазон входного и выходного напряжения;
- диапазон частот поступающих сигналов;
- нелинейность перемножения, 𝑁𝑥 , 𝑁𝑦 , %.
Мы не будем детально рассматривать возможные схемы АМ на ИМС, а
рассмотрим только принцмип их реализации на ИМС (рис. 4.42).
56
Вход X
Вход Y
X
kXY
Z
Выход
Y
Рисунок 4.42. Условное графическое обозначение ИМС для АМ
𝑈вых max = 3 B (по постоянному току),
𝑈вх max = ±5 B – диапазон линейных входных напряжений,
𝐸ист.пит. = ±12 В,
435МА1 – диодный мост (интегральная схема кольцевого модулятора).
4.15. Детектирование АМ колебаний (демодуляция)
Детектирование – процесс выделения НЧ переданного сообщения из
принятого ВЧ модулированного сигнала. Это операция обратная модуляции.
ВЧ
модулированный
сигнал
Вход
UАМ(t)
Выход
НЭ
НЧ сигнал
UΩ(t)
Рисунок 4.43. Сущность детектирования
Временная характеристика:
𝑈АМ (𝑡) = 𝑈вх (𝑡) = 𝑈0 [1 + 𝑚 cos Ω𝑡] cos 𝜔0 𝑡.
Спектр АМ колебания:
{(𝜔0 − Ω), 𝜔0 , (𝜔0 + Ω)}.
На рис. 4.44 представлены временные и спектральные характеристики токов
детектора в различных точках схемы.
57
Вход
Выход
НЭ
ФНЧ
Uвх(t)
UНЭ(t)
Uвых(t)
а)
б)
в)
0
t
Sвх(ω)
0
0
t
SНЭ(ω)
ω0 – Ω
ω0
ω 0 Ω
ω0 + Ω
0
t
Sвых(ω)
ω0 – Ω
ω0
ω0 + Ω
ω 0 Ω
ω
Рисунок 4.44. Временные и спектральные характеристики токов детектора:
а) на входе детектора;
б) протекающеих через нелинейный элемент;
в) на выходе детектора
VD
Rф
Сф
Рисунок 4.44\5. Простейшая схема детектора
𝑅ф 𝐶ф → ФНЧ – для выделения 𝑆𝑖 нэ (Ω) полезной НЧ состовляющей и
подавления ВЧ составляющих. Следовательно, должны выполняться соотношения:
1
1
≫ 𝑅ф ≫
,
𝑇Ω ≫ 𝑅ф 𝐶ф ≫ 𝑇0 .
Ω𝐶ф
𝜔0 𝐶ф
Работа детектора определяется характеристикой детектирования.
𝑋𝐶ф (Ω) ≫ 𝑅ф ≫ 𝑋𝐶ф (𝜔0 ),
58
Характеристика детектирования (ХД) – это зависимость постоянной
состовляющей тока НЭ от модулируемого параметра входного сигнала.
I0
α
0
1 обл
2 обл
Umвх
Рисунок 4.46. Характеристика детектирования
Т.е. ХД:
- для АМ: 𝐼0 = 𝑓(𝑈𝑚 вх )~𝑈Ω ;
- для ЧМ: 𝐼0 = 𝑓(𝜔вх )~𝜔;
- для ФМ: 𝐼0 = 𝑓(𝜑вх )~𝜑.
Различаются 2 режима детектирования в зависимости от того, на какую часть
(область) приходится огибающая:
1) квадратичное детектирование (𝑈𝑚 (𝑡) ≈ 0,1 ÷ 0,2 В);
2) линейное детектирование (при больших 𝑈𝑚 (𝑡) = 0,5 ÷ 1 В).
4.16. Квадратичный детектор
Апроксимируем ВАХ диода квадратичным полиномом:
𝑖д = 𝑎0 + 𝑎1 𝑈 + 𝑎2 𝑈 2 .
59
тогда
Т.к. операция детектирования нелинейная, то 𝑎0 и 𝑎1 𝑈 можно не учитывать,
𝑖 = 𝑎2 𝑈 2 .
(4.4)
Подаем на детектор модулированный сигнал:
𝑈АМ (𝑡) = 𝑈вх (𝑡) = 𝑈0 [1 + 𝑚 cos Ω𝑡] cos 𝜔0 𝑡,
𝑈АМ (𝑡) = 𝑈0 cos 𝜔0 𝑡 +
𝑚𝑈0
𝑚𝑈0
cos(𝜔0 − Ω)𝑡 +
cos(𝜔0 + Ω)𝑡 .
2
2
а
b
(4.5)
c
Подставим (4.5) в (4.4) и получим 𝑖д :
𝑖д = 𝑎2 (𝑎 + 𝑏 + 𝑐)2 = 𝑎2 𝑎2 + 𝑎2 𝑏 2 + 𝑎2 𝑐 2 + 𝑎2 2𝑎𝑏 + 𝑎2 2𝑎𝑐 + 𝑎2 2𝑏𝑐.
Составляющих 𝑎2 𝑎2 , 𝑎2 𝑏 2 , 𝑎2 𝑐 2 не будет, поскольку это высокие частоты, и
мы их отфильтровываем ФНЧ.
В результате подстановки и преобразования получим НЧ составляющие:
Ω → 𝐽Ω =
𝑎2 𝑚𝑈02 ,
2Ω → 𝐽2Ω
𝑚2 𝑈02
= 𝑎2
.
4
В квадратичном детекторе кроме полезного продукта Ω есть вредная
состовляющая 2Ω. Это приводит к искажению сигнала на выходе детектора по
отношению к модулирующему. Колличественной мерой искажений является
коэффициент нелинейных искажений:
𝑘н.и. =
𝐽2Ω 𝑚
= .
𝐽Ω
4
При 𝑚 = 100% 𝑘н.и. = 25% – это очень большие нелинейные искажения. В
реальной аппаратуре они составлят доли процента.
Применение квадратичного детектора
Из-за высоких искажений квадратичный детектор для детектирования АМ
сигналов не применяется; его применяют в следующих случаях:
1) при детектировании АМ с 𝑚 ≪ 1;
2) для детектирования сигналов дискретной АМ;
60
UДАМ(t)
а)
0
t
Uвых(t)
б)
0
t
Рисунок 4.47. а) сигнал на входе детектора;
б) сигнал на выходе детектора
3) для детектирования ОБП;
4) для детектирования биений (сигналов с близкими частотами).
Uвых(t)
Ωб
0
t
ωср
Рисунок 4.48. Вид сигнала на выходе квадратичного детектора (Ωб = 2Ω)
𝑈вх (𝑡) = 𝑈1 cos 𝜔1 𝑡 + 𝑈2 cos 𝜔2 𝑡,
𝜔1 и 𝜔2 – близкие, т.е. 𝜔1 − 𝜔2 → 1 ÷ 5 кГц.
𝜔ср =
𝜔1 + 𝜔2
,
2
Ωбиен. =
61
𝜔1 + 𝜔2
.
2
Продукты преобразования при детектировании
𝜔вх = {(𝜔0 − Ω), 𝜔0 , (𝜔0 + Ω)}.
𝜔 − (𝜔0 − Ω),
1) Ω = { 0
(𝜔0 + Ω) − 𝜔0 .
Для получения Ω обязательно необходима несущая 𝜔0 на приеме. Таким
образом, при балансной модуляции и ОБП несущее колебание на приеме должно
быть восстановлено.
2) 2Ω = (𝜔0 + Ω) − (𝜔0 − Ω).
Определяется взаимодействием боковых (вредные составляющие плохо
подавляются ФНЧ, т.к. близки к Ω).
3) Суммарные частоты → ВЧ состовляющие.
2𝜔0 ± 2Ω и (2𝜔0 ± Ω) – отфильтровываются (подавляются) ФНЧ.
Линейный детектор
Для больших сигналов с
аппроксимируется отрезками прямых:
большой
амплитудной
𝑆𝑈, 𝑈 > 0,
𝑖(𝑈) = {
0, 𝑈 < 0.
i
α
0
U
Рисунок 4.49. Линейная аппроксимация ВАХ
𝑆 = tg 𝛼 – тангенс угла наклона,
𝑆 – крутизна вольтамперной характеристики [мА/В].
Два режима линейного детектирования:
1) детектор класса «В»:
Θ = 90° ;
2) детектор класса «С»:
Θ = 10° ÷ 12° .
62
ВАХ
диода
Детектор класса «В»
i
J0
а)
среднее
значение J
огибающая
б)
imax
0
U
0
t
Uвых(t)
2Θ
Uвых(t) ≈ J0R
в)
UΩ(t)
0
t
Рисунок 4.50. а) сигнал на входе детектора;
б) форма тока, протекающего через диод;
в) сигнал на выходе детектора
𝐽0 = 𝑖max 𝛼0 (Θ),
𝛼0 (90°) =
1
,
𝜋
𝐽0 =
1
𝑖
≅ 0,3𝑖max ,
𝜋 max
𝛼0 (Θ) – Коэффициент Берга.
𝑆𝑈(𝜔) = 𝑆𝑖 (𝜔)𝑍н (𝜔),
𝑍н (𝜔 ≈ Ω) ≈ 𝑅н ,
т. к.
1
≫ Rн,
ΩCф
𝑍н (𝜔 = 𝜔0 ) → 0.
Недостатки:
Коэффициент передачи детектора:
𝐾пер =
𝑈вых
,
𝑈вх
𝐾пер для детектрора класса «В»:
1
𝐾пер ≈ 0,3 = ,
𝜋
т.е. 𝑈0 дет (𝑡) ≅ 0,3𝑈𝑚 (𝑡) – низкий коэффициент передачи.
63
VD
Rф
Ri
Rн
Cф
Рисунок 4.51. Принципиальная схема детектора класса «В»
𝑅𝑖 ≈ 𝑅н ,
𝑅ф ≫ 𝑅н ,
𝑅𝑖 – сопротивление диода в прямом направлении.
Детектор класса «С»
VD
Вход
Сф Выход
Rф
Рисунок 4.52. Принципиальная схема детектора класса «С»
Емкость заряжается через диод во время импульсов и не успевает
разрядиться между импульсами. Напряжение на емкости является смещением для
диода (автоматическим). Детектор класса «С» может работать в режиме
выпрямления и в режиме детектирования.
64
iд
iд
0
Uвх
0
Θ
t
90°
0
Rн/Ri
Eсм
Рисунок 4.53. Работа детектора класса «С» в режиме выпрямления
𝜃 = 𝑓(𝑅𝑖 , 𝑅н ),
𝜋𝑅𝑖
𝑡𝑔𝜃 − 𝜃 =
,
𝑅н
𝜃 < 90°,
𝜃3
𝑡𝑔𝜃 = 𝜃 + ,
3
3
𝜃 = √𝜋
3𝑅𝑖
.
𝑅н
Работа детектора класса «С» в режиме детектирования (схема детектора
аналогична рис. 4.52) показана на рис. 4.54.
iд
iд
0
{U
m вх
= 0, Есм = 0
Uвх
0
{
огибающая
Uвх
t
смещение
cosω0t
t
Рисунок 4.54. Работа детектора класса «С» в режиме детектирования
Θ = 10° ÷ 12°, 𝐸см = 𝑈Ω cosΩ𝑡.
Если 𝑈𝑚 вх ↑, то |𝐸см | ↑;
Если 𝑈𝑚 вх ↓, то |𝐸см | ↓.
65
Требования к параметрам RC-фильтра; их влияние на искажения
iн
Сн – нормальная емкость
фильтра
заряд
разряд
0
iн
t
Сф<Сн
Возникают пульсации
0
iн
t
Сф>Сн
Не успеваем
отслеживать огибающую
0
t
Рисунок 4.55. Работа детектора при разных значениях емкости фильтра (𝐶ф )
Величина 𝐶 выбирается из условия, что бы напряжение на ней отслеживало
изменение огибающей.
Детектор на транзисторе
U0 вых
Uвх
Rф
U0 выхΩ
Сф
VT
Сф '
Rф'
Сбл
не усиленный сигнал
+
снимается
усиленный
сигнал
–
E
Рисунок 4.55. Принципиальная схема детектора класса «С» на транзисторе
Непосредственное детектирование в базовой цепи, усиление – в коллекторной цепи.
66
Угловая модуляция (частотная и фазовая)
5.
Временное, спектральное и векторное представление сигнала угловой модуляции
𝑈нес (𝑡) = 𝑈0 cos[𝜔0 𝑡 + 𝜑(𝑡)].
ЧМ – изменение частоты несущей.
𝜔(𝑡) = 𝑓(𝑈Ω (𝑡)),
𝜔(𝑡)~𝑓(𝑈Ω (𝑡)).
ФМ – изменение фазы несущей по закону низкочастотного сигнала.
𝜑(𝑡) = 𝑓(𝑈Ω (𝑡)),
𝑈Ω (𝑡) – модулирующее колебание.
5.1.
Фазовая модуляция
𝜑(𝑡) = 𝑓[𝑈Ω (𝑡)],
𝑈(𝑡) = 𝑈0 [cos 𝜔0 𝑡 + 𝜑(𝑡)],
𝜑(𝑡) = Δ𝜑 sin Ωt ,
𝑈Ω (𝑡) = 𝑈Ω ,
𝑈ФМ (𝑡) = 𝑈0 cos[𝜔0 𝑡 + Δ𝜑 sin Ω𝑡],
∆𝜑 – девиация фазы – максимальное отклонение фазы в процессе модуляции
от среднего значения.
Аналитическое представление:
𝑈ФМ (𝑡) = 𝑈0 cos[𝜔0 𝑡 + 𝑀ф sin Ω𝑡],
где 𝑀ф – индекс фазовой модуляции, 𝑀ф = ∆𝜑.
Векторное представление:
U0
U0(tj)
5.2.
∆φj ∆φi
U0(ti)
Рисунок 5.1. Векторная диаграмма УМ-сигнала
Частотная модуляция
67
𝜔(𝑡) = 𝑓[𝑈Ω (𝑡)],
𝜔ЧМ (𝑡) = 𝜔0 + Δω cos Ω𝑡.
Частоту в таком виде изменить нельзя, поэтому вводится понятие
мгновенной фазы 𝜓(𝑡).
𝜓(𝑡) = ∫ 𝜔(𝑡)𝑑𝑡 = ∫(𝜔0 + Δ𝜔 cos Ω𝑡)𝑑𝑡 = 𝜔0 𝑡 +
Δ𝜔
sin Ω𝑡,
Ω
∆ω – девиация частоты, т.е. максимальное отклонение частоты от среднего
значения.
Δ𝜔
𝑈ЧМ (𝑡) = 𝑈0 cos [𝜔0 𝑡 +
sin Ω𝑡],
Ω
𝑈ЧМ (𝑡) = 𝑈0 cos[𝜔0 𝑡 + 𝑀ч sin Ω𝑡],
где 𝑀ч =
Δ𝜔
Ω
– индекс частотной модуляции.
Если 𝑀ч = 𝑀 и 𝑀ф = 𝑀, то
𝑈УМ (𝑡) = 𝑈0 cos[𝜔0 𝑡 + Msin Ω𝑡].
5.3.
Сравнение ЧМ и ФМ
1. При модуляции чистым тоном или одной частотой Ω временные функции
одинаковы и по существу не отличаются одна от другой.
2. Отличия:
Т.к. 𝑀ф = Δ𝜑, а Δ𝜑~𝑈𝑚 Ω , то 𝑀ф ~𝑈𝑚 Ω .
Т.к. 𝑀ч =
Δ𝜔
Ω
, а Δ𝜔~𝑈𝑚 Ω , то 𝑀ч ~
𝑈𝑚 Ω
Ω
.
Видно, что индекс 𝑀ФМ не зависит от частоты модулирующего сигнала Ω, а
𝑀ЧМ обратнопропорционален частоте модулирующего сигнала Ω.
𝑑𝜓
3. Поскольку 𝜔(𝑡) =
– скорость изменения фазы и 𝜓(𝑡) = ∫ 𝜔(𝑡)𝑑𝑡 –
𝑑𝑡
пройденный путь, то один вид модуляции можно получить из другого.
4. Т.к. 𝑀ЧМ ~1/Ω, то спектральные диаграммы ЧМ от ФМ будут отличаться
изменением эффективной ширины спектра сигналов в зависимости от
модулирующей частоты.
Таблица 2 – Спектры ЧМ и ФМ при различных модулирующих частотах.
68
ЧМ
ФМ
а) Ω1
ω0 – Ω 1
ω0 – 2Ω1
ω0 + Ω 1
ω0
ω
ω0 + 2Ω1
ω0
ω
ω0 + 2Ω1
ω0 – Ω1
ω0 – 2Ω1
ω0 + Ω1
ω0
ω
ω0 + 2Ω1
б) Ω2 = 2Ω1
ω0 – 2Ω1
ω0 – 2Ω1
ω0
ω0 + 2Ω1
ω
Для ЧМ при увеличении частоты расстояние между спектральными
составляющими увеличивается, но эффективная ширина спектра не меняется, для
ФМ – расстояние между спектральными составляющими увеличивается и
одновременно увеличивается эффективная ширина спектра (спектральные линии
«расползаются»).
5.4.
Модуляция сигналом произвольной формы
ЧМ и ФМ резко отличаются между собой при модуляции сигналом сложной
(не sin-ой) формы.
Таблица 3 – Модуляция ЧМ и ФМ сигналом сложной формы.
69
ЧМ
ФМ
UНЧ(t)
UНЧ(t)
t
∆φ(t)
ω(t)
ω0 + ∆ω
ω0
t
{
∆φ
}
∆ω
t
t
ω(t)
ω0 – ∆ω
ω(t) =
φ(t)
φ(t) = ∫ω(t)dt
dφ(t)
dt
}
{
∆ω
∆φ
ω0
–∆ω
t
t
Примечание: особенностью угловой модуляции является то, что при
изменении частоты будет изменяться и фаза и наоборот изменение фазы ведет к
изменению частоты.
5.5.
Спектры при угловой модуляции
𝑈УМ (𝑡) = 𝑈0 cos(𝜔0 𝑡 + 𝑀 sin Ω𝑡).
Различают два случая УМ:
1) 𝑀 ≪ 1 – узкополосная модуляция (УПУМ);
2) 𝑀 ≫ 1 – широкополосная модуляция (ШПУМ).
Рассмотрим 1-й случай:
70
𝑈УМ (𝑡) = 𝑈0 cos(𝜔0 𝑡 + 𝑀 sin Ω𝑡) =
= 𝑈0 cos 𝜔0 𝑡 ∙ cos(𝑀 sin Ω𝑡) − 𝑈0 sin 𝜔0 𝑡 ∙ sin(𝑀sin Ω𝑡).
cos 𝑀 sin Ω𝑡 (при М <<1) ≈ 1,
sin 𝑀 sin Ω𝑡 (при М >>1) ≈ 𝑀 sin Ω𝑡 ⟹
𝑈УМ (𝑡) = 𝑈0 cos 𝜔0 𝑡 −
𝑀𝑈0
𝑀𝑈0
cos(𝜔0 − Ω) 𝑡 +
cos(𝜔0 + Ω)𝑡.
2
2
Полученное выражение напоминает спектр АМ сигнала, но отличается тем,
что нижняя составляющая – отрицательна, т.е. повернута на 180°.
Таблица 4 – Спектры АМ и УМ.
АМ
ω0 – Ω
УМ
ω0
ω0 + Ω
ω
ω0 – Ω
ω0 + Ω
ω0
ω
ω0 + Ω
ω0 + Ω
ω0 – Ω
UУМ(ti)
UАМ(ti)
U0
ω0 – Ω
U0
∆φi
Приведенное выражение приближенное, а в более точном появляются
составляющие 𝜔0 ± 2Ω, 𝜔0 ± 3Ω и т.д., но они очень малы.
Выводы:
1. Отличие УПЧМ от АМ в том, что модулирующий вектор
перпендикулярен вектору несущей (всегда).
2. При УП угловой модуляции результирующий вектор «качается»
относительно ⃗⃗⃗⃗⃗
𝑈0 в ебе стороны на величину девиации ∆𝜑.
3. Видно, что при УП угловой модуляции появляется и паразитная АМ (т.к.
⃗⃗⃗⃗⃗⃗⃗
𝑈УМ ≥ ⃗⃗⃗⃗
𝑈0 ).
Рассмотрим 2-ой случай:
Для cos и sin сложного аргумента используется разложение в ряд Бесселя.
71
𝑈УМ = 𝑈0 cos 𝜔0 𝑡 ∙ cos(𝑀 sin Ω𝑡) − 𝑈0 sin 𝜔0 𝑡 ∙ sin(𝑀 sin Ω𝑡).
Разложим функции sin(𝑀 sin Ω𝑡) и cos(𝑀 sin Ω𝑡) в ряд Бесселя:
cos(𝑀 sin Ω𝑡) = 𝐽0 (𝑀) + 2𝐽2 (𝑀) cos 2Ω𝑡 + 2𝐽4 (𝑀) cos 4Ω𝑡 + ⋯,
sin(𝑀 sin Ω𝑡) = 2𝐽1 (𝑀) sin Ω𝑡 + 2𝐽3 (𝑀) sin 3Ω𝑡 + ⋯
Jn(x)
1
J0(x)
0,8
0,6
J1(x)
J2(x)
0,4
0,2
0
5
10
15
20
x
–0,2
–0,4
Рисунок 5.2. Вид функций Бесселя
Учитывая, что
𝐽0 (𝑀) ⟶ 𝜔0 ,
𝐽1 (𝑀) ⟶ 𝜔0 ± Ω,
𝐽2 (𝑀) ⟶ 𝜔0 ± 2Ω
и т.д., получим:
𝑈УМ (𝑡) = 𝑈0 [𝐽0 (𝑀) cos 𝜔0 𝑡 − 𝐽1 (𝑀) cos(𝜔0 − Ω)𝑡 + 𝐽1 (𝑀) cos(𝜔0 + Ω)𝑡 +
+𝐽2 (𝑀) cos(𝜔0 ± 2Ω)𝑡 − 𝐽3 (𝑀) cos(𝜔0 − 3Ω)𝑡 + 𝐽3 (𝑀) cos(𝜔0 + 3Ω)𝑡 + ⋯].
72
M = 0,5
ω0 – Ω
ω0 ω0 + Ω
ω
M=1
ω0 – 2Ωω0 – Ω ω0 ω0 + Ω
ω
ω0+3Ω
ω0–3Ω
M = 2,4
ω0 – 2Ω ω
0–
Ω ω0 ω0 + Ω ω0 + 2Ω
ω
Рисунок 5.3. Спектры широкополосной угловой модуляции при различных
индексах M
Выводы:
1. Спектр ШП угловой модуляции бесконечно широкий.
2. Колебания частоты 𝜔0 несет в себе информацию об 𝑈Ω (𝑡) наравне с
другими спектральными составляющими; при некотором 𝑀 𝑈(𝜔0 ) = 0.
3. Практически ширина спектра определяется величиной М. Обычно
спектральными состовляющими с частотой 𝜔0 > (М + 1)Ω – пренебрегаем ввиду
их малости: ∆𝜔пр ≈ 2(𝑀 + 1)Ωmax , а при 𝑀 ≫ 1 ∆𝜔пр ≈ 2𝑀Ωmax .
𝜔max
Примечание:
Для ЧМ Δ𝜔пр ≈ 2∆𝜔д , где ∆𝜔д – девиация частоты. Т.к. 𝜔min = 𝜔0 − ∆𝜔,
= 𝜔0 + ∆𝜔, то 𝜔min ≤ 2∆𝜔д ≤ 𝜔max .
5.6.
Сходства и различия ЧМ и ФМ
Вспомним, что:
𝑀ф = ∆𝜑,
𝑀ч =
Δ𝜔
,
Ω
Δ𝜔~𝑈Ω ,
∆𝜑~𝑈Ω ,
𝑀ч ~
𝑀ф ~𝑈Ω ,
𝑈Ω
,
Ω
∆𝜔пр ≅ 2𝑀Ωmax ,
Δ𝜔пр ≅ 2𝑀Ωmax ≅ 2Δ𝜔д ≅ const.
73
Отсюда можно сделать следующие выводы:
1. В обоих случаях 𝑀~𝑈Ω .
2. Ширина спектра при ЧМ не зависит от частоты сигнала и равна
удвоенной девиации частоты.
3. При ФМ ширина спектра пропорциональна частоте модулирующего
сигнала.
4. При ФМ колличество спектральных линий не меняется и равно 𝑀Ωmax
(штук).
5. При ЧМ колличество спектральных линий изменяется, но остается
неизменной эффективная (практическая) ширина спектра.
5.7.
Методы получения сигналов угловой модуляции
Различают два основных метода:
1) прямой;
2) косвенный.
Под прямым методом понимают непосредственное воздействие на частоту
или фазу задающего генератора.
Косвенный метод – получение ЧМ или ФМ из других видов модуляции (ФМ
из АМ, а ЧМ из ФМ и т.д.).
Прямой метод получения ЧМ
ωг
Задающий
генератор
Выход
Епит.
Рисунок 5.4. Принцип получения ЧМ
𝜔г =
1
√𝐿𝐶
= 𝜔рез .
Если 𝐿 = const = 𝐿0 и 𝐶 = const = 𝐶0 , то
𝜔г =
1
√𝐿0 𝐶0
= const.
74
ЧМ:
𝜔г = 𝜔(𝑡) = 𝑓[𝑈Ω (𝑡)].
В этом случае либо 𝐿(𝑡) = 𝑓[𝑈Ω (𝑡)], либо 𝐶(𝑡) = 𝑓[𝑈Ω (𝑡)].
Рассмотрим сущность получения ЧМ
З.Г.
Uупр(t)
Z(ω)
Lк
UΩ(t)
Cк
Выход
ω(t)
Рисунок 5.5. Сущность получения ЧМ
∆𝜔~𝑈Ω (𝑡),
𝜔(𝑡) = 𝜔0 + ∆𝜔,
𝑍(𝜔) – эквивалентная реактивность, которая может быть реализована в виде
емкостной реактивности 𝐶(𝑈) – варикап (рис. 5.6, а), либо индуктивной реактивностью 𝐿(𝑖) (рис. 5.6, б).
а)
б)
С(U)
L(i0)
L(i)
Рисунок 5.6. Варианты реактивных нелинейных элементов
где 𝐿(𝑖0 ) – ток смещения.
75
С(U)
Есм
C(t)
∆C
0
U
0
t
UΩ(t)
t
Рисунок 5.7. Изменение емкости варикапа (𝛥𝐶) в зависимости от модулирующего
напряжения
U(t)
Eсм(t)
Рисунок 5.8. Эквивалентная схема включения варикапа
𝑈(𝑡) = 𝑈0 cos Ω𝑡.
76
Cp2
UЧМ
L дросселя
iΩ
Cp1
варикап
VT
Lк Cк
Cбл.1
UΩ
–
–
Сбл.2
Eк
+
Eсм
+
Задающий генератор
Рисунок 5.9. Принципиальная хема получения ЧМ на варикапе
𝑆(𝑡) – НЧ сигнал (Ω) подается через трансформатор,
𝐶р1 – разделительная емкость, отделяет переменную состовляющую
напряжения и тока (постоянную состовляющую не пропускает),
𝐿др – дроссель, назначение – пропустить постоянную состовляющую,
исключить шунтирование контура низкоомным сопротивлением цепи модуляции,
Х𝐿др (𝜔0 ) – велико.
𝜔ген ≈ 𝜔рез = 𝜔вых ,
𝜔рез =
1
√𝐿к 𝐶экв
,
𝐶экв = 𝐶к + 𝐶0 + ∆𝐶,
где 𝐶0 – емкость варикапа в рабочей точке, при отсутствии модуляции,
∆𝐶 – изменение емкости при подаче на варикап модулирующего сигнала.
𝐶(𝑡) = ∆𝐶 cos Ω𝑡,
𝜔рез =
1
,
∆𝐶
√𝐿к 𝐶∑ (1 + 𝐶 )
∑
𝐶∑ = 𝐶к + 𝐶0 – емкость контура при отсутствии модулирующего сигнала.
77
1
𝜔рез = 𝜔0
,
𝜔0 =
∆𝐶
√1 + 𝐶
1
√𝐿к 𝐶∑
,
∑
𝜔0 – резонансная частота контура при отсутствии модуляции.
Как правило ∆𝐶⁄𝐶 ≪ 1, тогда
∑
1
√1 + 𝑋малое
≅1−
𝑋малое
,
2
𝜔г = 𝜔рез = 𝜔ЧМ = 𝜔0 (1 −
∆𝐶
),
2𝐶∑
∆𝐶⁄ = 𝑚 – коэффициент изменения емкости.
𝐶
𝐶∑
Тогда, с учетом всех преобразований, получим:
𝜔ЧМ = 𝜔0 (1 −
𝑚𝐶
).
2
Недостатки:
1. Исключается возможность стабилизации частоты (с помощью кварца), а
она должна быть стабильна.
2. Невысокая девиация частоты из-за малого линейного участка 𝐶(𝑈); ∆𝜔 ≈
∆𝐶.
Примечание:
Для увеличения девиации частоты применяется умножение частоты после
модуляции, тогда ∆𝜔вых = ∆𝜔ген ∙ 𝑛, где 𝑛 – коэффициент умножения.
Прямой метод получения ФМ
ФМ:
𝜔рез
∆𝜑 = 𝑓[𝑈Ω (𝑡)],
𝜑 = arctg 𝑋⁄𝑅,
⟶ 𝑍контура (𝜔 = 𝜔рез ) = 𝑅экв ⟶ 𝜑к (𝜔 = 𝜔рез ) = 0.
Сущность получения ФМ: используется не генератор, а усилитель
нарпряжения, к которому подключается эквивалентрная реактивность.
78
усили
тель
ЗГ
Z(ω)
Рисунок 5.10. Сущность получения ФМ
𝑍(𝜔) – эквивалентная реактивность.
При ФМ 𝜔рез = 𝑓[𝑈Ω (𝑡)] относительно 𝜔0 .
𝜑1 ≤ 𝜑вых ≤ 𝜑2 .
Z(ω)
∆C – уменьшилась
ωрез1
ωрез = ω0
φ(ω)
–π
ω
ωрез2
∆φ = 10° ÷ 20°
{
}
φ2
ω
φ0
+π
∆φ
φ1
Рисунок 5.11. Частотные и фазовые характеристики контура для трех значений
резонансной частоты
Для изменения результирующей частоты контура используются
транзисторные реактивности (емкости). Недостаток – возникает паразитная АМ.
Косвенные методы получения ЧМ
79
Они основываются на получении одних видов модуляции из других с учетом
сходства и различия между ними.
1) ЧМ из ФМ;
2) ФМ из ЧМ;
3) ЧМ из ФМ и БМ.
Получение ЧМ из ФМ
𝑈ФМ = 𝑈0 cos(𝜔0 𝑡 + 𝑀ФМ 𝑆(𝑡)),
𝑈ЧМ = 𝑈0 cos (𝜔0 𝑡 + 𝑀ЧМ ∫ 𝑆(𝑡)𝑑𝑡) ,
𝑆(𝑡) = 𝑈Ω (𝑡).
UΩ(t)
S(t)
∫S(t)dt
ФМ
UЧМ(t)
Рисунок 5.12.
Получение ФМ из ЧМ
UΩ(t)
S(t)
dS(t)
dt
ЧМ
UФМ(t)
Рисунок 5.13. Сущность получения ФМ из ЧМ
Получение ЧМ и ФМ из БМ (узкополосная угловая модуляция)
Такая возможность основывается на сходстве и различии спектральных и
векторных диаграмм.
80
Схемная реализация получения сигнала угловой модуляции
БМ
UΩ(t)
Ω
Σ
ω0
ω0
UУМ(t)
φ = 90°
UАМ
–Ω
UУМ
+Ω
U0
U0
Рисунок 5.14. Получение узкополосной угловой модуляции из БМ
5.8.
Детектирование сигналов угловой модуляции
Два метода детектирования:
1) прямое;
2) косвенное.
Детектирование ФМ – прямое
UФМ(t) = U0cos[ω0t + ∆φS(t)]
Кольцевой
модулятор
U0 cosω0t
Uвых ~ cosφ
4a2U02cosφ
Опорное
колебание
Рисунок 5.15. Структурная схема прямого детектирования ФМ
𝜑 – сдвиг фаз.
Подробнее смотри § 2.13.
81
Детектирование ЧМ сигнала
𝑈ЧМ = 𝑈0 cos [𝜔0 𝑡 + Δ𝜔 ∫ 𝑆(𝑡)𝑑𝑡].
Поскольку модулирующий сигнал стоит под знаком интеграла, то прямого
метода детектирования ЧМ сигнала нет.
Существует два варианта детектирования ЧМ:
1) ЧМ → ФМ – детектирование ФМ (фазовый детектор);
2) ЧМ → АМ – детектирование АМ (амплитудный детектор) – использу-ется
чаще.
Для преобразования ЧМ в АМ используется устройство, у которого 𝑈вых =
𝑓(𝜔вх ).
ωвх = ω(t) = ω0t + ∆ω∫S(t)dt
Uвых = f(ωвх)
Рисунок 5.16. Сущность преобразования ЧМ в АМ
Существует 3 варианта реализации детектирования в этом случае:
1) на одном расстронном контуре;
2) на двух расстроенных контурах;
3) на одном настроенном контуре.
ЧМ на одном расстроенном контуре
Uк(ω)
Umк(t)
Р.Т.
ωр
0
∆ω
ω
Umк(t)
0
Uк(t)
cos Ωt
t
0
t
t
Сохраняется частотная
модуляция
Рисунок 5.17. Сущность детектирования ЧМ на одном расстроенном контуре
82
Характеристики детектора:
J0
а)
б)
вых
VD
вх
Р.Т.
+
UЧМ(t)
Lк
Rн
ωр
i0 р.т.
ω0
Cк
Сф
–
ω
ωрез
Рисунок 5.18. а) характеристика детектирования ЧМ;
б) принципиальная схема детектора на одном
расстроенном контуре
𝐽0 – постоянная составляющая тока в нагрузке.
Недостатки схемы:
1. При отсутствии модуляции большая постоянная состовляющая тока в РТ.
2. Маленький линейный участок – это ограничивает девиацию частоты ∆𝜔.
Чем выше ∆𝜔, тем лучше устраняется ВЧ состовляющая.
VD1
вх
ω0
Uвых
Lк1
ωр1
Cк1
ωр2
Cк2
Rф1
Сф1
Rф2
Сф2
Lк2
VD2
Рисунок 5.19. Принципиальная хема ЧМ детектора на двух взаимно-расстроенных
контурах
83
Uк(ω)
a)
ωр1
ω0
ωр2
ω
Uк(ω)
U0(t)
б)
cos Ωt
в)
ωр1
ω0 ωр2
∆ω
0
ω
t
Рисунок 5.20. а) АЧХ расстроенных контуров;
б) характеристика детектирования частотного детектора;
в) напряжение на выходе детектора
Достоинства схемы на двух расстроенных контурах:
1. 𝑈0 (𝜔0 ) = 0.
2. Девиация в схеме с двумя растроенными контурами в два раза
больше,чем при одном (∆𝜔2к > ∆𝜔1к ).
3. Большой линейный участок – можно увеличить ∆𝜔.
При ∆𝜔 > ∆𝜔допустимой возникают нелинейные искажения (рис. 5.21).
U0(t)
U0(ω)
рабочий
участок
ωр1
искажения
ω0
ωр2
ω
0
t
∆ω
cos Ωt
Рисунок 5.21. Превышение Δ𝜔 линейного участка характеристики детектирования
5.9. Фазовый (синхронный) детектор (ФД)
84
Синхронный детектор (фазовый детектор) позволяет осуществить
высококачественное детектирование сигналов АМ, ЧМ и ФМ; он обеспечивает
наилучшее выделение сигнала на фоне помех. Структурная схема ФД показана на
рис. 5.22.
Вход Uc(t)
S(t) Выход
Синхронный
детектор
Uоп(t)
Опорный
генератор
Рисунок 5.22. Структурная схема ФД
Сигнал (АМ, ЧМ, ФМ):
𝑈с (𝑡) = 𝑈𝑚 (𝑡) cos(𝜔0 𝑡 + 𝜑ЧМ (𝑡) + 𝜑ФМ (𝑡) + 𝜑0 ).
У синхронного детектора два входа. На первый вход подается
модулированный сигнал, на второй вход опорное напряжение. Частота опорного
напряжения равна центральной частоте сигнала 𝜔0 – (синхронность), а фаза равна
начальной фазе сигнала 𝜑0 – (синфазность).
VD1
Um(t)
Uвых
Rф1
Сф1
Rф2
Сф2
VD2
Uоп(t)
Рисунок 5.23. Принципиальная схема фазового детектора
Простейшая схема (принципиальная) ФД изображена на рис. 5.23.
Напряжение на выходе синхронного детектора (СД) равно интегралу от
произведения сигнала на опорное напряжение.
𝑈с (𝑡) = 𝑈𝑚 cos(𝜔0 𝑡 + 𝜑0 ),
85
𝑈оп (𝑡) = 𝑈оп cos(𝜔0 𝑡 + 𝜑0 ).
Пусть на входе АМ сигнал [𝑈с (𝑡) = 𝑈АМ (𝑡)], тогда
𝑇
𝑇
1
1
𝑈вых (𝑡) = ∫ 𝑈с (𝑡)𝑈оп (𝑡)𝑑𝑡 = ∫ 𝑈𝑚 cos(𝜔0 𝑡 + 𝜑0 )𝑈оп cos(𝜔0 𝑡+𝜑0 )𝑑𝑡 =
𝑇
𝑇
0
0
𝑇
𝑈оп 𝑈𝑚
1 1
𝑈оп 𝑈𝑚
=
∫ [ + cos(2𝜔0 𝑡 + 2𝜑0 )] 𝑑𝑡 =
.
𝑇
2 2
2
0
Т.к. 𝑈оп практически постоянно на интервале 𝑇, то мы получим
модулирующий сигнал без искажений.
86
6.
Модуляция дискретными сигналами
6.1.
Дискретные виды модуляции
1)
2)
3)
4)
ДАМ (дискретная амплитудная модуляция);
ДЧМ (дискретная частотная модуляция);
ДФМ (дискретная фазовая модуляция);
ДОФМ (дискретная относительная фазовая модуляция).
Временное и спектральное представление
Ранее были рассмотрены различные виды модуляции непрерывных НЧ
сигналов. В технике связи широко используются цифровые методы передачи
информации. При этом передаваемое сообщение передается последователь-ностью
прямоугольных импульсов.
Источник
АЦП
… 101101...
Модулятор
Передатчик
в ЛС
Рисунок 6.1. Структурная схема передачи цифровой информации
Например, для импульсно-кодовой модуляции (ИКМ), длина кодовой
комбинации 𝑛 = 7:
ИКМ → 𝑛 = 7 (код) → 𝑁 = 27 = 128 уровней квантования.
87
S(t)
τ
T
1
0
1
Q = T/τ = 2 – скважность
0
1
0
0
1
t
Uнес(t)
0
t
UДАМ(t)
U1
0
t
U2 = 0
UДЧМ(t)
U1
0
t
UДФМ(t)
90°
U2
U1
180°
0
t
U2
Рисунок 6.2. Временные и векторные характеристики дискретных амплитудной,
частотной и фазовой модуляций
88
Дискретная амплитудная модуляция (ДАМ)
0 ≤ 𝑡 ≤ 𝜏,
𝑈ДАМ (𝑡) = {
𝑈0 cos(𝜔0 𝑡 + 𝜑0 ),
0.
Дискретная частотная модуляция (ДЧМ)
0 ≤ 𝑡 ≤ 𝜏,
𝑈 cos(𝜔1 𝑡 + 𝜑1 ),
𝑈ДЧМ (𝑡) = { 0
𝑈0 cos(𝜔2 𝑡 + 𝜑2 ).
Дискретная фазовая модуляция (ДФМ)
0 ≤ 𝑡 ≤ 𝜏,
𝑈 cos(𝜔0 𝑡 + 𝜑1 ),
𝑈ДФМ (𝑡) = { 0
𝑈0 cos(𝜔0 𝑡 + 𝜑2 ).
Для максимальной различимости нужно, чтобы: ∆𝜑 = 𝜑1 − 𝜑2 = 180° ;
поэтому:
0 ≤ 𝑡 ≤ 𝜏,
𝑈 cos 𝜔0 𝑡,
𝑈ДФМ (𝑡) = { 0
−𝑈0 cos 𝜔0 𝑡.
Примечание:
Различают 2 вида ДЧМ:
1) без разрыва фазы;
2) с разрывом фазы.
UДЧМ(t)
когда ω1 = kω2
или ω2 = kω1
UДЧМ(t)
а)
б)
0
0
t
t
разрыв
Рисунок 6.3. ДЧМ:
а) без разрыва фазы;
б) с разрывом фазы (скачок фазы)
89
6.2.
Спектры сигналов дискретной модуляции
Они получаются на основе общего правила построения спектров
модулированного сигнала по спектру модулирующего НЧ сигнала путем его
переноса из «0» на частоту 𝜔0 .
Q=2
SНЧ(ω)
2Ω 4Ω
0 Ω 3Ω
ω
Uнес(ω)
ω0
0
ω
SДАМ(ω)
–Ω
+Ω
–4Ω
–5Ω
0
+4Ω
–3Ω
ω0
+3Ω
ω
+5Ω
SДЧМ(ω)
–Ω
0 –5Ω –3Ω
–Ω
+Ω
ω1
+3Ω +5Ω
ω0
–5Ω –3Ω
+Ω
ω2
+3Ω
ω
SДФМ(ω)
–Ω
+Ω
–4Ω
0
–5Ω –3Ω
+4Ω
ω0
+3Ω +5Ω
ω
Рисунок 6.4. Спектральные характеристики видеосигнала и дискретных
амплитудной, частотной и фазовой модуляций
Для понимания вида спектра ДЧМ полезно его рассматривать как сумму двух
спектров ДАМ с поднесущими 𝜔2 и 𝜔1 .
𝑆ДЧМ (𝜔) = 𝑆ДАМ (𝜔1 ) + 𝑆ДАМ (𝜔2 ).
В ДФМ при 𝑄 = 2, 𝑈нес = 0; при 𝑄 ≠ 2, 𝑈нес ≠ 0.
90
Для скважности 𝑄 = 4:
S(t)
τ
1
0 0
0
1 0
0
S(ω)
0 0 1
t
T
3Ω
0
Ω 2Ω 4Ω
8Ω
12Ω
ω
Рисунок 6.5. Временная и спектральная характеристики видеосигнала с 𝑄 = 4
Выводы:
2𝜋
𝑘2𝜋
1. Ω = – основная спектральная частота, 𝜏 – определяет частоты, Ω𝑖 =
𝑇
𝜏
– нули огибающей.
𝑇
2. 𝑄 = – скважность, определяет гармоники Ω, которые равны нулю.
𝜏
3. При передаче реальных дискретных сообщений чередование посылок
(символов «1» и «0») носит случайный характер, поэтому о периодичности
последовательности «1» и «0» говорить невозможно, т.е. понятие скважности
теряет смысл. В данном случае фиксированной остается только длительность
одного элемента последовательности 𝜏min . В этом случае для понимания вида
спектра целесообразно рассматривать последовательность передаваемых символов
как периодическую с периодом 𝑛 × 𝜏min , где 𝑛 – число элементов
последовательности, у которой скаважность меняется от 𝑛 до 1.
4. При постоянной величине 1⁄𝜏min скважность будет определять количество спектральных линий меджу 0 и 1⁄𝜏min . Спектр радиосигнала определяется
видом видеосигнала сдвинутым из «0» в область несущей 𝜔0 (или 𝜔1 и 𝜔2 для
ЧМ).
6.3.
Дискретная относительная фазовая модуляция (ДОФМ)
ДФМ обеспечивает максимальную помехоустойчивость за счет наибольшего
расстояния между сигналами (двоичными).
91
S1
180°
d = 2S
S2
Рисунок 6.6. Расстояние между сигналами при ДФМ
Однако при детектировании сигнала ДФМ возникают большие трудности изза необходимости поддержания равенства фаз сигнала опорного генератора и
приходящего сигнала. Если равенство фаз нарушается возникает «обратная
работа». Под обратной работой понимается прием «1» вместо «0» или «0» вместо
«1». Это происходит потому, что информация о передаваемом сигнале «0» или «1»
содержится в начальной фазе элемента сигнала, а прием осуществляется путем
сравнения фазы принимаемого элемента с фазой опорного колебания (фазовый
детектор).
𝑈прин (𝑡) = 𝑈0 cos(𝜔0 𝑡 + 𝜑𝑖 ) ,
𝜑𝑖 = {
𝑈оп.ген (𝑡) = 𝑈г cos(𝜔0 𝑡 + 𝜑г ),
180°,
0°.
либо
При использовании в системе связи ОФМ (Diperential Phase Shift Keying)
используется относительное кодирование на стороне передачи и относительное
декодирование на стороне приема. Перекодирование исходной передаваемой
последовательности символов 𝑎𝑖 на стороне передачи (введение относительнос-ти)
производится по правилу:
𝑏𝑖 = 𝑎𝑖 ⊕ 𝑏𝑖−1 ,
где 𝑎𝑖 – символ на входе относительного кодера; 𝑏𝑖 – символ на его выходе,
𝑏𝑖−1 – символ на выходе кодера, задержанный на длительность символа,
⨁ – процедура сложения по модулю 2 ( выполняется по правилу):
0⨁1 = 1,
0⨁0 = 0,
1⨁0 = 1,
1⨁1 = 0.
Сформированная таким образом последовательность символов 𝑏𝑖 подается на
когерентный модулятор сигналов ДФМ. В этом случае ОФМ рассматривают как
классическую ДФМ, с учетом предварительного перекодирования передаваемой
последовательности символов, и с последующим относительным декодированием
на приеме.
Вынесем «относительности» на стороне передачи:
92
Сигнал от
кодера аi
bi
mod 2
… 101010 ...
Модулятор
ДФМ
bi-1
ЛЗ
Рисунок 6.7. Внесение «относительностей» на стороне передачи для ДОФМ
Прием сигналов ОФМ для демодуляции сигналов осуществляется двумя
методами:
1) когерентный – метод сравнения полярностей;
2) некогерентный – метод сравнения фаз.
В первом случае схема снятия относительностей (относительный декодер)
включается
после
когерентногодемодулятора
ДФМсигналов,
т.е.
в
последовательность демодулированных символов .
Некогерентным методом приема сигналов ОФМ применяют в каналах связи с
нестабильной фазой принимаемых сигналов, когда она претерпевает быстрые
флуктуации. В этом случае в качестве опорного сигнала демодулятора ДФМ
сигналов испльзуется предедущий элемент сигнала, который для этого
задерживается на время, равное его длительности, т.е. снятие относительности
осуществляется в принимаемой последовательности элементов сигнала. При этом
на выходе демодулятора сигналаДФМ появляется последовательность символов,
соответсвующая исходной передаваемой, которая и поступает к получателю
сообщений.
Метод сравнения полярностей
Si
Фазовый
детектор
bi
mod 2
bi–1
Опорный
генератор
ai
{1,0}
ЛЗ
Рисунок 6.8. Структурная схема метода сравнения полярностей
Метод сравнения фаз
93
Si
Фазовый
детектор
Si–1
ai
РУ
{1,0}
ЛЗ
Рисунок 6.9. Структурная схема метода сравнения фаз
{1,0} – совокупность (множество) «1» и «0».
Некогерентный прием хуже когерентного по помехоустойчивости.
Особенности ДОФМ:
1. При искажении одного сигнала ошибки удваиваются.
2. При перескоке фазы будет ошибка, зато все последующие элементы
принимаются правильно.
3. В чистом виде ДФМ применяется крайне редко.
6.4. Импульсные виды модуляции (аналитическое представление,
временные и спектральные диаграммы)
В технике связи и передачи информации наряду с гармоническими
сигналами в качестве переносчиков широко используются и переодические
последовательности импульсов.
Для гармонического переносчика в зависимости от модулируемого
параметра возможны следующие виды модуляции:
𝑈(𝑡) = 𝑈0 (𝑡) cos(𝜔0 𝑡 + 𝜑(𝑡)).
АМ
ЧМ
ФМ
А если переносчик импульсный, то:
Uимп(t)
τи
A
0
t
T
Рисунок 6.10. Последовательность прямоугольных импульсов
94
𝐴(𝑡 + 𝑘𝑇),
𝑈имп (𝑡) = {
0,
0 ≤ 𝑡 ≤ 𝜏и ,
0 ≤ 𝑡 ≤ 𝑇.
Возможные виды импульсной модуляции
1. Амплитудно-импульсная модуляция (АИМ):
𝐴(𝑡) = 𝑓(𝑈НЧ (𝑡)),
𝜏и = const,
𝑇 = const.
2. Широтно-импульсная модуляция (ШИМ):
𝜏и = 𝑓(𝑈НЧ (𝑡)),
𝐴 = const,
𝑇 = const.
3. Фазо-импульсная модуляция (ФИМ):
𝜏𝑖 = 𝑓(𝑈НЧ (𝑡)),
𝐴 = const,
𝜏и = const,
𝜏𝑖 – момент появления импульса.
Для ФИМ:
Если 𝑈НЧ (𝑡) ↑, то импульс сдвигается влево.
Если 𝑈НЧ (𝑡) ↓, то импульс сдвигается вправо.
↑↓ – знаки увеличения, уменьшения.
В основе импульсных видов модуляции лежит теорема Котельникова,
которая определяет частоту следования тактовых импульсов.
∆𝑡Кот =
1
,
2𝑓max
𝑇 ≤ ∆𝑡Кот ,
𝑓имп ≥ 2𝑓max ,
где 𝑓имп = 1⁄𝑇,
𝑇 – период следования импульсов.
АИМ в чистом виде, как правило, не используется в силу низкой
помехоустойчивости, но лежит в основе получения импульсно-кодовой модуляции
(ИКМ) и дельта-модуляции.
Временное представление АИМ, ШИМ, ФИМ:
95
UНЧ(t)
0
Uимп(t)
t
τи
A
0
UАИМ(t)
t
T
0
UШИМ(t)
t
τmax
τmin
0
UФИМ(t)
t
0
t
Рисунок 6.11. Временные характеристики импульсных амплитудной, широтной и
фазовой молуляций
Спектр АИМ сигнала
𝑄=
𝑇
= 5,
𝜏и
Ω=
96
2𝜋
.
𝜏
Sнес(ω)
a)
0
ω
Ω 2Ω 3Ω 4Ω 5Ω
SНЧ(ω)
б)
0Ω
ω
max
SАИМ(ω)
в)
0
Ω
3Ω
Ω – Ωmax Ω + Ωmax
10Ω
5Ω
ω
Рисунок 6.12. а) спектр переносчика (видеоимпульса);
б) спектр модулирующего сигнала;
в) спектр АИМ
Импульсно – кодовая модуляция
ИКМ представляет собой один из возможных видов импульсной модуляции,
который суммирует в себе все положительные свойства приемов дискретизации,
квантования и кодирования.
Сущность ИКМ:
Непрерывное сообщение дискретизируется по времени через интервал ∆𝑡
(∆𝑡 = 1/2𝑓max по теореме Котельникова), полученные отсчеты мгновенных
значений квантуются (дискретизируются по уровню); затем полученная
последовательность
квантованных
значений
непрерывного
сообщения
представляется посредством кодирования в виде последовательности кодовых
комбинаций. Чаще всего кодирование сводится к записи номера уровня в двоичной
системе счисления. При ИКМ модуляции передача отдельных значений сигнала
сводится к передаче определенных групп импульсов. Эти группы передаются друг
за другом через относительно большие промежутки времени по сравнению с
длительностью отдельных импульсов.
97
111 7
Δa
110 6
ε
101 5
ε – шум
квантования
Δa – шаг
квантования
100 4
011 3
ε
010 2
001 1
000 0
amin
ΔtКот.
ИКМ-код
110
100
010
001
000
010
011
100
Рисунок 6.13. Сущность получения кодовых комбинаций («цифры») и кода ИКМ
Достоинства ИКМ:
1. Основное техническое преимущество цифровых систем перед
непрерывными – высокая помехоустойчивость ( не происходит накапливание
помехи при переприемах).
2. Широкое использование в аппаратуре преобразования сигналов
современной элементарной базы цифровой вычислительной техники и
микроэлектроники.
3. Возможность приведения всех видов передаваемой информации к
цифровой форме позволит осуществить интеграцию систем передачи и систем
коммуникации, а также расширить область использования техники при построении
аппаратуры связи и единой автоматизированной сети связи.
4. Аппаратуре не трубуются настройки.
Недостатки ИКМ:
Основным недостатком является то, что преобразование непрерывных
сообщений в цифровую форму в системах ИКМ сопровождается округлением
мгновенных значений до ближайших разрешенных уровней квантования.
Возникающая при этом погрешность преобразования является неустранимой, но
контролируемой (т.к. не превышает половины шага квантования). При передаче
аналогового сигнала его величина (мгновенная амплитуда) изменяется в пределах
от 𝑎min до 𝑎max .
Динамический диапазон квантованных сигналов
98
𝐷 = 20 lg
𝑎max
.
𝑎min
Количество уровней квантования
𝑁 = 2𝑛 − 1 ≈ 2𝑛 , если 𝑛 ≫ 1.
Интервал квантования
∆𝑎 =
2𝑎max 2𝑎max
≈
.
𝑁
2𝑛
Мощность шумов квантования (при условии, что импульсы треугольной
формы)
𝑃ш кв
2
(∆𝑎)2
1 2𝑎max 2 𝑎max
=
=
.
(
) =
12
12 2𝑛
3 ∙ 2𝑛
(6.1)
Нас интересует отношение мощности сигнала к мощности шума квантования. При этом рассматривается наихудший случай, когда мгновенная амплитуда,
𝑎 = 𝑎min . В этом случае минимальная средняя мощность сигнала будет зависеть от
𝑎min и от пик-фактора сигнала П (отношение максимального значения к
среднеквадратическому)
𝑃с min
2
𝑎min
= 2 .
П
Если задать отношение мощности сигнала при минимальной его амплитуде к
мощности шума квантования:
2
𝑃𝑐 min 𝑎min
3 ∙ 2𝑛
𝐾кв =
= 2 2 ,
𝑃ш кв
П 𝑎max
можно определить число разрядов 𝑛:
𝑛 = log 2 [П (
𝑎max 𝐾кв
)√ ]
𝑎min
3
а значит, и число уровней квантования 𝑁 = 2𝑛 .
6.5.
Использование компандирования в ИКМ
99
Из выражения (6.1) следует, что мощность шума квантования пропорциональна квадрату ширины интервала квантования (∆𝑎) и не зависит от величины
сигнала. В связи с этим при уменьшении уровня сигнала снижается отношение
сигнал/шум квантования. Чтобы получить приблизительно постоянное, не зависящее от уровня сигнала отношение сигнал/шум квантования, следовало бы использовать переменную ширину шага квантования: малую для малых сигналов, большую для больших сигналов. Поэтому вводимые в кодер дискреты (отсчеты) пропускают через, так называемый, мгновенный компрессор (постоянная времени которого практически равна нулю) с соответствующей характеристикой. Преобразованный соответствующим образом в компрессоре дискрет (отсчет) затем кодируется как при использовании равномерных шагов квантования. Такая схема эквивалентна схеме с делением всего диапазона на интервалы переменной ширины.
Источник
непрерывных
сообщений
Дискрети
затор
Квантова
тель
К модулятору
Компрессор
Кодер
предатчика
Рисунок 6.14. Струтктурная схема передающей части системы с ИКМ
На приеме кодовых комбинаций подвергается декодированию, а затем
полученные дискреты вводятся в экспандер, характеристика которого обратна
характеристике компрессора.
Приемник с
демодуляторм
Декодер
Экспандер
ФНЧ
К получателю
Рисунок 6.15. Струтктурная схема приемной части системы с ИКМ
Выигрыш от применения компандера показан на рис. 6.16. На этом рисунке
по оси абсцисс представлен уровень сигнала, а по оси ординат указано отношение
уровней сигнала и шума квантования.
Uc
Uш.кв , дб
Без компандера
А
выигрыш
С компандером
–10
дБ
Uс,дБ
Рисунок 6.16. Выигрыш в использовании компандера
6.6.
Системы передачи с дельта-модуляцией
100
Принцип работы системы связи с дельта-модуляцией состоит в том, что
передается информация не о мгновенной величине дискрета, а только сообщение о
том, больше или меньше данный дискрет по отношению к предыдущему
переданному значению сигнала. Поскольку существует одна из двух указанных
возможностей (случай идеального равенства как маловероятный не принимается во
внимание), то информация об этом может быть передана с помощью одного
элемента: единицы (импульса), если данный дискрет больше предсшествующего,
или нуля (пробела), если он меньше. Очевидно, что указанная информация должна
передаваться значительно чаще по сравнению с дискретами в системе передачи с
ИКМ (рис. 6.17).
δ
Сигнал в
линии
t
Рисунок 6.17. Сущность передачи сигналов с использованием дельта-модуляции
101
7.
Случайные процессы
7.1. Вероятносные характеристики случайных сигналов (процессов);
числовые характеристики и физическая интерпретация
Как уже говорилось, процессы, рассматриваемые в теории связи, могут быть
детерминированными или случайными.
Детерминированные процессы – это процессы, течение которых во времени
известно заранее и обсолютно точно.
Например, гармонический сигнал
𝑈(𝑡) = 𝑈𝑚 cos(𝜔0 𝑡 + 𝜑0 ),
где 𝑈𝑚 , 𝜔0 , 𝜑0 – заданы.
Это простейшая модель информационного сигнала, но она оказывается неточной для современных систем связи, дает большие погрешности в расчетах. Поэтому вводится новая модель, более сложная – случайные процессы (СП). Случайные процессы таковы, что их течение во времени заранее точно предсказать невозможно.
𝑆(𝑡) – сложная случайная функция времени; ее графическое представление:
S(t)
S1
0
t
ti
tj
S3
S2
Рисунок 7.1. Временное представление трех реализаций случайного процесса
𝑡 𝑖 , 𝑡𝑗 – сечения случайного процесса,
{𝑆𝑖 (𝑡)} – совокупность случайных функций (случайных процессов).
Любой сложный случайный сигнал 𝑆(𝑡) можно представить совокупностью
всех возможных его реализаций 𝑆1 (𝑡), 𝑆2 (𝑡), 𝑆3 (𝑡) и т.д.
Реализация случайного процесса – конкретный вид, который принимает
процесс в данном испытании.
102
Сечение – конкретное значение реализации случайного процесса в некоторый
произвольный, но фиксированный момент времени 𝑡𝑖 , т.е.
𝑡𝑖 → {𝑆1 (𝑡𝑖 ),
𝑆2 (𝑡𝑖 ), 𝑆3 (𝑡𝑖 )}.
Достоинства графического представления: наглядность, полное представление.
Недостатки: громозкость, трудность в вычислении.
Необходимо найти математические методы описывающие СП и его
характеристики. Для этого используется теория вероятностей. Значение сигнала в
сечении является случайной величиной. Поэтому для описания случайных
сигналов вводят понятие функции плотности вероятностей 𝑊(𝑥) (ФПВ) и
функцию распределения вероятностей 𝐹(𝑥) (ФРВ).
Одномерная функция распределения вероятностей характеризует процесс
только в одном сечении – 𝑡𝑖 .
𝐹(𝑥, 𝑡𝑖 ) = 𝑃{𝜉(𝑡𝑖 ) ≤ 𝑥} = 𝑃{−∞ ≤ 𝜉(𝑡𝑖 ) ≤ 𝑥}.
n-мерная функция распределения вероятностей характеризует случайный
процесс одновременно в n сечениях:
𝐹𝑛 (𝑥1 , 𝑡1 ; 𝑥2 , 𝑡2 ; … ; 𝑥𝑛 , 𝑡𝑛 ) = 𝑃{𝜉(𝑡1 ) ≤ 𝑥1 , 𝜉(𝑡2 ) ≤ 𝑥2 ; … ; 𝜉(𝑡𝑛 ) ≤ 𝑥𝑛 }.
Функция плотности вероятностей случайного процесса:
𝑊(𝑥, 𝑡𝑖 ) = 𝑃{𝑥 ≤ 𝜉(𝑡𝑖 ) ≤ 𝑥 + 𝛿𝑥},
𝑊(𝑥, 𝑡𝑖 ) =
𝛿𝐹1 (𝑥, 𝑡𝑖 )
,
𝛿𝑥
𝑥
𝐹1 (𝑥, 𝑡𝑖 ) = ∫ 𝑊(𝑥, 𝑡𝑖 )𝑑𝑥.
−∞
Для n-мерной функции плотности вероятностей:
𝑊𝑛 (𝑥1 , 𝑡1 ; 𝑥2 , 𝑡2 ; … ; 𝑥𝑛 , 𝑡𝑛 ) =
𝜕𝐹(𝑥1 , 𝑡1 ; 𝑥2 , 𝑡2 ; … ; 𝑥𝑛 , 𝑡𝑛 )
.
𝜕𝑥1 𝜕𝑥2 𝜕𝑥3 … 𝜕𝑥𝑛
Значения Wn используются при оценке помехоустойчивости приема сигналов
методом многократных отсчетов.
Двумерная функция распределения вероятностей широко используется в
теории связи.
103
𝐹2 (𝑥1 , 𝑡1 ; 𝑦1 , 𝑡2 ) = 𝑃{𝜉(𝑡𝑖 ) ≤ 𝑥; 𝜂(𝑡2 ) ≤ 𝑦}.
Т.е. F2 учитывает два процесса: 𝜉(𝑡) и 𝜂(𝑡).
Свойства функции распределения вероятностей и функции плотности
вероятностей:
1. 𝐹(𝑥) – функция неубывающая.
Если 𝐹(𝑥2 ) > 𝐹(𝑥1 ), то 𝑥2 > 𝑥1 .
2.
lim 𝐹 (𝑥) = 𝐹(−∞) = 𝑃{𝜉(𝑡) < −∞} = 0 – невозможное событие.
𝑥→−∞
3. lim 𝐹(𝑥) = 𝐹(∞) = 𝑃{𝜉(𝑡) < ∞} = 1 – достоверное событие.
𝑥→∞
4.
𝑊1 (𝑥, 𝑡𝑖 ) ≥ 0.
∞
5. ∫−∞ 𝑊1 (𝑥, 𝑡𝑖 )𝑑𝑥 = 1 – условие нормировки.
7.2.
Числовые характеристики случайных процессов
Полным описанием любого случайного процесса является n-мерная функция
распределения вероятностей 𝐹𝑛 или n-мерная функция плотности вероятностей 𝑊𝑛 .
Однако, не всегда есть необходимость иметь полное, но очень сложное описание
случайного процесса. На практике достаточно знать усредненные (числовые)
характеристики:
1) математическое ожидание 𝑚(𝑡);
2) дисперсию 𝜎 2 (𝑡);
3) функцию корреляции.
Математическое ожидание случайного процесса
Рисунок 7.2. Три реализации случайного процесса с различным математическим
ожиданием
104
∞
𝑚(𝑡) = 𝑎(𝑡) = ̅̅̅̅̅̅
𝜉(𝑡𝑖 ) = ∫ 𝑥𝑊(𝑥, 𝑡𝑖 )𝑑𝑥.
−∞
Математическое ожидание случайного процеса представляет собой
неслучайную функцию времени, которая в любой момент времени является
математическим ожиданием данного сечения, т.е. это есть кривая геометрического
места точек математических ожиданий всех сечений. Геометрически – некоторая
средняя кривая не выходящая за границы реаализации, т.е. среднее значение
переменной.
∞
𝐷(𝑡) = 𝜎 2 (𝑡) = 𝑚[𝑥 − 𝑚(𝑡)]2 = ̅̅̅̅̅̅̅̅̅̅̅̅̅̅
[𝑥 − 𝑚(𝑡)]2 = ∫ [𝑥 − 𝑚(𝑡)]2 𝑊(𝑥, 𝑡)𝑑𝑥 .
−∞
Дисперсия есть математическое ожидание квадрата отклонения значений
случайного процесса; она характеризует степень разброса значений случайного
процесса относительно математического ожидания.
ξi(t)
ηi(t)
а)
б)
0
t
0
t
Рисунок 7.3. Две реализации случайного процесса (а, б) при одинаковом
математическом ожидании и различных дисперсиях
𝑚[𝜉𝑖 (𝑡)] = 𝑚[𝜂𝑖 (𝑡)],
𝐷[𝜉𝑖 (𝑡)] > 𝐷[𝜂𝑖 (𝑡)].
Корреляционные функции – xарактеризуют статистическую связь между
сечениями случайных процессов. Может быть четыре разновидности
корреляционных функций:
1. Ковариационная фунция.
105
kξ (t1, t2)
ξ1(t)
ξ2(t)
ξ3(t)
0
t1
t
t2
Рисунок 7.4. Сущность определения корреляционных функций
∞
̅̅̅̅̅̅̅̅̅̅̅̅̅̅
𝑘𝜉 (𝑡1 , 𝑡2 ) = 𝑚[𝜉(𝑡1 ) ∙ 𝜉(𝑡2 )] = 𝜉(𝑡
1 ) ∙ 𝜉(𝑡2 ) = ∬ 𝑥1 𝑥2 𝑊2 (𝑥1 , 𝑡1 , 𝑥2 , 𝑡2 )𝑑𝑥1 𝑑𝑥2 .
−∞
Ковариационная функция – математическое ожидание
значений случайного процесса в 2 различных моментах времени.
произведения
2. Корреляционная функция 𝐵(𝑡1 , 𝑡2 ) определяется для центрированного
случайного процесса.
𝐵𝜉 (𝑡1 , 𝑡2 ) = 𝑘𝜉 (𝑡1 , 𝑡2 ) − 𝑚(𝑡1 ) ∙ 𝑚(𝑡2 ) =
∞
= ∬[𝑥1 − 𝑚(𝑡1 )] ∙ [𝑥2 − 𝑚(𝑡2 )]𝑊2 (𝑥1 , 𝑡1 , 𝑥2 , 𝑡2 )𝑑𝑥1 𝑑𝑥2 .
−∞
D(0) = σ2(0)
m(t1)m(t2)
Bξ(t1, t2)
kξ(t1, t2)
0
t
Рисунок 7.5. Физический смысл некоторых характеристик случайного процесса
106
𝑡2 − 𝑡1 = 𝜏 – расстояние между сечениями.
3. Нормированная корреляционная функция.
𝑟(𝑡1 , 𝑡2 ) =
𝐵𝜉 (𝑡1 , 𝑡2 )
𝐵𝜉 (𝜏)
=
,
𝜎(𝑡1 )𝜎(𝑡2 ) 𝜎(𝑡1 )𝜎(𝑡2 )
−1 ≤ 𝑟(𝜏) ≤ 1.
С увеличением 𝜏 функции 𝑟(𝜏), 𝑘(𝜏), 𝐵(𝜏) будут уменьшаться.
4. Взаимная корреляционная функция характеризует связь между сечениями
различных случайных процессов.
∞
𝑘𝜂,𝜉 (𝑡1 𝑡2 ) = ∬ 𝑥𝑦𝑊2 (𝑥, 𝑡1 ; 𝑦, 𝑡2 )𝑑𝑥𝑑𝑦.
−∞
Замечание: если два процесса независимы, то их функция взаимной
корреляции равна 0.
7.3.
Стационарные случайные процессы
Случайные процессы
Стационарные
(установившиеся)
Стационарные в
Узком смысле
Нестационарные
(неустановившиеся)
Стационарные в
широком смысле
Стационарность в узком смысле – случайные процессы у которых 𝑛 –
мерная плотность вероятностей не зависит от сдвига всех сечений влево или
вправо на одну и ту же величину ∆𝑡.
𝑊𝑛 (𝑥1 , 𝑡1 ; 𝑥2 , 𝑡2 ; … ; 𝑥𝑛 , 𝑡𝑛 ) = 𝑊𝑛 (𝑥1 , 𝑡1 ± ∆𝑡; 𝑥2 , 𝑡2 ± ∆𝑡; … ; 𝑥𝑛 , 𝑡𝑛 ± ∆𝑡).
Свойства стационарных (в узком смысле) случайных процессов:
1. 𝑊1 (𝑥1 , 𝑡1 ) = 𝑊1 (𝑥1 , 𝑡1 + ∆𝑡) = 𝑊1 (𝑥).
2. 𝑊2 (𝑥1 , 𝑡1 ; 𝑥2 , 𝑡2 ) = 𝑊2 (𝑥1 , 𝑡1 + ∆𝑡; 𝑥1 , 𝑡2 + ∆𝑡) = 𝑊2 (𝑥1 , 𝑥2 , 𝜏).
∞
∞
3. 𝑚(𝑡) = 𝑎(𝑡) = ∫−∞ 𝑥𝑊1 (𝑥, 𝑡 + ∆𝑡)𝑑𝑥 = ∫−∞ 𝑥𝑊1 (𝑥, 𝑡)𝑑𝑥 = 𝑚 = 𝑎.
∞
4. 𝐷(𝑡) = ∫−∞(𝑥 − 𝑎)2 𝑊(𝑥)𝑑𝑥 = 𝐷 = 𝜎 2 .
107
∞
5. 𝐵(𝜏) = ∬−∞ 𝑥1 𝑥2 𝑊2 (𝑥1 ; 𝑥2 ; 𝜏)𝑑𝑥1 𝑑𝑥2 .
Выводы:
1. Одномерная функция плотности вероятностей, математическое ожидание
𝑚(х) и дисперсия 𝐷(х) не зависят от времени.
2. Двумерная функция плотности вероятностей и функция корреляции не
зависят от временя, а зависят от интервала 𝜏 = 𝑡2 − 𝑡1 .
3. Процесс (случайный) называется стационарным в широком смысле если
его характеристики не зависят от времени (т.е. выполняется условие 2, 3 и 4).
4. Случайный стационарный процесс в узком смысле всегда стационарен и в
широком. Случайный стационарный процесс в широком смысле не всегда
стационарен в узком.
Свойства функции корреляции стационарных процессов:
1. Функция корреляции действительная и четная, т.к. это функция времени:
𝐵(𝜏) = 𝐵(−𝜏).
̅̅̅̅̅̅̅̅̅̅̅̅̅
̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
2. 𝑘𝜉 (𝑡1 , 𝑡2 ) = 𝜉(𝑡
1 )𝜉(𝑡2 ) = 𝜉(𝑡1 )𝜉(𝑡1 + 𝜏) = 𝑘𝜉 (𝜏), если 𝜏 = 0,
2
̅̅̅̅̅̅̅̅̅̅
𝑘𝜉 (0) = [𝜉(𝑡
1 )] = 𝑃𝜉 – полная мощность процесса (рис. 7.5).
[𝜉(𝑡1 ) − 𝑎][𝜉(𝑡1 + 𝜏) − 𝑎] при
3. 𝐵𝜉 (𝑡1 , 𝑡2 ) = ̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
[𝜉(𝑡) − 𝑎]2 = 𝑃п – мощность переменной составляющией (рис.
𝐵𝜉 (0) = 𝐵(𝜏 = 0) = ̅̅̅̅̅̅̅̅̅̅̅̅̅̅
7.5).
4. 𝐵(0) ≥ 𝐵(𝜏).
Bξ (τ)
Pξ
Pп
P2
τ
0
Рисунок 7.6. Физический смысл энергетических характеристик функции
корреляции
𝑃2 = 𝑎2 – мощность постоянной составляющей,
𝐵𝜉 (0) = 𝑃𝜉 – полная мощность процесса,
𝑃п – мощность переменной составляющей.
7.3.
Интервал корреляции
108
Интервалом корреляции называется минимальное расстояние между двумя
сечениями, при которм значение случайной величины можно считать
некоррелированным.
Bξ(τ)
площади
одинаковые
площади
одинаковые
B(0)
τ
τ0
Рисунок 7.7. Сущность определения интервала корреляции 𝜏0
∞
∞
𝜏0 ∙ 𝐵(0) = ∫ 𝐵(𝜏)𝑑𝜏 ,
−∞
1
𝜏0 =
∫ 𝐵(𝜏)𝑑𝜏,
𝐵(0)
−∞
𝜏0 определяется как основание эквивалентного прямоугольника, площадь
которого равна площади под кривой В(𝜏). 𝜏0 вводится для сравнения случайных
поцессов между собой (или сечений случайных процессов) по статистической
связи.
r(τ)
1
τ
τ0
Рисунок 7.8. Сущность определения интервала корреляции 𝜏0 по коэффициенту
корреляции 𝑟(𝜏)
109
∞
∞
𝜏0 ∙ 1 = ∫ 𝑟(𝑡)𝑑𝑡 ,
𝜏0 = ∫ 𝑟(𝜏)𝑑𝜏.
−∞
−∞
Если 𝜏0 → ∞, то 𝑟(𝜏) → 0.
Практически 𝜏0 → 𝑟(𝜏 = 𝜏0 ) ≅ 0,05 – сечения считаются некоррелированными.
Чисто случайные процессы – это такие процессы, у которых два ближайших
сечения при 𝜏0 → 0 являются некоррелированными, т.е. у них отсутствуют
статистические связи между сколь угодно близкими значениями.
Эргодические случайные процессы
7.4.
Для эргодических процессов статистические характеристики можно найти не
только усреднением по ансамблю реализаций, но и усреднением по времени одной
реализации продолжительностью 𝑇. При этом числовые характеристики,
полученные по одной реализации путем усреднения по времени (теоритически 𝑇 →
∞), с вероятностью, сколь угодно близкой к единице, совпадают с
соответствующими числовыми характеристиками, полученными путем усреднения
по множеству реализаций (ансамблю).
ξ(t)
ξ(t)
ξ1
ξ2
а)
б)
ξ3
0
ti
tj
t
t
0
T
Рисунок 7.9. а) усреднение по множеству;
б) усреднение по времени
110
Таблица 5 – Числовые характеристики случайных процессов при усреднении
по множеству и по времени.
Усреднение по множеству
Усреднение по времени
𝑇
𝑚=𝑎=
1
∞
𝑚 = 𝑎 = lim ∫ 𝜉(𝑡)𝑑𝑡 =
𝑇→∞ 𝑇
̅̅̅̅̅̅
= ∫ 𝑥𝑊1 (𝑥)𝑑𝑥 = 𝑚[𝜉(𝑡)] = 𝜉(𝑡)
0
−∞
= 𝜉(𝑡)
𝑇
𝐷 = 𝜎 2 = 𝑚[𝜉(𝑡) − 𝑎]2 =
1
𝐷 = 𝜎 2 = lim ∫[𝜉(𝑡) − 𝑎]2 𝑑𝑡 =
𝑇→∞ 𝑇
∞
= ∫ (𝑥 − 𝑎)2 𝑊1 (𝑥)𝑑𝑥 =
0
−∞
[𝜉(𝑡) − 𝑎]2
= ̅̅̅̅̅̅̅̅̅̅̅̅̅̅
𝑘𝜉 (𝜏) = 𝑚[𝜉(𝑡1 )] ∙ 𝑚[𝜉(𝑡1 + 𝜏)] =
∞
= ∬ 𝑥1 𝑥2 𝑊2 (𝑥1 , 𝑥2 , 𝜏)𝑑𝑥1 𝑑𝑥2 =
−∞
= [𝜉(𝑡) − 𝑎]2
𝑇
1
𝑘𝜉 (𝜏) = lim ∫ 𝜉(𝑡1 ) ∙ 𝜉(𝑡1 + 𝜏) 𝑑𝑡 =
𝑇→∞ 𝑇
0
= 𝜉(𝑡1 ) ∙ 𝜉(𝑡1 + 𝜏)
[𝜉(𝑡1 ) ∙ 𝜉(𝑡1 + 𝜏)]
= ̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
Свойства эргодичности стационарных случайных процессов имеет большое
практическое значение. Для таких процессов одна реализация полностью
определяет свойства всего процесса в целом (с учетом 𝑇 → ∞).
7.5.
Гауссовский (нормальный) случайный процесс и его свойства
Гауссовским называется случайный процесс, у которого мгновенные
значения рапределены по нормальному закону.
ξ(t)
ξ
3σ
2σ
σ
ξ1(t)
t
ξ3(t)
W(ξ)
ξ2(t)
0
–σ
–2σ
–3σ
Рисунок 7.10. Временное и вероятностное представление гауссовского процесса
Гауссовский случайный процесс имеет большое значение для техники связи.
111
X(t) = S(t) + ξ(t)
принятый переданный аддитивная
сигнал
сигнал
помеха
В большинстве случаев 𝜉(𝑡) имеет нормальное распределение мгновенных
значений 𝑊(𝜉) – функция плотности вероятностей нормального закона.
Нормальному закону распределения на основании центральной предельной
теоремы Лякунова подчиняются такие случайные величины, появление которых
обусловлено множеством причин, слабозависимых между собой и с
приблизительно одинаковым вкладом в случайный процесс.
7.6.
Нормальный случайный процесс
Математическое представление гаусовского (нормального) закона в общем
виде:
𝑊(𝑥, 𝑡) =
1
√2𝜋𝜎(𝑡)
𝑒
−
a(t) – математическое
ожидание
[𝑥−𝑎(𝑡)]2
2𝜎 2 (𝑡) .
σ2 – дисперсия
а)
–a(t)
0
W(x)
a(t)
σ 22
б)
σ 12 > σ 22
σ 12
0
x
Рисунок 7.11. а) номальный закон при различных 𝑎(𝑡) и одинаковых
дисперсиях;
б) нормальный закон при 𝑎(𝑡) = 0 и различных дисперсиях
𝑥
𝐹(𝑥, 𝑡) = ∫ 𝑊(𝑥, 𝑡)𝑑𝑥 =
−∞
1
√2𝜋𝜎(𝑡)
112
𝑥
∫𝑒
−∞
−
[𝑥−𝑎(𝑡)]2
2𝜎 2 (𝑡) 𝑑𝑥 .
(7.1)
W(x)
a)
0
б)
x
F(x)
1
0,5
0
x
Рисунок 7.12. а) ФПВ нормального процесса;
б) ФРВ нормального процесса.
Т.к. интеграл (7.1) в общем виде не берется, существуют таблицы. Для
построения таблицы вводится нормированная переменная 𝑡:
𝑡=
𝑥−𝑎
𝜎
– центрированная и нормированная переменная.
W(x)
Ф(z)
F(z)
–z
0
z
x
Рисунок 7.13. Графическое представление функций 𝐹(𝑧) и Ф(𝑧)
𝐹(𝑧) =
1
√2𝜋
−𝑧
∫𝑒
−∞
113
−
𝑡2
2 𝑑𝑡
– интеграл Лапласа (табулированная функция).
Ф(𝑧) =
𝑧
1
√2𝜋
∫𝑒
−
𝑡2
2 𝑑𝑡 ,
−𝑧
1
𝑥 − 𝑎(𝑡)
𝑥 − 𝑎(𝑡)
𝐹(𝑥, 𝑡) = [1 − Ф (
)] = 𝐹 (
).
2
𝜎(𝑡)
𝜎(𝑡)
Для нормального закона распределения характерно свойство 3𝜎:
а) 𝑃{−3𝜎 ≤ 𝑥 ≤ 3𝜎} = 0,997;
б) 𝑃{−2𝜎 ≤ 𝑥 ≤ 2𝜎} = 0,95;
в) 𝑃{−𝜎 ≤ 𝑥 ≤ 𝜎} = 0,68;
∞
г) ∫−∞ 𝑊(𝑥)𝑑𝑥 = 1, −∞ < 𝑥 < ∞;
значениями |𝑥| > 3𝜎 – пренебрегаем.
Свойства нормального процесса:
1. Стационарность в широком смысле эквивалентна стационарности в узком
смысле.
2. Условие эргодичности:
∞
интеграл ∫−∞ 𝐵(𝜏)𝑑𝜏 – сходящийся.
3. Сечения независимы, если они некоррелированны:
𝑊2 (𝑥1 , 𝑥2 ) = 𝑊1 (𝑥1 ) ∙ 𝑊2 (𝑥2 ),
𝑊𝑛 (𝑥1 , … , 𝑥𝑛 ) =
1
𝑛
𝑛
∑ (𝑥𝑖 −𝑎)2
− 𝑖=1 2
2𝜎
𝑒
.
(2𝜋) 2 𝜎 𝑛
4. Линейное преобразование не изменяет закона распределения (вида
кривой), изменяются 𝐵(𝜏), 𝐺(𝜔), 𝜎(𝑡), 𝑎(𝑡), 𝜏0, ∆𝜔эфф .
5. Сумма нормального случайного процесса и детерминированной функции
не изменяют закона распределения.
7.7.
Функция корреляции одиночного прямоугольного импульса
Случайные процессы могут быть периодическими и непериодическими.
Функция корреляции нерперывного процесса
114
S(t)
A
0
S(t + τ)
0
S(t – τ)
–τ
t
τ
t
t
0
Рисунок 7.14. Сущность вычисления функции корреляции
0,
𝑆(𝑡) = {𝐴,
0,
𝑡 < 0,
0 ≤ 𝑡 ≤ 𝑇,
𝑡 > 𝑇.
Считаем, что процесс эргодический: 𝐵(𝜏) = 𝑆(𝑡)𝑆(𝑡 ± 𝜏).
Напишем функцию корреляции отдельно для (+𝜏) и (−𝜏):
𝑇
1
𝐴2 𝑇
𝜏
𝐵(+𝜏) = ∫ 𝐴 ∙ 𝐴𝑑𝑡 =
𝑡|𝜏 = 𝐴2 (1 − ),
𝑇
𝑇
𝑇
𝜏
𝑇−𝜏
1
𝜏
𝐵(−𝜏) = ∫ 𝐴2 𝑑𝑡 = 𝐴2 (1 − ).
𝑇
𝑇
0
Окончательно:
𝐵(𝜏) = 𝐴2 (1 −
Функция корреляции четная.
115
|𝜏|
).
𝑇
B(τ)
–T
T
τ0
τ
Рисунок 7.15. Функция корреляции непериодического сигнала
Функция корреляции периодического сигнала
ДАМ:
𝑆1 (𝑡) = 𝑎 cos 𝜔0 𝑡 ,
0 ≤ 𝑡 ≤ 𝑇.
{
𝑆2 (𝑡) = 0,
SДАМ
a
0
t
T
Рисунок 7.16. Временное представление периодического сигнала
𝐵(𝜏) = 𝜉(𝑡)
𝜉(𝑡 + 𝜏)
⏟⏟
𝑆(𝑡) 𝑆(𝑡 + 𝜏)
– функция корреляции в общем виде.
𝑇
1
𝐵(𝜏) = ∫ 𝑎 cos 𝜔0 𝑡 ∙ 𝑎 cos(𝜔0 𝑡+𝜔0 𝜏)𝑑𝑡 .
𝑇
0
Учитывая элементарные тригонометрические преобразования, в результате
получим:
116
𝑎2
𝐵(𝜏) = cos 𝜔0 𝜏.
2
Функция корреляции будет иметь вид:
B(τ)
a2/2
τ
0
cosω0 τ
Рисунок 7.17. Функция корреляции периодического сигнала
Вывод:
У периодического сигнала функция корреляции является периодической
фукцией 𝜏 той же частоты 𝜔0 .
7.8. Применение корреляционных методов обработки сигналов в
технике связи
Устройства позволяющие определить функцию корреляции сигнала
называются корреляционными. Они широко используются для обработки сигналов
на приеме с целью принятия решения о переданном сигнале.
Два основных способа приема:
1) взаимнокорреляционный прием;
2) автокорреляционный прием.
Все взаимнокорреляционные способы приема основываются на вычислении
𝑘(𝜏).
x(t)
Интегратор
от 0 до T
Решающее
устройство
y(t)
S(t)
Рисунок 7.18. Структурная схема взаимнокорреляционного приемника
𝑥(𝑡) = 𝑆(𝑡) + 𝜉(𝑡),
117
𝑇
1
𝑦(𝑡) = 𝑘𝑥 (𝑡1 , 𝑡2 ) = ∫ 𝑥(𝑡) ∙ 𝑆(𝑡)𝑑𝑡 =
𝑇
0
𝑇
𝑇
1
1
= ∫ 𝑆(𝑡) ∙ 𝑆(𝑡)𝑑𝑡 + ∫ 𝜉(𝑡) ∙ 𝑆(𝑡) = 𝑘(𝑆, 𝑆(𝑡)),
𝑇
𝑇
0
0
где 𝑆(𝑡) – переданный сигнал,
𝑥(𝑡) – принятый сигнал,
𝜉(𝑡) – помеха.
Автокорреляционный приемник
x(t)
Интегратор
от 0 до T
τз
Решающее
устройство
y(t)
Рисунок 7.19. Структурная схема автокорреляционного приемника
𝜏з – задержка на один элемент сигнала.
𝑇
1
𝑦(𝑡) = ∫ 𝑥(𝑡)𝑥(𝑡 + 𝜏) 𝑑𝑡;
𝑇
0
0
0
𝑦(𝑡) = 𝐵𝑠𝑠обр (𝜏) + 𝐵𝑠𝜉 (𝜏) + 𝐵𝜉𝑠обр (𝜏) + 𝐵𝜉𝜉 (𝜏),
𝐵𝑠𝑠обр (𝜏) – функция автокорреляции сигнала,
𝐵𝜉𝑠обр (𝜏), 𝐵𝑆𝜉 (𝜏) – функции взаимной корреляции,
𝐵𝜉𝜉 (𝜏) – функция автокорреляции помехи.
118
B(τ)
Pξξ(τ)
Pξξ – мощность помехи
Pss обр(τ)
Pss обр – мощность сигнала
τ
0
cosω0 τ
Рисунок 7.20. Сущность выделения слабого сигнала на фоне помех
𝑃𝑠𝑠обр
𝑃𝜉𝜉
растет, если 𝜏 увеличивается.
Чем больше 𝜏, тем лучше (больше отношение мощности сигнала к помехе).
Данный способ приема называется выделением сигнала на фоне помех.
119
Часть II. Теория передачи сигналов
8.
Случайные сигналы
8.1.
Энергетический спектр случайных сигналов
При наблюдении за течением случайного процесса (СП) мы можем определить лишь текущий спектр данной реализации 𝜉𝑖 (𝑡), т.е.
ξ(t)
ξi (t)
t
T
Рисунок 8.1. Реализация случайного процесса
+∞
𝑆𝑇 (𝑗𝜔) = ∫ 𝑆𝑖 (𝑡)𝑒 −𝑗𝜔𝑡 𝑑𝑡 .
(8.1)
−∞
Функция (8.1) случайная, поэтому удобно ввести неслучайную функцию –
энергетический спектр.
Энергетический спектр стационарного случайного процесса определяется как
спектр его функции корреляции.
Прямое преобразование Фурье:
+∞
𝐺(𝜔) = ∫ 𝐵(𝜏)𝑒 −𝑗𝜔𝜏 𝑑𝜏,
(8.2)
−∞
Обратное преобразование Фурье:
+∞
1
𝐵(𝜏) =
∫ 𝐺(𝜔)𝑒 𝑗𝜔𝜏 𝑑𝜔.
2𝜋
−∞
Пара преобразований, связывающая функции 𝐺(𝜔) и 𝐵(𝜏), носит название
преобразование (теорема) Винера-Хинчина. Т.к. 𝐵(𝜏) и 𝐺(𝜔) – четные функции
своих аргументов, то формулы можно записать в другом виде:
120
∞
∞
𝐺(𝜔) = 2 ∫ 𝐵(𝜏) cos 𝜔𝜏 𝑑𝜏 ,
0
1
𝐵(𝜏) = ∫ 𝐺(𝜔) cos 𝜔𝜏 𝑑𝜔.
𝜋
0
Физический смысл функции 𝐺(𝜔) легко выяснить, если положить 𝜏 = 0, тогда
+∞
1
𝐵(0) =
∫ 𝐺(𝜔)𝑑𝜔
2𝜋
(8.3)
−∞
или
+∞
𝐵(0) = ∫ 𝐺(𝑓)𝑑𝑓 = 𝑃.
−∞
где 𝑃 – полная мощность процесса.
Поэтому энергетический спектр часто называют спектром мощности СП.
Формула (8.2) показывает, что функция 𝐺(𝜔) выражает спектральную плотВт
ность мощности процесса и, следовательно, имеет размерность 𝐺(𝑓) [ ], т.е. хаГц
рактеризует распределение мощности СП по частоте, это мощность СП в полосе
частот 1 Гц.
G(f)
1Гц
f
Рисунок 8.2. Спектральная плотность мощности (энергетический спектр СП)
Мощность случайного процесса в полосе ∆𝑓 = 𝑓2 − 𝑓1 или ∆𝜔 = 𝜔2 − 𝜔1
определяется следующим образом:
𝑓2
𝑃1,2 = ∫ 𝐺(𝑓)𝑑𝑓
𝜔2
или 𝑃1,2 = ∫ 𝐺(𝜔)𝑑𝜔.
𝑓1
𝜔1
Энергетический спектр можно выразить через текущий спектр реализации с
помощью равенства Парсеваля: энергия сигнала определяется интегралом квадрата
напряжения или интегралом квадрата модуля его спектральной плотности по частоте. Энергия процесса 𝜉(𝑡), выделяющегося за время 𝑡, равна:
121
𝑇
𝐸𝑇 = ∫ [𝜉𝑖
0
(𝑡)]2
1 ∞
𝑑𝑡 = ∫ |𝑆𝑇 (𝑖𝜔)|2 𝑑𝜔 .
𝜋 0
(8.4)
Средняя мощность процесса определяется как предел 𝐸𝑇 ⁄𝑇 при 𝑇 → ∞, т.е.
𝐸𝑇 1
1 ∞
𝑃 = lim
= lim ∫ [𝑆𝑇 (𝑖𝜔)]2 𝑑𝜔 .
𝑇→∞ 𝑇
𝜋 𝑇→∞ 𝑇 0
(8.5)
Сопоставляя (8.4) и (8.3), находим:
|𝑆𝑇 (𝑖𝜔)|2
𝐺(𝜔) = lim
.
𝑇→∞
𝑇
(8.6)
Это соотношение устанавливает связь между энергетическим спектром процесса и текущим спектром его реализации.
8.2.
Узкополосные и широкополосные случайные процессы. Белый
шум
Энергетические спектры реальных процессов практически ограничены полосой частот ∆𝜔 = 𝜔в − 𝜔н , поэтому в дальнейшем удобно разделить случайные
процессы на узкополосные и широкополосные, в зависимости от положения ∆𝜔 на
шкале частот. Случайный процесс с непрерывным энергетическим спектром (в
частности с равномерным) называется узкополосным, если энергетический спектр
процесса сосредоточен в основном в относительно узкой полосе частот, около некоторой средней частоты 𝜔0 , или широкополосным, если указанное условие не выполняется.
G(ω)
G(ω)
а)
б)
0
0 ωн ω0 ωв
ωн ω0 ωв ω
∆𝜔 ≪ 𝜔0 ,
∆𝜔 = 𝜔в − 𝜔н ,
∆𝜔 ≈ 𝜔0 .
Рисунок 8.3. Энергетические спектры
а) узкополосного СП;
б) широкополосного СП
ω
Условие узкополосности обычно выражается неравенством ∆𝜔⁄𝜔0 ≪ 1.
122
Случайный процесс, у которого спектральная плотность мощности одинакова на всех частотах, называется «белым» шумом (по аналогии с белым светом,
имеющим сплошной и равномерный спектр в пределах видимой части спектра).
𝑁
Функция спектральной плотности белого шума 𝐺(𝜔) = const = 0, где 𝑁0 – спек2
тральная плотность, представленная на рис. 8.4.
Отметим, что мы пользуемся представлением спектра на всей оси частот
(−∞ ≤ 𝜔 ≤ +∞). Этот спектр является симметричным относительно частоты 𝜔 =
0.
Поэтому спектральная плотность в наших обозначениях в два раза меньше
реальной спектральной плотности 𝑁0 , под которой понимается мощность шума,
приходящаяся на 1 Гц полосы частот, корреляционная функция белого шума, согласно (8.2):
+∞
𝑁0
1
𝐵(𝜏) =
∫ 𝑒 𝑗𝜔𝜏 𝑑𝜔 = 𝑁0 𝛿(𝜏) ,
4𝜋
2
(8.7)
−∞
где
+∞
1
𝛿(𝜏) =
∫ 1 ∙ 𝑒 𝑗𝜔𝜏 𝑑𝜔,
2𝜋
−∞
𝛿(𝜏) – дельта функция.
G(ω)
N0
N0/2
0
ω
Рисунок 8.4. Энергетический спектр «белого» шума
Таким образом, функция корреляции белого шума выражается функцией, показанной на рис. 8.5. Это означает, что сечения случайного процесса некоррелированы при любом сколь угодно малом временном сдвиге, т.е. интервал корреляции 𝜏0 = 0, поэтому белый шум называют «чисто» (абсолютным) СП.
123
B(τ)
τ
τ0 = 0
Рисунок 8.5. Функция корреляции «белого» шума
8.3. Эффективная ширина энергетического спектра и ее связь с интервалом корреляции
При описании случайных процессов с неравномерным энергетическим спектром, интенсивность которого убывает с ростом частоты, пользуются понятием эквивалентной или эффективной ширины энергетического спектра.
G(ω)
G(ω)
площади равны
площади равны
Gmax(ω0)
площади
равны
G(0)
0
∆ωэфф.
0
ω
ω0
∆ωэфф.
ω
Рисунок 8.6. Графическое определение ширины спектра СП
а) широкополосный СП;
б) узкополосный СП
∆𝜔эфф. – это та полоса частот, в пределах которой сосредоточена основная
мощность СП, определяется по 𝐺(𝜔) по правилу эквивалентного прямоугольника с
высотой 𝐺(0) (или 𝐺max ) и таким основанием ∆𝜔эфф. , при котором площадь эквивалентного прямоугольника равна площади под кривой 𝐺(𝜔). Аналогично определяется и интервал корреляции 𝜏0 .
124
∞
∆ 𝜔эфф.
∫0 𝐺(𝜔) 𝑑𝜔
=
,
𝐺max (𝜔)
(8.8)
где 𝐺max – наибольшее значение функции.
С учетом взаимосвязи 𝐺(𝜔) и 𝐵(𝜏) величину ∆𝜔эфф. = 2𝜋∆𝑓эфф. можно связать с интервалом корреляции на основе соотношения (∆𝜔эфф. ∙ 𝜏0 = const).
B(τ)
площади
равны
B(0)
площади
равны
0
τ0
τ
Рисунок 8.7. Графическое определение интервала корреляции СП (𝜏0 )
+∞
∫ 𝐵(𝜏) ∙ 𝑑𝜏 𝐺(0)
𝜏0 = −∞
=
.
𝐵(0)
𝐵(0)
(8.9)
При 𝜔 = 0:
+∞
𝐺(0) = ∫ 𝐵(𝜏) ∙ 𝑑𝜏,
−∞
∞
∆ 𝜔эфф.
∞
∞
∫ 𝐺(𝜔) 𝑑𝜔 ∫0 𝐺(𝜔) 𝑑𝜔 ∫0 𝐺(𝜔) 𝑑𝜔
= 0
=
=
,
𝐺max (𝜔)
𝐺(𝜔0 )
𝐺(0)
∞
∫0 𝐺(𝜔) 𝑑𝜔 𝜋𝛽(0)
∆ 𝜔эфф. =
=
.
𝐺(0)
𝐺(0)
}
В (8.10) учтено, что при 𝜏 = 0 из (8.2):
∞
1
𝐵(0) = ∫ 𝐺(𝜔) ∙ 𝑑𝜔.
𝜋
0
Тогда:
125
(8.10)
𝜏0 ∙ ∆ 𝜔эфф. = 𝜋 или 𝜏0 ∙ ∆ 𝑓эфф. =
G(ω)
1
= const.
2
B(τ)
1
2
2
1
τ
0
ω
0
Рисунок 8.8. Графическая иллюстрация постоянства 𝜏0 · 𝛥𝑓эфф
∆𝜔эфф.1 < ∆𝜔эфф.2 ,
𝜏02 < 𝜏01
Если временные функции имеют следующий вид:
ξ1(t)
ξ2(t)
а)
б)
0
t
0
Рисунок 8.9. Временное представление:
а) широкополосного СП;
б) узкополосного СП
t
то ∆𝜔эфф.1 > ∆𝜔эфф.2 , т.к. функция 𝜉1 (𝑡) изменяется быстрее, чем 𝜉2 (𝑡).
8.4.
Функция корреляции узкополосного случайного процесса
G(ω)
G(ω0)
G*(ω)
ω=0
ω* = ω – ω0
ω0
ω
Рисунок 8.10. Сущность определения функции корреляции узкополосного СП
126
Смещая спектр 𝐺(𝜔0 ) влево на 𝜔0 , получим спектр узкополосного процесса
через широкополосный. Функция автокорреляции узкополосного процесса выражается формулой:
𝐵(𝜏) = 𝑎0 cos[𝜔0 𝜏 − 𝜇(𝜏)],
(8.11)
где 𝑎0 и 𝜇(𝜏) – медленно меняющиеся функции, соответствующие амплитуде
и фазе функции корреляции. Скорость изменения этих функций прямо пропорциональна изменению ∆𝜔эфф.
Для вывода этой формулы производят замену переменной 𝜔 = 𝜔 − 𝜔0 . Но
мы не будем этого делать. Раскрывая в (8.11) косинус суммы, получаем:
𝐵(𝜏) = 𝑎0 (𝜏) cos 𝜇(𝜏) ∙ cos 𝜔0 𝜏 + 𝑎0 (𝜏) sin 𝜇(𝜏) ∙ sin 𝜔0 𝜏 =
= 𝑎𝑐 (𝜏) cos 𝜔0 𝜏 + 𝑎𝑠 sin 𝜔0 𝜏,
(8.12)
т.е. функция автокорреляции узкополосного СП равна сумме cos 𝜔0 𝜏 и
sin 𝜔0 𝜏, взятых с коэффициентами 𝑎𝑐 (𝜏) и 𝑎𝑠 (𝜏).
Особый интерес представляет функция 𝐵(𝜏), когда 𝐺(𝜔) симметричен относительно 𝜔0 . В этом случае 𝑎𝑠 (𝜏) = 0, т.к. 𝜇(𝜏) = 0.
Тогда:
𝑎𝑐 (𝜏) = 𝑎0 (𝜏) и 𝐵(𝜏) = 𝑎0 (𝜏) cos 𝜔0 𝜏.
Но 𝑎0 (𝜏) – функция автокорреляции, и она может быть вычислена через
𝐺 (𝜔), т.е. через спектр, сдвинутый влево на 𝜔0 .
∗
+∞
1
𝐵(𝜏) = 𝑎0 (𝜏) cos 𝜔0 𝜏 = [
∫ 𝐺 ∗ (𝜔) ∙ cos 𝜔𝜏 ∙ 𝑑𝜔] cos 𝜔0 𝜏.
2𝜋
−∞
G(ω)
B(τ)
G*(ω)
0
ac(τ) = a0(τ)
ω
0
τ
Рисунок 8.11. Энергетический спектр и функция корреляции СП, сдвинутого на 𝜔0
127
B(τ)
B(0) ac(τ)
τ
cosω0τ
τ0
Рисунок 8.12. Графическое определение интервала корреляции 𝜏0 узкополосного
СП
Таким образом, функция автокорреляции узкополосного СП, спектр которого
симметричен относительно 𝜔0 , равна умноженной на cos 𝜔0 𝜏 корреляционной
функции 𝑎𝑐 (𝜏), которая соответствует спектру 𝐺 ∗ (𝜔), полученному из исходного
смещением влево на величину 𝜔0 .
+∞
𝜏0 узк.
1
=
∫ 𝑎𝑐 (𝜏)𝑑𝜏.
𝐵(0)
−∞
Интервал корреляции узкополосного СП определяется по огибающей 𝐵уп (𝜏):
+∞
𝜏0 уп.
1
=
∫ 𝑎𝑐 (𝜏)𝑑𝜏.
𝐵(0)
−∞
8.5. Функция корреляции «белого» шума, ограниченного полосой частот от 0 до 𝝎в
G(ω)
N0
ω
ωв
Рисунок 8.13. Энергетический спектр «белого» шума, ограниченного 𝜔0
128
Если «белый» шум с равномерным энергетическим спектром пропустить через идеальный ФНЧ с граничной частотой 𝜔в = 2𝜋𝑓в , то и на выходе получим шум
с ограниченным спектром (рис. 8.13), причем ширина спектра ∆𝜔 = 𝜔в = = 2𝜋𝑓в .
Для определения функции корреляции воспользуемся соотношением:
𝜔в
1
𝐵(𝜏) = ∫ 𝑁0 cos 𝜔𝜏 ∙ 𝑑𝜔,
𝜋
0
𝐵(𝜏) =
𝑁0 𝜔в sin 𝜔в 𝜏
sin 𝜔в 𝜏
= 2𝑃
,
𝜋
𝜔в 𝜏
𝜔в 𝜏
(8.19)
𝑃 = 𝑁0 𝑓в .
sin 𝑥
Таким образом, график 𝐵(𝜏) имеет вид функции
.
𝑥
B(τ)
–1/2fв
–2/2fв
1/2fв
2/2fв
0
τ
τ0
Рисунок 8.14. Функция корреляции «белого» шума, ограниченного 𝜔в
График корреляционной функции приведен на рис. 8.14.
При данном виде графика 𝐵(𝜏) за 𝜏0 можно принять ∆𝜏 между двумя пер1
выми нулями, т.е. 𝜏0 ≈ . Из этого соотношения видно, что по мере сокращения
𝑓в
полосы частот ∆𝜔 = 𝜔в , интервал корреляции увеличивается. ограничение спектра
влечет за собой усиление корреляции между сечениями СП.
8.6. Функция корреляции «белого» шума, ограниченного полосой частот от 𝝎𝟎 − ∆𝝎 до 𝝎𝟎 + ∆𝝎
Пусть энергетический спектр равномерен в полосе частот ∆𝜔 = 𝜔в − 𝜔н и
равен 0 на всех других частотах.
𝑁,
𝐺(𝜔) = { 0
0,
𝜔н ≤ 𝜔 ≤ 𝜔в ,
𝜔 ≤ 𝜔𝑘+1 ,
𝜔 > 𝜔в .
129
Это случай идеального полосового фильтра.
G(ω)
N0
ω
ω0
ωв
0 ωн
Рисунок 8.15. Энергетический спектр «белого» шума, ограниченного идеальным
ПФ
𝜔в
𝐵(𝜏) =
1
𝑁0
∫ 𝐺(𝜔) cos 𝜔𝜏 ∙ 𝑑𝜔 =
(sin 𝜔в 𝜏 − sin 𝜔н 𝜏) =
𝜋
𝜋𝜏
𝜔н
∆𝜔𝜏
𝑁0 ∆𝜔 sin 2
𝜔в + 𝜔н
=
∙
∙ cos
𝜏 = 2𝑃𝐵0 (𝜏) cos 𝜔0 𝜏 ,
∆𝜔𝜏
𝜋
2
2
(8.20)
где:
∆𝜔𝜏
sin
2 ,
𝐵0 (𝜏) =
∆𝜔𝜏
2
𝜔0 =
𝜔в + 𝜔н
,
2
𝑃 = 𝑁0 ∆𝑓.
По формуле (8.20) построен график (рис. 8.16).
Огибающая функции (8.20) имеет ту же форму, что и корреляционная функция соответствующего по полосе широкополосного процесса (8.19). Сопоставляя
(8.20) и (8.19), а также рисунки 8.15 и 8.16, можно сказать следующее: для построения корреляционной функции узкополосного процесса достаточно найти корреляционную функцию огибающей широкополосного процесса и вписать в нее косинусоидальное заполнение с частотой, равное средней частоте процесса.
130
B(τ)
B0(τ)
cosω0τ
τ
τ0
Рисунок 8.16. Функция корреляции «белого» шума, ограниченного идеальным ПФ
8.7. Прохождение случайных процессов через линейные инерционные
радиотехнические цепи
1. Классификация радиотехнических цепей.
Радиотехнические устройства с точки зрения теории можно подразделить на
системы с сосредоточенными параметрами и системы с распределенными параметрами.
Системы с сосредоточенными параметрами (радиотехнические) представляют собой соединения конечного числа элементов цепи. Например, конденсаторов, катушек, сопротивлений. Радиотехническими цепями являются,
например, колебательный контур, УНЧ, радиовещательный приемник и т.п.
Системы с распределенными параметрами (радиотехнические) представляют
собой соединение бесконечного множества элементов, каждый из которых обладает бесконечно малым параметром. Примерами таких систем является двухпроводная линия, волновод, антенна и т.п.
Мы будем рассматривать только системы с сосредоточенными параметрами.
Элементы радиотехнической цепи можно подразделить на: линейные с постоянными параметрами, линейные с переменными параметрами и нелинейные.
В свою очередь, линейные и нелинейные цепи с постоянными параметрами
делятся на инерционные и безинерционные.
131
R
R
а)
R
R
б)
R
C
D
D
C
R
г)
в)
L
R
L
Рисунок 8.17. Радиотехнические цепи (РТЦ)
а) линейная безинерционная РТЦ;
б) линейная инерционная РТЦ;
в) нелинейная инерционная РТЦ;
г) нелинейная инерционная РТЦ
Мы будем изучать только линейные инерционные и нелинейные безинерционные цепи.
2. Задачи, решаемые при прохождении случайного процесса через радиотехнические цепи.
Воздействие
ЛИЦ
x(t)
Отклик
y(t)
Рисунок 8.18. Воздействия и отклики вероятностных и числовых характеристик СП
𝑊𝑛 (𝑥1 , 𝑥𝑛 )
𝑊𝑛 (𝑦1 , 𝑦𝑛 )
2
𝑚𝑥 (𝑡), 𝜎𝑥 (𝑡), 𝐺𝑥 (𝜔), ∆𝜔𝑥 эфф.
𝑚𝑦 (𝑡), 𝜎𝑦2 (𝑡), 𝐺𝑦 (𝜔), ∆𝜔𝑦 эфф.
𝐵𝑥 (𝜏), 𝜏0𝑥
𝐵𝑦 (𝜏), 𝜏0𝑦
Решаются 2 типа задач:
1) нахождение плотности 𝑊(𝑦) через 𝑊(𝑥) и числовых характеристик СП
на выходе цепи;
2) нахождение числовых характеристик отклика 𝑦(𝑡).
132
Для линейных инерционных цепей нахождение W(x) – сложная задача, которая, как правило, ограничивается нахождением 𝐺𝑦 (𝜔), 𝐵𝑦 (𝜏) и, соответственно,
∆𝜔𝑦 эфф. и 𝜏0𝑦 .
𝐺𝑦 (𝜔) = 𝐺𝑥 (𝜔) ∙ 𝑘 2 (𝑖𝜔),
а, зная 𝐺𝑦 (𝜔), легко найти 𝐵𝑦 (𝜏):
+∞
1
𝐵𝑦 (𝜏) =
∫ 𝐺𝑦 (𝜔) 𝑒 𝑖𝜔𝜏 𝑑𝜔,
2𝜋
−∞
𝑘(𝑖𝜔) = 𝑘(𝜔)𝑒 −𝑖𝜑𝑘 (𝜔) ,
где 𝑘(𝜔) и 𝜑𝑘 (𝜔) – амплитудно-частотные и фазо-частотные характеристики
соответственно.
Рассмотрим линейную инерционную систему, импульсная реакция которой
𝑔(𝑡) и коэффициент передачи 𝑘(𝑖𝜔) известны и связаны между собой преобразованием Фурье.
Временное представление:
+∞
1
𝑔(𝑡) =
∫ 𝑘(𝑖𝜔)𝑒 𝑖𝜔𝑡 𝑑𝜔 ,
2𝜋
(8.21)
−∞
спектральное представление:
+∞
𝑘(𝑖𝜔) = ∫ 𝑔(𝑡)𝑒 −𝑖𝜔𝑡 𝑑𝑡 .
(8.22)
−∞
На вход системы поступает стационарный случайный сигнал 𝑥(𝑡) с заданными характеристиками 𝑚𝑥 (𝑡) и 𝜎𝑥2 (𝑡). На выходе системы получаем некоторый
случайный сигнал 𝑦(𝑡). Согласно теореме Дюамеля:
𝑡
+∞
1
𝑦(𝑡) = ∫ 𝑥(𝑡) 𝑔(𝑡 − 𝜏)𝑑𝜏 =
∫ 𝑆𝑥 (𝑖𝜔) 𝑘(𝑖𝜔)𝑒 𝑖𝜔𝑡 𝑑𝜔,
2𝜋
−∞
−∞
где
𝑆𝑥 (𝑖𝜔) ∙ 𝑘(𝑖𝜔) = 𝑆𝑦 (𝑖𝜔),
𝑆𝑥 (𝑖𝜔) – комплексный спектр отклика 𝑦(𝑡).
133
В реальном четырехполюснике 𝑔(𝑡) = 0 при 𝑡 < 0 (в силу принципа причинности) и 𝑔(𝑡) → 0 при 𝑡 → ∞ (из-за наличия активных сопротивлений). Интервал времени, в котором сосредоточена основная часть энергии импульса реакции
(рис. 8.19), будем называть временем памяти четырехполюсника:
∞
∫ 𝑔(𝑡)𝑑𝑡
𝜏𝑛 = 0
.
𝑔(𝑡)max
g(t)
τз
t
τп
Рисунок 8.19. Графическое определение памяти четырехполюсника
где 𝜏з – время задержки,
𝜏п – память четырехполюсника.
В большинстве четырехполюсников можно разделить полосы непропускания
(где 𝑘(𝜔) ≅ 0) и пропускания. При наличии одной полосы пропускания его эффективная полоса определяется:
∞
𝛺эфф = ∆𝜔эфф.пр. = 2𝜋∆𝑓эфф.пр.
Принцип эквивалентного прямоугольника:
k2(ω)
∫0 |𝑘 2 (𝜔)|𝑑𝜔
=
.
|𝑘max (𝜔)|2
площади
равны
|k(ω)|2max
Ωэфф
ω
Рисунок 8.20. Графическое определение Ωэфф четырехполюсника
134
(8.25)
Поскольку 𝑘(𝑖𝜔) и 𝑔(𝑡) связаны между собой парой преобразования Фурье,
то ширина полосы пропускания Ωэфф. = ∆𝜔эфф.пр. и время памяти 𝜏𝑛 четырехполюсника связаны обратно пропорциональной зависимостью:
𝜏𝑛 ∙ Ωэфф = const,
аналогично тому, как это имело место для эффективной полосы энергетического спектра и интервала корреляции случайного процесса.
Четырехполюсники, пропускающие энергию в полосе частот вблизи 𝜔0 и
имеющие Ωэфф. ≪ 𝜔0 (
Ωэфф.
𝜔0
≪ 1), называют узкополосными. Их отклики – узкопо-
лосные сигналы. Если ширина полосы пропускания четырехполюсника Ωэфф.
намного уже ширины спектра воздействия 𝐺𝑥 (𝜔), то имеет место так называемая
нормализация случайного процесса.
При любом распределении воздействия и при Ωэфф. ≪ ∆𝜔𝑥 эфф. отклик нормален и интервал корреляции отклика 𝜏0𝑦 оказывается много больше, чем 𝜏0𝑥 воздействия (предельная теорема Ляпунова): 𝜏0𝑦 ≫ 𝜏0𝑥 .
x(t)
УПЛИЦ
y(t)
∆ωэфф. » Ωэфф.
Рисунок 8.21. Условие нормализации СП на выходе УПЛИЦ
8.8. Прохождение случайного сигнала через нелинейные безинерционные радиотехнические цепи
Рассмотрим теперь, как воздействует случайный сигнал на нелинейную систему. В общем случае это весьма трудная задача. Дело обстоит значительно легче,
когда речь идет об безинерционных нелинейных системах, в которых выходной
сигнал 𝑦(𝑡) в данный момент однозначно определяется входным сигналом 𝑥(𝑡) в
тот же момент времени.
Пусть известна характеристика нелинейного устройства 𝑦 = 𝑓(𝑥) и статистические свойства входного сигнала 𝑥(𝑡) → 𝑤(𝑥). Необходимо определить статистические свойства выходного сигнала 𝑦(𝑡) → 𝑤(𝑥). В принципе, эта задача сводится к преобразованию переменных.
Рассмотрим простейший случай одномерной плотности вероятности случайной величины. Плотность вероятности 𝑤𝑥 (𝑥) случайной величины 𝑦 = 𝑓(𝑥) известна.
135
y = f(x)
x(t)
y(t)
y = f(x)
Wx(x)
Wy(t)
dy
y1
dx
x
x1
0
Рисунок 8.22. Определение ФПВ СП на выходе НЭЦ через входные характеристики
Предположим, что существует однозначная обратная функция 𝑥 = 𝜑(𝑦). Т.к.
случайные величины 𝑥(𝑡) и 𝑦(𝑡) связаны однозначной функциональной зависимостью, то из того, что 𝑥1 заключено в достаточно малом интервале (𝑥1 , 𝑥1 + 𝑑𝑥)
следует, что и 𝑦1 будет находиться в интервале (𝑦1 , 𝑦1 + 𝑑𝑦), где 𝑦1 = 𝑓(𝑥1 ), а сами
вероятности равны произведению плотности вероятности на 𝑑𝑥 или 𝑑𝑦.
𝑊𝑥 (𝑥)𝑑𝑥 = 𝑊𝑦 (𝑦)𝑑𝑦 ⇒ 𝑊𝑦 (𝑦) = 𝑊𝑥 (𝑥) |
𝑑𝑥
𝑑𝜑(𝑦)
| = 𝑊𝑥 [𝜑(𝑦)] |
|.
𝑑𝑦
𝑑𝑦
(8.28)
Поскольку плотности вероятностей не могут быть отрицательными, то в
формулу (8.28) следует поставить модуль производной.
Далее можно найти числовые характеристики. Их легко вычислить через
плотности вероятностей 𝑊𝑦 (𝑦) или через 𝑊𝑥 (𝑥).
1. Математическое ожидание.
+∞
+∞
𝑚𝑦 = 𝑦̅ = ∫ 𝑦 ∙ 𝑊𝑦 (𝑦) = ∫ 𝑓(𝑥) ∙ 𝑊𝑥 (𝑥)𝑑𝑥.
−∞
−∞
Здесь учтена функциональная связь 𝑦 = 𝑓(𝑥).
2. Дисперсия.
+∞
+∞
𝐷𝑦 = ∫ [𝑦 − 𝑦̅]2 𝑊𝑦 (𝑦) ∙ 𝑑𝑦 = ∫ [𝑓(𝑥) − 𝑦̅]2 𝑊𝑥 (𝑥) ∙ 𝑑𝑥 =
−∞
−∞
+∞
2
= ∫ [𝑦 − 𝑚𝑦 ] 𝑊𝑦 (𝑦) ∙ 𝑑𝑦.
−∞
3. Функция корреляции.
136
+∞
+∞
𝐵𝑦 (𝜏) = ∬ 𝑦1 𝑦2 𝑊2𝑦 (𝑦1 , 𝑦2 , 𝜏)𝑑𝑦1 𝑑𝑦2 = ∬ 𝑓(𝑥1 )𝑓(𝑥2 )𝑊2𝑥 (𝑥1 , 𝑥2 , 𝜏)𝑑𝑥1 𝑑𝑥2 .
−∞
−∞
4. Энергетический спектр.
+∞
𝐺𝑦 (𝜔) = ∫ 𝐵𝑦 (𝜏)𝑒 −𝑗𝜔𝜏 𝑑𝜏.
−∞
Выводы:
Спектр сигнала на выходе нелинейного элемента отличается от спектра на
входе вследствие появления новых частотных составляющих, которые отсутствовали во входном сигнале. Спектр обычно содержит низкочастотные составляющие вблизи нулевой частоты и участки высокочастотных составляющих.
Таким образом, при воздействии случайного процесса на нелинейную систему изменяется спектр процесса, законы распределения вероятностей и все связанные с ними параметры (плотность, мат. ожидание, дисперсия и т.д.).
8.9. Примеры прохождения случайных сигналов через линейные инерционные и нелинейные безинерционные радиотехнические цепи
1. Пусть на вход линейной инерционной цепи с коэффициентом передачи
𝑘(𝑖𝜔) воздействует «белый» шум с равномерным спектром 𝐺𝑥 (𝜔) = 𝑁0 .
Энергетический спектр выходного процесса:
𝐺𝑦 (𝜔) = 𝐺𝑥 (𝜔)|𝐾(𝑖𝜔)|2 = 𝑁0 |𝐾(𝑖𝜔)|2 .
Спектр помехи на выходе цепи в этом случае повторяет по своей форме частотную характеристику цепи с возведенными в квадрат ординатами.
Gx(ω)
Gy(ω)
б)
K(iω)
а)
в)
N0
ω
Рисунок 8.23. а) спектр входного сигнала;
б) АЧХ цепи;
в) спектр процесса на выходе ЛИЦ
Мощность шума на выходе при этом равна:
137
ω
∞
𝑃ш.вых
∞
1
𝑁0
= ∫ 𝐺𝑦 (𝜔)𝑑𝜔 =
∫ 𝐾 2 (𝑖𝜔)𝑑𝜔,
𝜋
𝜋
0
0
или, вводя эффективную полосу пропускания системы ∆𝜔эфф.пр
∞
Ωэфф. = ∆𝜔эфф.пр = 2𝜋∆𝑓эфф.пр
∫0 |𝐾 2 (𝑖𝜔)|𝑑𝜔
=
,
|𝐾max (𝑖𝜔)|2
K2(iω)
площади
одинаковые
2
|Kmax(iω)|
Ωэфф.
ω
Рисунок 8.24. Сущность округления мощности процесса на выходе ЛИЦ
получаем
𝑃ш.вых =
𝑁0 ∆𝜔эфф.пр
|𝐾max (𝑖𝜔)|2 = 2𝑃пр |𝐾max (𝑖𝜔)|2 ,
𝜋
где 𝑃пр – мощность процесса в полосе ∆𝜔эфф.пр .
Распределение плотности вероятностей случайного процесса (сигнала или
помехи) на выходе линейной инерционной системы в общем случае отличается от
плотности вероятностей процесса на входе. В одном очень важном случае плотность вероятностей при линейных преобразованиях не изменяется. Это случай
гауссовского процесса, т.е. если процесс на входе линейной инерционной системы
имеет нормальную плотность вероятностей мгновенных значений, то он остается
нормальным и на выходе. Изменяются только параметры процесса 𝑦(𝑡) → 𝑚𝑦 (𝑡),
𝜎𝑦2 (𝑡) (дисперсия или мощность), функция корреляции 𝐵𝑦 (τ) и 𝜏0𝑦 в соответствии с
𝑘 2 (𝑖𝜔).
2. Теперь рассмотрим прохождение случайного сигнала (процесса) через
нелинейную безинерционную цепь.
Сделаем некоторые предварительные замечания:
138
y = f(x)
dy
y0
dx1
dx2
x1
x2
x
dx3
x
x3
Рисунок 8.25. Характеристика нелинейной цепи
𝑦 ∈ 𝑦0 + 𝑑𝑦,
𝑥1 + 𝑑𝑥1 ,
𝑥 ∈ {𝑥2 + 𝑑𝑥2 ,
𝑥3 + 𝑑𝑥3 .
В силу функциональной зависимости:
𝑊𝑦 (𝑦)𝑑𝑦 = 𝑊𝑥 (𝑥1 )|𝑑𝑥1 | + 𝑊𝑥 (𝑥2 )|𝑑𝑥2 | + 𝑊𝑥 (𝑥3 )|𝑑𝑥3 |,
или
𝑊𝑦 (𝑦) = 𝑊𝑥 (𝑥1 ) |
𝑑𝑥1
𝑑𝑥2
𝑑𝑥3
| + 𝑊𝑥 (𝑥2 ) |
| + 𝑊𝑥 (𝑥3 ) |
|.
𝑑𝑦
𝑑𝑦
𝑑𝑦
В общем случае:
𝑛
𝑛
𝑛
𝑖=1
𝑖=1
𝑖=1
𝑑𝑥𝑖
𝑑𝜑𝑖 (𝑦)
𝑊𝑦 (𝑦) = ∑ 𝑊𝑥 (𝑥𝑖 ) | | = ∑ 𝑊𝑥 [𝜑𝑖 (𝑦)] |
| = ∑ 𝑊𝑥 [𝜑𝑖 (𝑦)] |𝜑𝑖′ |.
𝑑𝑦
𝑑𝑦
Пример. Рассмотрим определение плотности распределения вероятностей на
выходе квадратичного преобразователя с характеристикой:
𝑦 = 𝑓(𝑥) = 𝑥 2 .
Такое преобразование имеет место, например, в двухполупериодном квадратичном детекторе (рис. 8.26).
139
y = f(x)
dx2
dx1
x2
x
x1
Рисунок 8.26. Характеристика квадратичного преобразователя
𝑦 = 𝑓(𝑥) = 𝑥 2 ,
𝑥 = ±√𝑦,
𝑥1 = +√𝑦,
𝑥2 = −√𝑦,
𝑑𝑥1
1
𝑑𝜑1 (𝑦)
=
=
,
𝑑𝑦
𝑑𝑦
2 √𝑦
𝑊𝑦 (𝑦) = 𝑊𝑥 (𝑥1 ) |
𝑑𝑥2
1
𝑑𝜑2 (𝑦)
=
=
.
𝑑𝑦
𝑑𝑦
−2√𝑦
𝑑𝑥1
𝑑𝑥2
1
| + 𝑊𝑥 (𝑥2 ) |
|=
[𝑊𝑥 (√𝑦)] + 𝑊𝑥 (−√𝑦).
𝑑𝑦
𝑑𝑦
2 √𝑦
Пусть воздействие имеет нормальное распределение (с нулевым средним):
𝑊𝑥 (𝑥) =
1
√2𝜋𝜎𝑥
𝑒
−
𝑥2
2𝜎𝑥2 .
Подставив это выражение вместо плотности 𝑊𝑥 :
𝑊𝑦 (𝑦) =
1
1
[
(𝑒
2√𝑦 √2𝜋𝜎𝑥
−
𝑦
2𝜎𝑥2
+𝑒
окончательно получим
𝑊𝑦 (𝑦) =
1
√2𝜋𝑦𝜎𝑥
140
𝑒
−
𝑦
2𝜎𝑥2 .
−
𝑦
2𝜎𝑥2 )],
Wy(y)
y
0
Рисунок 8.27. ФПВ на выходе квадратичного преобразователя
Из рисунка видно, что при 𝑦 ⟶ 0, 𝑊𝑦 (𝑦) ⟶ ∞.
8.10. Представление сигнала в комплексной форме. Преобразование
Гильберта. Аналитический сигнал
Как детерминированные, так и случайные процессы обычно представляются
действительными функциями времени 𝑥(𝑡). Вместе с тем, часто удобнее представлять их векторами на комплексной плоскости или записывать в символической
форме. Напомним смысл широко используемой в теории электрических цепей
символической записи синусоидальных колебаний. Практическое значение комплексного представления случайных сигналов: оно позволяет представить любой
случайный процесс в виде гармонического колебания со случайной амплитудой
огибающей 𝐸(𝑡) и фазой 𝜃(𝑡).
Действительная функция:
𝑥(𝑡) = 𝐸(𝑡) cos(𝜔0 𝑡 − 𝜑0 ) = 𝐸(𝑡) cos[Θ(t)],
𝛩(𝑡) – полная фаза,
𝐸(𝑡) – амплитуда (огибающая),
𝜔0 – мгновенная частота,
𝜑0 – начальная фаза.
В символической форме может быть представлена следующим образом:
𝑥̇ (𝑡) = 𝐸(𝑡)𝑒 𝑖(𝜔0𝑡−𝜑0) = 𝐸(𝑡)𝑒 𝑖Θ(𝑡) = 𝐸(𝑡) cos Θ(𝑡) + 𝑖𝐸(𝑡) sin Θ (𝑡) =
= 𝑥(𝑡) + 𝑖𝑥̂(𝑡).
141
x(t)
E(t)
t
Рисунок 8.28. Сущность округления огибающей СП
Иначе говоря, символическое представление 𝑥(𝑡) получается добавлением к
действительной части 𝑥(𝑡) = 𝐸(𝑡) cos 𝜃(𝑡) определенным образом подобранной
мнимой части 𝑥̂(𝑡) = 𝐸(𝑡) sin 𝜃(𝑡).
Последняя выбирается так, чтобы проекция 𝑥̇ (𝑡) на ось абсцисс соответствовала исходной действительной функции Re [𝑥̇ (𝑡)] = 𝑥(𝑡).
.
Im [x(t)]
.
x(t)
.
Re [x(t)]
Рисунок 8.29. Разложение СП на ортогональные составляющие
В нашем случае мнимая часть Im [𝑥̇ (𝑡)] = 𝑥̂(𝑡) колебания 𝑥̇ (𝑡) находится в
квадратуре (сдвинута на угол 𝜋⁄2 ) с действительной частью 𝑥̇ (𝑡).
Комплексный вектор 𝑥̇ (𝑡) = 𝐸(𝑡)𝑒 𝑖𝜃(𝑡) длиной 𝐸(𝑡) вращается с угловой ско𝑑𝜃(𝑡)
ростью 𝜔0 =
против часовой стрелки; конец вектора описывает окружность.
𝑑𝑡
Функции 𝑥(𝑡) и 𝑥̂(𝑡) называются сопряженными по Гильберту. Доказано, что
действительная и мнимая составляющая функции связаны между собой парой взаимно однозначных интегральных преобразований Гильберта:
Прямое преобразование Гильберта
+∞
1
𝑥(𝜏)
𝑥̂(𝑡) = ∫
𝑑𝜏.
𝜋
𝑡−𝜏
−∞
Обратное преобразование Гильберта
142
∞
1
𝑥̂(𝜏)
𝑥(𝑡) = − ∫
𝑑𝜏.
𝜋
𝑡−𝜏
−∞
Аналогично для функции sin 𝜔0 𝑡 сопряженной является функция cos 𝜔0 𝑡.
Например:
{
𝑥(𝑡) = 𝐴(𝑡) cos 𝜔0 𝑡 ,
𝑥̂(𝑡) = −𝐴(𝑡) sin 𝜔0 𝑡 ,
{
𝑥(𝑡) = 𝐵(𝑡) sin 𝜔0 𝑡 ,
𝑥̂(𝑡) = −𝐵(𝑡) cos 𝜔0 𝑡,
т.е.
x(t)
φ = 90°
^
x(t)
Рисунок 8.30. Сущность получения сопряженной по Гильберту функции
Сигнал 𝑆̇(𝑡) называется «аналитическим», если 𝑆(𝑡) и 𝑆̂(𝑡) составляют пару
преобразований по Гильберту:
+∞
1
𝑆(𝜏)
𝑆̂(𝑡) = ∫
𝑑𝜏,
𝜋
𝑡−𝜏
−∞
∞
1
𝑆̂(𝜏)
𝑆(𝑡) = − ∫
𝑑𝜏 .
𝜋
𝑡−𝜏
−∞
Функция 𝑆̂(𝑡) называется сопряженной с функцией 𝑆(𝑡) по Гильберту. При
таком выборе 𝑆(𝑡) и 𝑆̂(𝑡) огибающая и фаза сигнала определяются однозначно:
2
𝐸(𝑡) = √[𝑆(𝑡)]2 + [𝑆̂(𝑡)] ,
𝑆̂(𝑡)
𝜓(𝑡) = arctg
.
𝑆(𝑡)
Если эффективная ширина спектра ∆𝜔эфф. сигнала 𝑆(𝑡) мала по сравнению с
его частотой 𝜔0 , то 𝐸(𝑡) и 𝜓(𝑡) изменяются медленно по сравнению с функцией
𝑆(𝑡). Можно показать, что функции 𝑆(𝑡) = cos 𝜔0 𝑡 соответствует сопряженная
функция 𝑆̂(𝑡) = sin𝜔0 𝑡, а функции 𝑆(𝑡) = sin 𝜔0 𝑡 соответствует 𝑆̂(𝑡) = −cos𝜔0 𝑡.
Если исходный сигнал представлен рядом Фурье:
𝑆(𝑡) = ∑(𝑎𝑘 cos 𝜔𝑘 𝑡 + 𝑏𝑘 sin 𝜔𝑘 )𝑡,
𝑘
то сопряженный ему ряд:
143
𝑆̂(𝑡) = ∑(𝑎𝑘 sin 𝜔𝑘 𝑡 − 𝑏𝑘 cos 𝜔𝑘 𝑡).
𝑘
Таким образом, простейшему сигналу в виде гармонического колебания
𝑆(𝑡) = 𝐴0 cos𝜔0 𝑡 соответствует аналитический сигнал
𝑆̇(𝑡) = 𝐴0 cos 𝜔0 𝑡 + 𝑖𝐴0 sin 𝜔0 𝑡 = 𝐴0 𝑒 𝑖𝜔0𝑡 .
8.11. Комплексное представление узкополосного процесса. Квадратурные составляющие и их свойства
G(ω)
ω
ω0
∆ωэфф
Рисунок 8.31. Эффективная полоса СП
При рассмотрении многих задач удобно выражать сигнал в виде суммы элементарных сигналов, каждый из которых является комплексной функцией времени, либо рассматривать сам сигнал как комплексную функцию:
𝜉̇ (𝑡) = 𝜉(𝑡) + 𝑗𝜉̂ (𝑡) = 𝐸(𝑡)𝑒 𝑖𝜓(𝑡) = 𝐸(𝑡) cos 𝜓(𝑡) + 𝑖𝐸(𝑡) sin 𝜓(𝑡),
где 𝐸(𝑡) и 𝜓(𝑡) – огибающая и фаза сигнала. Действительный сигнал 𝜉(𝑡) в
этом случае определяется следующим выражением:
𝜉(𝑡) = Re[𝐸(𝑡)𝑒 𝑖𝜓(𝑡) ] = 𝐸(𝑡) cos 𝜓(𝑡) .
Но
𝜓(𝑡) = 𝜔0 𝑡 − 𝜑(𝑡).
Преобразуя, получим:
𝜉(𝑡) = 𝐸 cos 𝜑(𝑡) cos 𝜔0 𝑡 + 𝐸(𝑡) sin 𝜑(𝑡) sin 𝜔0 (𝑡) = 𝐴(𝑡) cos 𝜔0 𝑡 + 𝐵 sin 𝜔0 𝑡
144
𝐴(𝑡)
𝐵(𝑡)
Здесь 𝐴(𝑡) и 𝐵(𝑡) – квадратурные составляющие узкополосного случайного
процесса.
Вывод:
Любой узкополосный случайный процесс может быть представлен суммой
двух гармонических составляющих средней частоты cos 𝜔0 𝑡 и sin 𝜔0 𝑡 со случайными амплитудами и фазами.
ξ(t)
E(t)
t
cos(ω0 – φ0(t))
Рисунок 8.32. Представление узкополосного СП
𝐸(𝑡) и 𝜓(𝑡) в узкополосном сигнале – медленно меняющиеся функции
времени по сравнению со средней частотой 𝜔0 .
Таким образом, узкополосный случайный процесс можно представить в виде
амплитудно-модулированного сигнала со случайной амплитудой 𝐸(𝑡) и случайной
фазой 𝜓(𝑡).
Поскольку 𝐴(𝑡) и 𝐵(𝑡) находятся в квадратуре, то 𝐸(𝑡) будет гипотенузой
(рис. 8.33).
E(t)
B(t)
φ(t)
A(t)
Рисунок 8.33. Представление узкополосного СП через квадратурные составляющие
𝐵(𝑡)
𝐸(𝑡) = √𝐴2 (𝑡) + 𝐵2 (𝑡),
𝜓(𝑡) = arctg
,
𝐴(𝑡)
𝐴(𝑡) = 𝐸(𝑡) cos 𝜓 ,
𝐵(𝑡) = 𝐸(𝑡) sin 𝜓.
145
Свойства квадратурных составляющих:
Т.к. 𝐴(𝑡) и 𝐵(𝑡) являются случайными функциями времени, то законы
распределения 𝐴(𝑡) и 𝐵(𝑡) совпадают с законом распределения 𝜉(𝑡), т.е.
𝜉(𝑡) → 𝑊(𝜉).
1. 𝐴(𝑡) ⊥ 𝐵(𝑡), т.е. ортоганальны в совпадающие моменты времени, т.е.
𝐵𝐴𝐵 (𝜏) = 0.
2. 𝑊(𝐴) = 𝑊(𝜉) и 𝑊(𝐵) = 𝑊(𝜉).
3. 𝜎𝐴2 = 𝜎𝜉2 ; 𝜎𝐵2 = 𝜎𝜉2 .
4. 𝜎𝐸2 = 𝜎𝐴2 + 𝜎𝐵2 . Дисперсия огибающей в два раза больше дисперсий составляющих.
Представление случайного процесса квадратурными составляющими имеет
большое значение для анализа приемных устройств при когерентном и некогерентном приеме.
8.12. Огибающая и фаза узкополосного гауссовского случайного процесса и суммы гармонического сигнала и узкополосного гауссовского случайного сигнала
1. Огибающая и фаза узкополосного гауссовского случайного процесса.
ξ(t)
E
E(t)
0
t W(E)
0
Рисунок 8.34. Временная и вероятностная характеристики огибающей СП
Если процесс стационарный, то каждую реализацию 𝜉𝑖 (𝑡) можно разложить
на квадратурные составляющие:
𝜉𝑖 (𝑡) = 𝐸(𝑡) cos[𝜔0 𝑡 − 𝜑(𝑡)]
146
или
𝜉(𝑡) = 𝐸 cos 𝜑(𝑡) cos 𝜔0 𝑡 + 𝐸(𝑡) sin 𝜑(𝑡) sin 𝜔0 (𝑡) = 𝐴(𝑡) cos 𝜔0 𝑡 + 𝐵 sin 𝜔0 𝑡.
E(t)
B(t)
φ(t)
A(t)
Рисунок 8.35. Разложение огибающей СП на квадратурные составляющие
Считаем, что процесс не содержит постоянной составляющей
𝑚𝐴 = 𝑚𝐵 = 𝐴(𝑡) = 𝐵(𝑡) = 0,
а мощности квадратурных составляющих одинаковы:
1
𝜎𝐴2 = 𝜎𝐵2 = 𝜎𝐸2 .
2
Поскольку 𝜉(𝑡) – нормальный (гауссовский) процесс, то 𝑊(𝜉), 𝑊(𝐴) и 𝑊(𝐵)
имеют нормальное распределение:
𝑊(𝐴) =
1
−
√2𝜋𝜎𝜉
𝑒
𝐴2
2𝜎𝜉2
𝑊(𝜉) =
,
1
𝑊(𝐵) =
1
√2𝜋𝜎𝜉
−
𝑒
𝜉2
2𝜎𝜉2
√2𝜋𝜎𝜉
−
𝑒
𝐵2
2𝜎𝜉2
,
,
а их функция корреляции 𝐵𝐴𝐵 (𝜏) = 0 в совпадающие моменты времени 𝜏 =
0. Найдем плотность вероятности огибающей 𝑝(𝐸) и фазы 𝑝(𝜑).
147
Edφ
dB
B(t)
dE
E(t)
dφ
dA
A(t)
Рисунок 8.36. Сущность округления огибающей и фазы при нулевой средней
В прямоугольных координатах (рис. 8.36) вероятность того, что случайная
величина 𝐸 будет находиться в пределах прямоугольника, ограниченного
сторонами (𝐴, 𝐴 + 𝑑𝐴) и (𝐵, 𝐵 + 𝑑𝐵) можно выразить через совместную плотность вероятности:
𝑃 = 𝑊2 (𝐴, 𝐵)𝑑𝐴𝑑𝐵.
Вероятность этого же события можно записать в полярных координата 𝐸 и 𝜑,
т.е.
𝑃 = 𝑊2 (𝐸, 𝜑)𝑑𝐸𝑑𝜑,
следовательно:
𝑊2 (𝐴, 𝐵)𝑑𝐴𝑑 = 𝑊2 (𝐸, 𝜑)𝑑𝐸𝑑𝜑.
(12.1)
Поскольку речь идет об одной и той же вероятности, то площадь
элементарного прямоугольника 𝑑𝐴𝑑𝐵 должна быть равной элементарной площади
в полярных координатах:
𝑑𝐴𝑑𝐵 = 𝐸𝑑𝐸𝑑𝜑.
(12.2)
Кроме того, вследствие статической независимости
составляющих, а также их 𝑊(𝐴) и 𝑊(𝐵), с учетом (12.2):
−
1
𝑊2 (𝐴, 𝐵)𝑑𝐴𝑑𝐵 = 𝑊(𝐴)𝑊(𝐵)𝑑𝐴𝑑𝐵 =
𝑒
2𝜋𝜎𝜉2
=
𝐸
𝑒
2𝜋𝜎𝜉2
−
𝐸2
2𝜎𝜉2
148
𝑑𝐸𝑑𝜑 .
𝐴2 +𝐵2
2𝜎𝜉2
квадратурных
𝑑𝐴𝑑𝐵 =
(12.3)
Сопоставляя (12.1) и (12.3), можно получить:
𝑊2 (𝐸, 𝜑) =
𝐸
𝑒
2𝜋𝜎𝜉2
−
𝐸2
2𝜎𝜉2
.
(12.4)
Выражение (12.4) определяет совместную плотность вероятности огибающей
𝐸 и фазы 𝜑. Для определения плотности вероятности огибающей проинтегрируем
(12.4) по всем возможным значениям 𝜑 в пределах от 0 до 2𝜋:
2𝜋
2𝜋
𝑊(𝐸) = ∫ 𝑊2 (𝐸, 𝜑)𝑑𝜑 = ∫
0
0
𝐸
𝑒
2𝜋𝜎𝜉2
−
𝐸2
2𝜎𝜉2
𝑑𝜑 =
𝐸
𝑒
𝜎𝜉2
−
𝐸2
2𝜎𝜉2
.
(12.5)
Для определения плотности вероятности фазы 𝑃(𝜑) надо совместную
плотность (12.4) проинтегрировать по всем возможным значениям огибающей:
∞
∞
∞
𝐸2
1
𝐸 − 2𝜎2
1
1
𝜉 𝑑𝐸 =
𝑊(𝜑) = ∫ 𝑊2 (𝐸, 𝜑)𝑑𝐸 =
∫ 2𝑒
∫ 𝑊(𝐸)𝑑𝐸 =
.
2𝜋 𝜎𝜉
2𝜋
2𝜋
0
0
(12.6)
0
Из (12.6) видно, что плотность вероятности фазы равномерна по всей области
возможных значений 𝜑 от −𝜋 до 𝜋 (рис. 8.37).
W(φ)
W(y)
E
W 
 
max
1
2π
–π
0
π
φ
1
0
2
3
E
y= σ
ξ
Рисунок 8.37. ФПВ огибающей и фазы СП при нулевой средней
Выражение (12.6) может быть безразмерным, если обозначить 𝑦 = 𝐸⁄𝜎𝜉 .
При переходе от 𝐸 к 𝑦 должно выполняться равенство:
𝑊(𝐸)𝑑𝐸 = 𝑊(𝑦)𝑑𝑦.
(12.7)
Подставляя в (12.7) значение 𝑊(𝐸) из (12.5) и учитывая 𝑑𝐸 = 𝜎𝜉 𝑑𝑦, получим:
𝑊(𝑦) = 𝑦𝑒
149
−
𝑦2
2.
(12.8)
Плотность вероятности, определяемая (12.8), называется распределением Рэлея.
Здесь переменная 𝑦 может принимать лишь неотрицательные значения, в отличии от нормального распределения, где 𝑦 может принимать и положительные, и
отрицательные значения. Из рис. 8.37 видно, что максимальное значение плотности
вероятности огибающей имеет место при 𝑦 = 1 или, что тоже самое, 𝑒 = 𝜎𝜉 .
Кроме того, хотя в рассматриваемом процессе 𝜉(𝑡) нет постоянной составляющей, среднее значение огибающей не равно 0.
2. Огибающая и фаза суммы гармонического колебания и узкополосного
гауссовского случайного сигнала.
Задача решается аналогично. Пусть имеется сумма узкополосного нормального стационарного процесса 𝜉𝑖 = 𝐸(𝑡) cos(𝜔0 𝑡 − 𝜑) и гармонического сигнала 𝑆(𝑡) = 𝑈0 (𝑡)cos𝜔0 𝑡.
В этом случае:
𝐸(𝑡) = √[𝐴(𝑡) + 𝑈0 (𝑡)]2 + [𝐵(𝑡)]2 ,
𝜑(𝑡) = arctg
𝑊(𝐵) = 𝑊(𝜉),
(12.9)
𝐵(𝑡)
,
𝑈0 (𝑡)𝐴(𝑡)
𝑊(𝐴) =
1
√2𝜋𝜎𝜉
−
𝑒
(12.10)
(𝐴(𝑡)−𝑈0 )2
2𝜎𝜉2
.
Аналогично находятся 𝑊2 (𝐸, 𝜑), 𝑊(𝐸) и 𝑊(𝜑):
2𝜋
∞
𝑊(𝐸) = ∫ 𝑊2 (𝐸, 𝜑)𝑑𝜑 ,
𝑊(𝜑) = ∫ 𝑊2 (𝐸, 𝜑)𝑑𝐸 .
0
0
B(t)
E’(t)
E(t)
A(t) + U0
A(t)
Рисунок 8.38. Огибающая СП при нулевой и ненулевой средней
Если найти совместную плотность вероятности огибающей и фазы и проинтегрировать по фазе в пределах от −𝜋 до 𝜋, то придем к распределению Райса
(или обобщенно Рэлея) для плотности вероятности огибающей суммы сигнала и
шума:
150
𝑊(𝐸) =
ним).
𝐸
𝑒
𝜎𝜉2
−
𝐸 2 +𝑈02
2𝜎𝜉2
𝐸𝑈0
𝐽0 ( 2 ),
𝜎𝜉
(12.11)
𝐽0 − функция Бесселя нулевого порядка.
При 𝑈0 = 0, 𝐽0 = 1 – получим распределение Рэлея как частный случай.
𝑈
При 0⁄𝜎 ≫ 1 распределение стремится к нормальному (с ненулевым средW(E)
U0
σξ = 0
U0
σξ = 1
U0
σξ = 2
U0
σξ = 3
E
Рисунок 8.39. ФПВ огибающей при различных
𝑈0
⁄𝜎𝜉
W(φ)
U0
= 10
σξ
U0
σξ = 5
U0
σξ = 1
U0
σξ = 0
–π
π
0
φ
Рисунок 8.40. ФПВ фазы при различных U0/σξ
Чем больше амплитуда сигнала, тем ближе фаза результирующего колебания
к фазе этого сигнала.
8.13. Математические модели непрерывных и дискретных каналов связи
151
Канал связи можно характеризовать, так же как и сигнал, тремя параметрами:
1) временем 𝑇к , в течении которого по каналу ведется передача;
2) полосой пропускания канала 𝐹к ;
3) диапазоном защитных уровней 𝐷к .
Типы каналов, по которым передаются сообщения, многочисленны и разнообразны. Широко применяются каналы проводной связи (воздушные, кабельные: симметричные, коаксиальные, волоконно-оптические), радио и радиорелейные (в том числе метеорные, космические, ионосферные, тропосферные, световые), волноводные, поверхностной волны. В общем случае в канал может входить несколько линий. Однако чаще одна и та же линия входит в состав нескольких
каналов, в ряде случаев – каналов обеих направлений. Характеристики этих каналов значительно отличаются друг от друга.
Общими признаками различных каналов связи являются следующие:
1. Большинство каналов можно считать линейными. В таких каналах выходной сигнал является просто суммой входных сигналов (принцип суперпозиции),
а продукты перекрестной модуляции этих каналов малы по сравнению с выходными сигналами.
2. На выходе канала даже при отсутствии полезного сигнала всегда имеются
аддитивные помехи.
3. Сигнал при передаче по каналу претерпевает задержку во времени и затухание по уровню. В общем случае задержка и затухание могут изменяться во
времени.
Встречаются каналы, в которых сигнал в точку приема приходит по различным путям с различными затуханиями 𝜇к и запаздываниями 𝜏к .Такие каналы
называются многопутевыми или многолучевыми.
Сигнал на выходе канала можно записать в виде:
𝑥(𝑡) = 𝜇(𝑡)𝑆(𝑡 − 𝜏(𝑡)) + 𝜉(𝑡),
где 𝜇(𝑡) – затухание сигнала (мультипликативная помеха),
𝜏(𝑡) – время задержки сигнала,
𝑆(𝑡) – сигнал на входе канала,
𝜉(𝑡) – аддитивная помеха,
𝜇(𝑡) и 𝜏(𝑡) могут быть постоянными.
Если 𝜇 и 𝜏 фиксированы во времени, то имеем канал с постоянными параметрами. В реальных каналах происходит непрерывное и часто случайное изменение параметров 𝜇 и 𝜏. Такие каналы называются каналами с переменными параметрами.
152
В канале последовательность входных сообщений 𝑈(𝑡) преобразовывается в
последовательность элементов выходного сообщения 𝜐(𝑡).
В геометрическом представлении это означает преобразование пространства
входных сообщений 𝑈 в пространство выходных сообщений 𝑉.
При изучении каналов связи иногда удобно рассматривать вместо элементов
исходного сигнала последовательность кодовых символов {𝑎𝑖 }.
Канал называется дискретным, если пространство входных выходных сигналов дискретны, и непрерывным, если эти пространства непрерывны. Если одно из
пространств дискретно, а другое – непрерывно, то канал называется соответственно дискретно-непрерывным или непрерывно-дискретным.
Модели непрерывных каналов связи характеризуются следующими показателями:
1) временем занятия канала 𝑇к ;
2) шириной полосы пропускания 𝐹к ;
3) динамическим диапазоном 𝐷к ,
𝐷к = 20 log
𝑈с max
,
𝑈с min
где 𝑈с max , 𝑈с min – максимальное и минимальное значение сигнала.
Это физические характеристики канала (сигнала). Они взаимосвязаны между
собой. Их произведение равно объему канала 𝑉к .
𝑉к = 𝑇к 𝐹к 𝐷к .
Модель дискретного канала характеризуется следующими показателями:
1. Алфавитом входных и выходных сообщений.
𝑎0 𝑎1 𝑎2 … 𝑎𝑛 – входной алфавит;
𝑏0 𝑏1 𝑏2 … 𝑏𝑛 – выходной алфавит.
Алфавит выходных сообщений не всегда равен алфавиту входных.
2. Скоростью передачи.
𝜐(
букв
с
дв.ед.
) или (
с
), [Бод].
3. Априорными вероятностями входных сообщений 𝑝{𝑎𝑗 }
𝑏
4. Вероятностями перехода 𝑝( 𝑖⁄𝑎𝑗 ).
Рассмотрим двоичный дискретный канал (ДДК). Такой канал обычно описывается графиком состояний:
153
a0
0
1
a1
p 

b0

a0 
b
p  1 
 a1 
p 

b0

a1 
b0
b
p  1 
 a0 
0
1
b1
Рисунок 8.41. Граф состояний ДДК
Если передали 𝑎0 и получили 𝑏0 , то это верная передача. Если передали 𝑎0 , а
получили (под воздействием помех) 𝑏1 , то это ошибка. Аналогичная ошибка – при
переходе 𝑎1 в 𝑏0 .
8.14. Классификация дискретных каналов связи
𝑏
1. Если вероятность перехода 𝑝 ( 𝑖⁄𝑎𝑗 ) для каждого 𝑖 и 𝑗 не зависит от времени и от того, какие символы предшествовали данному символу, то это однородный канал без памяти (стационарный).
2. Если вероятность перехода зависит от времени, то канал неоднородный
(нестационарный). Такие каналы делятся на каналы с памятью и без памяти.
𝑏
𝑏
𝑝 ( 0⁄𝑎0 ) – без памяти, 𝑝 ( 0⁄𝑎0 ) – с памятью.
⁄𝑎1
3. Симметричные и несимметричные. В симметричных каналах вероятности
переходов попарно равны.
𝑏
𝑏
𝑝 ( 𝑖⁄𝑎𝑗 ) = 𝑝 ( 𝑗⁄𝑎𝑖 ) – симметричный.
𝑏
𝑏
𝑝 ( 𝑖⁄𝑎𝑗 ) = 𝑝 ( 𝑗⁄𝑎𝑖 ) = 𝑃ошибки ;
𝑏
𝑏
𝑝 ( 0⁄𝑎0 ) = 𝑝 ( 𝑖⁄𝑎𝑗 ) = 𝑞 – правильный прием.
4. Каналы со стиранием и без стирания. В каналах со стиранием алфавит
выходных сообщений на единицу больше, чем алфавит входных.
𝑎0 , 𝑎1 , … 𝑎𝑛 ;
𝑏0 , 𝑏1 , … 𝑏𝑛+1 .
𝑏𝑛+1 = 𝜃 – символ стирания.
𝜃 выдается приемником тогда, когда решающее устройство приемника не
может однозначно решить, какой сигнал поступил на его вход.
Поясним сказанное на примере наиболее простого и, в то же время, наиболее
распространенного на практике двоичного канала.
154
Рассмотрим двоичный канал, построенный следующим образом. Дискретный
модулятор при подаче на его вход символа 𝑎𝑗 = 1 выдает положительный импульс
постоянного напряжения величины 𝐴 (являющийся элементарным сигналом
(1)
𝑆𝑖 (𝑡)), а при передаче символа 𝑎𝑖 = 0 – отрицательный импульс постоянного
(0)
напряжения −𝐴 (являющийся элементарным сигналом 𝑆𝑖 (𝑡)). Образованный таким образом сигнал 𝑆(𝑡), отображающий последовательность символов {𝑎𝑖 }, поступает на вход гауссовского канала с полосой пропускания от 0 до 𝑓в = 𝐹к . Если
𝐹к > 𝑣, то сигнал на входе решающего устройства:
𝑥(𝑡) = 𝑆(𝑡) + 𝜉(𝑡),
где 𝜉(𝑡) – помеха, имеющая нормальное распределение с нулевым срезом:
𝑃(𝜉) =
1
−
√2𝜋𝜎𝜉
𝑒
𝜉2
2𝜎𝜉2
.
S(t)
A
1
1
1
0
t
0
0
–A
Рисунок 8.42. Временная характеристика двуполярной последовательности импульсов
x(t)
+A
A
α1
1
1
t0
t0
t0
Θ
0
t
–α2
–A
–A
0
Рисунок 8.43. Сущность работы РУ без стирания и со стиранием
155
Пусть решающее устройство (РУ) принимает решение на основе сравнения
однократного отсчета каждого принимаемого импульса 𝑥𝑖 (𝑡0 ) с пороговым значением 𝛼0 : если отсчет 𝑥(𝑡0 ) > 𝛼0 превышает порог 𝛼0 , то 𝑏𝑖 = 1, если 𝑥(𝑡0 ) < 𝛼0 ,
то 𝑏𝑖 = 0. В зависимости от значения помехи 𝜉(𝑡) в момент отсчета решение может
быть правильным или неправильным. При скорости передачи 𝑣к ≤ 2𝐹к интервал
1
между отсчетами ∆𝑡 ≥
и отсчеты помехи независимы. Таким образом, описан2𝐹к
ный канал является стационарным (в силу стационарности гауссовой помехи) двоичным каналом без памяти.
Очевидно, что переданный символ 0 будет принят решающим устройством
как 1, если значение помехи в момент отсчета превысит 𝐴 + 𝛼0 (рис. 8.43). Поэтому
∞
𝑝(1/0) = 𝑝(𝜉 > 𝐴 + 𝑎0 ) = ∫ 𝑊(𝜉)𝑑𝜉,
𝐴+𝛼0
−𝐴+𝛼0
𝑝(0/1) = 𝑝(𝜉 < −𝐴 + 𝛼0 ) =
∫ 𝑊(𝜉)𝑑𝜉.
−∞
W(ξ)
 1
 0
q
p 0
p 1
–A
A
ξ
Рисунок 8.44. Зоны перехода 0 ⟶ 1 и 1 ⟶ 0
На рис. 8.44 показаны площади, равные вероятности 𝑃01 и 𝑃10 . В общем случае они не равны. При этом вероятности ошибки:
𝑝ош. = 𝑝(1)𝑝(0/1) + 𝑝(0)𝑝(1/0),
зависит от априорных вероятностей 𝑃(0) и 𝑃(1). Если выбрать пороговое
значение 𝛼0 = 0, то в силу симметрии распределение 𝑊(𝜉)относительно оси ординат
156
−𝐴
∞
𝑝(0/1) = 𝑝(1/0) = 𝑝{𝜉 < −𝐴} = 𝑝{𝜉 > 𝐴} = ∫ 𝑊(𝜉)𝑑𝜉 = ∫ 𝑊(𝜉)𝑑𝜉 .
−∞
𝐴
Поэтому для симметричного канала (𝑝(0) = 𝑝(1))
𝑝ош. = 0,5[𝑝(0/1) + 𝑝(1/0)].
В этом случае при любой статистики входной последовательности:
∞
−𝐴
𝑝ош. = ∫ 𝑊(𝜉)𝑑𝜉 = ∫ 𝑊(𝜉)𝑑𝜉.
𝐴
−∞
W(ξ)
pош
q
pош
–A
ξ
A
Рисунок 8.45. Определение 𝑃ош для симметричного канала
Если, вместо одного порога установить два: 𝛼1 и 𝛼2 и принять правило 𝑏𝑖 =
1, если 𝑥(𝑡0 ) > 𝛼1 ; 𝑏𝑖 = 0, если 𝑥(𝑡0 ) < −𝛼2 и 𝑏𝑖 = Θ, если −𝛼2 < 𝑥(𝑡0 ) < 𝛼1 , то
получим канал со стиранием, в общем случае не симметричный.
Если, однако, 𝛼1 = −𝛼2 , то получим симметричный канал со стиранием,
причем
∞
𝑝ош. = 𝑝(𝜉 > 𝐴 + 𝛼1 ) = ∫ 𝑊(𝜉)𝑑𝜉 ,
𝐴+𝛼1
𝐴+𝛼1
𝑝Θ = 𝑝(𝐴 − 𝛼1 < 𝜉 < 𝐴 + 𝛼1 ) = ∫ 𝑊(𝜉)𝑑𝜉 .
𝐴−𝛼1
157
W(ξ)
pΘ – стирание
q
pош
–A
A–α
A
ξ
A+α
Рисунок 8.46. Определение 𝑃ош для канала со стиранием
Введение стирания позволяет уменьшить вероятность ошибки, но наряду с
этим уменьшается вероятность правильного приема
𝑞 = 1 − 𝑝ош. − 𝑝Θ .
Выбрав достаточно большое значение 𝛼1 , можно добиться 𝑃ош. ≪ 𝑃𝜃 . Иногда
такой канал называют симметричным каналом со стиранием без ошибок.
Канал со стиранием и ошибками можно изобразить в виде графа:
p 

a0
b
p  1 
 a0 
p 

a1
b0

a1 
b0

a0 
b0
p   
 a0 
Θ
p   
 a1 
b
p  1 
 a1 
b1
Рисунок 8.47. Граф состояний для канала со стиранием
Аналогично канал со стиранием без ошибок:
158
a0
p 

b0

a0 
b0
p   
 a0 
Θ
p   
 a1 
a1
b
p  1 
 a1 
b1
Рисунок 8.48. Граф состояний для канала со стиранием без ошибок
8.15. Помехи в каналах связи и их классификация
Помеха – всякое случайное постороннее воздействие на сигнал,
припятствующее правильному приему. Клссифифицируются помехи по
источникам возникновения и по характеру воздействия на сигнал.
1. По источникам возникновения
1. Атмосферные помехи возникают за счет электрических разрядов в
атмосфере. Их энергия сосредоточена на низких частотах (диапозон длиных и
средних волн).
2. Промышленные помехи возникают за счет электроустановок (например,
система зажигания в автомобиле).
3. Помехи от посторонних радиостанций (нарушения регламента
распределения частот, недостаточная стабильность задающего генератора,
передатчика).
4. Внутреннии шумы в аппаратуре (тепловое движение заряженных частиц).
5. Искажения влиниях связи, вызванные замираниями и эхосигналами.
6. Помехи преобразования (шумы квантования, комбинационные частоты).
7. Космические помехи (электромагнитное излучение Солнца и других
внеземных источников).
8. Аппаратурные искажения (неточность настроек).
9. Помехи в многоканальных электрических цепях (переходные помехи).
10. Специально создаваемые помехи.
2. По характеру воздействия на сигнал
1. Аддитивная помеха – арифметически складывается с сигналом.
𝑥(𝑡) = 𝑆(𝑡) + 𝜉(𝑡).
159
S(t)
x(t)
ξ(t)
Рисунок 8.49. Модель канала с аддитивной помехой
2. Мультипликативные помехи.
𝑥(𝑡) = 𝜇(𝑡)𝑆(𝑡).
S(t)
x(t)
μ(t)
Рисунок 8.50. Модель канала с мультипликативной помехой
В общем случае
𝑥(𝑡) = 𝜉(𝑡) + 𝜇(𝑡)𝑆(𝑡).
Если 𝜇(𝑡) – медленный по сравнению с длительностью элементарных
сигналов процесс, то его называют замираниями.
Аддитивная помеха
Может быть флуктуационной, импульсной или сосредоточенной.
ξ(t)
Вход
канала
t
ξ(t)
Выход
канала
t
160
Рисунок 8.51. Сущность формирования флуктуационной помехи
Если интервал времени между помехами мал по сравнению с их
длительностью, происходит наложение переходных явлений друг на друга, и
суммирующий процесс стремится к нормальному. Такая помеха называется
флуктуационной с нулевым средним:
𝑊(𝜉) = 𝑊(𝑥) =
1
√2𝜋𝜎𝜉
−
𝑒
𝑥2
2𝜎𝜉2
.
Огибающая помехи распределения по рэллеевскому закону:
𝐸2
𝐸п − 2𝜎п2
𝜉,
𝑃(𝐸п ) = 2 𝑒
𝜎𝜉
𝜎𝜉2 = 𝑃𝜉 = 𝑁0 ∆𝑓эфф ,
где ∆𝑓эфф – эффективная полоса канала.
Эффективная полоса помехи:
+∞
∆𝑓эфф = ∫
−∞
𝐺(𝑓)𝑑𝑓
.
𝐺max (𝑓)
Эффективная полоса канала:
+∞
∆𝑓эфф.кан.
|𝐾(𝑓)|2 𝑑𝑓
= ∫
.
|𝐾max (𝑓)|2
−∞
W(ξ)
W(Eп)
0
ξ
Рисунок 8.52. ФПВ нормального и рэлеевского законов
Если в канале действует полезный сигнал и помеха
𝑆(𝑡) = 𝐴 cos 𝜔0 𝑡,
161
то
𝑥(𝑡) = 𝑆(𝑡) + 𝜉(𝑡).
Плотность вероятности мгновенных значений (сигнала и помехи):
𝑊(𝑥) =
1
−
√2𝜋𝜎𝜉
𝑒
(𝜉−𝐴)2
2𝜎𝜉2
,
где 𝐴 – математическое ожидание (амплитуда сигнала).
Огибающая плотности вероятности
распределению Райса (обобщенного Рэлея):
𝑊(𝐸сп ) =
𝐸
𝑒
𝜎𝜉2
𝐸 2 +𝐴2
2𝜎𝜉2
в
этом
случае
подчиняется
𝐸𝐴
𝐽0 ( 2 ).
𝜎𝜉
W(ξ)
W(Eп)
W(Ecп)
ξ
A
Рисунок 8.53. ФПВ рэлеевского и райсовского законов
𝑃с
𝐴2
2
2
𝑞 =ℎ = =
𝑃п 2𝑁0 ∆𝑓эфп
– характеристика помехов виде устойчивости.
Импульсные помехи (сосредоточенные по времени) – это помехи в виде
одиночных импульсов, следующих один за другим через такие большие
промежутки времени, что переходные явления в радиоприемнике от одного
импульса успевают затухнуть.
К таким помехам относятся многие виды атмосферных и индустриальных
помех.
162
ξ(t)
2
а)
3
1
0
t
ξ’(t)
б)
0
t
Рисунок 8.54. Временные характеристики импульсных помех
а) на входе приемника;
б) на выходе приемника.
Форма импульсной помехи на выходе линейной системы является
импульсной переходной характеристикой 𝑔(𝑡). Как правило, заранее установить их
математическое описание не удается. Т.к. длительность импульсов мала, то их
спектр достаточно широк (напоминает белый шум).
G(ω)
G2
G3
G1
ω
0
Рисунок 8.55. Энергетические спектры импульсных помех
При анализе канала связи с импульсными помехами, находят распределение
𝑊(𝐺):
𝑊(𝐺) = 𝑎𝑒 −𝑎𝐺(𝜔) ,
где 𝑎 – нормирующий множитель.
163
W(G)
G
0
Рисунок 8.56. ФПВ энергетического спектра импульсной помехи
Если сигнал мал, а помеха большая, ее ограничивают (способ борьбы с
импульсными помехами).
S(t)
помеха
ограничение
t
Рисунок 8.57. Работа ограничителя импульсных помех
Сосредоточенные (по спектру) помехи – это помехи от посторонних
радиостанций или генераторов высокой частоты. Они имеют узкий спектр по
сравнению с полосой пропускания канала связи.
Sк(ω)
ωн
помеха ωв
ω
Рисунок 8.58. Представление сосредоточенной помехи
Избавляются от них с помощью заграждающих фильтров или используют
широкополосные сигналы.
Мультипликативная помеха
164
Мультипликкативные помехи – помехи, которые не складываются с
сигналом, а умножаются на сигнал:
𝑥(𝑡) = 𝜇𝑆(𝑡).
F2 – отражающий слой
ионосферы
В
А
Рисунок 8.59. Возникновение замираний из-за многолучевости
Сигналы в точку приема 𝐵 приходят по разным траекториям, т.е. с разной
задержкой, а значит, с разными фазами. Если фазы приходящих сигналов
совпадают – получается максимум, если приходят в противофазе – минимум.
Непостоянства амплитуды сигнала называются замираниями. Замирания
подразделяются на медленные и быстрые. Медленные – такие, для которых время
замирания велико по сравнению с длительностью элементарного сигнала. С ними
борются, используя автоматическую регулировку усиления в аппаратуре связи.
Быстрые замирания – такие, для которых время замираний соизмеримо (или
меньше) длительности элементарного сигнала. С ними борются путем применения
помехоустойчивого кодирования. Сигнал на входе приемника в общем случае
имеет вид:
𝑘
𝑥(𝑡) = ∑ 𝜇𝑖 𝑆(𝑡 − 𝜏𝑖 ),
𝑖=0
𝜇𝑖 𝑆 – амплитуда сигнала, прошедшего по 𝑖-му пути,
𝜏𝑖 – время запаздывания 𝑖-го луча.
Если 𝜇0 𝑆(𝑡 − 𝜏0 ) – основная (стационарная) составляющая, то:
𝑘
𝑥(𝑡) = 𝜇0 𝑆(𝑡 − 𝜏0 ) + ∑ 𝜇𝑖 𝑆(𝑡 − 𝜏𝑖 ).
𝑖=0
При большом 𝑘 (𝑘 > 10) считают, что рассеянная составляющая
распределена по нормальному закону и рассматривается как флуктуационная
помеха. При этом огибающая помехи распределена по рэлеевскому закону.
Поэтому замирания с нормальным законом распределения называется рэлеевскими
замираниями.
165
8.16. Геометрическое представление сигналов и помех
Совокупность трех чисел 𝑥1 , 𝑥2 , 𝑥3 может быть представлена как координаты
𝑇
вектора в трехмерном пространстве. Аналогично 𝑛 = = 2𝐹𝑇 отсчетов,
∆𝑡
определяющих сигнал, можно представить себе как координаты вектора в
воображаемом 𝑛-мерном пространстве.
Свойства 𝑛-мерного пространства в значительной степени являются
обобщением свойств двух- и трехмерного пространств. Длина (𝑑𝑥 ) вектора 𝑋 =
(𝑥1 , 𝑥2 , … , 𝑥𝑛 ) определяется его нормой ‖𝑋‖:
𝑛
𝑑𝑥 = ‖𝑋‖ = √∑ 𝑥𝑖2 .
𝑖=1
Таблица 8.1 – Параметры векторов
пространствах.
Параметры
Эвклидово пространство,
n-конечно
𝑑𝑥 = ‖𝑋‖
𝑛
(длины вектора)
√∑(𝑥𝑖 )2
𝑖=1
Гильбертово пространство,
n-бесконечно
𝑇
1
√ ∫ 𝑥 2 (𝑡)𝑑𝑡
𝑇
0
𝑑𝑥𝑦 = ‖𝑋 − 𝑌‖
𝑛
(расстояние между
√∑(𝑥𝑖 − 𝑦𝑖 )2
векторами)
𝑇
1
√ ∫[𝑥(𝑡) − 𝑦(𝑡)]2 𝑑𝑡
𝑇
𝑖=1
(𝑋𝑌)
(скалярное
произведение)
в непрепывном и дискретном
0
𝑇
𝑛
1
∫ 𝑥(𝑡)𝑦(𝑡)𝑑𝑡
𝑇
∑ 𝑥𝑖 𝑦𝑖
𝑖=1
0
Фазовый сдвиг 𝛼𝑥𝑦 между 𝑋 и 𝑌:
cos 𝛼𝑥𝑦 =
(𝑋𝑌)
< 1.
‖𝑋‖‖𝑌‖
cos 𝛼𝑥𝑦 не может быть больше 1:
cos 𝛼𝑥𝑦
1 𝑇
𝑥(𝑡)𝑦(𝑡)𝑑𝑡
𝑇 ∫0
=
≤ 1.
𝑇 2
𝑇 2
1
1
√ ∫ 𝑥 (𝑡)𝑑𝑡 √ ∫ 𝑦 (𝑡)𝑑𝑡
𝑇 0
𝑇 0
166
Неравенсво Шварца-Буниковского:
2
𝑇
𝑇
𝑇
[∫ 𝑥(𝑡)𝑦(𝑡)𝑑𝑡] ≤ ∫ 𝑥 2 (𝑡)𝑑𝑡 ∫ 𝑦 2 (𝑡)𝑑𝑡.
0
0
0
Расстояние между двумя векторами 𝑋 и 𝑌 определяется как норма разности
векторов:
𝑛
𝑑𝑥𝑦 (𝑋, 𝑌) = ‖𝑋 − 𝑌‖ = √∑(𝑥𝑖 − 𝑦𝑖 )2 .
𝑖=1
Скалярное произведение двух векторов:
𝑛
(𝑋 ∙ 𝑌) = ∑ 𝑥𝑖 𝑦𝑖 .
𝑖=1
Координаты вектора 𝑥1 , 𝑥2 , … , 𝑥𝑛 представляют собой проекцию вектора 𝑋 на
оси. Если обозначить угол мнежду векторами через 𝛼, то получим выражение
(фазовый сдвиг):
cos 𝛼 =
(𝑋𝑌)
,
‖𝑋‖‖𝑌‖
а для проекций 𝑋 на 𝑌 и обратно 𝑌 на 𝑋:
‖𝑋‖ cos 𝛼 =
(𝑋𝑌)
,
‖𝑌‖
‖𝑌‖ cos 𝛼 =
(𝑋𝑌)
.
‖𝑋‖
Пространство непрерывных функций (сигналов), заданных на интервале 0 <
𝑡 < 𝑇, имеет бесконечное число измерений. Для такого пространства скалярное
произведение двух векторов определяется соотношением (функция взаимной
корреляции):
𝑇
1
(𝑋𝑌) = ∫ 𝑥(𝑡)𝑦(𝑡)𝑑𝑡,
𝑇
0
а норма и расстояние между векторами:
167
𝑇
𝑇
1
‖𝑋‖ = √ ∫ 𝑥 2 (𝑡)𝑑𝑡 ,
𝑇
𝑑𝑥𝑦
0
1
= ‖𝑋 − 𝑌‖ = √ ∫[𝑥(𝑡) − 𝑦(𝑡)]2 𝑑𝑡.
𝑇
0
Пространство с бесконечным числом измерений прдставляет собой
естественное обобщение 𝑛-мерного пространства, полученного путем предельного
перехода от дискретной последовательности к функции непрерывного аргумента.
Отметим, что нормы векторов равны корням из их мощностей, а скалярное
произведение является мерой корреляции этих сигналов. Сигналы конечной
длительности 𝑇, ограниченные полосой 𝐹, геометрически представляются
различными векторами в n-мерном пространстве. Различие между двумя какимилибо сигналами выражается расстоянием между векторами. Это расстояние
зависит от длин векторов и угла между ними, а косинус 𝛼 есть не что иное, как
коэффициент взаимной корреляции сигналов.
2
ξ
d
S1
x1
S2
1
Рисунок 8.60. Векторное представление сигналов и помехи
Полное отсутствие корреляции (т.е. равенство нулю коэффициента
𝜋
корреляции) выражается ортоганальностью векторов (𝛼 = ).
2
Помеха, ограниченная той же полосой, что и сигнал, также определяется
вектором в n-мерном пространстве. Этот вектор добавляется к вектору сигнала. В
отличие от вектора сигнала, вектор помехи может иметь любые величину и
направление (вектор случайный). В результате при наложении помехи на сигнал
вокруг конца вектора сигнала образуется «облако», переменная плотность которого
выражает вероятность попадания результрующего вектора 𝑋 = 𝑆 + 𝜉 (вектор
принятого сигнала) в данный элемент объема. Для флуктуационной помехи это
«облако» имеет сферическую форму с эффективным радиусом
𝑟 = √2𝑇𝐹𝑃п ,
где 𝑃п – мощность помехи.
Сообщение (видиосигнал) 𝑈(𝑡), не содержащее колебаний с частотой выше
𝐹𝑚 , так же, как и сигнал, может быть представлено в m-мерном пространстве, где
𝑚 = 2𝑇𝐹𝑚 . Совокупность возможных сообщений определяет это пространство
168
(пространство сообщений). На следующем рисунке представлена двухмерная
модель этого пространства и двумя различными сообщениями 𝑈1 и 𝑈2 .
1
1
S1
S1
x2
S2
1
ξ1
S2
2
x1
ξ2
2
U1
2
υ1
U2
υ2
2
1
Рисунок 8.61. Векторное представление сигналов и помехи
При передаче сообщения 𝑈(𝑡) преобразовывается в сигнал 𝑆(𝑡) с
использованием некоторого переносчика 𝑓(𝑡). Математически эту операцию
формирования сигнала можно представить в виде
𝑆 = 𝑀(𝑢, 𝑓),
где 𝑀 – оператор, в общем случае нелинейный. Теоретически формирование
сигнала может быть представлено как преобразование пространства сообщений 𝑈 в
пространство сигналов 𝑆: векторы 𝑈1 и 𝑈2 преобразуются в векторы 𝑆1 и 𝑆2 .
Мерность пространства сообщений 𝑚 в общем случае не равна мерности
сигналов 𝑛. При однополосной передаче 𝑚 = 𝑛. В случае амплитудной модуляции
сигналы имеют вдвое большее число координат, чем сообщений: 𝑛 = 2𝑚, а при
частотной пространство сигналов имеет значительно большее число измерений,
чем пространство сообщений.
При наложении помехи на сигнал создается область неопределенностей, в
которую попадают принятые сигналы 𝑋 = 𝑆 + 𝜉. Взаимодействие сигнала и помехи
можно выразить оператором 𝑥 = 𝜓(𝑆, 𝜉).
Оператор 𝜓 преобразует пространство сигналов 𝑆 в пространство принятых
сигналов 𝑋: векторы 𝑆1 и 𝑆2 переходят в 𝑥1 и 𝑥2 .
Приемник по принятым сигналам 𝑥 воспроизводит переданное сообще-ние
𝜐 = 𝜙(𝑥), т.е. преобразует пространство сигналов 𝑋 в пространство принятых
сообщений 𝑉.
Если помеха отсутствует, то принятый сигнал преобразуется в сообщение
обратным оператором 𝑉 = 𝑀−1 (𝑆). В этом случае принятие сообщения
соответствует (тождественно) переданному.
При наличии помех сообщения на приеме воспроизводятся с ошибкой,
вместо 𝑈1 может быть воспроизведено 𝑈2 и наоборот. Ошибка произойдет, когда
результирующий вектор 𝑋 окажится ближе к концу вектора того сигнала, который
в данный момент не передается. Можно построить приемник, воспро-изводящий
169
сообщение 𝑉1 = 𝑈1 всякий раз, когда конец вектора 𝑋 = 𝑆 + 𝜉 бли-же к концу
вектора 𝑆1 , чем к концу вектора 𝑆2 и наоборот. Такой приемник по Котельникову
называется идеальным или оптимальным. Очевидно, ошибка при оптимальном
приеме будет тем меньше, чем больше расстояние 𝑑 между соседними сигналами.
170
9.
Основы теории помехоустойчивости
9.1.
Задачи приемного устройства
На вход приемного устройства (приемника) любой системы связи обычно
поступает смесь переданного сигнала 𝑆(𝑡) и помехи 𝜉(𝑡):
𝑥(𝑡) = 𝑆(𝑡) + 𝜉(𝑡),
причем сигнал 𝑆(𝑡) представляет собой, как правило, сложные колебания,
содержащие, кроме времени 𝑡, множество параметров (амплитуду, фазу, частоту и
пр.): 𝑆(𝑡) = 𝑓(𝑎, 𝑏, 𝑐, … , 𝑡). Один или группа этих параметров используется для
передачи информации, а задачей приемника является определение (измерение)
этих параметров в условиях мешающего действия помех.
Если для решения своей задачи приемник использует все параметры сигнала,
не несущие информацию, то он называется приемником полностью известного
сигнала.
Если эта задача решается наилучшим образом по сравнению с другими
приемниками, то такой приемник называется оптимальным или приемником,
реализующим потенциальную помехоустойчивость («идеальный приемник»).
Потенциальная помехоустойчивость впервые была определена в 1946 году
В.А.Котельниковым в условиях гауссовских помех. Согласно теории
потенциальной помехоустойчивости любая система передачи информации с
заданным ансамблем сигналов в условиях конкретных помех имеет предельную
помехоустойчивость, которая не может быть улучшена путем совершенствования
приемника, и поэтому называется потенциальной помехоустойчивостью.
Если для определения информационного параметра используются не все
параметры сигнала, не несущие информацию, то это приемник не полностью
известного сигнала. Такой приемник также может быть оптимальным (лучшим
среди этого класса приемников), но его помехоустойчивость всегда ниже
потенциальной. В зависимости от назначения системы связи задачи приемника
классифицируются следующим образом.
1. Обнаружение сигнала. При этом приемник решает, есть на его входе
сигнал (вместе с помехой), или же на его входе имеется только одна помеха. Сам
сигнал заранее известен. На рис. 9.1 в некотором пространстве (система координат
1, 2) изображен вектор сигнала 𝑆, на который накладываются векторы помех с
различными фазами и амплитудами (в любой момент времени к вектору сигнала
добавляется один из векторов помех). Если сигнал 𝑆 на входе приемника
отсутствует, векторы помех исходят из начала координат.
171
1
а)
1
ξ
б)
S
ξ
S1
S2
ξ
0
2
0
ξ
2
Рисунок 9.1. Влияние помех при:
а) обнаружении сигнала;
б) различении сигналов
Для решения вопроса о наличии или отсутствии сигнала на входе приемника
все пространство разбивается на два подпространства: подпространство сигнала и
подпространство помех. В зависимости от того, в какое подпространство попадает
конец результирующего вектора, приемник выполнит решение о наличии или
отсутствии сигнала на его входе. Границы подпространств на рисунках показаны
пунктиром. Если под действием помехи конец суммарного вектора попадает в
подпространство помех, имеет место пропуск сигнала; если, наоборот, конец
вектора помехи без сигнала попадает в подпространство сигнала, имеет место
ложная тревога.
2. Различение двух сигналов (или 𝑚 сигналов). Приемник решает, какой из
сигналов (𝑆1 или 𝑆2 ) имеется на его входе. Все пространство сигналов и помех
разбивается на подпространства по числу сигналов (в данном случае на два).
Приемник принимает решение в пользу того сигнала, в подпространстве которого
находится конец вектора суммы сигнала и помехи. Если под действием помехи
конец суммарного вектора попадет в чужое подпространство, произойдет ошибка.
Следует иметь в виду, что, когда приемник предназначен для приема
дискретных сигналов (обнаружение сигналов, различение сигналов), то, как
правило, форма выходных сигналов не совпадает с формой сигналов на его входе.
Например, если приемник осуществляет различение сигналов
𝑆1 (𝑡) = 𝐴 cos 𝜔1 𝑡
и 𝑆2 (𝑡) = 𝐴 cos 𝜔2 𝑡 (дискретная частотная модуляция), то при приеме сигнала 𝑆1 (𝑡)
на выходе приемника будет импульс напряжения положительной полярности, а
при приеме сигнала 𝑆2 (𝑡) – импульс отрицательной полярности (или 0, в
зависимости от конкретной реализации схемы приемника).
3. Оценка параметров сигнала – например, его амплитуды или величины
запаздывания – применяется в телеметрических системах, в радиолокации; при
этом скорость изменения измеряемого параметра сигнала значительно меньше
скорости измерения (значение параметра не изменяется в процессе измерения).
4. Восстановление формы переданного сигнала осуществляется при приеме
аналоговых сигналов (фильтрация), и в отличие от оценки параметров измеряемый
параметр непрерывно меняется в процессе измерения. Таким образом, приемник
представляет собой решающее устройство, которое в соответствии с некоторым
172
правилом Ф(𝑥) (правило решения) определяет значение информационного
параметра (принимает решение о значении выходного сигнала 𝑦(𝑡), используя
входной сигнал 𝑥(𝑡)).
x(t)
РУ
y(t)
Ф(x)
Рисунок 9.2. Сущность восстановления формы сигнала
9.2.
подобия
Критерии приема дискретных сигналов. Отношение правдо-
Выбор критерия оптимальности не является универсальным, он зависит от
поставленной задачи и условий работы системы связи.
Пусть на вход приемника поступает сумма сигнала и помехи
𝑥(𝑡) =
𝑆𝑘 (𝑡) + 𝜉(𝑡), где 𝑆𝑘 (𝑡) – сигнал, которому соответствует кодовый символ 𝑎𝑘 , 𝜉(𝑡) –
аддитивная помеха с известным законом распределения. Сигнал 𝑆𝑘 (𝑡) в месте
приема является случайным с априорным распределением 𝑃(𝑆𝑘 ). На основании
анализа колебания 𝑥(𝑡) приемник воспроизводит сигнал 𝑆𝑖 . При наличии помех это
воспроизведение не может быть совершенно точным. По принятой реализации
сигнала приемник вычисляет апостериорное распределение 𝑃(𝑆𝑖 /𝑥), содержащее
все сведения, которые можно извлечь из принятой реализации сигнала 𝑥(𝑡). Теперь
необходимо установить критерий, по которому приемник будет выдавать на основе
апостериорного распределения 𝑃(𝑆𝑖 /𝑥) решения относительно переданного
сигнала 𝑆𝑘 .
1. При передаче дискретных сообщений широко используется критерий
Котельникова (критерий идеального наблюдателя). Согласно этому критерию
принимается решение, что передан сигнал 𝑆𝑖 , для которого апостериорная
вероятность 𝑃(𝑆𝑖 /𝑥) имеет наибольшее значение, т. е. регистрируется сигнал 𝑆𝑖 ,
если выполняется неравенство:
𝑃(𝑆𝑖 /𝑥) > 𝑃(𝑆𝑗 /𝑥),
то 𝑆𝑖 ,
𝑖 ≠ 𝑗.
(9.1)
При использовании такого критерия полная вероятность ошибочного
решения будет минимальной. Действительно, если по сигналу 𝑥 принимается
решение о том, что был передан сигнал 𝑆𝑖 , то, очевидно, вероятность правильного
решения будет равна 𝑃(𝑆𝑖 /𝑥), а вероятность ошибки – [1 − −𝑃(𝑆𝑖 /𝑥)]. Отсюда
следует, что максимуму апостериорной вероятности 𝑃(𝑆𝑖 /𝑥) соответствует
минимум полной вероятности ошибки 𝑃о :
173
𝑚
𝑃о = ∑ 𝑃(𝑆𝑖 )[1 − 𝑃(𝑆𝑖 /𝑥)],
(9.2)
𝑖=1
где 𝑃(𝑆𝑖 ) – априорные вероятности передаваемых сигналов.
На основании формулы Байеса:
𝑃(𝑆𝑖 /𝑥) =
𝑃(𝑆𝑖 )𝑃(𝑥/𝑆𝑖 )
.
𝑃(𝑥)
(9.3)
Тогда неравенство (9.1) можно записать в другом виде:
𝑃(𝑆𝑖 )𝑃(𝑥/𝑆𝑖 ) > 𝑃(𝑆𝑗 )𝑃(𝑥/𝑆𝑗 ),
то 𝑆𝑖 ,
(9.4)
или
𝑃(𝑥/𝑆𝑖 ) 𝑃(𝑆𝑗 )
>
,
𝑃(𝑥/𝑆𝑗 ) 𝑃(𝑆𝑖 )
то 𝑆𝑖 .
(9.5)
Функцию 𝑃(𝑥/𝑆) часто называют функцией правдоподобия. Чем больше
значение этой функции при данной реализации сигнала 𝑥, тем правдоподобнее, что
передаваемый сигнал – 𝑆. Отношение, входящее в неравенство (9.5)
Λ=
𝑃(𝑥/𝑆𝑖 )
𝑃(𝑥/𝑆𝑗 )
(9.6)
называется отношением правдоподобия. Пользуясь этим понятием, правило
решения (9.5), соответствующее критерию Котельникова, можно записать в виде:
Λ>
𝑃(𝑆𝑗 )
,
𝑃(𝑆𝑖 )
то 𝑆𝑖 .
(9.7)
1
Если передаваемые сигналы равновероятны: 𝑃(𝑆𝑖 ) = 𝑃(𝑆𝑗 ) = ⋯ = , то это
𝑚
правило решения принимает более простой вид:
Λ > 1,
то 𝑆1 .
(9.8)
Таким образом, критерий идеального наблюдателя сводится к сравнению
отношений правдоподобия (9.8). Этот критерий является более общим и
называется критерием максимального правдоподобия.
Рассмотрим бинарную систему, в которой передача сообщений
осуществляется с помощью двух сигналов 𝑆1 и 𝑆2 . Решение принимается по
результату обработки принятого колебания 𝑥(𝑡) пороговым методом:
174
регистрируется 𝑆1 , если 𝑥 < 𝑥0 , и 𝑆2 , если 𝑥 > 𝑥0 , где 𝑥0 – некоторый пороговый
уровень 𝑥. Здесь могут быть ошибки двух видов: воспроизводится 𝑆1 , когда
передавался 𝑆2 , и s2, когда передавался 𝑆1 . Условные вероятности этих ошибок
(вероятности переходов) будут равны:
𝑥0
𝑃12 = 𝑃(𝑆1 /𝑆2 ) = ∫ 𝑊(𝑥/𝑆2 )𝑑𝑥 ,
(9.8)
−∞
∞
𝑃21 = 𝑃(𝑆2 /𝑆1 ) = ∫ 𝑊(𝑥/𝑆1 )𝑑𝑥 .
(9.9)
𝑥0
Значения этих интегралов могут быть вычислены как соответствующие
площади, ограниченные графиком плотностей условного распределения
вероятностей (рис. 9.3).
W(x/S1)
W(x/S2)
Pо
x
x0
Рисунок 9.3. ФПВ гауссовского закона при нулевом и ненулевом мат. ожидании
Вероятности ошибок первого и второго вида соответственно:
𝑃I = 𝑃(𝑆2 )𝑃(𝑆1 /𝑆2 ) = 𝑃2 ∙ 𝑃12 ,
(9.10)
𝑃II = 𝑃(𝑆1 )𝑃(𝑆2 /𝑆1 ) = 𝑃1 ∙ 𝑃21 .
(9.11)
Полная вероятность ошибки при этом
𝑃о = 𝑃I + 𝑃II = 𝑃2 𝑃12 + 𝑃1 𝑃21 .
(9.12)
1
𝑃о = (𝑃12 + 𝑃21 ).
2
(9.13)
Пусть 𝑃1 = 𝑃2 , тогда:
Нетрудно убедиться, что в этом случае минимум 𝑃о имеет место при 𝑃12 =
𝑃21 , т.е. при выборе порога в соответствии с рис. 9.3. Для такого порога 𝑃о = 𝑃10 =
175
𝑃01 . На рис. 9.3 значение 𝑃о определяется заштрихованной площадью. При любом
другом значении порога величина 𝑃о будет больше.
Несмотря на естественность и простоту, критерий Котельникова имеет
недостатки. Первый заключается в том, что для построения решающей схемы, как
это следует из соотношения (9.4), необходимо знать априорные вероятности
передачи различных символов кода. Вторым недостатком этого критерия является
то, что все ошибки считаются одинаково нежелательными (имеют одинаковый
вес). В некоторых случаях такое допущение не является правильным. Например,
при передаче чисел ошибка в первых значащих цифрах более опасна, чем ошибка в
последних цифрах. Пропуск команды или ложная тревога в различных системах
оповещения могут иметь различные последствия.
Следовательно, в общем случае при выборе критерия оптимального приема
необходимо учитывать те потери, которые несет получатель сообщений при
различных видах ошибок. Эти потери можно выразить некоторыми весовыми
коэффициентами, приписываемыми каждому из ошибочных решений. Обозначим
потери ошибочных решений первого и второго видов соответственно 𝐿12 и 𝐿21 .
Тогда можно определить средние ожидаемые потери или средний риск:
𝑟 = 𝐿12 𝑃I + 𝐿21 𝑃II = 𝐿12 𝑃2 𝑃12 + 𝐿21 𝑃1 𝑃21 .
(9.14)
Оптимальной решающей схемой будет такая, которая обеспечивает минимум
среднего риска. Критерий минимального риска относится к классу так называемых
байесовых критериев.
В радиолокации широко используется критерий Неймана-Пирсона. При
выборе этого критерия учитывается, во-первых, что ложная тревога и пропуск цели
не являются равноценными по своим последствиям, и, во-вторых, что неизвестна
априорная вероятность передаваемого сигнала. Если пропуск цели является более
нежелательным, то можно задать некоторую величину 𝛽 допустимой вероятности
ложной тревоги и потребовать, чтобы решающая система максимизировала
вероятность правильного обнаружения 𝑃обн (или, что то же самое, минимизировала
вероятность пропуска 𝑃пр ).
Согласно критерию Неймана-Пирсона приемник является оптимальным в
том случае, если при заданной вероятности ложной тревоги
∞
𝑃лт = ∫ 𝑊(𝑥/0)𝑑𝑥 = 𝛽
(9.15)
−∞
он обеспечивает наибольшую вероятность правильного обнаружения:
𝑥0
𝑃обн = 1 − 𝑃пр = 1 − ∫ 𝑃(𝑥/𝑆)𝑑𝑥 .
−∞
176
(9.16)
Можно показать, что критерий Неймана-Пирсона приводит к следующему
правилу решения: цель считается обнаруженной, если
Λ=
𝑃(𝑥/𝑆)
> 𝜆,
𝑃(𝑥/0)
(9.17)
где 𝑥 – некоторое число, определяемое допустимой вероятностью ложной
тревоги 𝛽.
9.3. Оптимальный приемник полностью известных сигналов. Приемник Котельникова
Рассмотрим систем у передачи информации, в которой передаются два
сигнала 𝑆1 (𝑡) и 𝑆2 (𝑡) одинаковой длительности 𝑇, произвольной (но известной)
формы, априорные вероятности 𝑝(𝑆1 ) и 𝑝(𝑆2 ); помехи в канале флуктуационные,
ФВП которых имеет вид гауссовского закона
𝑤(𝜉) =
1
√2𝜋𝜎𝑛
𝑒
−
𝜉2
2𝜎п2 ,
где 𝜎п2 – дисперсия (мощность) помех.
Задан критерий оптимального приема: идеальный наблюдатель (или
наблюдатель В.А.Котельникова), который минимизирует среднюю вероятность
ошибки
𝑝ош = 𝑝(𝑆1 )𝑝(𝑦2 /𝑆1 ) + 𝑝(𝑆2 )𝑝(𝑦1 /𝑆2 ).
Найдем оптимальное правило решения и структурную схему оптимального
приемника (оптимального РУ) для указанных выше условий передачи сигналов
𝑆1 (𝑡) и 𝑆2 (𝑡).
1. Для решения задачи используем общее для приемников двоичных
сигналов правило решения (9.7). В рассматриваемом случае
𝜆0 = 𝑝(𝑆2 )/𝑝(𝑆1 ),
Если 𝜆(𝑥) > 𝜆0 , то принимается решение в пользу сигнала 𝑆1 , иначе 𝑆2 .
Для упрощения решения положим вначале, что 𝑝(𝑆1 ) = 𝑝(𝑆2 ) = 0,5; тогда
𝜆0 = 1. В этом случае критерий идеального наблюдателя совпадает с критерием
максимального правдоподобия.
2. Для определения функции правдоподобия 𝑤(𝑥/𝑆1 ) и 𝑤(𝑥/𝑆2 ), которые
при произвольной длительности сигналов 𝑇 будут многомерными. Предположим,
что на вход приемника поступает сигнал
177
𝑥(𝑡) = 𝑆1 (𝑡) + 𝜉(𝑡),
0 ≤ 𝑡 ≤ 𝑇,
например, рис. 9.4.
Возьмем 𝑘 отсчетов сигнала 𝑥(𝑡) через одинаковые интервалы ∆𝑡, равные
интервалу корреляции помехи 𝜏𝑛 .
В первом сечении 𝑥(𝑡1 ) = 𝑆1 (𝑡1 ) + 𝜉(𝑡1 );
Во втором случае 𝑥(𝑡2 ) = 𝑆1 (𝑡2 ) + 𝜉(𝑡2 );
…
В k-ом сечении 𝑥(𝑡𝑘 ) = 𝑆1 (𝑡𝑘 ) 𝜉(𝑡𝑘 ).
x(t)
ξ(t)
S1(t)
x(ti)
Δt
0
t1
t2
ti
tk
t
Рисунок 9.4. Сигнал на входе приемника
Рассмотрим отсчетные значения суммы сигнала 𝑆1 (𝑡) и помехи 𝑛(𝑡) в
различных сечениях 𝑡𝑖 . Т.к. расстояние между сечениями равно интервалу
корреляции помехи, эти сечения не коррелированны. А т.к. помеха распределена
по гауссовскому закону, то эти сечения также и независимы.
Плотность вероятности случайной величины 𝑥 в k-ом сечении при известном
сигнале 𝑆1 (𝑡𝑘 ) определяется выражением
𝑤𝑘 (𝑥/𝑆1 ) =
1
𝑘
(2𝜋)2 𝜎𝜉𝑘
exp {−
∑𝑘𝑖=1[𝑥(𝑡𝑖 ) − 𝑆1 (𝑡𝑖 )]2
2𝜎𝜉2
},
а k-мерная плотность вероятности благодаря независимости сечения будет
равна произведению одномерных плотностей вероятностей различных сечений.
𝑥(𝑡𝑘 )
𝑤𝑘 [𝑥(𝑡1 ), 𝑥(𝑡2 ) …
]=
𝑆1
1
𝑘
(2𝜋)2 𝜎𝜉𝑘
exp {−
178
∑𝑘𝑖=1[𝑥(𝑡𝑖 ) − 𝑆1 (𝑡𝑖 )]2
2𝜎𝜉2
}.
(9.18)
Аналогичное выражение можно записать для сигнала 𝑆2 , заменив в
последнем выражении 𝑆1 на 𝑆2 .
Тогда отношение правдоподобия
𝜆(𝑥) =
𝑤(𝑥/𝑆1 )
,
𝑤(𝑥/𝑆1 )
и, согласно правилу решения (9.8), если вычисленное значение 𝜆(𝑥) > 1 (у
нас 𝜆0 = 1), то приемник должен выдать сигнал 𝑆1 , в противоположном случае –
сигнал 𝑆2 . Отсюда получаем оптимальное правило решения в виде неравенства
exp {−
∑𝑘𝑖=1[𝑥(𝑡𝑖 ) − 𝑆1 (𝑡𝑖 )]2
2𝜎𝜉2
} > exp {−
∑𝑘𝑖=1[𝑥(𝑡𝑖 ) − 𝑆2 (𝑡𝑖 )]2
2𝜎𝜉2
},
то S1 .
Прологарифмируем это выражение:
𝑘
𝑘
− ∑[𝑥(𝑡𝑖 ) − 𝑆1 (𝑡𝑖 )]2 + ∑[𝑥(𝑡𝑖 ) − 𝑆2 (𝑡𝑖 )]2 > 0,
𝑖=1
то 𝑆1 ,
𝑖=1
или в другом виде
𝑘
𝑘
2
∑[𝑥(𝑡𝑖 ) − 𝑆1 (𝑡𝑖 )] < ∑[𝑥(𝑡𝑖 ) − 𝑆2 (𝑡𝑖 )]2 ,
𝑖=1
то 𝑆1 .
(9.19)
𝑖=1
Таким образом, оптимальный приемник (идеальный приемник Котельникова) работает следующим образом: определяется среднеквадратическое
отклонение поступившего на его вход сигнала 𝑥(𝑡) от обоих ожидаемых сигна-лов
и выносится решение пользу того сигнала, где это среднеквадратическое
отклонение меньше.
Если при вычислении условных вероятностей расстояние между сечениями
∆𝑡 устремить к нулю, т.е. сделать ∆𝑡 меньше интервала корреляции помехи, работа
приемника не улучшиться, т.к. соседние сечения будут сильно коррелированы, но
и не ухудшится. Поэтому в правиле решения (9.19) можно заменить суммирование
интегрированием.
В интегральной форме получим
𝑇
𝑇
1
1
∫[𝑥(𝑡𝑖 ) − 𝑆1 (𝑡𝑖 )]2 𝑑𝑡 < ∫[𝑥(𝑡𝑖 ) − 𝑆2 (𝑡𝑖 )]2 𝑑𝑡,
𝑇
𝑇
0
то 𝑆1 .
0
или более компактно (черта означает усреднение по времени)
179
(9.20)
[𝑥(𝑡) − 𝑆1 (𝑡)]2 < [𝑥(𝑡) − 𝑆2 (𝑡)]2 ,
то 𝑆1 .
(9.21)
В соответствии с полученным правилом решения структурная схема
приемника будет иметь вид, приведенный на рис. 9.5. Схема содержит два
генератора опорных сигналов: 𝑆1 (𝑡) и 𝑆2 (𝑡), которые генерируют точно такие же
сигналы, которые могут поступить на вход приемника, а также два вычитающих
устройства, два квадратора, два интегратора и схему сравнения, которая, в
соответствии с неравенством (9.21), выдает сигналы 𝑆1 и 𝑆2 .
При этом следует подчеркнуть, что приемник Котельникова, как и многие
другие приемники дискретных сигналов, выдает на выходе сигналы (решения),
форма которых обычно отличается от формы сигналов в линии связи 𝑆1 (𝑡) и 𝑆2 (𝑡).
Например, в линии связи эти сигналы могут представлять собой импульсы
дискретной частотной модуляции, а на выходе приемника получаем импульсы
постоянного тока прямоугольной формы.
Если вероятности передачи сигналов 𝑆1 (𝑡) и 𝑆2 (𝑡) не одинаковы, т.е. 𝑝(𝑆1 ) ≠
𝑝(𝑆2 ), то неравенство (9.21) принимает несколько другой вид
[𝑥(𝑡) − 𝑆1 (𝑡)]2 − 2𝜎𝜉2 ln 𝑝(𝑆1 ) < [𝑥(𝑡) − 𝑆2 (𝑡)]2 − 2𝜎𝜉2 ln 𝑝(𝑆2 ), то 𝑆1 ,
(9.22)
а в структурной схеме перед схемой сравнения добавляются выравнивающие
устройства – В (показаны пунктиром).
Может показаться, что приведенная на рисунке схема приемника достаточно
проста. Однако применяющиеся в схеме местные генераторы 𝑆1 (𝑡) и 𝑆2 (𝑡) должны
выдавать сигналы, по форме идентичные передаваемым сигналам, ожидаемым на
входе приемника; поэтому эти генераторы должны синхронизироваться
приходящими сигналами, а это сделать довольно трудно.
180
–2σn2 ln p(S1)
Кв
1
T
В
S1
S1(t)
x(t)
Схема
сравнения
S2(t)
S2
Кв
1
T
В
–2σn2 ln p(S2)
Рисунок 9.5. Структурная схема оптимального приемника Котельникова
Частные случаи приемника Котельникова
1. Оптимальный приемник Котельникова для сигналов с пассивной паузой.
𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡,
0 ≤ 𝑡 ≤ 𝑇.
{
𝑆2 (𝑡) = 0,
Если
[𝑥(𝑡) − 𝑆1 (𝑡)]2 < [𝑥(𝑡) − 𝑆2 (𝑡)]2 ,
то 𝑆1 ,
[𝑥(𝑡) − 𝑆1 (𝑡)]2 < 𝑥 2 (𝑡),
то 𝑆1 ,
т.к. 𝑆2 (𝑡) = 0.
Или, раскрывая квадратную
преобразования, можно получить:
скобку
и
𝑥(𝑡)𝑆1 (𝑡) > 1/2𝑆12 (𝑡),
в интегральной форме:
181
или
выполняя
элементарные
𝑇
𝑇
1
1 𝑆12 (𝑡)
∫ 𝑥(𝑡)𝑆1 (𝑡)𝑑𝑡 > ∫
𝑑𝑡,
𝑇
𝑇
2
0
то 𝑆1 ,
или
0
𝐵𝑥𝑠 (0) >
𝑃𝑠
,
2
то 𝑆1 ,
где 𝑃𝑠 – мощность сигнала.
S1
x(t)
1
T
РУ
S2
Ps/2
S1(t)
Рисунок 9.6. Структурная схема приемника ДАМ
Для реализации идеального приемника Котельникова нужно на приеме знать
мощность сигнала. Если 𝑃𝑠 меняется, то такой приемник не реализуется.
2. Оптимальный приемник Котельникова для сигналов с активной паузой
(дискретная частотная и фазовая модуляции).
ДЧМ:
𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡 ,
0 ≤ 𝑡 ≤ 𝑇.
{
𝑆2 (𝑡) = 𝐴 cos 𝜔1 𝑡 ,
ДФМ:
𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡,
0 ≤ 𝑡 ≤ 𝑇.
{
𝑆2 (𝑡) = −𝐴 cos 𝜔0 𝑡 ,
Тогда, если [𝑥(𝑡) − 𝑆1 (𝑡)]2 < [𝑥(𝑡) − 𝑆2 (𝑡)]2 , то 𝑆1 .
Раскрывая квадратные скобки и выполняя элементарные преобразования с
учетом 𝑆12 (𝑡) = 𝑆22 (𝑡) = 𝑃𝑠 , окончательно получим:
𝑥(𝑡)𝑆1 (𝑡) > 𝑥(𝑡)𝑆2 (𝑡),
или в интегральной форме
182
то 𝑆1 ,
𝑇
𝑇
∫ 𝑥(𝑡)𝑆1 (𝑡)𝑑𝑡 > ∫ 𝑥(𝑡)𝑆2 (𝑡)𝑑𝑡 ,
0
то 𝑆1 .
0
Интегралы представляют собой функции корреляции входного сигнала с
одним из опорных, тогда можно записать:
Если 𝐵𝑥𝑠1 (0) > 𝐵𝑥𝑠2 (0), то 𝑆1 .
Если фаза опорного генератора 𝑆1 (𝑡) совпадает с фазой приходящего сигнала
𝑥1 (𝑡), получим когерентный корреляционный приемник.
S1(t)
1
T
x(t)
S1
РУ
1
T
S2
S2(t)
Рисунок 9.7. Структурная схема корреляционного приемника для ДФМ
Для ДФМ схема может быть упрощена (сигналы отличаются знаком
амплитуды).
𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡,
0 ≤ 𝑡 ≤ 𝑇.
{
𝑆1 (𝑡) = −𝐴 cos 𝜔0 𝑡 ,
Синхронный
детектор
x(t)
1
T
S1
РУ
S2
ФАП
Pп
S2(t)
Рисунок 9.8. Структурная схема приемника ДФМ
183
9.4. Вероятность ошибки в приемнике Котельникова (общий случай и
частные случаи)
Определим вероятность ошибки в системе передачи двоичных сигналов при
приеме на оптимальный приемник. Эта вероятность, очевидно, будет минимально
возможной и будет характеризовать потенциальную помехоустойчивость при
данном способе передачи.
[𝑥(𝑡) − 𝑆1 (𝑡)]2 < [𝑥(𝑡) − 𝑆2 (𝑡)]2 ,
𝑥1 (𝑡) = 𝑆1 (𝑡) + 𝜉(𝑡),
то 𝑆1 .
(9.23)
𝑥2 (𝑡) = 𝑆2 (𝑡) + 𝜉(𝑡).
Ошибка произойдет, если при передаче 𝑆1 неравенство превращается в
противоположное. Приемник принимает 𝑆2 при передаче 𝑆1 .
𝑃ош 𝑠1 = 𝑃(𝑥2 /𝑆1 ) = 𝑃{[𝑥(𝑡) − 𝑆1 (𝑡)]2 > [𝑥(𝑡) − 𝑆2 (𝑡)]2 },
получили 𝑆2 при передаче 𝑆1 . Подставляя в (9.24)
получим:
(9.24)
𝑥(𝑡) = 𝑆1 (𝑡) + 𝜉(𝑡),
𝑃(𝑥2 /𝑆1 ) = 𝑃{[𝜉(𝑡)]2 > [𝜉(𝑡) + 𝑆1 (𝑡) − 𝑆2 (𝑡)]2 },
𝑃(𝑥2 /𝑆1 ) = 𝑃{𝜉 2 (𝑡) > 𝜉 2 (𝑡) + 2𝜉(𝑡)[𝑆1 (𝑡) − 𝑆2 (𝑡)] + [𝑆1 (𝑡) − 𝑆2 (𝑡)]2 },
𝑇
или
𝑇
2
1
𝑃(𝑥2 /𝑆1 ) = 𝑃 {0 > ∫ 𝜉(𝑡) [𝑆1 (𝑡) − 𝑆2 (𝑡)]𝑑𝑡 + ∫[𝑆1 (𝑡) − 𝑆2 (𝑡)]2 𝑑𝑡}.
𝑇
𝑇
0
0
Введя некоторые обозначения, можно получить:
1
𝑃(𝑥2 /𝑆1 ) = 𝑃 {0 > 𝜇(𝑡) + 𝐸э } ,
2
1
𝑃(𝑥2 /𝑆1 ) = 𝑃 {𝜇 (𝑡) < − 𝐸э }, (9.25)
2
где 𝐸э – эквивалентная энергия разности сигналов (𝑆1 (𝑡) − 𝑆2 (𝑡)),
𝜉(𝑡) – аддитивная помеха.
𝑇
𝐸э = ∫[𝑆1 (𝑡) − 𝑆2 (𝑡)]2 𝑑𝑡 ,
(9.26)
0
𝑇
𝜇(𝑡) = ∫ 𝜉(𝑡) [𝑆1 (𝑡) − 𝑆2 (𝑡)]𝑑𝑡,
0
𝜇(𝑡) – случайная величина, т.к. зависит от 𝜉(𝑡).
184
(9.27)
Средняя вероятность ошибки определяется следующим выражением:
𝑃ош = 𝑃(𝑆1 )𝑃(𝑥2 /𝑆1 ) + 𝑃(𝑆2 )𝑃(𝑥1 /𝑆2 ),
если канал симметричный, т.е.:
𝑃(𝑥2 /𝑆1 ) = 𝑃(𝑥1 /𝑆2 ),
тогда:
𝑃ош = [𝑃(𝑆1 ) + 𝑃(𝑆2 )]𝑃(𝑥2 /𝑆1 ),
[𝑃(𝑆1 ) + 𝑃(𝑆2 )] = 1 – сумма вероятностей для полной группы событий.
Тогда:
𝑃ош = 𝑃(𝑥2 /𝑆1 ).
(9.28)
Пусть 𝜉(𝑡) распределена по нормальному закону. Тогда и 𝜇(𝑡) распределена
по нормальному закону, т.к. линейное преобразование нормального процесса дает
нормальный процесс.
𝑊(𝜇) =
1
√2𝜋𝜎𝜇
𝑒
−
𝜇2
2𝜎𝜇2
,
математическое ожидание 𝜇 равно 0.
𝑁 𝐸
Можно показать, что 𝜎𝜇2 = 0 э, где 𝑁0 – спектральная плотность.
2
1
𝑃(𝑥2 /𝑆1 ) = 𝑃 {𝜇(𝑡) < − 𝐸э },
2
(9.29)
−𝐸э ⁄2
𝑃ош = ∫ 𝑊(𝜇)𝑑𝜇,
−∞
𝑃ош =
1
√2𝜋𝜎𝜇
−𝐸э ⁄2
∫ 𝑒
−
𝜇2
2𝜎𝜇2
−∞
1
𝐸э
𝑑𝜇 = [1 − Ф (
)],
2
2𝜎𝜇
где Ф(𝑧) – интеграл вероятностей (табулированная функция):
Ф(𝑧) =
1
√2𝜋
𝑧
∫𝑒
−𝑧
185
−
𝑡2
2 𝑑𝑡 .
(9.30)
Раскрывая аргумент интеграла вероятности:
𝐸э
=
2𝜎𝜇
𝐸э
𝐸э
=√
,
2𝑁
0
𝑁𝐸
2√ 0 э
2
(9.31)
окончательно получаем
1
𝐸э
𝑃ош = [1 − Ф (√
)].
2
2𝑁0
(9.32)
Формула (9.32) является достаточно общей. Для конкретных видов
модуляции в канале связи эту формулу видоизменяют, для чего вычисляют
соответствующее значение 𝐸э . При этом для различных видов модуляции 𝐸э
определяется через энергию одного из сигналов, а в окончательную формулу
вводят величину
ℎ02 =
𝐸э
.
𝑁0
(9.33)
Следовательно, в приемнике Котельникова, который также называется
когерентным (в приемнике известна фаза принимаемого сигнала), вероятность
ошибки зависит не от отношения мощности сигнала к мощности помехи, а от
отношения энергии сигнала к спектральной плотности помехи. Это позволяет, не
меняя мощности сигнала, увеличить его энергию за счет увеличения его
длительности, что дает дополнительные возможности в построениии
помехоустойчивых систем связи. Иначе говоря, в идеальном приемнике
Котельникова 𝑃ош зависит от 𝐸э и 𝑁0 (спектральная плотность помехи) и не зависит
от полосы пропускания приемника.
9.5.
Частные случаи
1. Дискретная амплитудная модуляция (ДАМ).
𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡 ,
{
𝑆2 (𝑡) = 0,
𝑇
𝐸э =
∫ 𝑆12 (𝑡)𝑑𝑡
0
𝐴2
= 𝐸1 =
𝑇,
2
186
0 ≤ 𝑡 ≤ 𝑇,
√
𝐸э
𝐸1
ℎ0
=√
= .
2𝑁0
2𝑁0 √2
Подставляя это значение в (9.24), получим:
1
ℎ0
𝑃ош АМ = [1 − Ф ( )].
2
√2
(9.34)
2. Дискретная частотная модуляция (ДЧМ).
𝑆1 (𝑡) = 𝐴 cos 𝜔1 𝑡 ,
0 ≤ 𝑡 ≤ 𝑇.
{
𝑆2 (𝑡) = 𝐴 cos 𝜔2 𝑡 ,
𝑇
𝑇
𝑇
𝑇
𝐸э = ∫[𝑆1 (𝑡) − 𝑆2 (𝑡)]2 𝑑𝑡 = ∫ 𝑆12 (𝑡)𝑑𝑡 − 2 ∫ 𝑆1 (𝑡)𝑆2 (𝑡)𝑑𝑡 + ∫ 𝑆22 (𝑡)𝑑𝑡 =
0
0
0
0
= 𝐸1 − 2𝑇𝐵𝑆1𝑆2 (0) + 𝐸2 .
При
частотной
дискретной
модуляции
сигналы
являются
взаимоортогональными, поэтому их функция взаимной корреляции равна нулю.
Кроме того, благодаря равной амплитуде сигналов 𝑆1 (𝑡) и 𝑆2 (𝑡) 𝐸1 = 𝐸2 . В
результате 𝐸э = 2𝐸1 , а
𝐸э
𝐸1
√
= √ = ℎ0 .
2𝑁0
𝑁0
Подставляя эту величину в (9.24), получим:
1
𝑃ош ДЧМ КГ = [1 − Ф(ℎ0 )].
2
(9.35)
3. Дискретная фазовая модуляция (ДФМ).
𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡,
0 ≤ 𝑡 ≤ 𝑇,
{
𝑆1 (𝑡) = −𝐴 cos 𝜔0 𝑡 ,
𝑇
𝐸э = ∫[2𝑆1 (𝑡)]2 𝑑𝑡 = 4𝐸1 ,
0
𝐸э
2𝐸1
√
=√
= √2ℎ0 .
2𝑁0
𝑁0
Подставляя эту величину в (9.24), получим:
1
𝑃ош ДФМ КГ = [1 − Ф(√2ℎ0 )].
2
187
(9.36)
Сравнивая между собой формулы (9.34), (9.35), (9.36), видим, что для
достижения заданной вероятности ошибки при ДЧМ требуется величина 𝑈0 в √2
раз больше, чем при ДФМ, а при ДАМ в 2 раза больше, чем при ДФМ. Отсюда
видно, что переход от ДАМ к ДЧМ дает двухкратный выигрыш по мощности, а к
ДФМ – четырехкратный выигрыш. Причину этого можно наглядно установить,
рассматривая векторные диаграммы сигналов для разных видов модуляции.
S1
ДАМ
S1 = d
ДЧМ
ДФМ
S1
2S1 = d
0,707S1 = d
S2
S2
S2
Рисунок 9.9. Векторные диаграммы сигналов дискретной модуляции
Из рисунка видно, что при ДАМ расстояние между векторами сигналов 𝑆1 (𝑡)
и 𝑆2 (𝑡) равно длине вектора 𝑆1 (𝑡), при ДЧМ (взаимоортогональные сигналы) это
расстояние равно √2, а при ДФМ (противооложные сигналы) это расстояние равно
2𝑆1 (𝑡). Энергия же пропорциональна квадрату разности сигналов.
Следует заметить, что приведенные здесь данные об энергетике сигналов
ДАМ, ДЧМ и ДФМ относились к максимальным (пиковым) мощностям этих
сигналов. В этом смысле, например, при переходе от ДЧМ к ДАМ мы имеем
двухкратный выигрыш в пиковой мощности.
Однако, сигналы ДАМ имеют пассивную паузу (мощность сигнала в паузе
равна нулю), поэтому по потребляемой передатчиком мощности, кроме
отмеченного ранее проигрыша, имеется еще и двухкратный выигрыш. С учетом
этого обстоятельства при переходе от ДЧМ к ДАМ двухкратный проигрыш по
пиковой мощности компенсируется двухкратным выигрышем за счет пассивной
паузы сигналов ДАМ., в результате чего по потребляемой мощности эти сигналы
оказываются равноценными. Однако, следует помнить, что при ДАМ в приемнике
Котельникова трудно установить необходимый порог в сравнивающем
(решающем) устройстве, а в приемнике ДЧМ регулировка порога не требуется.
Поэтому частотная модуляция применяется чаще, чем амплитудная.
Отметим еще раз, что приемник Котельникова обеспечивает наилучшую
(потенциальную) помехоустойчивость. Это достигается благодаря тому, что при
приеме учитываются все параметры сигнала, не несущие информации: амплитуда,
частота, фаза несущего колебания, а также длительность сигнала 𝑇, т.к.
интегрирование (фильтрация) осуществляется в течении этого времени. Решение о
принятом сигнале обычно осуществляется в конце каждого интервала 𝑇, для чего в
приемнике должна иметься специальная система синхронизации элементов
сигнала.
188
Когерентный прием
1
2
0
3
4
5
6
7
h
0,5
10–1
10–2
10–3
10–4
10–5
ДФМ
ДАМ
ДЧМ
Pош
Рисунок 9.10. Кривые помехоустойчивости дискретной модуляции
9.6.
Оптимальная фильтрация дискретных сигналов
Оптимальный приемник является корреляционным; сигнал на его выходе
представляет собой функцию корреляции принимаемого сигнала 𝑥(𝑡) и
ожидаемого 𝑆𝑖 (𝑡), благодаря чему обеспечивается максимально возможное
отношение сигнал/шум ℎ02 .
x(t) = S(t) + ξ(T)
k(iω)
g(t)
y(t)
Рисунок 9.11. Сущность оптимальной фильтрации
Поскольку опрерация определения функции корреляции является линейной,
ее можно реализовать в некотором линейном фильтре, характеристики которого
(комплексная передаточная характеристика 𝑘(𝑖𝜔) и импульсная характкристика
𝑔(𝑡)) являются такими, что отношение сигнал/шум на его выходе получается
максимальным, причем
2
ℎmax
= ℎ02 .
Найдем характеристики фильтра, когда помеха
флуктуационной со спектральной плотностю 𝐺(𝜔) = 𝑁0 , 𝜔 ≥ 0.
189
𝜉(𝑡)
является
Пусть сигнал на входе фильтра имеет комплексный спектр 𝑆𝑥 (𝑖𝜔). Тогда
сигнал на выходе фильтра 𝑦(𝑡) можно определить с помощью преобразования
Фурье
∞
1
𝑦(𝑡) =
∫ 𝑘(𝑖𝜔)𝑆𝑥 (𝑖𝜔) 𝑒 𝑖𝜔𝑡 𝑑𝜔,
2𝜋
−∞
где 𝑘(𝑖𝜔)𝑆𝑥 (𝑖𝜔) = 𝑆𝑦 (𝑖𝜔).
Нас интересует значение 𝑦(𝑡) в момент принятия решения (момент отссчета
𝑡0 ), поэтому, заменив 𝑡 на 𝑡0 , получим:
∞
1
𝑦(𝑡0 ) =
∫ 𝑘(𝑖𝜔)𝑆𝑥 (𝑖𝜔) 𝑒 𝑖𝜔𝑡0 𝑑𝜔.
2𝜋
(9.37)
−∞
Чтобы получить максимальную величину 𝑦(𝑡0 ), нужно найти оптимальную
характеристику фильтра 𝑘(𝑖𝜔). Для этой цели можно воспользоваться известным
неравенством Шварца-Буняковского, имеющим вид:
∞
2
∞
∞
[ ∫ 𝑓1 (𝑖𝜔)𝑓2 (𝑖𝜔)𝑑𝜔] ≤ ∫ 𝑓12 (𝑖𝜔)𝑑𝜔 ∫ 𝑓22 (𝑖𝜔)𝑑𝜔.
−∞
−∞
−∞
Легко проверить, что данное неравенство превращается в равенство при
условии, что
𝑓1 (𝑖𝜔)𝑓2 (𝑖𝜔) = 𝑎𝑓12 (𝑖𝜔) =
1 2
𝑓 (𝑖𝜔),
𝑎 2
где 𝑎 – любая произвольная постоянная. В нашем случае, применительно к
формуле (9.29), величина 𝑦(𝑡0 ) будем максимальной при условии
𝑘(𝑖𝜔)𝑆𝑥 (𝑖𝜔)𝑒 𝑖𝜔𝑡0 = 𝑎𝑆 2 (𝜔) =
1
𝑘 (𝜔)
𝑎 опт
(9.38)
(это условие оптимальности характеристики 𝑘(𝑖𝜔), поэтому здесь и в
дальнейшем 𝑘(𝑖𝜔) заменено на 𝐾опт (𝑖𝜔)).
Подставляя в левую часть формулы (9.30)
𝑆(𝑖𝜔) = 𝑆(𝜔)𝑒 𝑖𝜑𝑠(𝜔) ,
(9.39)
𝑘(𝑖𝜔) = 𝑆(𝜔)𝑒 𝑖𝜑𝑘(𝜔) ,
(9.40)
получаем:
190
𝑘опт (𝜔)𝑆𝑥 (𝜔)𝑒 𝑖[𝜑𝑘(𝜔)+𝜑𝑠(𝜔)+𝜔0 𝑡] = 𝑎𝑆𝑥2 (𝜔),
или, сокращая на 𝑆𝑥 (𝜔):
𝑘опт (𝜔) = 𝑎𝑆𝑥 (𝜔).
(9.41)
Последнюю формулу можно представить в виде двух составляющих,
позволяющих найти амплитудно-частотную характеристику (АЧХ) оптимального
(или согласованного) фильтра 𝑘опт (𝜔) и фазо-частотную характеристику 𝜑𝑘 (𝜔):
𝑘опт (𝜔) = 𝑎𝑆𝑥 (𝜔),
(9.42)
𝜑𝑘 (𝜔) + 𝜑𝑠 (𝜔) + 𝜔0 𝑡 = 0,
(9.43)
𝜑𝑘 (𝜔) = −[𝜑𝑠 (𝜔) + 𝜔0 𝑡],
(9.44)
откуда:
здесь 𝜑𝑠 (𝜔) – фазо-частотный спектр входного сигнала,
𝜔0 𝑡 – запаздывающий множитель, учитывающий то, что «отсчет» величины
сигнала на выходе фильтра производится в момент 𝑡0 , когда возникает максимум
выходного сигнала фильтра.
Условие (9.41) имеет простой смысл: фильтр должен лучше пропускать
составляющие спектра сигнала, имеющие большую амплитуду, и в меньшей
степени пропускать составляющие сигнала, имеющие меньшую амплитуду.
Условие (9.42) также имеет простой смысл: в момент отсчета 𝑡0 все
составляющие спектра выходного сигнала имеют нулевую фазу, благодаря чему
выходное напряжение в момент 𝑡0 имеет наибольшее отношение мощности
сигнала к мощности помехи.
Условия (9.43) и (9.44) можно объединить в одно, представив передаточную
характеристику в комплексной форме:
𝑘опт (𝑖𝜔) = 𝑎𝑆𝑥 (𝜔)𝑒 −𝑖[𝜑𝑠 (𝜔)+𝜔0𝑡] .
(9.45)
Можно, наконец, последнюю формулу представить в следующем виде:
𝑘опт (𝑖𝜔) = 𝑎𝑆𝑥 (−𝑖𝜔)𝑒 −𝑖𝜔0 𝑡 = 𝑎𝑆𝑥∗ (𝑖𝜔)𝑒 −𝑖𝜔0 𝑡 .
(9.46)
Здесь 𝑆𝑥∗ (𝑖𝜔) – колмплексно-сопряженный спектр по отношению к 𝑆𝑥 (−𝑖𝜔).
Отношение сигнал/помеха определяется, как обычно, формулой
𝑦 2 (𝑡0 ) 𝑃𝑠
2 (𝑡 )
(9.47),
ℎ0 0 =
= ,
𝑃п
𝑃п
191
где 𝑃𝑠 = 𝑦 2 (𝑡0 ) – мощность сигнала на выходе фильтра в момент 𝑡0 ,
∞
𝑃п = 𝜎п2 = 𝑁0 ∆𝑓эфф
1
2 (𝜔)
= 𝑁0
∫ 𝑘опт
𝑑𝜔,
2𝜋
(9.48),
−∞
где 𝑃п – мощность (дисперсия) помехи на выходе фильтра,
∆𝑓эфф – эффективная полоса пропускания оптимального фильтра.
Подставляя в (9.47) выражение (9.37) и (9.48) с учетом (9.38), получим
ℎ02 (𝑡0 ) =
𝑃𝑠
𝐸
=
= ℎ02 ,
𝑃п 𝑁0
(9.49)
где
∞
1
𝐸=
∫ 𝑆𝑥2 (𝜔)𝑑𝜔,
2𝜋
−∞
𝐸 – энергия сигнала 𝑆(𝑡) на выходе фильтра.
Из (9.49) видно, что отношение сигнал/помеха численно равно отношению
сигнала к спектральной плотности помехи (как в приемнике Котельникова) и не
зависит от формы сигнала. А т.к. энергия сигнала равна произведению мощности
сигнала на его длительность, то для повышения помехоустойчивости систем связи
с использованием согласованных фильтров (СФ) можно увеличивать длительность
элементарных сигналов, что и делается в широкополосных системах связи.
При применении в демодуляторе приемника согласованных фильтров в
сочетании с когерентным способом приема можно достичь потенциальной
помехоустойчивости.
Импульсная характеристика оптимального фильтра (отклик фильтра на
дельта-функцию) определяется известным выражением
∞
1
𝑔(𝑡) =
∫ 𝑘опт (𝜔) 𝑒 𝑖𝜔𝑡 𝑑𝜔.
2𝜋
−∞
Подставив сюда значение 𝑘опт (𝑖𝜔) = 𝑎𝑆𝑥 (−𝑖𝜔)𝑒 −𝑖𝜔0𝑡 из (9.46), получим:
∞
𝑎
𝑔опт (𝑡) =
∫ 𝑆𝑥 (−𝑖𝜔)𝑒 −𝑖𝜔0 𝑡 𝑒 𝑖𝜔𝑡 𝑑𝜔.
2𝜋
−∞
Интегрирование в последней формуле производится по всем частотам от −∞
до +∞, поэтому знак перед 𝜔 в этой формуле можно изменить на
192
противоположный, что не приведет к изменению результата вычисления интеграла.
В результате получим:
∞
𝑎
𝑔опт (𝑡) =
∫ 𝑆𝑥 (𝑖𝜔)𝑒 𝑖𝜔[𝑡0−𝑡] 𝑑𝜔 .
2𝜋
(9.50)
−∞
А т.к. на основании преобразования Фурье
∞
1
∫ 𝑆𝑥 (𝑖𝜔)𝑒 𝑖𝜔𝑡 𝑑𝜔 = 𝑆(𝑡),
2𝜋
(9.51),
−∞
то, сравнивая (9.42) и (9.43), получаем
𝑔опт (𝑡) = 𝑎𝑆(𝑡0 − 𝑡).
(9.52).
Таким образом, функция 𝑔(𝑡) отличается от 𝑆(𝑡) только постоянным
множителем 𝑎, смещением на величину 𝑡0 и знаком аргумента 𝑡 (т.е. функция 𝑔(𝑡)
является зеркальным отображением 𝑆(𝑡), сдвинутым на величину 𝑡0 )
На рис. 9.12 в качестве примера приведен некоторый сигнал 𝑆(𝑡), зеркально
перевернутый сигнал 𝑆(−𝑡) и функция 𝑔(𝑡) = 𝑎𝑆(𝑡0 − 𝑡).
S(t)
S(t0 – t)
S(– t)
0
T
t
–T
0
t
0
t0 = T t
Рисунок 9.12. Пример получения 𝑔(𝑡) СФ
Как уже говорилось, величину 𝑡0 обычно берут равной длительности сигнала
𝑇. При поступлении на вход системы сигнала 𝑥(𝑡) определяется известным
интегралом Дюамеля
𝑡
𝑦(𝑡) = ∫ 𝑥(𝑡 − 𝜏)𝑔(𝜏)𝑑𝜏 .
(9.53)
0
Пусть на вход оптимального фильтра поступает аддитивная смесь,
содержащая сигнал 𝑆(𝑡), с которым фильтр согласован, и помеха 𝜉(𝑡) (это может
быть флуктуационная помеха или какой-нибудь детерминированный сигнал, с
которым фильтр не согласован): 𝑥(𝑡) = 𝑆(𝑡) + 𝜉(𝑡).
193
Подставляя 𝑥(𝑡) и учитывая (9.44), получаем:
𝑡
𝑦(𝑡) = ∫[𝑆(𝑡 − 𝜏) + 𝜉(𝑡 − 𝜏)]𝑎𝑆(𝑡0 − 𝜏)𝑑𝜏 ,
(9.54)
0
заменяя 𝑡0 на 𝑇, получим:
𝑡
𝑡
1
1
𝑦(𝑡) = 𝑎𝑇 { ∫ 𝑆(𝑡 − 𝜏) ∙ 𝑆(𝑇 − 𝜏)𝑑𝜏} + 𝑎𝑇 { ∫ 𝜉(𝑡 − 𝜏) ∙ 𝑆(𝑇 − 𝜏)𝑑𝜏} =
𝑇
𝑇
0
0
= 𝑎𝑇[𝐵𝑠 (𝑡 − 𝜏) + 𝐵𝑠𝜉 (𝑡 − 𝜏)].
(9.55).
Таким образом, на выходе согласованного фильтра получаем под действием
сигнала функцию корреляции сигнала, а под действием помехи – функцию
взаимной корреляции сигнла и помехи. Если на входе фильтра только помеха (без
сигнала), на выходе получаем только функцию взаимной корреляции помехи и
сигнала, с которой фильтр согласован.
В формуле (9.55) 𝑎 – любой произвольный множитель, поэтому
произведение 𝑎𝑇 можно заменить на произвольный множитель 𝑏. В момент
времени 𝑡0 = 𝑇 (момент отсчета) формула (9.55) дает
𝑦(𝑇) = 𝑏𝐵𝑠 (0) + 𝐵𝑠𝜉 (0).
(9.56)
Примечание: если на вход согласованного фильтра поступает
флуктуационная помеха, то теоретически функция взаимной корреляции должна
быть равна нулю, т.к. сигнал и помеха являются независимыми функциями
времени. Однако на практике это не так, т.к. при вычислении функции корреляции
требуется бесконечно большое время интегрирования. В нашем же случае
интегрирование ведется за время, равное 𝑇, поэтому значение является
приближенным. Результаты фильтрации не зависят от формы сигнала,
следовательно, фильтр может быть применен и без детектора. Тогда оптимальный
приемник полностью известных сигналов может быть реализован в виде двух
согласованных фильтров СФ1 и СФ2 и устройства сопротивления.
СФ1
S1
x(t)
РУ
СФ2
S2
Рисунок 9.13. Оптимальный приемник на СФ
194
9.7.
Примеры согласованных фильтров. Квазиоптимальные фильтры
Рассмотрим согласованный фильтр для прямоугольного фильтра для
прямоугольного импульса длительности 𝑇. Спектральная плотность такого
импульса равна
𝑇
𝑆(𝑗𝜔) = 𝐴 ∫ 𝑒 −𝑗𝜔𝑡 𝑑𝑡 =
0
𝐴
[1 − 𝑒 −𝑗𝜔𝑇 ].
𝑗𝜔
Для согласованного фильтра в случае 𝑡0 = 𝑇:
𝐾опт = 𝑎𝑠 (−𝑗𝜔)𝑒 −𝑗𝜔𝑇 =
𝑎𝐴
𝑏
[1 − 𝑒 +𝑗𝜔𝑇 ]𝑒 −𝑗𝜔𝑇 =
[1 − 𝑒 −𝑗𝜔𝑇 ].
−𝑗𝜔
𝑗𝜔
Пользуясь последним выражением, можно легко построить схему фильтра
для данного случая. Т.к. из теории электрических цепей известно, что деление на
𝑗𝜔 означает интегрирование сигнала, а множитель 𝑒 −𝑗𝜔𝑇 означает задержку
сигнала на время 𝑇, в результате схема фильтра будет содержать интегратор,
линию задержки и вычитатель.
T
x(t)
а
y(t), g(t)
И
b
c
d
Рисунок 9.14. Пример реализации СФ
Таким образом, на выходе фильтра получится треугольный импульс с
основанием 2𝑇 (это – функция корреляции входного импульса прямоуголной
формы). То, что выходной импульс имеет в два раза большую длительность, чем
входной, является недостатком оптимального фильтра, т.к. «хвост» выходного
сигнала на отрезке времени от 𝑇 до 2𝑇 будет накладываться на входной сигнал
следующего импульса. Поэтому на практике часто применяют упрощенную схему
фильтра, содержащую интегрирующую 𝑅𝐶-цепь (𝑅𝐶 ≫ 𝑇) и ключ 𝐾.
195
а
T
0
t
b
0
t
0
t
c
d
T
0
2T
t
Рисунок 9.15. Вид сигналов в различных точках СФ
В момент 𝑇 окончания входного импульса ключ 𝐾 замыкается, конденсатор
интегратора быстро разряжается через ключ, и схема готова к приему следующего
импульса.
x(t)
x(t)
R
y(t)
C
K
0
T
t
y(t)
0
t
Рисунок 9.16. Пример кинематического фильтра для видеоимпульса
Оптимальный фильтр для приема радиоимпульсов с прямоугольной
огибающей может быть построен аналогичным образом, однако 𝑅𝐶-цепочка
должна быть заменена колебательным контуром с достаточно высокой
добротностью. Фильтры с ключами называются «кинематическими» фильтрами.
196
x(t)
y(t)
K
x(t)
0
T
t
y(t)
0
t
T
Рисунок 9.17. Пример кинематического фильтра для радиоимпульса
В ряде случаев согласованные фильтры оказываются практически трудно
реализуемыми. Поэтому часто применяются фильтры, которые согласованы с
сигналом только по полосе – квазиоптимальные фильтры.
Квазиоптимальный фильтр обеспечивает при заданной форме амплитудночастотной
характеристики
максимальное
отношение
сигнал/шум.
Квазиоптимальный фильтр согласован с сигналом не по форме, а лишь по ширине
полосы пропускания.
Можно показать, что для прямоугольного радиоимпульса максимальное
отношение сигнал/шум обеспечивается при ширине полосы, равной:
a) ∆𝑓 = 1,37/𝑇 – при использовании идеального полосового фильтра с
прямоугольной АЧХ;
b) ∆𝑓 = 0,65/𝑇 – при использовании одиночного колебательного контура;
c) ∆𝑓 = 0,72/𝑇 – при использовании фильтра с характеристикой вида
гауссовой прямой.
197
Для перечисленных квазиоптимальных фильтров отношение сигнал/шум (по
мощности) уменьшается по сравнению с согласованным фильтром соответственно
на 18%, 19% и 9%. Если квазиоптимальный фильтр дополнить схемой гашения
колебаний в конце посылки, то такой фильтр по своим свойствам будет
приближаться к согласованному.
Приведенные выше значения оптимальной полосы и энергитического
проигрыша справедливы для приема одиночного импульса.
При передаче сообщений на фильтр воздействует последовательность
импульсов илм шумов. В этом случае при узкой полосе пропускания после
окончания элемента сигнала в фильтре существуют остаточные колебания,
которые действуют как дополнительная помеха при приеме следующих элементов
сигнала. Переходные процессы требуют увеличения полосы пропускания
примерно до величины 2/𝑇 (для фильтра с прямоугольной характеристикой), что
приводит к энергетическому проигрышу по сравнению с оптимальным фильтром
примерно в два раза. Кроме того, в реальных условиях частота сигшнала и АЧХ
фильтра не стабильны, что требует дополнительного расширения полосы
пропускания фильтра и приводит к дальнейшему уменьшению отношения
сигнал/шум.
9.8.
Оптимальная фильтрация непрерывных сообщений
При передаче непрерывных сообщений решается задача воспроизведения
формы. Задача оптимальной фильтрации: необходимо так обработать
поступающую на вход смесь сигнала и помехи 𝑥(𝑡) = 𝑆(𝑡) + 𝜉(𝑡), чтобы получить
на выходе применика сообщение 𝑟(𝑡), наименее отличающееся от переданного
𝑈(𝑡) с точки зрения критерия качества.
При рассмотрении критерия качества передачи непрерывных сообщений
было установлено, что мерой качества переданного сообщения может быть
среднеквадратическое отклонение:
𝜀 2 = [𝑟(𝑡) − 𝑈(𝑡)]2 =
𝑇
1
= ∫[𝑟(𝑡) − 𝑈(𝑡)]2 𝑑𝑡.
𝑇
0
Следовательно, критерием оптимального приема непрерывных сообщений
можно считать минимум 𝜀 2 .
Передача
непрерывных
сообщений
может
производиться
как
немодулированными, так и модулированными сигналами. При использовании
немодулированных сигналов, отображающих это сообщение или сигнал, связанных
линейной зависимостью 𝑆(𝑡) = 𝑎𝑈(𝑡), можно считать, что получение сообщения
на выходе приемника является оптимальным. Однако чаще передача сообщений
производится модулированными сигналами, при этом информация о переданном
198
сообщении заложена в изменении одного или нескольких параметров некоторого
сигнала-переносчитка, т.е.:
𝑈(𝑡) → 𝑆[𝑈(𝑡), 𝑡] = 𝑆(𝜆, 𝑡),
где 𝜆 – модулируемый параметр сигнала.
Применительно к двум способам передачи сообщений различают две задачи:
1. Требуется воспроизвести с min{ 𝜀 2 } сигнал 𝑆(𝑡):
𝜀𝑆2 = [𝑥(𝑡) − 𝑆(𝑡)]2 .
2. Требуется воспроизвести с min{ 𝜀 2 } сообщение 𝑈(𝑡), переносимое
сигналом 𝑆(𝜆, 𝑡).
𝜀𝑈2 = [𝑟(𝑡) − 𝑈(𝑡)]2 .
При использовании немодулированных сигналов:
2
𝜀𝑆min
→
определяет
2
𝜀𝑈min
При модулированных сигналах это условие не выполняется.
x(t)
ФВЧ
(УВЧ)
Демодулятор
ФНЧ
(УНЧ)
r(t)
Рисунок 9.18. Структурная схема приема непрерывных сообщений
Операции усиления не являются принципиальными, изменяется лишь
масштаб. Помехоустойчивость приема сообщений определяется в основном
флуктуациями сигналов (ФВЧ) и детектированием.
Особенность и сложность фильтрации непрерывных сообщений в том, что
конкретная форма реализации на приеме неизвестна, а заданы лишь
энергетические спектры сигнала и помехи и вид модуляции.
9.9.
Оптимальная фильтрация непрерывных сигналов
Практически эта задача была решена Котельниковым и Винером в
предположении, что сигналы и помехи – стационарные процессы.
По той же теории линейной оптимальной фильтрации коэффициент передачи
фильтра 𝐾(𝜔), минимизирующий 𝜀 2 , определяется:
199
𝐺𝑆 (𝜔)
𝐾опт (𝜔) =
=
𝐺𝑆 (𝜔) + 𝐺𝜉 (𝜔)
∞
1
,
𝐺𝜉 (𝜔)
1+
𝐺𝑆 (𝜔)
2
𝜀min
𝐺𝑆 (𝜔) ⋅ 𝐺𝜉 (𝜔)
1
= ∫
.
𝜋 𝐺𝑆 (𝜔) + 𝐺𝜉 (𝜔)
0
1. Ошибка может быть = 0 при условии, что 𝐺𝑆 (𝜔) ∙ 𝐺𝜉 (𝜔) = 0, т.е. спектры
сигнала и помехи не перекрываются, при этом 𝐾опт (𝜔) = 1 в пределах 𝐺𝑆 (𝜔), т.е.
АЧХ – прямоугольная.
G(ω)
Kопт(ω)
1
GS(ω)
Gξ(ω)
ω
0
G(ω)
Kопт(ω)
1
0,5
GS(ω)
0
Gξ(ω)
ω
область перекрытия спектров
Рисунок 9.19. Сигнал по спектру чист от помех. Помеха полностью
отфильтровывается
При перекрытии спектра 𝐾опт (𝜔) должен быть таким, что различные
частотные состаявляющие сигнала пропускаются с тем большим ослаблением, чем
𝐺 (𝜔)
меньше отношение 𝑆(𝜔).
𝐺𝜉
При малых отношениях с/ш восстановление сигнала практически
невозможно (𝐺𝑆 (𝜔) ≪ 𝐺𝜉 (𝜔)).
С учетом изложенного: при передаче сообщения, модулированного
сигналами, фильтр, обеспечивающий min 𝜀𝑈2 , ставится в приемнике после
демодулятора. А до демодулятора используются фильтры, обеспечивающие max
отношение сигнал/помеха.
Линейный фильтр – оптимальный только для сигнала 𝑆[𝑈(𝑡), 𝑡], а не для
самого сообщения 𝑈(𝑡). Передаваемый сигнал 𝑆(𝑡) нелинейно связан с 𝑈(𝑡) ⇒
оптимальная фильтрация непрерывных сообщений является задачей нелинейной
фильтрации.
Устройство нелинейной фильтрации изменяет свои параметры, используя
результаты обработки принятого сигнала за некоторый промежуток времени 𝑡, т.е.
является следящим за изменениями модулируемого параметра сигнала.
9.10. Отношение с/ш на входе приемника непрерывных сообщений
𝑟(𝑡) = 𝑈(𝑡) + 𝜉 ∗ (𝑡),
200
𝜉 ∗ (𝑡) – эквивалентная (эффективная) помеха на выходе приемника.
Влияние помех на передаваемый сигнал будет проявляться в виде
дополнительного изменения модулируемого параметра, т.е. в виде паразитной
модуляции.
2
𝜀 2 (𝑡) = [𝑟(𝑡) − 𝑈(𝑡)]2 = 𝜉 2∗ (𝑡) = 𝜎вых
,
т.е. ошибка на выходе приемника – мощность помехи на выходе приемника.
Пусть на вход действует сигнал 𝑆(𝑡) и аддитивная помеха 𝜉(𝑡).
𝑆(𝑡) имеет мощность 𝑃вх .
𝜉(𝑡) имеет спектральную плотность 𝐺𝜉 (𝜔) = 2𝜈02 .
Определим с/ш на входе:
2
ℎвх
=
𝑃с 𝑃вх
𝑃вх
= 2 = 2,
𝑃п 𝜎вх 2𝜈0
где 𝐹 – полоса пропускания приемника, определяемая шириной спектра
сигнала,
2
2
ℎвых
– с/ш на выходе приемника. Зависит не только от ℎвх
, но и от вида
модуляции и способа приема.
2
ℎвых
=
𝑔=
2
ℎвых
2
ℎвх
𝑃вых
, 𝑃вых = 𝑈 2 (𝑡),
2
𝜎вых
2
2
– энергетический выигрыш. ℎвых
≷ ℎвх
.
2
2
Есть способы модуляции приема, при которых ℎвых
≫ ℎвх
(применяются).
𝑃вых
2
2
ℎвых
𝑃вых 2𝜈02 𝐹
𝜎вых
𝑔= 2 =
=
.
2
𝑃вх
ℎвх
𝑃вх 𝜎вых
2𝜈02
Энергетический выигрыш 𝑔 может использоваться в качестве меры
помехоустойчивого приемника. Однако эта мера не всегда объективна, т.к. зависит
от ширины ПП, а следовательно и от вида модуляции. Для объективной
сравнительной оценки различных способов модуляции вводят обобщенный
2
энергетический выигрыш 𝑔′ , позволяющий сравнивать не при одинаковых 𝜎вх
, а
2
при одинаковой величине спектральной плотности помехи 2𝜈0 .
2
2
𝜎вх
= 2𝜈02 𝐹, 𝜎вых
= 𝐺𝜉∗ (𝑓) ⋅ 𝐹ш = 2𝜈02∗ ⋅ 𝐹ш ,
где 𝐹ш – ширина спектра сообщения,
2𝜈02 – спектральная плотность эквивалентной помехи на выходе приемника.
201
2
2
𝑃вых
𝑃вх
𝑃вых ⋅ 𝐹ш ⋅ 𝜎вх
𝐹ш ℎ0вых
𝑔 = 2
: 2
=
=𝑔⋅
= 2 .
2
𝜎вых /𝐹ш 𝜎вх
/𝐹
𝑃вх ⋅ 𝐹 ⋅ 𝜎вых
𝐹
ℎ0вх
′
Выясним физический смысл 𝑔′ .
Пусть на входе – сигнал длительностью 𝑡. Умножим числитель и знаменатель
′
𝑔 на 𝑇:
2
2
2
𝑃вых ⋅ 𝐹ш ⋅ 𝜎вх
⋅ 𝑇 𝐸вых ⋅ 𝐹ш ⋅ 𝜎вх
ℎ0вых
𝑔 =
=
= 2 ,
2 ⋅𝑇
2
𝑃вх ⋅ 𝐹 ⋅ 𝜎вых
𝐸вх ⋅ 𝐹 ⋅ 𝜎вых
ℎ0вх
′
2
где ℎ0вых
=
𝑃вых ⋅𝑇
2𝜈02∗
– отношение энергии сигнала на выходе к спектральной
плотности помехи,
𝑃 ⋅𝑇
2
ℎ0вх
= вх 2 – отношение энергии сигнала на выходе к спектральной
2𝜈0
плотности помехи.
𝑔′ показывает, во сколько раз возрастает отношение энергии сигнала/помехи
на выходе по сравнению со входом.
Задача определения помехоустойчивого приема непрерывных сигналов
сводится к определению max{𝑔′ }.
9.11. Обеляющий фильтр
При построении оптимальных решающих устройств (оптимального
приемника Котельникова и согласованного фильтра) предполагалось, что
аддитивной помехой является нормальный белый шум. Рассмотрим, что
изменяется, если шум будет по прежнему нормальным, но не белым.
Задачу выбора оптимальной решающей схемы и вычисления вероятности
правильного приема символа при нормальном шуме с неравномерным спектром
можно свести к аналогичной задаче при белом шуме следующего метода, впервые
предложенного В.А. Котельниковым.
Для случая не белого шума определили схемы оптимального приемника.
Пусть теперь на вход приемного устройства поступает сигнал 𝑆(𝑡) и нормальный
шум 𝜉(𝑡) с энергетической спектральной плотностью 𝐺(𝜔). Если пропустить эту
смесь сигнала и шума через линейный фильтр 𝐾(𝜔), частотная характеристика
которого 𝐾(𝑗𝜔) с точностью до постоянного коэффициента удовлетворяет условию
1
|𝐾об (𝜔)| =
,
√𝐺𝜉 (𝜔)
то на выходе фильтра шум становится не только нормальным (т.к. фильтр
линейный), но и окажется белым, т.к. его энергетический спектр будет:
202
2
(𝜔)𝐺𝜉 (𝜔),
𝐺𝑦 (𝜔) = 𝐾об
2
(𝜔) = const (белый шум), но
но 𝐺𝜉 (𝜔) ≠ 𝑁0 , следовательно 𝐺𝜉 (𝜔) ∙ 𝐾об
𝑆вых.об (𝑡) ≠ 𝑆вх (𝑡), значит на передаче нужно ввести предискажения:
𝐾пред (𝜔) =
1
→ 𝐾пред (𝜔) ∙ 𝐾об (𝜔) = 1,
𝐾об (𝜔)
𝑆вых.об (𝑡) – сигнал на выходе обеляющего фильтра,
𝑆вх (𝑡) – сигнал на входе обеляющего фильтра.
а)
СФ1
S1(t)
Обел.
фильтр
РУ
СФ2
S2(t)
б)
1
T
Обел.
фильтр
S1(t)
РУ
S1(t)
1
T
S2(t)
S2(t)
Рисунок 9.20. Примеры использования обеляющего фильтра на передаче при:
а) использовании СФ
б) использовании коррелятора
9.12. Прием сигналов с неизвестной фазой (некогерентный прием)
В приемнике Котеликова местные генераторы опорных сигналов 𝑆1 (𝑡) и
𝑆2 (𝑡) должны генерировать сигналы с точностью до фазы принимаемых сигналов.
Для этого фаза принимаемого 𝑆1 (𝑡) и 𝑆2 (𝑡) измеряется и используется для
синхронизации опорных генераторов. Такой приемник называется приемником с
известной фазой (когерентным приемником), в отличие от приемника с
неизвестной фазой (некогерентного приемника).
Прием сигнала с неизвестной фазой используется в следующих случаях:
1. Формирование сигналов 𝑆𝑖 (𝑡) в передатчике производится без учета фазы
несущего колебания, в результате чего фаза несущего колебания в каждом сигнале
𝑆𝑖 (𝑡) является случайной.
2. В канале связи наблюдаются случайные скачки фазы с большой
дисперсией.
203
3. Реализация когерентного приема экономически нецелесообразна из-за
необходимости использования синхронизируемых опорных генераторов сигналов
𝑆𝑖 (𝑡).
Посмотрим, что произойдет при наличии случайного сдвига фаз. Пусть
сигнал 𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡, а опорный сигнал приемника 𝑈оп (𝑡) = 𝐴 cos(𝜔0 𝑡 + +𝜑).
После перемножения и интегрирования этих сигналов получим:
𝑇
𝑇
∫ 𝑆1 (𝑡)𝑈оп 1 (𝑡)𝑑𝑡 = ∫ 𝐴2 cos 𝜔0 𝑡 cos(𝜔0 𝑡 + 𝜑)𝑑𝑡 =
0
0
𝑇
= 𝐴2 ∫[0,5 cos 𝜑 + 0,5 cos(2𝜔0 𝑡 + 𝜑)] = 0,5𝐴2 𝑇 cos 𝜑.
0
Отсюда видно, что при наличие сдвига 𝜑 функция взаимной корреляции
умножается на cos(𝜑 < 0). Только при 𝜑 = 0 cos 𝜑 = 1 и приемник будет
оптимальным и когерентным. При наличие свига фаз помехоустойчивость
приемника уменьшается.
Рассмотрим в качестве примера оптимальный некогерентный приемник двух
сигналов ДЧМ. На приемнике разделение сигналов двух частот осуществляется с
помощью квадратурной схемы приема и двух ветвей обработки сигналов 𝑆1 (𝑡) и
𝑆2 (𝑡). Для этого каждая ветвь иметь два перемножителя, генератор опорного
напряжения частоты, фазовращатель на 90°. Далее с помощью интеграторов,
квадраторов и сумматоров определяется значение амплитуды сигнала.
С выводов аналоговых сумматоров сигналы подаются на схему сравнения,
которая реализует правило решения: если 𝑈12 > 𝑈22 , то сигнал 𝑆1 , иначе 𝑆2 .
Если интеграторы в схеме (рис. 9.19) являются оптимальными, то для
сигналов с неизвестной фазой (и одинаковой энергией) реализуется оптимальное
правило решения вида:
Фопт (𝑥) = max 𝑈1 .
Приведенная схема нечувствительна (инвариантна) по отношению к фазам
приходящих сигналов (или фазам опорных генераторов Г 1 и Г2). Чтобы в этом
убедиться, рассмотрим работу верхней половины схемы, когда на ее вход
поступает сигнал 𝑆1 (𝑡) = 𝐴 cos(𝜔1 𝑡 + 𝜑1 ), где 𝜑1 – случайная (неизвестная) фаза
сигнала. Помехи на входе приемника учитывать не будем.
Квадратурная схема
204
Uи1
1
T
cos ω1t
Кв.
Г1
Σ1
φ = 90°
Uи2
sin ω1t
1
T
Кв.
U 12
x(t)
S1
РУ
cos ω2t
1
T
U22
Кв.
S2
Г2
Σ2
φ = 90°
sin ω2t
1
T
Кв.
Рисунок 9.21. Квадратурная структурная схема НКГ приемника ДЧМ
Найдем величину 𝑈12 на выходе первого сумматора, если два опорных
напряжения излучаются по закону cos 𝜔1 𝑡 и sin 𝜔1 𝑡 (сдвинуты на 90°, т.е.
находятся в квадратуре). Вычислим сначала напряжение на выходе первого и
второго интеграторов:
𝑇
𝑈и1 = ∫ cos 𝜔1 𝑡 cos(𝜔1 𝑡 + 𝜑1 ) 𝑑𝑡 =
0
𝑇
𝑇
= 0,5𝐴 ∫ cos 𝜑1 𝑑𝑡 + 0,5𝐴 ∫ cos(2𝜔1 𝑡+𝜑1 )𝑑𝑡 = 0,5𝐴𝑇 cos 𝜑1 .
0
0
Аналогично получим:
𝑈и2 = 0,5𝐴𝑇 sin 𝜑1 .
Отсюда:
2
2
𝑈12 = 𝑈и1
+ 𝑈и2
= 0,25𝐴2 𝑇 2 (cos 2 𝜑1 + sin2 𝜑1 ) = 0,25𝐴2 𝑇 2 .
Таким образом, на выходе первого сумматора получим сумму квадратов
напряжений, пропорциональную энергии сигнала 𝑆1 . От фазы сигнала эта величина
не зависит. В этом и заключается преимущество подобного способа приема.
Следует заметить, что на первом входе решающей схемы при поступлении на
вход приемника сигнала 𝑆1 (𝑡), кроме найденной величины 𝑈и1 , будет поступать
205
так же помеха 𝜉1 (𝑡), прошедшая вместе с сигналом весь тракт обработки сигнала
𝑆1 . На втором входе решающего устройства будет существовать помеха 𝜉2 (𝑡).
При наличии помехи на входе приемника при обработке сигналов с помехой
происходит сложное их взаимодействие. Мы не будем рассматривать этот вопрос.
Заметим только, что в процессе анализа помеха 𝜉(𝑡) разлагается на квадратурные
составляющие, синфазные с опорными напряжениями cos 𝜔𝑡 и sin 𝜔𝑡.
Оптимальное правило решения для двух сигналов ДЧМ может быть
реализованно и с помощью схемы рис. 9.22.
СФ1
Д1
S1
x(t)
ФНЧ
СФ2
РУ
S2
Д2
Рисунок 9.22. Структурная схема оптимального НКГ приемника ДЧМ
На входе приемника сигнал 𝑥(𝑡) представляет собой сумму
𝑆1 (𝑡) =
𝐴 cos 𝜔1 𝑡 или 𝑆2 (𝑡) = cos 𝜔2 𝑡 и помеху 𝜉(𝑡). В схеме приемника имеются
оптимальные фильтры СФ1 и СФ2, согласованные с сигналами 𝑆1 (𝑡) и 𝑆2 (𝑡). Далее
идут амплитудные детекторы Д1 и Д2, схема вычитания, ФНЧ и РУ, которое, в
зависимости от полярности сигнала на его входе, выдает 𝑆1 или 𝑆2 .
Пусть на вход приемника поступает сигнал. Тогда на выходе первого
фильтра мы будем иметь сумму сигнала 𝑆1 (𝑡) и помехи 𝜉1 (𝑡), а на выходе второго
фильтра только помеху 𝜉2 (𝑡).
Реализации помех 𝜉1 (𝑡) и 𝜉2 (𝑡) – различные, т.к. каждая помеха прошла
через свой полосовой фильтр. После детектирования сигналов на выходе детектора
Д1 мы будем иметь огибающую суммы сигнала и помехи, распределенную по
закону Райса:
𝐸сп −
)
𝑊(𝐸сп = 2 𝑒
𝜎𝜉
2 +𝐴2
𝐸сп
2𝜎𝜉2
𝐴𝐸сп
𝐽0 ( 2 ),
𝜎𝜉
а на выходе Д2 получим огибающую помехи, распределенную по закону
Рэлея:
𝑊(𝐸п ) =
𝐸п
𝑒
𝜎𝜉2
−
𝐸п2
2𝜎𝜉2
.
При малой помехе напряжение на выходе первого детектора 𝐸сп будет
больше, чем напряжение на выходе второго детектора 𝐸п , разность 𝐸сп − 𝐸п будет
положительной, и решающее устройство выдает 𝑆1 . Однако, при сильной помехе
может случиться, что 𝐸п превысит 𝐸сп , и схема ошибочно выдаст сигнал 𝑆2 .
Сказанное поясняется рис. 9.23, на котором приведены зависимости 𝐸сп (𝑡) и 𝐸п (𝑡).
206
E(t)
Eсп
Еп
0
t
∆t
Рисунок 9.23. Пример превышения помехой уровня сигнала
Как видно из рисунка, на интервале времени ∆𝑡 𝐸п (𝑡) > 𝐸сп (𝑡); вероятность
этого события и есть вероятность ошибки на выходе данного приемника.
W(E)
W(Eп)
W(Eсп)
Е
Есп
0
Рисунок 9.24. ФПВ помехи и суммы сигнал + помеха
На рис. 9.24 приведены графики плотностей вероятности простого и
обобщенного законов Рэлея. Допустим, в какой-то момент времени величина 𝐸сп на
выходе первого детектора известна. Тогда можно определить вероятность ошибки
как вероятность того, что огибающая помехи 𝐸п превысит данное значение 𝐸сп
(заштрихованная часть на рис. 9.24).
∞
∗
𝑝ош
= 𝑝{𝐸п > 𝐸сп } = ∫ 𝑊(𝐸п )𝑑𝐸п .
𝐸сп
Подставим сюда 𝑊(𝐸п ), произведем интегрирование и получим:
∗
𝑝ош
=𝑒
𝐸2
− сп
𝜎𝜉2
= 𝑓(𝐸сп ).
В результате мы получили зависимость вероятности ошибки как функцию
𝐸сп . Величина 𝐸сп из рис. 9.24 известна. Однако в действительности эта величина
∗
случайная, определяемая распределением Райса. Поэтому величину 𝑝ош
= 𝑓(𝐸сп )
надо усреднить по всем возможным изменениям 𝐸сп от 0 до ∞. Тогда:
207
∞
𝑝ош = ∫ 𝑓(𝐸сп )𝑊(𝐸сп )𝑑𝐸сп .
0
∗
Если сюда подставить формулу распределения Райса и 𝑝ош
, то после
интегрирования получим:
𝑝ош
𝐴2
= 0,5 exp (− 2 ).
4𝜎𝜉
2
Но 𝐴 ⁄2 есть мощность сигнала 𝑆1 (𝑡).
Введем обозначения:
𝑝с
𝐴2
ℎ =
=
.
𝑝п 2𝜎𝜉2
2
Тогда окончательно получим:
𝑝ош ЧМ НКГ = 0,5𝑒
−
ℎ2
2.
Помехоустойчивость некогерентного приема ниже, чем помехоустойчи-вость
оптимального приемника Котельникова.
Если фильтры на входе приемника являются оптимальными, то
𝐴2
𝐴2 𝑇
𝐸
ℎ =
=
=
= ℎ02 .
2𝑁0 ∆𝑓опт 2𝑁0 𝑁0
2
Можно показать, что при дискретной амплитудной модуляции вероятность
ошибки при некогерентном приеме определяется формулой:
𝑝ош ДАМ НКГ = 0,5𝑒
−
ℎ2
4.
Отсюда видно, что при переходе от ДАМ к ДЧМ имеется энергетический
проигрыш (по максимальной мощности), равный двум.
При сравнении помехоустойчивости когерентного и некогерентного приемов
можно убедиться, что при когерентном приеме вероятность ошибки значительно
меньше, чем при некогерентном. Это объясняется тем, что при некогерентном
приеме флуктуационная помеха полностью влияет на помехоустойчивость приема.
При когерентном приеме на вероятность ошибки влияет только синфазная
составляющая помехи, квадратурная же составляющая подавляется синхронным
детектором, в результате чего когерентный прием обеспечивает практически
двукратный энергетический выигрыш по сравнению с некогерентным приемом,
208
т.к. мощность огибающей помехи в два раза выше мощности ее квадратурных
составляющих.
0
1
2
3
4
5
6
7
h
0,5
10–1
10–2
10–3
10–4
10–5
НКГ
НКГ ДЧМ КГ ДАМ НКГ
КГ ДФМ ДОФМ
ДАМ
КГ ДОФМ КГ ДЧМ
Pош
Рисунок 9.25. Кривые помехоустойчивости различных видов модуляции и
способов приема
9.13. Прием дискретных сигналов со случайной амплитудой
В некоторых системах связи амплитуда принимаемого сигнала является
случайной из-за мультипликативных помех. В этом случае для нахождения
вероятностей ошибки, в зависимости от способа приема сигналов, вначале
определяют по известным формулам вероятностей ошибки как для канала с
постоянными параметрами. Например, для ЧМ КГ:
а для ЧМ НКГ:
𝑝ош (𝑈) = 0,5[1 − Ф(𝑈)],
𝑝ош (𝑈) = 0,5𝑒
−
ℎ2
2,
и т.д.
Затем определяется плотность вероятностей, учитывающих случайные
изменения амплитуды сигнала. Наконец, находится среднее значение 𝑝ош как
математическое ожидание 𝑝ош (ℎ) по формуле:
∞
𝑝ош = ∫ 𝑝ош (ℎ) 𝑊(ℎ)𝑑ℎ.
̅̅̅̅̅
0
209
Вычислим вероятность ошибки в каналах с рэлеевскими замираниями.
Пусть 𝑆(𝑡) = 𝐴 cos 𝜔𝑡, мощность помехи 𝜎𝜉2 . В случае рэлеевских замираний
амплитуда сигнала 𝐴 является случайной величиной, и ее плотность вероятности
равна:
𝐴
𝐴2
𝑊(𝐴) = 2 exp (− 2 ) .
𝜎с
2𝜎с
Здесь 𝜎с2 – дисперсия замираний, характеризующая разброс амплитуд
сигнала в процессе замираний.
Найдем 𝑊(ℎ).
По определению
𝑝с
𝐴2
ℎ =
=
,
𝑝п 2𝜎𝜉2
2
откуда 𝐴 = √2𝜎𝜉 ℎ.
Здесь мы имеем дело с флуктуационной зависимостью ℎ от 𝐴. В
соответствии с известным правилом определения плотностей вероятностей
функционально-связанных величин, можно записать
𝑊(ℎ) = 𝑊(𝐴)
𝑑𝐴
= 𝑊(𝐴)√2𝜎𝜉 .
𝑑ℎ
Преобразуя, получим:
𝑊(ℎ) = 2
ℎ𝜎𝜉2
𝜎с2
exp (−
ℎ2 𝜎𝜉2
𝜎с2
).
Введем понятие среднего значения отношения сигнал/шум:
𝜎с2
2
ℎср = 2 ,
𝜎𝜉
и подставив это выражение в предыдущее, получим:
2ℎ
ℎ2
𝑊(ℎ) = 2 exp (− 2 ).
ℎср
ℎср
Отсюда видно, что величина ℎ подчиняется, как и величина 𝐴, рэлеевскому
закону распределения. Этого и следовало ожидать, т.к. ℎ и 𝐴 связаны линейной
зависимостью.
210
Теперь получим общее выражение для вероятности ошибки в канале с
рэлеевскими замираниями:
∞
̅̅̅̅
𝑃ош = ∫ 𝑃ош (ℎ)
0
2ℎ
ℎ2
exp (− 2 ) 𝑑ℎ.
2
ℎср
ℎср
Рассмотрим несколько частных случаев.
1. Для приема сигналов ДЧМ некогерентным приемником получим:
∞
1 −ℎ2 2ℎ
ℎ2
1
̅̅̅̅̅̅̅̅
2
𝑃ош.нкг = ∫ 𝑒
∙ 2 exp (− 2 ) 𝑑ℎ =
.
2
2
ℎср
ℎср
2 + ℎср
0
2. Для случая приема сигналов ДЧМ когерентным приемником получим:
∞
𝑃ош.кг
1
2ℎ
ℎ2
1
= ∫ [1 − Ф(ℎ)] 2 exp (− 2 ) 𝑑ℎ = 2 .
2
ℎср
ℎср
2ℎср
0
Сравнивая два последних выражения, видим, что, как и в каналах с
постоянными параметрами, в каналах с замираниями переход от некогерентного
приема к когерентному дает энергетический выигрыш, примерно равный двум.
Если сравнить помехоустойчивость систем связи с каналами без замираний и
системы с замираниями, то можно сделать вывод, что в каналах с замираниями для
достижения малой вероятности ошибок мощность сигнала должна быть увеличена
по сравнению с каналами без замираний в сотни раз. Поэтому в каналах с
замираниями для уменьшения вероятности ошибок используют другие методы
повышения помехоустойчи-вости (например, разнесенный прием). Кроме того,
ошибки в таких каналах часто «пакетируются», т.е. встречаются интервалы
времени, внутри которых вероятность ошибок резко увеличивается.
9.14. Прием сигналов ДОФМ
Дискретная фазовая модуляция обеспечивает наиболее высокую
помехоустойчивость приема дискретных сигналов. Однако при практической
реализации схемы приемника возникают трудности с получением опорного
напряжения. Как видно из рис. 9.26, для получения опорного напряжения
используется генератор, синхронизируемый входным сигналом.
211
1
T
ФАПЧ
S1(t)
x(t)
S1
РУ
S2
ФАПЧ
S2(t)
1
T
Рисунок 9.26. Структурная схема приемника ДФМ (двухканальная)
𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡 ,
𝑆2 (𝑡) = −𝐴 cos 𝜔0 𝑡.
Но схему можно упростить, если использовать один общий коррелятор (рис.
9.27).
S1
x(t)
1
T
РУ
S2
Uг = cos ω0t
ФАПЧ
Uп = 0
Г
Рисунок 9.27. Структурная схема приемника ДФМ (одноканальная)
Если 𝑥(𝑡) содержит 𝑆1 (𝑡) = 𝐴 cos 𝜔0 𝑡, на выходе интегратора имеем
напряжение, равное 𝐵𝑥𝑈1(0) > 0. Если же 𝑥(𝑡) содержит сигнал 𝑆2 (𝑡) = −𝐴 cos 𝜔0 𝑡,
то на выходе интегратора имеем напряжение, равное 𝐵𝑥𝑈2(0) < 0.
Напряжение на выходе интегратора сравнивается с пороговым напряжением,
равным нулю, и в зависимости от результата сравнивания выдает сигналы 𝑆1 или
𝑆2 .
Под действием случайных помех фаза опорного генератора может скачком
изменяться на 180°, тогда опорное напряжение будет по фазе совпадать не с
сигналом 𝑆1 (𝑡), а с сигналом 𝑆2 (𝑡). А т.к. при ДФМ 𝑆2 (𝑡) = −𝑆1 (𝑡), то
неправильная фаза опорного генератора приводит к появлению «обратной работы»,
212
когда сигналы 𝑆1 (𝑡) принимаются как 𝑆2 (𝑡) и наоборот (для двоичного сигнала это
означает, что сигналы «1» превращаются в «0», а «0» в «1» ).
Для устранения опасности «обратной работы» применяется «относительная»
фазовая модуляция (ДОФМ). Если при обычной дискретной фазовой модуляции
прием осуществляется путем сравнения фаз приходящего сигнала с фазой
опорного генератора, то при ДОФМ осуществляется сравнение фазы каждой
посылки с фазой предыдущей посылки. Если фаза очередной посылки совпадает с
фазой предыдущей посылки, то приемник выдает «1», если же фазы
противоположны, приемник выдает «0». Возможен когерентный и некогерентный
прием ДОФМ. При когерентном приеме в приемнике используется опорный
генератор, а снятие (устранение) относительности осуществляется путем
детектирования сигналов (рис. 9.28). Для этой цели сигнал с выхода синхронного
детектора подается на ячейку памяти ЯП и схему сравнения полярностей ССП. На
другой вход системы ССП подается сигнал с ячейки памяти, задержанный на
время, равное длительности элементарной посылки принимаемых сигналов.
x(t)

S1
ФНЧ
Ф
ССП
S2
ЯП
Г
лз
Рисунок 9.28. Структурная схема приемника ДОФМ (ССП)
Таким образом, схема сравнения полярностей сравнивает полярности
принимаемой посылки и предыдущей посылки. При совпадении полярностей схема
выдает «1», при несовпадении – «0».
Особенностью ДОФМ является сдваивание ошибок, возникающих из-за
помех, т.к. любая искаженная посылка поступает на схему сравнения полярностей
дважды: сначала непосредственно, а затем – через ячейку памяти. При малой
вероятности ошибок эта вероятность вдвое больше, чем вероятность ошибки при
приеме сигналов дискретной фазовой модуляции.
𝑃ош ДОФМ КГ = 2𝑃ош ДФМ ,
или
𝑃ош ОФМ КГ = 1 − Ф(√2ℎ).
Схема приемника ДОФМ для некогерентного приема приведена на рис. 9.29.
В этой схеме вместо опорного генератора используется линия задержки,
задерживающая входной высокочастотный сигнал на время, равное длительности
элементарной посылки. В отличие от предыдущей схемы, опорное напряжение в
213
данной схеме содержит кроме высокочастотного напряжения предыдущей посылки
также составляющую помехи, в результате чего эта схема обеспечивает меньшую
помехоустойчивость, чем схема когерентного приема.
x(t)

Ф
S1
ФНЧ
РУ
S2
ЛЗ
Рисунок 9.29. Структурная схема приемника ДОФМ (ССФ)
Вероятность ошибки при этом определяется формулой:
2
𝑃ош ОФМ НКГ = 0,5𝑒 −ℎ .
Иногда для некогерентного приема ДОФМ применяют квадратурную схему
приема (для сигналов ДЧМ такая схема приведена на рис. 9.21).
Максимальная помехоустойчивость приемника (рис. 9.29) при флуктуационных помехах имеет место в том случае, когда в качестве фильтров ФНЧ
используются оптимальные фильтры. При этом обеспечивается max ℎ2 = ℎ02 .
9.15. Помехоустойчивость передачи непрерывных сообщений
Пусть наблюдается колебание
𝑥(𝑡) = 𝛾𝑆(𝑡) + 𝜉(𝑡),
где 𝑆(𝑡) – точно известный сигнал,
𝛾 – амплитудный множитель, подлежащий оцениванию,
𝑁
𝜉(𝑡) – гауссовский шум с нулевым средним и спектральной плотностью 0 ,
2
постоянной в полосе −𝐹 < 𝑓 ≤ 𝐹 (квазибелый шум). Найдем правило оценивания
параметра 𝛾, оптимальное по критерию максимального правдоподобия.
Возьмем 𝑛 отсчетов наблюдаемого колебания на интервале наблюдения 𝑇 с
𝑇
шагом ∆𝑡 = , при этом отсчеты шума являются некоррелированными. Совместная
𝑛
плотность распределения вероятности взятых отсчетов равна:
𝑊(𝑥1 , . . . , 𝑥𝑛 /𝛾) =
1
(√2𝜋𝜎)𝑛
214
𝑒
−
1 𝑛
∑
(𝑥 −𝛾𝑆𝑘 )2
2𝜎 2 𝑘=1 𝑘
,
𝑁
где 𝜎 2 = 𝑁0 𝐹 = 0 . Устремляя ∆𝑡 к нулю (𝑛 → ∞), запишем функцию прав2∆𝑡
доподобия:
𝑇
1
𝑊(𝑥/𝛾) = 𝐶exp {− ∫[𝑥(𝑡) − 𝛾𝑆(𝑡)]2 𝑑𝑡},
𝑁0
0
где 𝐶 – константа, не существенная для задачи оценивания.
Для нахождения правила оценивания следует продифференцировать функцию правдоподобия или ее логарифм и приравнять к нулю. Полученное при этом
уравнение правдоподобия:
𝑑ln[𝑊(𝑥/𝛾)]
= 0,
𝑑𝛾
для данного случая имеет вид:
𝑇
∫[𝑥(𝑡) − 𝛾𝑆(𝑡)]𝑆(𝑡)𝑑𝑡 = 0,
0
откуда:
𝑇
𝑇
𝛾 ∫ 𝑆 2 (𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑆(𝑡)𝑑𝑡.
0
0
Решением этого уравнения относительно 𝛾 является 𝛾̃, определяемая выражением:
𝑇
1
𝛾̃ = ∫ 𝑥(𝑡)𝑆(𝑡)𝑑𝑡 ,
𝐸
(9.57)
0
𝑇
где 𝐸 = ∫0 𝑆 2 (𝑡)𝑑𝑡 – энергия сигнала, известная по условия задачи.
Качество полученной МП-оценки можно оценить, подставив в (9.57) выражение 𝑥(𝑡):
𝑇
𝑇
𝑇
∫ [𝛾𝑆(𝑡) + 𝜉(𝑡)]𝑆(𝑡)𝑑𝑡 𝛾𝐸 ∫0 𝜉(𝑡)𝑆(𝑡)𝑑𝑡
1
𝛾̃ = 0
=
+
= 𝛾 + ∫ 𝜉(𝑡)𝑆(𝑡)𝑑𝑡 . (9.58)
𝐸
𝐸
𝐸
𝐸
0
215
Второе слагаемое представляет собой ошибку оценивания. Таким образом,
оценка тем точнее, чем больше энергия сигнала (для гармонического сигнала 𝑆(𝑡)
увеличение энергии эквивалентно увеличению длительности интервала наблюдения) и чем меньше спектральная плотность мощности помехи.
Из выражения (9.58) видно, что оценка несмещенная, т.к. 𝜉(𝑡) имеет нулевое
математическое ожидание.
Полученный алгоритм оценивания может быть реализован в виде структурной схемы.
а)
x(t)
1
T
1

E
S(t)
б)
x(t)
ФНЧ

S(t)
Рисунок 9.30. а) структурная схема оценивания амплитуды сигнала
б) синхронный детектор АМ-колебаний
Полученное правило оценивания амплитуды сигнала можно использовать и
при медленном изменении этого параметра; вместо интеграла можно применить
ФНЧ, и при гармоническом сигнале схема рис. 9.30, а) превращается в схему синхронного детектора амплитудно-модулированных колебаний (рис. 9.30, б).
10.
10.1.
Основы теории информации
Информационные характеристики сигнала
Системы связи служит для передачи сообщений от производителя к получателю. Однако не всякое сообщение содержит информацию.
Информация – это совокупность сведений об объекте или явлении, которые
увеличивают знания потребителя об этом объекте или явлении.
В математической теории связи (теории информации) исходят из того, что в
некотором сообщении 𝑥𝑖 количество информации 𝐼(𝑥𝑖 ) зависит не от ее конкретно216
го содержания, степени важности и т.д., а от того, каким образом выбирается данное сообщение из общей совокупности возможных сообщений.
В реальных условиях выбор конкретного сообщения производится с некоторой априорной вероятностью 𝑃(𝑥𝑖 ). Чем меньше эта вероятность, тем больше информации содержится в данном сообщении.
Вероятностный подход и положен в основу определения меры количества
информации.
При определении количества информации исходят из следующих требований:
1. Количественная мера информации должна обладать свойством аддитивности: количество информации в нескольких независимых сообщениях должно
равняться сумме количества информации в каждом сообщении.
2. Количество информации о достоверном событии (𝑃(𝑥𝑖 ) = 1) должно равняться нулю, так как такое сообщение не увеличивает наших знаний о данном объекте или явлении.
Указанным требованиям удовлетворяет логарифмическая мера, определяемая
формулой:
𝐼(𝑥𝑖 ) = log
1
= − log 𝑃(𝑥𝑖 ).
𝑃(𝑥𝑖 )
(10.1)
Чаще всего логарифм берется с основанием 2, реже – с основанием 𝑒:
𝐼(𝑥𝑖 ) = − log 2
1
= log 2 2 = 1.
2
При применении натуральных логарифмов одну натуральную единицу ин1
формации содержит сообщение, вероятность выбора которого равняется :
𝑒
1
𝐼(𝑥𝑖 ) = − ln = ln 𝑒 = 1.
𝑒
Учитывая, что в практике передачи и преобразования информации широко
применяются двоичные символы, двоичная логика, двоичные источники сообщений и двоичные каналы передачи, наиболее часто используется двоичная единица
информации (бит).
Хотя при определении количества информации под сообщениями можно понимать любые фразы или телеграфные сообщения, здесь элементарными сообщениями мы будем называть отдельные буквы или слова. При использовании двухуровневых дискретных сигналов, например, мы будем пользоваться элементарными двоичными сигналами «0», «1», считая их буквами.
Таким образом, алфавит двоичного источника состоит всего из двух букв, из
которых можно строить длинные комбинации, называемые кодовыми словами.
217
10.2.
общений
Энтропия дискретного источника с независимым выбором со-
В теории информации чаще всего необходимо знать не количество информации 𝐼(𝑥𝑖 ), содержащееся в отдельном сообщении, а среднее количество информации в одном сообщении, создаваемом источником сообщений.
Если имеется ансамбль (полная группа) из 𝑘 сообщений 𝑥1 , 𝑥2 , … 𝑥𝑖 , … 𝑥𝑘 с
вероятностями 𝑃(𝑥𝑖 ) … 𝑃(𝑥𝑘 ), то среднее количество информации, приходящееся
на одно сообщение и называемое энтропией источника сообщений 𝐻(𝑥), определяется формулой:
𝐻(𝑥) = 𝑚{− log 𝑃(𝑥)}
(10.2)
или
𝑘
𝑘
𝐻(𝑥) = ∑ 𝑃(𝑥𝑖 ) 𝐼(𝑥𝑖 ) = − ∑ 𝑃(𝑥𝑖 ) log 𝑃(𝑥𝑖 ).
𝑖=1
(10.3)
𝑖=1
Размерность энтропии – количество единиц информации на символ. Энтропия характеризует источник сообщений с точки зрения неопределенности выбора
того или другого сообщения.
Рассмотрим свойства энтропии:
1. Чем больше неопределенность выбора сообщений, тем больше энтропия.
Неопределенность максимальна при равенстве вероятностей выбора каждого сообщения:
В этом случае
𝑃(𝑥1 ) = 𝑃(𝑥2 ) = ⋯ = 𝑃(𝑥𝑘 ) = 1⁄𝑘.
1
1
𝐻(𝑥) = 𝐻max (𝑥) = − ∑ log = log 𝑘 ,
𝑘
𝑘
(10.4)
𝑘
т.е. максимальная энтропия равна логарифму от объема алфавита). Например, при 𝑘 = 2 (двоичный источник) 𝐻max (𝑥) = log 2 2 = 1 бит.
2. Неопределенность минимальна, если одна из вероятностей равна единице, а остальные – нулю (выбирается всегда только одно заранее известное сообщение: например, одна буква): 𝑃(𝑥1 ) = 1; 𝑃(𝑥2 ) = 𝑃(𝑥3 ) = . . . = 𝑃(𝑥𝑘 ) = 0. В этом
случае 𝐻(𝑥) = 𝐻min (𝑥) = 0.
Эти свойства энтропии иллюстрируются следующим образом.
Пусть имеется двоичный источник сообщений, т.е. осуществляется выбор из
двух букв (𝑘 = 2): 𝑥1 и 𝑥2 , 𝑃(𝑥1 ) + 𝑃(𝑥2 ) = 1. Тогда:
218
𝐻(𝑥) = − 𝑃(𝑥1 ) log 𝑃(𝑥1 ) − 𝑃(𝑥2 ) log 𝑃(𝑥2 ) =
= − 𝑃(𝑥1 ) log 𝑃(𝑥1 ) − [1 − 𝑃(𝑥1 )] log[1 − 𝑃(𝑥1 )].
(10.5)
Зависимость 𝐻(𝑥) от вероятностей выбора (10.5) для двоичного источника
приведена на рис. 10.1.
H(x)
1
0,5
0
1
1
0
0,5
0,5
P(x)
P(x1)
P(x2)
Рисунок 10.1. Зависимость 𝐻(𝑥) от вероятности выбора для двоичного источника
3. Укрупним алфавит. Пусть на выходе двоичного источника имеется
устройство, которое группирует буквы в слова из 𝑛 букв. Тогда 𝑘 = 2𝑛 слов (объем
алфавита). В этом случае
𝐻max (𝑥) = log 𝑘 = log 2 2𝑛 = 𝑛 бит.
(10.6)
Таким образом, укрупнение алфавита привело к увеличению энтропии в 𝑛
раз, т.к. теперь уже слово включает в себя информацию 𝑛 букв двоичного источника. Тем самым доказывается свойство аддитивности энтропии.
4. Энтропия дискретного источника не может быть отрицательной.
Термин «энтропия» заимствован из термодинамики и применительно к технике связи предложен К. Шенноном, в трудах которого были заложены основы
теории информации (математической теории связи).
10.3.
Энтропия дискретного источника с зависимыми сообщениями
Ранее при определении энтропии предлагалось, что каждое сообщение (буква
или слово) выбирается независимым образом. Рассмотрим более сложный случай,
когда в источнике сообщений имеются корреляционные связи. В так называемом
219
эргодическом источнике выбор очередной буквы сообщения зависит от каждого
числа предшествующих 𝑛 букв. Математической моделью такого источника является Марковская цепь n-го порядка, у которой вероятность выбора очередной буквы зависит от 𝑛 предшествующих букв и не зависит от более ранних, что можно
записать в виде следующего равенства:
𝑃(𝑥𝑖 /𝑥𝑖−1 , 𝑥𝑖−2 , … , 𝑥𝑖−𝑛 ) = 𝑃(𝑥𝑖 /𝑥𝑖−1 , 𝑥𝑖−2 , … , 𝑥𝑖−𝑛 , … 𝑥𝑖−𝑛−𝑐 ),
(10.7)
где 𝑐 – произвольное положительное число.
Если объем алфавита источника равен 𝐾0 , а число связанных букв, которое
необходимо учитывать при определении вероятности очередной буквы, равно порядку источника 𝑛, то каждой букве может предшествовать 𝑀 = 𝐾 𝑛 различных сочетаний букв (состояний источника), влияющих на вероятность появления очередной буквы 𝑥𝑖 на выходе источника. А вероятность появления в сообщении любой
из 𝐾 возможных букв определяется условной вероятностью (10.7) с учетом предшествующих букв, т.е. с учетом 𝑀 возможных состояний. Эти состояния обозначим как 𝑞1 , 𝑞2 , … 𝑞𝑚 .
Рассмотрим два простых примера.
Пример 1. Пусть имеется двоичный источник (объем алфавита 𝐾 = 2), выдающий только буквы 𝑎 и 𝑏; порядок источника 𝑛 = 1. Тогда число состояний источника 𝑀 = 𝐾 1 = 21 = 2 (назовем эти состояния 𝑞1 и 𝑞2 ). В этом случае вероятности появления букв 𝑎 и 𝑏 будут определяться следующими условными вероятностями:
𝑃(𝑎/𝑞1 = 𝑎),
𝑃(𝑎/𝑞2 = 𝑏),
где 𝑞1 = 𝑎 – 1-ое состояние источника,
𝑞2 = 𝑏 – 2-ое состояние источника.
Т.е.
𝑃(𝑞1 ) = 𝑃(𝑎),
𝑃(𝑞2 ) = 𝑃(𝑏).
Пример 2. Пусть по-прежнему 𝐾 = 2 (буквы 𝑎 и 𝑏), однако число связанных
букв 𝑛 = 2. Тогда 𝑀 = 22 = 4 (четыре возможных состояния): (𝑎, 𝑎) = 𝑞1 , (𝑎, 𝑏) =
𝑞2 , (𝑏, 𝑎) = 𝑞3 , (𝑏, 𝑏) = 𝑞4 . В этом случае имеем дело со следующими условными
вероятностями:
𝑃(𝑎/𝑎, 𝑎),
𝑃(𝑎/𝑎, 𝑏),
𝑃(𝑎/𝑏, 𝑎),
𝑃(𝑎/𝑏, 𝑏),
𝑃(𝑏/𝑎, 𝑎) …
и т.д. Вероятности состояний определяются равенствами:
𝑃(𝑞1 ) = 𝑃(𝑎, 𝑎),
𝑃(𝑞2 ) = 𝑃(𝑎, 𝑏),
𝑃(𝑞3 ) = 𝑃(𝑏, 𝑎),
220
𝑃(𝑞4 ) = 𝑃(𝑏, 𝑏).
Энтропия эргодического дискретного источника определяется в два этапа:
1. Вычисляем энтропию источника в каждом из 𝑀 состояний, считая эти состояния известными.
Для состояния 𝑞1 :
𝑘
𝐻(𝑥/𝑞1 ) = − ∑ 𝑃(𝑥𝑖 /𝑞1 ) log 𝑃(𝑥𝑖 /𝑞1 ).
𝑖=1
Для состояния 𝑞2 :
𝑘
𝐻(𝑥/𝑞2 ) = − ∑ 𝑃(𝑥𝑖 /𝑞2 ) log 𝑃(𝑥𝑖 /𝑞2 ).
𝑖=1
Для состояния 𝑞𝑚 :
𝑘
𝐻(𝑥/𝑞𝑚 ) = − ∑ 𝑃(𝑥𝑖 /𝑞𝑚 ) log 𝑃(𝑥𝑖 /𝑞𝑚 ).
𝑖=1
2. Далее находим 𝐻(𝑥) путем усреднения по всем состояниям 𝑞:
𝑀
𝐻(𝑥) = ∑ 𝑃(𝑞𝑗 ) 𝐻(𝑥/𝑞𝑗 ).
(10.8)
𝑗=1
Окончательно получаем:
𝑀
𝑘
𝐻(𝑥) = − ∑ 𝑃(𝑞𝑗 ) ∑ 𝑃(𝑥𝑖 /𝑞𝑗 ) log 𝑃(𝑥𝑖 /𝑞𝑗 ) .
𝑗=1
(10.9)
𝑖=1
При наличии корреляционных связей между буквами в эргодическом источнике энтропия уменьшается, т.к при этом уменьшается неопределенность выбора
букв, и в ряде случаев часть букв можно угадать по предыдущим или ближайшим
буквам
𝐻0 (𝑥) ≥ 𝐻1 (𝑥) ≥ 𝐻2 (𝑥) ≥ ⋯ ≥ 𝐻𝑛 (𝑥).
10.4.
Избыточность источника
221
Как было показано ранее, энтропия максимальна при равновероятностном
выборе элементов сообщений и отсутствии корреляционных связей. При неравномерном распределении вероятностей и при наличии корреляционных связей между
буквами энтропия уменьшается.
Чем ближе энтропия источника к максимальной, тем рациональнее работает
источник. Чтобы судить о том, насколько хорошо использует источник свой алфавит, вводят понятие избыточности источника сообщений:
æ=
𝐻max (𝑥) − 𝐻(𝑥)
100%
𝐻max (𝑥)
(10.10)
или
æ=
log 𝑘 − 𝐻(𝑥)
100%.
log 𝑘
Наличие избыточности приводит к загрузке канала связи передачей лишних
букв сообщений, которые не несут информации (их можно угадать и не передавая).
Однако преднамеренная избыточность в сообщениях иногда используется
для повышения достоверности передачи информации – например, при помехоустойчивом кодировании в системах передачи информации с направлением ошибок (как и других) – около 50%. Благодаря избыточности облегчается понимание
речи при наличии дефектов в произношении или при искажениях речевых сигналов в каналах связи.
10.5.
Производительность источника
Производительность источника определяется количеством информации, передаваемой в единицу времени. Измеряется производительность количеством двоичных единиц информации (бит) в секунду. Если все элементы сообщения имеют
одинаковую длительность 𝜏, то производительность
𝐻′ (𝑥) =
𝐻(𝑥)
,
𝜏
[Бит⁄с].
(10.11)
Если же различные элементы сообщения имеют разную длительность, то в
приведенной формуле надо учитывать среднюю длительность 𝜏̅, равную математическому ожиданию величины 𝜏:
𝑘
𝜏̅ = ∑ 𝜏𝑖 𝑃(𝜏𝑖 ).
𝑖=1
222
Однако в последней формуле 𝑃(𝜏𝑖 ) можно заменить на 𝑃(𝑥𝑖 ) (вероятность iго сообщения), т.к. эти вероятности равны. В результате получаем:
𝑘
𝜏̅ = ∑ 𝜏𝑖 𝑃(𝑥𝑖 ) .
(10.12)
𝑖=1
А производительность источника будет равна:
𝐻′ (𝑥) =
𝐻(𝑥)
.
𝜏
(10.13)
Максимально возможная производительность дискретного источника равна:
𝐻′ max (𝑥) =
𝐻max (𝑥) log 𝑘
=
.
𝜏̅
𝜏̅
(10.14)
Для двоичного источника, имеющего одинаковую длительность элементов
сообщения (𝑘 = 2, 𝜏̅ = 𝜏), имеем
𝐻′ max (𝑥) =
log 2 2 1
= ,
𝜏
𝜏
бит⁄ .
с
(10.15)
При укрупнении алфавита в слова по 𝑛 букв, когда 𝐾 = 2𝑛 , 𝜏̅ = 𝑛𝜏, имеем:
log 2 2𝑛 1
′
бит⁄ ,
𝐻 max (𝑥) =
= ,
с
𝑛𝜏
𝜏
что совпадает с (10.15).
Таким образом, путем укрупнения алфавита увеличить производительность
источника нельзя, так как в этом случае и энтропия, и длительность сообщения одновременно возрастают в одинаковое число раз (𝑛).
Увеличить производительность можно путем уменьшения длительности элементов сообщения, однако возможность эта ограничивается полосой пропускания
канала связи. Поэтому производительность источника можно увеличить за счет более экономного использования полосы пропускания, например, путем применения
сложных многоуровневых сигналов:
1
𝐻′ max (𝑥) = log 2 𝑚,
𝜏̅
где 𝑚 – основание кода.
10.6.
Совместная энтропия двух источников
223
Пусть имеется два дискретных источника с энтропиями 𝐻(𝑥) и 𝐻(𝑦) и объемами алфавитов 𝑘 и 𝑙 (рис. 10.2).
k
H(x)
H(x,y)
l
H(y)
Рисунок 10.2. Совместная энтропия двух источников
Объединим оба эти источника в один сложный источник и определим совместную энтропию. Элементарное сообщение на выходе системы содержит элементарное сообщение 𝑥𝑖 и сообщение 𝑦𝑗 . Алфавит сложной системы будет иметь
объем 𝑘 ∙ 𝑙, а энтропия будет равна
𝐻(𝑥, 𝑦) = 𝑚{− log 𝑃(𝑥, 𝑦)}
(10.16)
или
𝑘
𝑙
𝐻(𝑥, 𝑦) = − ∑ ∑ 𝑃(𝑥𝑖 , 𝑦𝑗 ) log 𝑃(𝑥𝑖 , 𝑦𝑗 ) .
(10.17)
𝑖=1 𝑗=1
По теореме умножения вероятностей:
𝑃(𝑥, 𝑦) = 𝑃(𝑥)𝑃(𝑦⁄𝑥 ) = 𝑃(𝑦)𝑃(𝑥 ⁄𝑦).
Подставляя эти соотношения в (10.16), получим:
𝐻(𝑥, 𝑦) = 𝑚{− log 𝑃(𝑥) − log 𝑃(𝑦⁄𝑥 )} = 𝐻(𝑥) + 𝐻(𝑦⁄𝑥 ).
(10.18)
Аналогично можно получить:
𝐻(𝑥, 𝑦) = 𝐻(𝑦) + 𝐻(𝑥 ⁄𝑦).
(10.19)
Здесь 𝐻(𝑥) и 𝐻(𝑦) – собственная энтропия источников x и y соответственно.
𝑘
𝑙
𝐻(𝑦⁄𝑥 ) = − ∑ ∑ 𝑃(𝑥𝑖 , 𝑦𝑗 ) log 𝑃(𝑦𝑗 ⁄𝑥𝑖 )
𝑖
(10.20)
𝑗
– условная энтропия источника 𝑦 относительно источника 𝑥. Она показывает,
какую энтропию имеют сообщения 𝑦, когда уже известно сообщение 𝑥.
Если источники независимы, то 𝑃(𝑦⁄𝑥 ) = 𝑃(𝑦) и 𝐻(𝑦⁄𝑥 ) = 𝐻(𝑦). В этом
случае
224
𝐻(𝑥, 𝑦) = 𝐻(𝑥) + 𝐻(𝑦).
Если источники частично зависимы, то 𝐻(𝑥, 𝑦) < 𝐻(𝑥) + 𝐻(𝑦).
Если источники полностью зависимы (𝑥 и 𝑦 содержат одну и ту же информацию), то 𝐻(𝑦⁄𝑥 ) = 0 и 𝐻(𝑥, 𝑦) = 𝐻(𝑥) = 𝐻(𝑦).
10.7.
Взаимная информация источников сообщений
H(y/x)
I(x,y)
H(y)
H(x↔Y)
H(x,y)
H(x)
H(x/y)
На рис. 10.3 показана (условно) собственная энтропия 𝐻(𝑥) и 𝐻(𝑦), условные
энтропии 𝐻(𝑥 ⁄𝑦) и 𝐻(𝑦⁄𝑥 ) и совместная энтропия 𝐻(𝑥, 𝑦). Из этого рисунка, в
частности, следует соотношение (10.18) и (10.19).
Рисунок 10.3. Графическое представление собственных условных, совместных и
взаимной энтропий
Заштрихованная часть рисунка называется взаимной информацией 𝐼(𝑥, 𝑦).
Она показывает, какое в среднем количество информации содержит сообщение 𝑥 о
сообщении 𝑦 (или наоборот). Как следует из рис. 10.3:
𝐼(𝑥, 𝑦) = 𝐻(𝑥 ↔ 𝑦) = 𝐻(𝑥) − 𝐻(𝑥 ⁄𝑦) = 𝐻(𝑦) − 𝐻(𝑦⁄𝑥 ).
(10.21)
H(y/x)
H(x)
H(x,y) H(y)
H(x/y)
Рисунок 10.4. Графическое представление влияния потерь при передаче и приеме
информации
Если сообщения 𝑥 и 𝑦 полностью независимы, то взаимная информация отсутствует и 𝐼(𝑥, 𝑦) = 𝐻(𝑥 ↔ 𝑦) = 0.
Если сообщения 𝑥 и 𝑦 полностью зависимы (𝑥 и 𝑦 содержат одну и ту же информацию), то 𝐼(𝑥, 𝑦) = 𝐻(𝑥 ↔ 𝑦) = 𝐻(𝑥) = 𝐻(𝑦).
Понятие взаимной информации очень широко используется в теории передачи информации. Требования к взаимной информации различны в зависимости от
225
того, с какой информацией мы имеем дело. Например, если 𝑥 и 𝑦 – это сообщения, публикуемые различными газетами, то для получения возможно большей
суммарной (совместной) информации взаимная (т.е. одинаковая в данном случае)
информация должна быть минимальной. Если же 𝑥 и 𝑦 – это сообщения на входе и
на выходе канала связи с помехами, то для получения возможно большей информации ее получателем необходимо, чтобы взаимная информация была наибольшей.
Тогда условная энтропия 𝐻(𝑥 ⁄𝑦) – это потери информации в канале связи (надежность канала).
𝐻(𝑦⁄𝑥 ) – энтропия шума (помех), равная 𝐻(𝜉), т.е. 𝐻(𝑦⁄𝑥) = 𝐻(𝜉).
10.8.
Скорость передачи и пропускная способность канала связи
В дискретной системе связи при отсутствии помех информация на выходе
канала связи (канала, передающего информацию) полностью совпадает с информацией на его входе, поэтому скорость передачи информации численно равна производительности источника сообщений:
𝑅(𝑥, 𝑦) =
𝐻(𝑥)
= 𝐻′ (𝑥).
𝜏̅
(10.22)
При наличии помех часть информации оказывается меньшей, чем производительность источника. Одновременно в сообщении на выходе канала добавляется
информация о помехах (рис. 10.4).
Источник помех
Источник
сообщений
Канал связи
(канал п.и.)
Полученное
сообщение
Рисунок 10.4. Влияние помех при передаче информации
Поэтому при наличии помех необходимо учитывать на выходе канала не всю
информацию, даваемую источником, а только взаимную информацию.
𝑅(𝑥, 𝑦) =
𝐼(𝑥, 𝑦)
бит/с.
𝜏̅
На основании формулы (10.21) имеем:
1
𝑅(𝑥, 𝑦) = [𝐻(𝑥) − 𝐻(𝑥 ⁄𝑦) ] = [𝐻(𝑥) − 𝐻(𝑦⁄𝑥 ) ]
𝜏
или
226
(10.23)
𝑅(𝑥, 𝑦) = 𝐻′ (𝑥) − 𝐻′ (𝑥 ⁄𝑦) = 𝐻′ (𝑦) − 𝐻′ (𝑦⁄𝑥 ),
(10.24)
где 𝐻′ (𝑥) – производительность источника,
𝐻′ (𝑥 ⁄𝑦) – «ненадежность» канала (потери) в ед. времени,
𝐻′ (𝑦) – энтропия выходного сообщения в ед. времени,
𝐻′ (𝑦⁄𝑥 ) = 𝐻(𝜉) – энтропия помех (шума) в ед. времени.
Пропускной способностью канала связи (канала передачи информации) 𝐶
называется максимально возможная скорость передачи информации по каналу:
𝐶 = max 𝑅(𝑥, 𝑦).
(10.25)
Для достижения максимума учитываются все возможные источники на входе
и все возможные способы кодирования.
Таким образом, пропускная способность канала связи равна максимальной
производительности источника на входе канала, полностью согласованного с характеристиками этого канала, за вычетом потерь информации в канале из-за помех.
В канале без помех 𝐶 = max 𝐻′ (𝑥), т.к 𝐻′ (𝑥 ⁄𝑦) = 0. При использовании равномерного кода с основанием 𝑚, состоящего из 𝑛 элементов, длительностью 𝜏э , в
канале без помех:
𝐻(𝑥) log 𝑚𝑛 log 𝑚
𝐶 = max
=
=
,
𝜏̅
𝑚𝜏̅э
𝜏̅э
(10.26)
𝜏э – длительность элемента.
1
При 𝑚 = 2 𝐶 = бит/с.
𝜏
Для эффективного использования пропускной способности канала необходимо его согласование с источником информации на входе. Такое согласование
возможно как для каналов без помех, так и для каналов связи с помехами на основании двух теорем, доказанных К.Шенноном.
Первая теорема (для канала связи без помех):
Если источник сообщений имеет энтропию 𝐻(𝑥) (бит на символ), а канал
связи – пропускную способность 𝐶 (бит в секунду), то можно закодировать сообщение таким образом, чтобы передавать информацию по каналу со средней скоростью, сколь угодно близкой к величине 𝐶, но не превзойти ее.
К.Шеннон предложил и метод такого кодирования, который получил название статического или оптимального кодирования. В дальнейшем идея такого кодирования была развита в работах Фано и Хаффмана и в настоящее время широко
используется на практике для «сжатия сообщений».
Вторая теорема (для каналов связи с помехами):
Если пропускная способность канала равна 𝐶, а производительность источника 𝐻′ (𝑥) < 𝐶, то путем соответствующего кодирования можно передавать информацию по каналу связи со скоростью, сколь угодно близкой к 𝐶, и с вероятно227
стью ошибки, сколь угодно близкой к нулю. При 𝐻′ (𝑥) > 𝐶 такая передача невозможна.
К сожалению, теорема К.Шеннона для канала связи с шумом (помехами) указывает только на возможность такого кодирования, но не указывает способа построения соответствующего кода. Однако известно, что при приближению к пределу, устанавливаемому Теоремой Шеннона, резко возрастает время запаздывания
сигнала в устройствах кодирования и декодирования из-за увеличения длины кодового слова 𝑛. При этом вероятность эквивалентной ошибки на выходе канала стремится к величине
′
𝑃э = 2−𝑛𝜏э [𝐶−𝐻 (𝑥)] .
(10.27)
Очевидно, что 𝑃э → 0, когда и 𝜏э → ∞, и, следовательно, имеет место «обмен»
вероятности ошибки на скорость и задержку передачи.
10.9.
Статическое кодирование дискретных сообщений
Кодирование по методу Шеннона-Фано-Хаффмана называется оптимальным, т.к. при этом повышается производительность дискретного источника, и
статическим, т.к для реализации оптимального кодирования используются априорные вероятности появления на выходе источника каждого элемента сообщения
(учитывается статистика сообщений).
Производительность и избыточность дискретного источника согласно определениям равны, соответственно:
𝐻′ (𝑥) =
𝐻(𝑥)
,
𝜏̅
æ=
𝐻max (𝑥) − 𝐻(𝑥)
,
𝐻max (𝑥)
откуда получаем:
1
𝐻′ (𝑥) = 𝐻max (𝑥)(1 − æ).
𝜏̅
Из этой формулы видно, что для увеличения производительности нужно
уменьшить избыточность æ и среднюю длительность сообщений 𝜏̅.
Известно, что 𝐻(𝑥) < 𝐻max (𝑥), если априорные вероятности различных элементов сообщения различны (𝐻(𝑥) = 𝐻max (𝑥) при равной вероятности этих элементов). Но при неравной вероятности сообщений нужно применить оптимальное
228
(статическое) кодирование, при котором уменьшается средняя длительность сообщений.
Идея такого кодирования заключается в том, что, применяя неравномерный
неприводимый код, наиболее часто встречающиеся сообщения (буквы или слова)
кодируются короткими комбинациями этого кода, а редко встречающиеся сообщения кодируются более длительными комбинациями.
Рассмотрим принципы оптимального кодирования на примере.
Пусть источник сообщений вырабатывает четыре сообщения 𝑎1 , 𝑎2 , 𝑎3 и 𝑎4 с
вероятностями 𝑃(𝑎1 ) = 0,5, 𝑃(𝑎2 ) = 0,25, 𝑃(𝑎3 ) = 𝑃(𝑎4 ) = 0,125.
Все сообщения выписываются в кодовую таблицу (табл. 10.1) в порядке убывания их вероятностей. Затем они разделяются на две группы так, чтобы суммы их
вероятностей по возможности были одинаковы. В данном примере в первую группу входит сообщение 𝑎1 с вероятностью 𝑃(𝑎1 ) = 0,5 и во вторую – сообщения 𝑎2 ,
𝑎3 и 𝑎4 с суммарной вероятностью, также равной 0,5.
Комбинациям, которые соответствуют сообщениям первой группы, присваивается в качестве первого символа кода 0, а комбинациям второй группы – 1. Каждая из двух групп опять делится на две группы с применением того же правила
присвоения символов 0 и 1. В идеальном случае после первого деления вероятности каждой группы должны быть равны 0,5, после второго деления 0,25 и т.д. Процесс деления продолжается до тех пор, пока в группах не останется по одному сообщению.
𝑎𝑖
𝑎1
𝑎2
𝑎3
𝑎4
Таблица 10.1 – Кодовая таблица.
Группы
𝑃(𝑎𝑖 )
I
II
III
0,5}
0
0,25
1}
0
0,125
1
1}
0
0,125
1
1}
1
Комбинации
𝑛𝑖
𝐼(𝑎𝑖 )
0
10
110
111
1
2
3
3
1
2
3
3
4
∑ 𝑃(𝑎𝑖 ) = 1 ,
𝜏э = ∑ 𝑃(𝑎𝑖 ) 𝑛𝑖 = 1,75.
𝑖=1
Для сравнения рассмотрим кодирование тех же четырех сообщений 𝑎1 , 𝑎2 , 𝑎3
и 𝑎4 с применением обычного равномерного кода. Количество комбинаций при
этом 𝐾 = 2𝑛 , где 𝑛 – число элементов в комбинации. Так как 𝐾 = 4, то 𝑛 = log 𝐾 =
2, длительность кодовой комбинации 2𝜏0 .
В рассматриваемом примере средняя длительность комбинаций благодаря
примененному статическому кодированию уменьшалось в 2/1,75 ≅ 1,43 раза. Во
столько же раз увеличилась и производительность источника (10.25).
10.10.
Энтропия непрерывного источника и ее свойства
229
Энтропия дискретного сигнала определяется выражением (10.2). Для непрерывной случайной величины воспользуемся этим же выражением, заменив вероятность 𝑃(𝑥) на 𝑊(𝑥)𝑑𝑥. В результате получим:
∞
∞
ℎ(𝑥) = − ∫ 𝑊(𝑥)𝑑𝑥 log[𝑊(𝑥)𝑑𝑥] = ∫ 𝑊(𝑥)[log 𝑊(𝑥) + log 𝑑𝑥]𝑑𝑥 .
−∞
−∞
Но логарифм бесконечно малой величины (𝑑𝑥) равен минус бесконечности, в
результате чего получаем:
∞
ℎ(𝑥) = ∞ − ∫ 𝑊(𝑥) log[𝑊(𝑥)] 𝑑𝑥 .
−∞
Таким образом, энтропия непрерывной случайной величины бесконечно велика. Но т.к. в последнем выражении первое слагаемое (∞) от величины 𝑥 или от
𝑊(𝑥) не зависит, при определении энтропии непрерывной величины это слагаемое
отбрасывают, учитывая только втрое слагаемое (некоторую «добавку» к бесконечности). Эта добавочная энтропия определяется формулой:
∞
ℎ(𝑥) = 𝑚{− log 𝑊(𝑥)} = − ∫ 𝑊(𝑥) log[𝑊(𝑥)] 𝑑𝑥
(10.28)
−∞
и называется дифференциальной энтропией непрерывной случайной величины. В дальнейшем слово «дифференциальное» в определении энтропии будем иногда отпускать.
Как и для дискретных сообщений, существуют следующие разновидности
дифференциальной энтропии непрерывной величины:
1. Условная энтропия случайной величины 𝑦 относительно случайной величины 𝑥:
ℎ(𝑦⁄𝑥 ) = 𝑚{− log 𝑊(𝑦⁄𝑥 )}
или
∞
ℎ(𝑦⁄𝑥 ) = − ∬ 𝑊2 (𝑥, 𝑦) log 𝑊(𝑦⁄𝑥 ) 𝑑𝑥 𝑑𝑦.
−∞
2. Совместная энтропия двух непрерывных случайных величин:
ℎ(𝑥, 𝑦) = 𝑚{− log 𝑊2 (𝑥, 𝑦)}
230
(10.29)
или
∞
ℎ(𝑥, 𝑦) = − ∬ 𝑊2 (𝑥, 𝑦) log 𝑊2 (𝑥 ⁄𝑦) 𝑑𝑥 𝑑𝑦.
(10.30)
−∞
Для независимых 𝑥 и 𝑦 ℎ(𝑥, 𝑦) = ℎ(𝑥) + ℎ(𝑦).
Для совместной дифференциальной энтропии непрерывной случайной величины справедливы соотношения (10.18) и (10.19).
ℎ(𝑥, 𝑦) = ℎ(𝑥) + ℎ(𝑦⁄𝑥 ),
ℎ(𝑥, 𝑦) = ℎ(𝑦) + ℎ(𝑥 ⁄𝑦).
3. Взаимная информация 𝐼(𝑥, 𝑦), содержащаяся в двух непрерывных сигналах 𝑥 и 𝑦, определяется формулой (10.21).
ℎ(𝑥, 𝑦) = ℎ(𝑥) − ℎ(𝑥, 𝑦) = ℎ(𝑦) − ℎ(𝑦⁄𝑥 ).
Для независимых 𝑥 и 𝑦 𝐼(𝑥, 𝑦) = 0.
4. Если случайная величина ограничена в объеме 𝑉 = 𝑏 − 𝑎, то ее дифференциальная энтропия максимальна при равномерном законе распределения этой
величины:
a
0
b
х
Рисунок 10.5. Равномерный закон распределения 𝑊(𝑥)
𝑏
ℎmax (𝑥) = − ∫
𝑎
1
1
log
𝑑𝑥 = log(𝑏 − 𝑎) = log 𝑉.
𝑏−𝑎
𝑏−𝑎
Т.к. эта величина зависит только от разности (𝑏 − 𝑎) и не зависит от абсолютных величин 𝑏 и 𝑎, то ℎmax (𝑥) не зависит от мат. ожидания случайной величины 𝑥.
5. Если случайная величина не ограничена в объеме (т.е. может изменяться
в пределах от −∞ до +∞), а ограничена только по мощности, то дифференциальная энтропия максимальна в случае гауссовского закона распределения этой величины. Определим этот максимум.
В соответствии с (10.28):
ℎ(𝑥) = −𝑚{log 𝑊(𝑥)},
𝑊(𝑥) =
231
1
√2𝜋𝜎 2
𝑒
−
(𝑥−𝑎)2
2𝜎 2 .
Отсюда:
ℎmax (𝑥) = −𝑚 {log [
1
√2𝜋𝜎 2
𝑒
−
(𝑥−𝑎)2
2𝜎 2 ]}
(𝑥 − 𝑎)2
2
√
= log 2𝜋𝜎 + 𝑚 {
log 𝑒}.
2𝜎 2
Но математическое ожидание 𝑚{(𝑥 − 𝑎)2 } = 𝜎 2 , отсюда получим:
1
ℎmax (𝑥) = log √2𝜋𝜎 2 + log 𝑒.
2
Или окончательно:
ℎmax (𝑥) = log √2𝜋𝜎 2 𝑒 .
(10.31)
Следовательно, энтропия не зависит только от мощности 𝜎 2 . Эта важная
формула будет использоваться позднее для определения пропускной способности
непрерывного канала связи.
Заметим, что, как и ранее, ℎmax (𝑥) не зависит от математического ожидания
𝑎 случайной величины 𝑥. Это важное свойство энтропии. Оно объясняется тем, что
мат. ожидание является неслучайной величиной.
10.11.
Пропускная способность непрерывного канала связи
Если 𝑥(𝑡) – сигнал на входе канала связи, а 𝑦(𝑡) = 𝑥(𝑡) + 𝜉(𝑡) – сигнал на его
выходе (𝜉(𝑡) – аддитивная помеха), то скорость передачи информации по непрерывному каналу связи будет определяться выражением (10.24), в котором величи1
ну надо заменить на 2𝐹max = 2𝐹к :
𝜏
𝑅(𝑥, 𝑦) = 2𝐹к [ℎ(𝑦) − ℎ(𝑦⁄𝑥)],
(10.32)
где, как и ранее 𝐻(𝑦) – это энтропия выходного сигнала, 𝐻(𝑦/𝑥) – энтропия
шума (почему она так называется, будет видно из дальнейшего изложения).
Пропускная способность равна максимально возможной скорости передачи
по каналу связи, когда источник сигнала полностью согласован с характеристиками канала связи:
𝐶 = 2𝐹к max[ℎ(𝑦) − ℎ(𝑦⁄𝑥 )].
(10.33)
Максимум 𝐻(𝑦) достигается в случае гауссовского закона распределения величины 𝑦. При этом:
232
max ℎ(𝑦) = log √2𝜋𝑒𝜎𝑦2 .
(10.34)
При учете влияния помехи необходимо рассматривать наихудший случай,
когда помеха распределена также по гауссовскому закону. Условная вероятность
𝑃(𝑦/𝑥) – это фактически плотность вероятности 𝑊(𝑦/𝑥) случайной величины 𝑦
при якобы известном заранее значении 𝑥, хотя величина 𝑥 является случайной. Но,
т.к. 𝑦(𝑡) = 𝑥(𝑡) + 𝜉(𝑡), можно записать:
𝑊(𝑦⁄𝑥 ) =
1
−
√2𝜋𝜎𝑦⁄𝑥
𝑒
(𝑥+𝜉)2
2𝜎𝑦2⁄𝑥
,
где 𝜎𝑦2⁄𝑥 – дисперсия величины 𝑦 при известном 𝑥, т.е. дисперсия помехи
𝜎𝜉2 = 𝜎𝑦2⁄𝑥 . Определим условную энтропию 𝐻(𝑦/𝑥):
ℎ(𝑦⁄𝑥 ) = 𝑚{− log 𝑊(𝑦⁄𝑥 )} = −𝑚 {log [
1
√2𝜋𝜎𝜉
−
𝑒
(𝑥+𝜉)2
2𝜎𝜉2
]}.
В этом выражении предполагается, что 𝑥 известно заранее. Таким образом,
величина 𝑥 в приведенном выражении является математическим ожиданием величины 𝑦. Однако известно, что энтропия непрерывного случайного процесса от мат.
ожидания не зависит. Тогда получаем:
ℎ(𝑦⁄𝑥 ) = −𝑚 {log [
1
√2𝜋𝜎𝜉
−
𝑒
𝜉2
2𝜎𝜉2
]} = −𝑚{log 𝑊(𝜉)} = 𝐻(𝜉).
Отсюда видно, почему условная энтропия 𝐻(𝑦/𝑥) называется энтропией шума.
Для гауссовского закона распределения помехи максимальное значение энтропии шума в соответствии (10.31) будет равно
ℎ(𝑦⁄𝑥 ) = ℎmax (𝜉) = log √2𝜋𝑒𝜎𝜉2 .
(10.35)
Подставляя (10.34) и (10.35) в (10.33), получаем:
𝐶 = 2𝐹к max [log √2𝜋𝑒𝜎𝑦2 − log √2𝜋𝑒𝜎𝜉2 ] = 2𝐹к log
Перенося число 2 под знак логарифма, получим:
233
𝜎𝑦
.
𝜎𝜉
(10.36)
𝜎𝑦2
𝐶 = 𝐹к log 2 .
𝜎𝜉
В этом выражении 𝜎𝜉2 = 𝑃𝜉 – мощность помехи, а 𝜎𝑦2 = 𝜎𝑥2 + 𝜎𝜉2 = 𝑃с + +𝑃𝜉 ,
где 𝑃с – мощность сигнала на выходе канала связи. С учетом этого получаем окончательную формулу для вычисления пропускной способности непрерывного канала связи (формулу Шеннона):
𝐶 = 𝐹к log (1 +
𝑃с
).
𝑃𝜉
(10.37)
В заключение отметим следующее.
Для достижения скорости передачи информации по непрерывному каналу
связи, близкой к пропускной способности канала связи, сигнал 𝑥(𝑡) по статической
структуре должен быть близок к флуктуационной помехе (белому шуму) с гауссовским законом распределения.
10.12.
Эпсилон-энтропия источника непрерывных сообщений
Сигнал на выходе источника (И) непрерывных сообщений (например, микрофона, телефона, датчика температуры и пр.) представляет собой непрерывный
случайный процесс, энтропия которого в любом из сечений в общем случае равна
бесконечности, как это было показано в разделе 10.10. Такое количество информации не может быть передано по реальному каналу связи, пропускная способность
которого всегда ограничена. Это и не нужно, т.к. скорость восприятия информации
любым потребителем на выходе канала всегда ограничена его физическими возможностями. Поэтому непрерывный сигнал на выходе канала связи даже без помех
отличается от сигнала на входе, т.к. содержит не всю информацию о нем (причем
под каналом связи можно понимать любое преобразование одного ансамбля сигналов в другое: модуляцию, усиление, дискретизацию и пр.). Уже преобразование
непрерывного сообщения в сигнал соответствующим устройством (микрофоном
или другим датчиком сигнала) связано с потерей части информации, а сигнал
отображает сообщении лишь с некоторой точностью:
𝜀(𝑡) = [𝑥(𝑡) − 𝑥̂(𝑡)],
где 𝑥(𝑡) – сигнал на входе преобразователя,
𝑥̂(𝑡) – сигнал на выходе преобразователя (Пр) или оценка входного сигнала
преобразователем, который всегда представляет собой некоторое решающее
устройство, работающее по определенному правилу и заданному критерию качества.
234
И
x(t)
Пр
^
x(t)
hε(x)
Рисунок 10.6.
Критерий качества, как известно, определяется потребителем информации.
Например, среднеквадратическое отклонение:
𝜀ср (𝑡) = 𝑚{[𝑥(𝑡) − 𝑥̂(𝑡)]2 }
или дисперсия ошибки
𝜎𝜀2 = 𝑚{𝜀 2 (𝑡)}
Эпсилон-энтропией 𝐻𝜀 (𝑥) (ε-энтропией) называется минимальное количество
информации, которое должно содержаться в выходном сигнале 𝑥̂(𝑡) о входном
сигнале 𝑥(𝑡), чтобы этот сигнал можно было восстановить с заданной точностью
𝜀ср .
ℎ𝜀 (𝑥) = min 𝐼(𝑥, 𝑥̂) = ℎ(𝑥) − max ℎ(𝑥/𝑥̂)
где 𝐼(𝑥, 𝑥̂) – взаимная информация 𝑥 и 𝑥̂,
ℎ(𝑥) и ℎ(𝑥/𝑥̂) – соответственно дифференциальная энтропия сигнала 𝑥(𝑡) и
условная энтропия 𝑥(𝑡), когда 𝑥̂(𝑡) известно; min и max берутся по всевозможным
условным ФПВ 𝑤(𝑥/𝑥̂).
В общем случае, когда сигнал (или сообщение) 𝑥(𝑡) является гауссовским с
дисперсией 𝜎𝑥2 , ошибка 𝜀(𝑡) также является гауссовской с дисперсией 𝜎𝜀2 , а с учетом аддитивного характера ошибки 𝜀(𝑡) условная энтропия ℎ(𝑥/𝑥̂) полностью
определяется дифференциальной энтропией ℎ(𝜀). Соответственно, max ℎ(𝑥/𝑥̂) =
max ℎ(𝜀) = log(𝜎𝜀 √2𝜋𝑒).
Тогда 𝜀 – энтропия одного сечения гауссовского источника (𝜀 – энтропия одного отсчета).
ℎ𝜀 (𝑥) = log(𝜎𝑥 √2𝜋𝑒) − log(𝜎𝜀 √2𝜋𝑒) = 0,5 log(𝜎𝑥2 /𝜎𝜀2 ).
Величина 𝜎𝑥2 /𝜎𝜀2 показывает отношение мощности (дисперсии) сигнала 𝑥(𝑡)
к мощности (дисперсии) ошибки, при котором среднеквадратическое отклонение
сигналов 𝑥(𝑡) и 𝑥̂(𝑡) не превышает 𝜎𝜀 .
Следовательно, производительность источника непрерывных сообщений
можно определить как количество информации, которое необходимо передавать в
единицу времени, чтобы восстановить сообщение с заданной точностью.
ℎ𝜀 (𝑥) = 𝑣ℎ𝜀 (𝑥),
235
где 𝑣 = 1/∆𝑡 – скорость передачи отсчетов на выходе источника,
∆𝑡 – интервал между отсчетами.
Для стационарного сигнала с ограниченным спектром ∆𝑡 = 1/(2𝐹max ), тогда
ℎ𝜀 (𝑥) = 2𝐹max ℎ𝜀 (𝑥).
Кроме того, если источник является гауссовским, то
ℎ𝜀 (𝑥) = 𝐹max log(𝜎𝑥2 /𝜎𝜀2 ) .
Количество информации, выдаваемое гауссовским источником за время 𝑇с ,
равно 𝑇с ℎ𝜀 (𝑥) = 𝑇с 𝐹max log(𝜎𝑥2 /𝜎𝜀2 ), что совпадает с формулой для объема сигнала,
когда динамический диапазон сигнала
𝐷с = log(𝜎𝑥2 /𝜎𝜀2 ).
Это значит, что объем сигнала на выходе источника равен количеству информации, которое содержится в сигнале, для его воспроизведения с заданной точностью.
Для канала с пропускной способностью 𝐶, на выходе которого подключен
источник с производительностью ℎ𝜀 (𝑥), теорема К. Шеннона для канала с шумами
принимает вид:
Если при заданном критерии точности источника (например, 𝜎𝜀 ) его эпсилонпроизводительность меньше пропускной способности канала ℎ𝜀 (𝑥) < 𝐶, то существует способ кодирования (преобразования сигнала), при котором неточность
воспроизведения сколь угодно близка к 𝜎𝜀 ; при ℎ𝜀 (𝑥) > 𝐶 такого способа не существует.
Теорема К. Шеннона определяет предельные возможности согласования источника непрерывных сообщений с каналом связи. Практически это достигается
применением помехоустойчивых видов модуляции и кодирования.
236
11.
Корректирующие коды
11.1. Принципы помехоустойчивого кодирования. Кодовое расстояние
В теории помехоустойчивого кодирования важным является вопрос об использовании избыточности для корректирования возникающих при передаче ошибок. Здесь удобно рассмотреть блочные коды, в которых всегда имеется возможность выделить отдельные кодовые комбинации. Напомним, что для равномерных
кодов число возможных комбинаций равно 𝐾 = 2𝑛 , где 𝑛 – значимость кода. В
обычном не корректирующем коде без избыточности число комбинаций K выбирается равным числу сообщений алфавита источника 𝐾0 , и все комбинации используются для передачи информации. Корректирующие коды строятся так, чтобы число комбинаций 𝐾 превышало число сообщений источника 𝐾0 . Однако в этом случае лишь 𝐾0 комбинаций из общего числа используется для передачи информации.
Эти комбинации называются разрешенными, а остальные 𝐾 − 𝐾0 комбинаций носят название запрещенных. На приемном конце на декодирующем устройстве известно, какие комбинации являются разрешенными и какие – запрещенными. Поэтому, если переданная разрешенная комбинация в результате ошибки преобразуется в некоторую запрещенную комбинацию, то такая ошибка будет обнаружена, а
при определенных условиях исправлена. Известно, что ошибки, приводящие к образованию другой разрешенной комбинации, не образуются.
Различие между комбинациями равномерного кода принято характеризовать
расстоянием, равным числу символов, которыми отличаются комбинации одна от
другой. Расстояние 𝑑𝑖𝑗 между двумя комбинациями 𝐴𝑖 и 𝐴𝑗 определяется количеством единиц в сумме этих комбинаций при сложении по модулю два.
Например:
110011
+
010110
100101
𝐴𝑖
𝐴𝑗
𝑑𝑖𝑗 = 3.
Для любого кода 𝑑𝑖𝑗 ≤ 𝑛 минимальное расстояние между разрешенными
комбинациями в данном коде называется кодовым расстоянием 𝑑, или расстоянием
по Хэмингу.
Введем коэффициенты, характеризующие обнаруживающую и исправляющую способность кодов (𝐾обн , 𝐾и ).
𝐾обн =
𝑃обн
,
𝑃ош
237
𝑃обн – вероятность обнаружения ошибок,
𝑃ош – общая вероятность ошибок.
𝐾обн =
𝑃обн 𝐾 − 𝐾0
𝐾
=
=1−
< 1.
𝑃ош
𝐾
𝐾0
Принцип направления ошибок следующий. Мы разбиваем все множество
комбинаций на ряд непересекающихся подпространство по количеству разрешенных комбинаций. Все запрещенные комбинации находятся в соответственных подпространствах разрешенных комбинаций. Если передавалась комбинация 𝐴1 и она
незначительно исказилась помехами и попала в подпространство 𝐴1 , то считаем,
что искажений не было. Коэффициент исправления:
𝐾и =
𝑃и
𝐾 − 𝐾0 𝐾обн
=
=
,
𝑃ош
𝐾0 ⋅ 𝐾
𝐾0
𝑃и – вероятность исправления ошибок.
𝐾обн в 𝐾0 раз больше 𝐾и .
Кратность ошибки – число искаженных элементов в одной комбинации. Если в комбинации 10110 искажено два элемента, то говорят, что ошибка двукратная. Кратность ошибок в значительной степени определяется каналом. Есть каналы, в которых ошибки случайны и независимы (в таких каналах с увеличением
кратности ошибок вероятность увеличивается), а есть каналы, в которых ошибки
пакетируются.
Pп(t)
а)
6
б)
3
t
1
2
3
4
Рисунок 11.1. Модели каналов
а) с независимыми ошибками;
б) с кратными ошибками (пакетирование)
0
Для правильности выбора кода необходимо знать статистику ошибок в канале.
11.2. Классификация корректирующих кодов
238
В настоящее время известно большое количество корректирующих кодов,
отличающихся как принципами построения, так и основными характеристиками.
Рассмотрим их простейшую классификацию (рис. 11.2).
Корректирующие коды
(не) двоичные
блочные
непрерывные
(не) разделимые
линейные
нециклические
Хэмминга,
Плоткина
и др.
нелинейные
циклические
Боуза-Чаудхури,
Файра, Голея,
Рида-Соломона
и др.
сверточные
инверсные, с пост.
весом и др.
R = 1/2, 1/3, 1/4, … ,
2/3, 3/4, 4/4, …
и др.
Рисунок 11.2. Классификация корректирующих кодов
Все известные в настоящее время коды могут быть разделены на две большие группы:
1) блочные;
2) непрерывные.
1. Блочные коды характеризуются тем, что последовательность передаваемых символов разделена на блоки. Операции кодирования и декодирования в каждом блоке производятся отдельно.
2. Отличительной особенностью непрерывных кодов является то, что первичная последовательность символов, несущих информацию, непрерывно преобразуется по определенному закону в другую последовательность, содержащую избыточное число символов. Здесь процессы кодирования и декодирования не требуют
деления кодовых символов на блоки.
3. Разновидностями как блочных, так и непрерывных кодов являются разделимые и неразделимые коды. В разделимых кодах всегда можно выделить информационные символы, содержащие передаваемую информацию, и контрольные
(проверочные) символы, которые являются избыточными и служат исключительно
для коррекции ошибок. В неразделимых кодах такое разделение символов провести невозможно.
239
Наиболее многочисленный класс разделимых кодов составляют линейные коды. Основная их особенность состоит в том, что контрольные символы образуются
как линейные комбинации информационных символов.
4. В свою очередь, линейные коды могут быть разбиты на два подкласса:
систематические и несистематические. Все двоичные систематические коды являются групповыми. Групповые характеризуются принадлежностью кодовых комбинаций к группе, обладающей тем свойством, что сумма по модулю два для любой пары комбинаций снова дает комбинацию, принадлежащую этой группе. Линейные коды, которые не могут быть отнесены к подклассу систематических, называются несистематическими.
В вертикальных прямоугольниках представлены некоторые конкретные коды, рассматриваемые далее.
11.3. Обнаруживающая и исправляющая способность кодов
Для лучшего понимания сущности обнаружения и исправления ошибок воспользуемся пространственными представлениями.
Для обнаружения ошибок все пространство кодовых слов подразделяется на
два подпространства – разрешенных и запрещенных комбинаций (кодовых слов).
Nразр = 2k
Nзапр = 2n – 2k
кодовое
слово
кодовое
слово
Nразр
ошибка не
обнаружена
ошибка
обнаружена
Nзапр
Рисунок 11.3. Сущность обнаружения ошибок
Следует заметить, что если из-за воздействия помех одна разрешенная кодовая комбинация преобразуется в другую разрешенную кодовую комбинацию, то
такая ошибка, хотя она и присутствует, обнаружена не будет.
Для исправления ошибок все пространство кодовых слов разбивается на 2𝑘
подпространств (непересекающихся).
240
кодовое
слово
кодовая
комбинация,
соответствующая
этому
подпространству
кодовая
комбинация,
соответствующая
этому
подпространству
кодовое
слово
Рисунок 11.4. Сущность исправления ошибок
В каждом подпространстве находится одна разрешенная комбинация (обозначена кружком «○») и некоторое количество запрещенных из общего количества
2𝑛 − 2𝑘 (обозначенных точками «•»). Все запрещенные кодовые комбинации распределяются по 2𝑘 подпространствам по принципу «близости» к разрешенной кодовой комбинации данного подпространства (т.е. отличающиеся в одном или двух
и т.д. знаках от разрешенной кодовой комбинации).
Исправление ошибок производится в два этапа:
1. Определяется кодовое расстояние между пришедшей кодовой комбинацией и всеми разрешенными кодовыми комбинациями.
2. Решение принимается в пользу той разрешенной кодовой комбинции, для
которой кодовое расстояние будет наименьшим (т.е. реализуется критерий идеального наблюдателя).
Для получения некоторых количественных соотношений рассмотрим две
комбинации 𝐴𝑖 и 𝐴𝑗 , расстояние между которыми условно обозначено на рис. 11.5,
а, где промежуточные комбинации отличаются друг от друга одним символом.
а) Ai
110011 010011 010111 010110
Aj
dij = 3
A0
d0
б) Aр1
Aр2
d
dи
dи
в) Aр1
Aр1
d
Рисунок 11.5. Иллюстрация для определения кодовых расстояний при обнаружении и исправлении ошибок
В общем случае некоторая пара разрешенных комбинаций 𝐴р1 и 𝐴р2 , разделенных кодовым расстоянием 𝑑, изображена на прямой рис. 11.5, б, где точками
241
указаны запрещенные комбинации. Для того, чтобы в результате ошибки комбинация 𝐴р1 преобразовалась в другую разрешенную комбинацию 𝐴р2 , должно исказиться 𝑑 символов. При искажении меньшего числа символов комбинация 𝐴р1 перейдет в запрещенную комбинацию и ошибка будет обнаружена. Отсюда следует,
что ошибка всегда обнаруживается, если ее кратность, т.е. число искаженных символов в кодовой комбинации
𝑡обн ≤ 𝑑 − 1.
(11.1)
Если 𝑡обн > 𝑑, то некоторые ошибки также обнаруживаются. Однако полной
гарантии обнаружения ошибок здесь нет, т.к. ошибочная комбинация в этом случае
может совпасть с какой-либо разрешенной комбинацией. Минимальное кодовое
расстояние, при котором обнаруживаются любые одиночные ошибки, 𝑑 = 2.
Процедура исправления ошибок в процессе декодирования сводится к определению переданной комбинации по известной принятой. Расстояние между переданной разрешенной комбинацией и принятой запрещенной комбинацией 𝑑0 равно
кратности ошибок 𝑡. Если ошибки в символах комбинации происходят независимо
относительно друг друга, то вероятность искажения некоторых 𝑡 символов в nзначной комбинации будет равна:
𝑃𝑡 = 𝑃о𝑡 (1 − 𝑃о )𝑛−𝑡 ,
(11.2)
где 𝑃о – вероятность искажения одного символа.
Т.к. обычно 𝑃о ≪ 1, то вероятность многократных ошибок уменьшается с
увеличением их кратности, при этом более вероятные меньше расстояния 𝑑0 . В
этих условиях исправление ошибок может производиться по следующему правилу.
Если принята запрещенная комбинация, то считается переданной ближайшая разрешенная комбинация. Например, пусть образовалась запрещенная комбинация 𝐴0
(рис. 11.5, б), тогда принимается решение, что была передана комбинация 𝐴1 . Это
правило декодирования для указанного распределения ошибок является оптимальным, т.к. оно обеспечивает исправление максимального числа ошибок. В общем
случае оптимальное правило декодирования зависит от распределения ошибок (их
статистики). Напомним, что аналогичное правило используется в теории потенциальной помехоустойчивости при оптимальном приеме дискретных сигналов, когда
решение сводится к выбору того переданного сигнала, который в наименьшей степени отличается от принятого. Нетрудно определить, что при таком правиле декодирования будут исправляться все ошибки кратности:
𝑑−1
.
(11.3)
2
Минимальное значение 𝑑, при котором еще возможно исправление любых
одиночных, равно 3.
Возможно также построение таких кодов, в которых часть ошибок исправляется, а часть только обнаруживается. Так, в соответствии с рис. 11.5, в, ошибки
𝑡≤
242
кратности 𝑡 < 𝑑и исправляются, а ошибки, кратность которых лежит в пределах
𝑑и ≤ 𝑡 ≤ 𝑑 − 𝑑и , только обнаруживаются. Что касается ошибок, кратность которых
сосредоточена в пределах 𝑑 − 𝑑и ≤ 𝑡 ≤ 𝑑, то они обнаруживаются, однако при их
исправлении принимается ошибочное решение – считается переданной комбинацией 𝐴р2 вместо 𝐴р1 или наоборот.
Существуют двоичные системы связи, в которых решающее устройство выдает, кроме обычных символов 0 и 1, еще так называемый символ стирания θ. Этот
символ соответствует приему сомнительных сигналов, когда затруднительно принять определенное решение в отношении того, какой из символов, 0 или 1, был передан. Принятый символ в этом случае стирается. Однако при использовании корректирующего кода возможно восстановление стертых символов.
Если в кодовой комбинации число символов 𝜃 оказалась равным 𝑡с , причем
𝑡с ≤ 𝑑 − 1,
(11.4)
а остальные символы приняты без ошибок, то такая комбинация полностью
восстанавливается.
Корректирующая способность кода возрастает с увеличением 𝑑. При фиксированном числе разрешенных комбинаций 𝐾0 увеличение 𝑑 возможно лишь за счет
роста количества запрещенных комбинаций
𝐾з = 𝐾 − 𝐾0 = 2𝑛 − 2𝑘 ,
(11.5)
что, в свою очередь, требует избыточного числа символов 2 = 𝑛 − 𝑘, где 𝑘 –
количество символов в комбинации кода без избыточности. Можно ввести понятие
избыточности кода и количественно определить ее:
æ=
𝑛−𝑘
log 2 𝐾0
=1−
.
𝑛
log 3 𝐾
(11.6)
При независимых ошибках вероятность определенного сочетания 𝑡 ошибочных символов в n-значной кодовой комбинации выражается формулой (11.2), а количество всевозможных сочетаний 𝑡 ошибочных символов в комбинации зависит
от ее длины и определяется известной формулой числа сочетаний:
𝑛!
.
𝑡! (𝑛 − 𝑡)!
Отсюда полная вероятность ошибки кратности 𝑡, учитывающая все сочетания ошибочных символов, равняется:
𝐶𝑛𝑡 =
𝑃𝑎𝑡 = 𝐶𝑛𝑡 𝑃о1 (1 − 𝑃о )𝑛−𝑡 .
(11.7)
Используя (11.7), можно записать формулу, определяющую вероятность отсутствия ошибок в кодовой комбинации, т.е. вероятность правильного приема:
243
𝑃пр = (1 − 𝑃о )𝑛 ,
и вероятность правильного корректирования ошибок:
𝑃кор = ∑ 𝑃𝑎𝑡 = ∑ 𝐶𝑛𝑡 𝑃о1 (1 − 𝑃о )𝑛−1 .
𝑡
𝑡
Здесь суммирование производится по всем значениям кратности ошибок 𝑡,
которые обнаруживаются и исправляются. Таким образом, вероятность необнаруженных ошибок равна:
𝑃но = 1 − 𝑃пр − 𝑃кор = 1 − (1 − 𝑃о )𝑛 − ∑ 𝐶𝑛𝑡 𝑃о1 (1 − 𝑃о )𝑛−1 .
(11.8)
𝑡
Вероятность 𝑃но , избыточность æ и число символов 𝑛 являются основными
характеристиками корректирующего кода, определяющими, насколько удается повысить помехоустойчивость передачи дискретных сообщений и какой ценой это
достигается.
11.4. Простейшие корректирующие коды
Порядок рассмотрения:
1) название;
2) принцип обнаружения ошибок;
3) код коэффициента обнаружения;
4) вероятность ошибки;
5) вероятность необнаруженной ошибки;
6) избыточность кода.
1. 1) Код с проверкой на четность.
К информационным символам добавляется один проверочный так, чтобы
число единиц было четным, например:
101101
К=5
𝑛=6
2) Обнаруживает все ошибки нечетной кратности. Принцип обнаружения –
проверка на прочность.
244
K-K
26 -25
0
3) K обн =
= 6 = 1-2-2 = 0,5.
K
2
4) 𝑃ош = 1 − 𝑃пр = 1 − (1 − 𝑃о )6 .
Если ошибка двукратная, четырехкратная, шестикратная – ошибка не обнаруживается.
5) Pно = C62 Pо2 (1-Pо )4 + C62 P 4 (1-Pо )2 + C66 P 6 .
Вероятность
Вероятность Вероятность
2-хкратной
4-хкратной
6-тикратной
ошибки
ошибки
ошибки
r
1
6) æ = = = 0,17. Код разделимый, блочный.
n
6
2. 1) Код с постоянным весом.
Вес – число единиц в кодовой комбинации длиной 𝑛. Код 3:4 (3 единицы, 4
нуля).
1011000
0000111
2) Обнаруживает все ошибки нечетной кратности и 50% ошибок четной
кратности. Не обнаруживаются такие ошибки четной кратности, когда количество
искаженных единиц равно количеству искаженных нулей.
𝐾−𝐾0
3) 𝐾обн =
.
𝐾
𝐾 = 27 = 128,
7!
𝐾0 = 𝐶73 =
= 35,
3!⋅4
128−35
𝐾обн =
= 0,73.
128
4) 𝑃ош = 1 − (1 − 𝑃о )7.
5) 𝑃но = 𝐶31 𝑃о (1 − 𝑃о )2 + 𝐶41 𝑃о (1 − 𝑃о )3.
Вероятность
Вероятность
искажения 1
искажения 0
Ошибки не обнаруживаются, если произойдет 2х кратная ошибка, т.е.
1→
0 и одновременно 0 → 1 (или 2 ед → 0 и 2 нуля → 1; или 3 ед → 0, 3 нуля → 1).
𝑃но = 𝐶31 𝑃о (1 − 𝑃о )2 ⋅ 𝐶41 𝑃о (1 − 𝑃о )3 + 𝐶32 𝑃о2 (1 − 𝑃о ) ⋅ 𝐶42 𝑃о2 (1 − 𝑃о )2 +
+𝐶33 𝑃о3 𝐶43 𝑃о3 (1 − 𝑃о ).
6) Избыточность кода:
𝐻
−𝐻(𝑥)
log 128−log2 35
log 128−log2 32
7−5
2
æ = max
= 2
≅ 2
=
= = 0,28
𝐻max
log2 128
log2 128
7
7
(в приближенной оценке вместо 35 взяли 32).
Код блочный, неразделимый, систематический.
3. 1) Инверсный код.
Имеет 5 информационных и 5 проверочных символов (𝐾 = 5, 𝑟 = 5).
245
2) Если в информационной части четное число единиц, то проверочные
символы образуются повторением информационной части.
инф.
пров.
10111 10111
Σ0 = 0
11010 00101
Σ0 = 5
Если нечетное число единиц в информационной части, то проверочные образуются из информационных путем инвертирования. В противном случае обнаруживающая способность кода будет хуже.
210 −25
𝐾−𝐾
1
1
0
3) 𝐾обн =
= 10 = 1 − 5 = 1 − ≅ 0,97.
𝐾
2
2
32
Код обнаруживает все одиночные, двойные, тройные ошибки и все ошибки
нечетной кратности.
Не обнаруживаются ошибки 4-й кратности, когда в проверочной части искажены те же элементы, что и в информационной.
4) 𝑃ош = 1 − (1 − 𝑃о )10 .
5) 𝑃но = 𝐶52 𝑃о2 (1 − 𝑃о )3 ⋅ 𝑃о2 (1 − 𝑃о )3 .
Вероятность Вероятность
искажения 2-х элементов искажения тех же элементов
информационной части проверочной части
𝑛−𝑘
5
1
6) æ =
= = .
𝑛
10
2
Код блочный, разделимый, систематический, 50% информационной части
повторяется.
4. Цепной код (непрерывный или рекуррентный).
Строится так, чтобы число проверочных символов равнялось числу информационных, т.е. æ = 1 ⁄ 2, и они чередуются:
𝑎𝑖 – информационные символы;
𝑏𝑖 – проверочные символы.
𝑎1 𝑏1 𝑎2 𝑏2 𝑎3 𝑏3 . . . 𝑎𝑘 𝑏𝑘 𝑎𝑘+1 𝑏𝑘+1 …
𝑏1 = 𝑎1 ⊕ 𝑎2 ; 𝑏2 = 𝑎2 ⊕ 𝑎3 ,
𝑎1 и 𝑎2 – различные информационные символы,
символ «⊕» означает сложение по модулю 2.
𝑏𝑘 = 𝑎𝑘 ⊕ 𝑎𝑘+1 .
(11.9)
При ошибочном приеме некоторого корректирующего символа 𝑏𝑖 соотношение (11.1) не выполняется для 𝑖 = 𝑘.
В случае ошибочного приема информационного символа 𝑎𝑖 соотношение
(11.1) не будет выполняться при двух значениях 𝑘: 𝑘1 = 𝑖 − 1 и 𝑘2 = 𝑖.
246
Отсюда правило исправления ошибок при декодировании. В принятой кодовой последовательности для каждого 𝑏𝑘 проверяется соотношение (11.1). Если оно
оказалось невыполненным при двух значениях 𝑘 (𝑘 = 𝑘1 и 𝑘 = 𝑘2 ) и при этом 𝑘2 −
𝑘1 = +1, информационный элемент 𝑎𝑘+1 заменяется на противоположный.
Избыточность кода æ = 1 ⁄ 2, что позволяет исправлять все ошибки, если
они возникают достаточно редко. Он обеспечивает правильное декодирование, когда между двумя ошибочно принятыми символами имеется не менее трех правильно принятых. При этом учитываются как информационные, так и корректирующие
символы.
11.5. Сложные систематические коды
1. Систематический (𝑛, 𝑘) код.
Представляет собой набор n-разрядных кодовых комбинаций, в которых 𝑘
разрядов (обычно первые) представляют собой результат примитивного кодирования сообщения. Они называются информационными разрядами. Остальные 𝑢 − 𝑘
разрядов образуются по определенным правилам из информационных, они называются проверочными (корректирующими) и служат для обнаружения и исправления ошибок. Так, например, код (7,4) – это код, в котором семиэлементная кодовая
комбинация содержит 4 информационных символа.
Другими словами, процесс кодирования сообщения можно представить последовательностью двух процессов – сначала производится кодирование равномерным n-разрядным кодом без внесения избыточности, а затем к каждой кодовой
комбинации приписываются сформированные по определенным правилам 𝑛 − 𝑘
корректирующих разрядов.
Приведем пример построения кода (7,4). Как видно из обозначения, 4 разряда
кодовой комбинации заняты информационными символами. Обозначение их 𝑎1 ,
𝑎2 , 𝑎3 , 𝑎4 . Остальные 3 разряда заняты корректирующими символами, которые
обозначим 𝑏1 , 𝑏2 , 𝑏3 . Символы 𝑏𝑖 определяются уравнениями:
𝑎1 ⊕ 𝑎2 ⊕ 𝑎3 ⊕ 𝑏1 = 0,
𝑎2 ⊕ 𝑎3 ⊕ 𝑎4 ⊕ 𝑏2 = 0,}
𝑎1 ⊕ 𝑎2 ⊕ 𝑎4 ⊕ 𝑏3 = 0,
(11.10)
где сложение производится по модулю 2. Так, например, если информационными символами являются 1 0 0 1, то корректирующими должны быть
1 1 0. В
таком коде 𝑑min = 3.
Отсюда следует, что, используя такой код, можно всегда обнаруживать
ошибку, если ошибочно принято не более двух символов в комбинации, либо исправлять ошибку, если ошибочно принят один символ.
С целью обнаружения ошибок принятая кодовая комбинация подвергается
проверке на удовлетворение уравнениям, используемых для формирования коррек247
тирующих символов (11.10), т.е. проверкой на четность, поскольку ∑𝑖 𝑥𝑖 = 0
(mod 2).
Если хотя бы одно из этих уравнений не удовлетворено, то принятая комбинация не принадлежит к числу разрешенных, и, следовательно, в процессе передачи произошла ошибка.
При исправлении ошибок необходимо учитывать, какие из уравнений не
удовлетворены, и руководствоваться специальными правилами:
1. Например, если из уравнений (11.10) два оказываются справедливыми, а
одно не удовлетворяется, то ошибочно принятым следует считать один из корректирующих символов и принятая комбинация может быть декодирована по информационным символам без каких-либо исправлений.
2. Если не удовлетворены первые два уравнения, то подлежит исправлению
(замене 0 на 1 или 1 на 0) символ 𝑎3 , который входит в оба этих уравнения. Если не
удовлетворены 1 и 3 уравнения, то исправлению подлежит символ 𝑎1 . Если не удовлетворены 2-е и 3-е уравнение, исправлению подлежит символ 𝑎4 . Наконец, если
все три уравнения не удовлетворены, то исправлению подлежит символ 𝑎2 . Если в
кодовой комбинации ошибочно приняты два или более символов, то такая комбинация не будет правильно декодирована.
Групповой код (𝑛, 𝑘) можно однозначно определить, задав всего лишь 𝑘 входящих в него линейных независимых комбинаций. Они образуют производящую
матрицу 𝐺, имеющую 𝑘 строк и 𝑛 столбцов. По ней можно построить все остальные кодовые комбинации, складывая (по разряду и по модулю 2) попарно по три,
по четыре и т.д. строки производящей матрицы.
В частности, складывая любую строку саму с собой, получим нулевую комбинацию (состоящую из 𝑛 нулей).
Для кода (𝑛, 𝑘) производящая матрица может быть записана в таком виде:
r
𝑎11
𝑎
𝐺 = ‖ 21
⋮
𝑎1𝑘
𝑎21
𝑎22
. . . 𝑎𝑘1
. . . 𝑎𝑘2
𝑏11
𝑏12
. . . 𝑏𝑟1
. . . 𝑏𝑟2
𝑎2𝑘
. . . 𝑎𝑘𝑘
𝑏1𝑘
. . . 𝑏𝑟𝑘
‖
n
𝐺 – производящая матрица.
Путем разрядного суммирования можно получить любую кодовую комбинацию.
Для декодирования с обнаружением или исправлением ошибок в памяти декодера достаточно хранить проверочную матрицу 𝐻, содержащую 𝑛 − 𝑘 строк и 𝑛
столбцов. В каждой строке этой матрицы единицы находятся в тех разрядах, которые входят в соответствующее проверочное уравнение (11.10). В нашем примере:
𝑟
248
a11
a
H = ‖ 21
⋮
a1r
a21
a22
...
...
ak1
ak2
1
0
0
1
0
0
...
akr
0
0
1
‖
𝑟 (единичная матрица)
𝑛
2. Циклические коды (систематический блочный код).
Разрешенные комбинации циклического кода можно вычислить последовательно, применяя две операции: циклическую перестановку и суммирование по
модулю 2. Циклическая перестановка менее трудоемкая, и это обстоятельство полезно использовать для упрощения процесса вычислений. Расширим производящий момент кода (7,4) до семи членов, применяя нулевые коэффициенты:
𝑔(𝑥) = 0 ⋅ 𝑥 6 + 0 ⋅ 𝑥 5 + 0 ⋅ 𝑥 4 + 1 ⋅ 𝑥 3 + 0 ⋅ 𝑥 2 + 1 ⋅ 𝑥 1 + 1 ⋅ 𝑥 0 ,
𝑔(𝑥) = 1 ⋅ 𝑥 3 + 0 ⋅ 𝑥 2 + 1 ⋅ 𝑥 1 + 1 ⋅ 𝑥 0 → 1011.
Запишем первую комбинацию: 0 0 0 1 0 1 1.
Применив шесть раз операцию циклической перестановки, можно записать
следующие шесть комбинаций. Дальнейшее применение перестановки теряет
смысл (они будут приводить к повторению уже имеющихся). Просуммируем по
модулю два любые две комбинации из уже имеющихся. Получим комбинацию, содержащую четыре единицы и три нуля. Следующие шесть комбинаций получаются
в результате шестикратной циклической перестановки ее элементов.
Чтобы получить пятнадцатую комбинацию, нужно найти среди ранее полученных четырнадцати любую пару взаимно противоположных и просуммировать
их по модулю 2 (𝑑𝑖𝑗 = 7). Получим комбинацию, состоящую из семи единиц.
Шестнадцатую комбинацию (состоящую из 7 нулей) не используют, ее можно вычислить, прибавив к любой из имеющихся комбинаций ее же по модулю 2.
Рассмотрим еще один способ нахождения разрешенных кодовых комбинаций, который широко применяется на практике.
Пусть 𝑃(х) – информационный полином, наивысшая степень которого
𝑘−
1 (состоит из 𝑘 элементов). Умножим каждый информационный многочлен на выравнивающий полином 𝑥 𝑟 (в нашем случае 𝑥 3 ), что соответствует приписыванию
справа 𝑟 нулей. Разделим полученный результат на производящий полином 𝑔(𝑥),
операция деления выполняется по модулю 2.
𝑃(𝑥) ⋅ 𝑥 𝑟
𝑅(𝑥)
= 𝑄(𝑥) +
,
𝑔(𝑥)
𝑔(𝑥)
где 𝑄(𝑥) – частное от деления, нас не интересует,
𝑅(𝑥) – остаток от деления.
249
Если остаток от деления добавить к 𝑃(𝑥), то получим комбинацию, делящуюся без остатка на производящий полином, т.е. разрешенную комбинацию данного
кода.
Пример:
𝑃(𝑥) = 1001,
𝑃(𝑥) = 𝑥 3 + 1,
𝑃(𝑥) ⋅ 𝑥 3 = 1001000,
𝑃(𝑥) ⋅ 𝑥 3 = 𝑥 6 + 𝑥 3 .
𝑥6 + 𝑥3
𝑥3 + 𝑥 + 1
1001000 1011
+ 6
|
+ 1011
|
𝑥 + 𝑥4 + 𝑥3 𝑥3 + 𝑥
101
1000
𝑥4
+1011
+ 4
𝑥 + 𝑥2 + 𝑥
110
𝑥2 + 𝑥
𝑅(𝑥) = 110,
𝑅(𝑥) = 𝑥 2 + 𝑥.
Разрешенная кодовая комбинация имеет вид:
𝑃(𝑥) ⋅ 𝑥 3 + 𝑅(𝑥) = 1001110, 𝑃(𝑥) ⋅ 𝑥 3 + 𝑅(𝑥) = 𝑥 6 + 𝑥 3 + 𝑥 2 + 𝑥.
В приемнике (декодере) принятая кодовая комбинация делится на производящий полином. При нулевом остатке комбинация принята верно, либо содержит
необнаруженную ошибку; остаток от деления указывает, что комбинация принята с
обнаруженной ошибкой. По виду остатка может быть определен искаженный элемент в информационной части принятой комбинации (формируется так называемый синдром).
250
12.
Системы передачи сообщений с обратной связью
12.1. Классификация систем с обратной связью
Все системы передачи сообщений могут быть разделены на две группы: прямые системы передачи и системы с обратной связью.
В прямых системах связи повышение достоверности передачи сообщений
достигается выбором соответствующего способа передачи и приема сигналов, а
также применением корректирующих кодов, исправляющих ошибки.
В последние годы довольно широкое распространение получили системы, в
которых для повышения достоверности (помехоустойчивости) передачи сообщений используются обратные каналы связи. Если система связи является двухсторонней (сообщения передаются в оба направления), то каждый из каналов связи
может использоваться для повышения помехоустойчивости обратного для него канала методами обратной связи.
Передатчик
Вх.
Кодирующее
устройство
ξ(t)
Генератор
сигналов
Линия
связи
Приемник
Решающее
устройство
Декодирующее
устройство
Вых.
1
2
3
Рисунок 12.1. Варианты построения систем с обратной связью
Обратной связью могут быть охвачены различные части системы передачи.
Три основных варианта показаны на рис. 12.1.
1. В первом варианте обратная связь охватывает и контролирует только линию связи. По обратному каналу передаются только сведения о качестве принимаемого сигнала. Роль обратной связи при этом состоит в том, чтобы в соответствии с
состоянием сигнала на входе приемника измерить параметры передаваемых сигналов: мощность передатчика, скорость передачи сигналов, или вообще прекратить
передачу при особо неблагоприятных условиях (например, в системах метеорной
связи и т.д.).
2. Обратная связь включена после первого решающего устройства. По обратному каналу передаются сведения о принятых решениях: например, после демодулятора приемника или после регистрации элементов кодовых комбинаций.
251
3. Обратная связь охватывает всю систему, включая кодирующее устройство передатчика и декодирующее (второе решающее) устройство приемника. По
обратному каналу связи передаются сведения о принимаемых кодовых комбинациях.
В системах с обратной связью (варианты 2 и 3) на основании поступающих
по обратному каналу сведений производится либо повторная передача сомнительных сигналов, либо передача данных о необходимых исправлениях. Следовательно, если в прямых системах связи избыточность, необходимая для обнаружения и
исправления ошибок, должна быть введена в каждую передаваемую кодовую комбинацию, то в системах с обратной связью избыточность, необходимая для исправления ошибки, вводится только тогда, когда эта ошибка обнаружена. Поэтому прямые системы связи иногда называют системами с постоянной избыточностью, а
системы с обратной связью – системами с переменной избыточностью. В прямых
системах связи постоянная избыточность обусловлена избыточностью применяемого для исправления ошибок корректирующего кода. В системах с обратной связью для исправления ошибок используется только переменная избыточность (неправильно принятые сообщения повторяются); обнаружение же ошибок может
осуществляться как за счет постоянной избыточности, т.е. применения обнаруживающего ошибки корректирующего кода, так и без постоянной избыточности, когда ошибки обнаруживаются путем анализа характера искажений принимаемых
сигналов (поэлементная проверка).
Известно, что для обнаружения ошибок всегда требуется значительно меньшая постоянная избыточность, чем для исправления ошибок. Поэтому системы с
обратной связью могут работать с меньшей удельной избыточностью (избыточностью, отнесенной к одной исправленной ошибке), чем прямые системы связи и, таким образом, являются статистически более согласованными.
Необходимость в специальном канале связи технически усложняет системы с
обратной связью. Кроме того, эффективность систем с обратной связью несколько
снижается за счет ошибок, возникающих в канале обратной связи. Для исправления ошибок в сигналах обратной связи, как правило, используется канал передачи
сообщений, который для этих сигналов уже является каналом обратной связи. В то
же время применение обратной связи не требует применения сложных методов кодирования сообщений для повышения достоверности передачи, а, следовательно,
по сравнению с прямыми системами связи с исправлением ошибок упрощается
техническая реализация кодирующих и декодирующих устройств.
По способу использования канала обратной связи системы с обратной связью
(второй и третий вариант) могут быть разделены на:
- системы с информационной обратной связью (ИОС) или системы со сравнением;
- системы с решающей обратной связью (РОС) или системы с переспросом.
Информационная обратная связь
252
В системах с информационной обратной связью приемная сторона по обратному каналу только информирует передатчик, какое сообщение принято или каким
определяющими признаками оно обладает. На основании этой информации передатчик либо подтверждает правильность принятых сообщений, либо вносит те или
иные изменения в процесс передачи сообщения, например, повторяет ошибочно
принятые сообщения, изменяет применяемый код и т.д.
Простейшим по реализации методом ИОС является метод полной обратной
ретрансляции принятых сообщений. Передатчик сравнивает ретранслированные по
обратному каналу кодовые комбинации сообщения с фактически переданными. В
случае их несовпадения передается сигнал для стирания принятой комбинации, а
затем повторно передается нужная комбинация. В качестве сигнала для стирания
используется специальная кодовая комбинация, не применяемая для передачи сообщений. В такой системе связи ошибка не исправляется только в том случае, если
ошибка в прямом канале компенсируется ошибками в канале обратной связи. Вероятность такой ошибки равна 𝑃н = 𝑃1 ∙ 𝑃2 , где 𝑃1 – вероятность ошибки в прямом
канале, 𝑃2 – вероятность ошибки в канале обратной связи.
Особой опасностью в системах с ИОС является искажение или ложный прием сигнала стирания. В первом случае сигнал стирания принимается как комбинация сообщения и повторно принимается повторяемая кодовая комбинация, ложно
принятая за сигнал стирания, и стирается предшествующая кодовая комбинация
сообщения. Чтобы уменьшить вероятность такого рода групповых ошибок, сигнал
стирания кодируется так, чтобы обеспечить как можно большее кодовое расстояние по отношению к кодовым комбинациям сообщения.
Другим недостатком метода полной ретрансляции является большая нагрузка
канала обратной связи, т.к. сообщения должны быть полностью переданы как по
прямому, так и по обратному каналам. Поэтому более совершенным методом ИОС
является метод передачи по каналу обратной связи только определяющих признаков (квитанций) группы принятых комбинаций сообщения. Квитанция всегда значительно короче группы комбинаций сообщения, т.к. она несет только признаки,
отличающие данную группу комбинаций сообщения от соседних групп. Принцип
исправления ошибок при передаче укороченных квитанций тот же, что и при полной ретрансляции. Принятая квитанция сравнивается с хранящейся в передатчике,
и в зависимости от результатов сравнения либо передается следующая группа комбинаций сообщения, либо передается сигнал стирания и повторяется искаженная
группа комбинаций сообщения. Уменьшение нагрузки обратного канала связи
имеет значение особенно в том случае, когда сообщения передаются как по прямому, так и по обратному каналам. При этом для обратного канала прямой канал используется в качестве канала обратной связи. Естественно, что чем длиннее квитанции, тем меньше средняя скорость передачи сообщений по этим каналам связи.
Решающая обратная связь
В системах с решающей обратной связью (с переспросом) решение об отсутствии ошибок в принятой комбинации сообщения осуществляется приемником.
253
Обнаружение ошибок в системах с переспросом осуществляется либо путем
проверки принятых комбинаций в процессе декодирования, либо путем поэлементной проверки элементов принятой комбинации в первом решающем устройстве. Довольно часто оба способа обнаружения ошибок используются совместно.
Для обнаружения ошибок путем проверки принимаемых кодовых комбинаций передаваемые сообщения кодируются корректирующим кодом (кодом с избыточностью). Выбор кода производится в соответствии со свойствами канала связи.
Кодовая комбинаций сообщения считается принятой правильно, если она относится к разрешенной комбинации данного корректирующего кода и неправильно принятой, если она принадлежит к неразрешенным комбинациям.
Для обнаружения ошибок путем поэлементной проверки принимаемых сигналов применение корректирующего кода не обязательно. Одним из возможных
способов поэлементной проверки является способ сравнения принимаемой элементарной посылки с контрольным импульсом (рис. 12.2). Длительность и амплитуда
контрольного импульса выбирается в соответствии с параметрами канала связи и
требуемой помехоустойчивостью.
контрольный импульс
X(t)
t
U0
tи
t
сигнал
Рисунок 12.2. Способ сравнения принимаемой посылки с контрольным импульсом
Контрольный импульс с амплитудой 𝑈0 и длительностью 𝑡и располагается в
средней части принимаемых элементарных посылок. Ошибка считается обнаруженной, если огибающая сигнала попадает в зону, ограниченную контрольным импульсом.
Поэлементная проверка может применяться как самостоятельно, так и в сочетании с корректирующими кодами. В последнем случае обеспечивается значительное усиление эффективности корректирующих кодов.
В случае обнаружения ошибки по каналу обратной связи передается сигнал
переспроса, для которого используется специальная кодовая комбинация. По этому
сигналу передатчик повторяет неправильно принятую комбинацию, которой обычно предшествует сигнал предупреждения о повторении. Применение системы с переспросом особенно целесообразно при организации дуплексной связи, когда в
254
каждом направлении передаются сообщения, а при необходимости передача сообщений прекращается и посылается сигнал переспроса.
Вероятность ошибочного приема комбинации сообщения в системах с переспросом определяется обнаруживающей способностью используемого корректирующего кода. Как и в системе с информационной обратной связью, в системах с
переспросом возможны групповые ошибки, возникающие при ложном приеме сигнала переспроса или пропуске этого сигнала. Поэтому к кодированию сигнала переспроса предъявляются особо жесткие требования.
В заключение необходимо отметить одно обстоятельство, относящееся как к
системам связи с ИОС, так и к системам связи с РОС. Т.к. сигналы по каналам связи распространяются с конечной скоростью, то после передачи очередной комбинации сообщения сигнал обратной связи, подтверждающий или отрицающий прием данной комбинации, поступает через значительный промежуток времени. Чтобы не было потери времени, передатчик передает другие комбинации сообщения.
В скоростных системах связи до получения сигнала обратной связи может быть
передано несколько десятков кодовых комбинаций. Как правило, в этом случае
трудно однозначно определить, к какой комбинации сообщения относится сигнал
стирания (ИОС) или сигнал переспроса (РОС). Поэтому, например, в системах связи с переспросом передатчик по сигналу переспроса должен повторять не одну, а
значительно большее число ранее переданных кодовых комбинаций с учетом времени замедления в канале связи так, чтобы ошибочно принятая комбинация обязательно оказалась в числе повторяемых. Передатчик, а иногда и приемник должны
содержать специальные запоминающие устройства, в которых хранятся комбинации сообщения до получения соответствующих сигналов обратной связи.
Время распространения сигналов по кольцу обратной связи (приемник – линия связи – передатчик – линия связи – приемник) называют периодом или циклом
повторения. Чем больше период повторения системы связи, тем больше времени
затрачивается на исправление обнаруженной ошибки.
Помехоустойчивость и скорость передачи в системе связи с переспросом
При оценке помехоустойчивости систем с обратной связью необходимость
учитывать вероятность необнаруженных ошибок, возникающих при первичном и
повторном приеме элементов сообщения, а также ошибок, возникающих при искажении сигналов обратной связи.
Пусть вероятность необнаруженной ошибки при первичном приеме элементов сообщения равна 𝑃н , а вероятность обнаружения ошибки равна 𝑃оо . Вероятность того, что ошибка не будет обнаружена или будет обнаружена, но исправлена
неверно равна
2
𝑛
𝑃ош = 𝑃н + 𝑃оо 𝑃н + 𝑃оо
𝑃н + ⋯ + 𝑃оо
𝑃н + ⋯
Первый член суммы определяет вероятность необнаруженной ошибки при
первичном приеме, второй – после первого переспроса, третий – после второго переспроса и т.д.
255
После преобразования суммы получим
∞
2
𝑛
𝑛
𝑃ош = 𝑃н (1 + 𝑃оо + 𝑃оо
+ ⋯ + 𝑃оо
+ ⋯ ) = 𝑃н ∑ 𝑃оо
=
𝑛=0
𝑃н
.
1 − 𝑃оо
(12.1)
Выражение (12.1) показывает, что вероятность ошибки в системе с переспросом может быть резко уменьшена соответствующим выбором вероятности обнаружения ошибок.
При искажении сигнала обратной связи наблюдается группа ошибок (пропадание или повторение 𝐾 элементов сообщения). Если обозначить через 𝑃п вероятность необнаруженной ошибки в сигнале переспроса (считаем, что сигнал переспроса используется в канале обратной связи для переспроса, а в прямом канале
связи для предупреждения о повторной передаче), то вероятность ошибки в системе связи дополнительно увеличится на величину
𝑃оп = 𝑃п [𝑃оо + 𝑃оо2 + 𝑃оо3 + ⋯ + 𝑃оо𝑛 + ⋯ ]𝐾 = 𝑃п
𝐾𝑃оо
,
1 − 𝑃оо
(12.2)
где 𝐾 – число элементов сообщения, входящих в период повторения системы
(группа ошибок при искажении сигнала обратной связи).
Общая вероятность ошибки в системе с переспросом равна
𝑃ош∑ = 𝑃ош + 𝑃оп =
𝑃н
𝐾𝑃оо
𝑃н
𝑃п
[1 + 𝐾𝑃оо ] =
+ Рп
=
1 − 𝑃оо
1 − 𝑃оо 1 − 𝑃оо
𝑃н
= 𝑃ош (1 +
𝑃п
𝐾𝑃 ).
𝑃н оо
(12.3)
Это выражение показывает, что при больших значениях вероятности 𝑃оо
ошибки, обусловленные искажением сигнала переспроса, могут существенно увеличить суммарную вероятность ошибки в системе с переспросом. Для того, чтобы
уменьшить влияние искажения сигналов переспроса в реальных системах связи путем соответствующего кодирования сигнала переспроса, уменьшают 𝑃п так, чтобы
𝑃п было много меньше 𝑃н . Это позволяет при дальнейших рассуждениях считать,
что вероятность ошибки в системе с переспросом определяется только вероятность
необнаруженных ошибок в элементах сообщения, т.е. 𝑃ошΣ ≈ 𝑃ош .
Для оценки скорости передачи в системе связи с переспросом введем следующие обозначения:
𝑇 – длительность элемента сообщения,
𝑇̅ – среднее время передачи элемента сообщения с учетом повторения при
обнаружении ошибок,
1
𝑉 = – скорость передачи элементов сообщения,
𝑇
1
𝑉 = – средняя скорость передачи элементов сообщения.
𝑇
256
Определим среднюю длительность передачи элемента сообщения в системе с
обратной связью:
2
𝑛
2
𝑛
𝑇 = 𝑇 + 𝐾𝑇𝑃оо + 𝐾𝑇𝑃оо
+. . . +𝐾𝑇𝑃оо
= 𝑇(1 + 𝐾𝑃оо + 𝐾𝑃оо
+. . . +𝑃оо
+. . . ) =
∞
𝑛
= 𝑇 (1 + 𝐾𝑃оо ∑ 𝑃оо
) = 𝑇 (1 +
𝑛=0
𝐾𝑃оо
).
1 − 𝑃оо
(12.4)
Отсюда видно, что скорость передачи элементов сообщения уменьшается в 𝛾
раз:
𝛾=
𝑉
𝑉
=
𝑇
𝑃оо
=1+𝐾
.
𝑇
1 − 𝑃оо
(12.5)
Таким образом, скорость передачи в системах связи с переспросом уменьшается с увеличением вероятности обнаружения ошибок и с увеличением числа элементов сообщения 𝐾, входящих в период повторения системы.
Однако следует иметь в виду, что за счет уменьшения средней скорости передачи в системе связи с переспросом может быть достигнут значительный выигрыш в помехоустойчивости. Анализ показывает, что при определенных значениях
вероятности обнаруженных ошибок 𝑃оо системы связи с переспросом более эффективны, чем прямые системы связи. Необходимое значение 𝑃оо достигается путем
соответствующего выбора мощности передаваемых сигналов, скорости передачи 𝑉
и методов регистрации сигналов в приемнике.
Достоинства систем с обратной связью особенно хорошо проявляются в каналах связи с резко меняющимися параметрами (например, в каналах с пакетированием ошибок), где они позволяют получить высокую достоверность передачи
сообщений за счет некоторого уменьшения скорости передачи. В прямых системах
связи такой эффективный обмен скорости на достоверность технически простыми
средствами не может быть достигнут.
12.2. Системы прерывистой связи
Системы прерывистой связи относятся к системам с обратной связью (первый вариант рис. 12.1) и строятся в тех случаях, когда амплитуда сигнала в канале
связи изменяется в широких пределах. В системе прерывистой связи сообщения
передаются только в те интервалы времени, когда обеспечивается достаточно уверенный прием сигналов (например, когда вероятность ошибки не превышает заданной величины или обеспечивается необходимое отношение сигнала к помехе).
В промежутках между сеансами передачи сообщения, поступающие от источников,
накапливаются в специальных накопителях (рис. 12.3).
257
Отношение длительности сеансов передачи к общему времени работы системы связи называется коэффициентом заполнения:
𝜂=
𝑡с
,
𝑡Σ
(12.6)
где 𝑡с – длительность сеансов передачи,
𝑡∑ – общее время работы системы связи.
Вход
сообщений
Накопитель
Передатчик
Линия связи
Приемник
Накопитель
Передатчик
Блок
управления
ξ(t)
Выход
сообщений
ξ(t)
Блок
управления
Приемник
Линия связи
Канал обратной связи
Рисунок 12.3. Структурная схема прерывистой системы связи
Для того, чтобы источники сообщений могли работать непрерывно, скорость
передачи по линии связи 𝑉 должна быть выше скорости работы источника 𝑉и по
крайней мере в 1 ∕ 𝜂 раз, т.е.
𝑉=
𝑉и
.
𝜂
(12.7)
Прерывистый режим работы системы связи является эффективным методом
борьбы с замираниями в коротковолновых и ультракоротковолновых радиоканалах. Имеется возможность за счет увеличения скорости передачи сигналов во время сеансов связи не только компенсировать промежутки между сеансами, но и увеличить среднюю скорость передачи (скорость работы источника сообщений) по
сравнению с обычной системой непрерывной связи, использующей этот же канал.
Для оценки помехоустойчивости и скорости передачи в системе прерывистой
связи, использующей замирающий коротковолновый радиоканал, рассмотрим
близкий к реальным условиям случай, когда амплитуда сигнала изменяется по закону Рэлея, а помеха является флуктуационной.
Пусть ℎ2 =
𝑎2
2𝜎п2
– отношение мощности сигнала к мощности помехи, 𝑊(ℎ2 ) –
плотность вероятностей отношения ℎ2 . Т.к. амплитуда сигнала случайна и распределена по закону Рэлея, то ℎ2 имеет показательный закон распределения:
𝑊(ℎ
2)
=
1
ℎ2
258
𝑒
−
ℎ2
ℎ2 ,
(12.8)
где ℎ2 =
𝜎с2
𝜎п2
– среднее отношение сигнала к помехе,
𝜎с2 – средняя мощность сигнала.
Если 𝑃о (ℎ2 ) – вероятность ошибки при данном значении ℎ2 , а ℎ2 медленно
меняется по сравнению со скоростью передачи (медленные замирания), то средняя
вероятность ошибки может быть определена путем усреднения 𝑃о (ℎ2 ) по всем значениям ℎ2 :
∞
𝑃о =
∫ℎ2 𝑃о (ℎ2 )𝑊(ℎ2 )𝑑ℎ2
𝑡
𝜂
∞
=
∫ℎ2 𝑃о (ℎ2 )𝑊(ℎ2 )𝑑ℎ2
𝑡
∞
∫ℎ2 𝑊(ℎ2 )𝑑ℎ2
,
(12.9)
𝑡
где ℎ𝑡2 – пороговое значение отношения сигнала к помехе (сообщения
передаются только при ℎ2 > ℎ𝑡2 ),
∞
𝜂 = ∫ℎ2 𝑊(ℎ2 )𝑑ℎ2 – коэффициент заполнения, который в данном случае ра𝑡
вен вероятности того, что ℎ2 > ℎ𝑡2 .
В системе связи с частотной модуляцией при некогерентном приеме
𝑃о
(ℎ2 )
1 − ℎ2
= 𝑒 2.
2
В этом случае с учетом (12.8):
𝑃о =
1
2+
ℎ2
ℎ2
− 𝑡
𝑒 2.
(12.10)
Средняя скорость передачи элементов сообщения (допустимая скорость работы источника) согласно (12.7) равна:
∞
𝑉и = 𝑉𝜂 = 𝑉 ∫ 𝑊(ℎ2 )𝑑ℎ2 .
(12.11)
ℎ𝑡2
Анализ выражений (12.10) и (12.11) показывает, что соответствующим выбором ℎ𝑡2 порога и скорости передачи во время сеансов связи 𝑉 переход от непрерывного режима передачи к прерывистому при одинаковой вероятности ошибки и
одинаковой мощности передатчиков позволяет увеличить среднюю скорость передачи 𝑉и в 200-300 раз.
В метеорных каналах связи, где благоприятные условия для передачи сообщения наблюдаются только при проявлении в области, облучаемой антеннами
ионизированных следов метеоров, системы прерывистой связи позволяют организовать передачу сообщений на расстоянии до 2000 км при относительно малых
мощностях передатчиков (1-2 кВт). Метеорные системы связи работают в УКВ
259
диапазоне на частотах порядка (40-100 МГц). Средняя длительность отдельных сеансов передачи (метеорных вспышек) обычно не превышает 0,5-1 с, а коэффициент
заполнения – (5-10)%.
В рассмотренных выше системах прерывистой связи предполагалась обратная связь только по первому варианту (контролируется только линия связи). Однако совместно с обратной связью по первому варианту в системах обратной связи
применяется и решающая обратная связь с обнаружением ошибок. Например, в системах метеорной связи наряду с контролем уровня принимаемых сигналов используется решающая обратная связь с поэлементной проверкой принимаемых
сигналов и с проверкой кодовых комбинаций. В перерывах между сеансами передачи система связи находится в состоянии переспроса и выходит из этого состояния, когда уровень сигнала становится достаточным и ошибки отсутствуют.
Необходимо отметить, что прерывистые системы связи в любом из вариантов
могут применяться только при условии, что ценность передаваемых сообщений не
уменьшается за время перерыва связи. Это условие может не выполнятся в некоторых системах управления производственными и другими процессами. В этих случаях, очевидно, целесообразно применять другие методы повышения достоверности приема.
12.3. Разнесенный прием
Разнесенный прием является одним из основных методов повышения помехоустойчивости систем связи при наличии замираний сигнала. Его использование
оказывается особенно необходимым в случаях, когда другие методы оказываются
неэффективными. Возможно также использование разнесенного приема в сочетании с корректирующими кодами.
Сущность разнесенного приема состоит в том, что одно и то же сообщение
передается по нескольким каналам, называемым ветвями разнесения. Обычно число ветвей разнесения выбирают равным 2 (сдвоенный прием), реже 3 (строенный
прием). Существуют следующие виды разнесения: временное, частотное, пространственное, поляризационное и др.
При частотном разнесении одно и то же сообщение передается по нескольким частотным каналам, что возможно в многоканальной системе связи с частотным уплотнением.
При временном разнесении одно и то же сообщение повторяется несколько
раз через некоторые интервалы времени, превышающие интервал корреляции (квазипериод) замираний. Прием сигнала осуществляется на один приемник с запоминающим устройством.
При пространственном разнесении сигнал передается одним передатчиком,
а прием осуществляется на несколько антенн, расположенных на некотором расстоянии одна от другой. Обычно это расстояние выбирается равным (4-10) 𝜆, где
𝜆 – длина волны.
260
При поляризационном разнесении осуществляется прием на две антенны вертикально и горизонтально поляризованных составляющих приходящей электромагнитной волны.
Заметим, что при неизменной скорости передачи частотное разнесение требует расширение полосы частот канала, временное разнесение – увеличение времени работы (или полосы частот при соответствующем уменьшении длительности
сигнала). Лишь при пространственном и поляризационном разнесении время работы, полоса частот и мощность передатчика могут оставаться неизменными, однако
количество антенн (зачастую очень громоздких и дорогостоящих) увеличивается.
Повышение помехоустойчивости при разнесенном приеме объясняется следующим. На приемное устройство поступает несколько «образцов» одного и того
же сигнала, смешанных с различными реализациями помехи (например, внутренних шумов приемника). Чем больше ветвей разнесения, тем больше возможность
для статистического различия переданных сигналов путем анализа принятых. Эффективность разнесенного приема будет наибольшей, если помехи в ветвях разнесения (как аддитивные, так и мультипликативные) будут независимы. Независимость помех в отдельных ветвях обеспечивается путем выбора соответствующей
величины разноса между ветвями (по пространству, времени или частоте). В каналах с постоянными параметрами разнесенный прием не эффективен и в лучшем
случае может обеспечить выигрыш в отношении сигнал/шум во столько раз, сколько имеется ветвей разнесения. Действительно, при суммировании сигналов отдельных ветвей амплитуда полезного сигнала будет увеличиваться в 𝑄 раз, мощность
сигнала в 𝑄2 раз (сигнал суммируется по напряжению), мощность помехи будет
возрастать в 𝑄 раз и отношение сигнал/шум также увеличится в 𝑄 раз. При наличии независимых замираний в отдельных ветвях среднее отношение сигнал/шум
возрастает в гораздо большей степени. Действительно, если при одиночном приеме
возможны сравнительно длинные перерывы связи из-за падения уровня сигнала, то
при разнесенном приеме вероятность одновременного пропадания сигнала во всех
ветвях будет очень мала, благодаря чему среднее отношение сигнал/шум резко
возрастает.
Помехоустойчивость различных систем разнесенного приема зависит от способа формирования результирующего сигнала, т.е. от способа сложения или комбинирования сигналов от отдельных ветвей разнесения. В общем случае сигнал на
выходе схемы комбинирования можно представить в виде следующей комбинации
сигналов от отдельных ветвей разнесения:
𝑄
𝑥(𝑡) = ∑ 𝑘𝑖 𝑓[𝑥𝑖 (𝑡)] ,
𝑖=1
где 𝑥𝑖 (𝑡) – принятый сигнал в i-ой ветви:
𝑥𝑖 (𝑡) = 𝜇𝑖 𝑠𝑖 (𝑡) + 𝜉𝑖 (𝑡),
𝑆(𝑡) – переданный сигнал,
261
(12.12)
𝜉𝑖 (𝑡) – аддитивная помеха в i-ой ветви,
𝜇𝑖 (𝑡) – мультипликативная помеха в i-ой ветви,
𝑘𝑖 – весовые коэффициенты,
𝑓(𝑥) – функция, определяемая способом приема сигналов в отдельных ветвях
и способом комбинирования разнесенных сигналов.
При разнесенном приеме, как и при одиночном, существуют оптимальные и
неоптимальные способы приема.
Алгоритм работы оптимального приемника зависит от условий распространения сигнала, т.е. от типа канала. В каналах с постоянными параметрами оптимальным является когерентное линейное сложение сигналов от отдельных ветвей
разнесения с весовыми коэффициентами 𝑘𝑖 , пропорциональными коэффициентами
передачи 𝜇𝑖 . Когерентное сложение будет оптимальным и в случае каналов с медленными замираниями, когда изменяется возможность автоматической подстройки
амплитуды и фазы местных генераторов. В каналах с быстрыми изменениями амплитуды и фазы оптимальным является квадратичное некогерентное сложение.
В практике радиосвязи при разнесенном приеме чаще всего используются
некогерентные решающие схемы, отличающиеся от оптимальных как обработкой
сигнала в каждой ветви, так и способом комбинирования. Существует много вариантов таких схем. Ниже коротко рассматриваются некоторые из них.
1. Способ дискретного сложения. Этот способ далек от оптимального и использовался, например, в начала двадцатого века в телеграфной системе БодоВердана; в настоящее время почти не используется.
Сущность дискретного способа сложения при разнесенном приеме состоит в
том, что в каждой ветви используется самостоятельная решающая схема, выносящая решение на основе анализа сигнала только в данной ветви. Окончательное решение принимается на основании сравнения частных решений, полученных в каждой из ветвей. Отдельные ветви считаются «равноправными», поэтому решение
выносится «по большинству голосов», т.е. в пользу того символа, который зафиксирован в большем числе ветвей. Сущность этого метода при телеграфной работе
можно продемонстрировать следующей таблицей:
Таблица 12.1 – Сущность метода дискретного сложения
10101 – переданная комбинация
00101 – принятая комбинация в 1-ой ветви
11101 – принятая комбинация во 2-ой ветви
10100 – принятая комбинация в 3-ей ветви
10101 – принятая комбинация
При составлении этой таблицы предполагалось, что в принятой комбинации
по каждой ветви был искажен только один знак в кодовой комбинации.
Если в отдельных ветвях элементы комбинации искажаются независимо, то
вероятность искажения одного и того же знака комбинации в нескольких ветвях
будет мала. Ошибка в окончательном решении будет лишь в том случае, если дан262
ный элемент комбинации будет принят неправильно в рассматриваемом примере
два или три раза. Вероятность этого события будет равна
𝑃э = 𝐶32 𝑃02 (1 − 𝑃0 ) + 𝐶33 𝑃03 ≈ 3𝑃02 .
В более общем случае 𝑄 ветвей разнесения получим:
𝑄
𝑃э = ∑ 𝐶𝑄𝑘 𝑃0𝑘 (1 − 𝑃0 )𝑘 .
(12.13)
𝑄
𝑘= +1
2
Метод дискретного сложения оказывается удобным при временном разнесении, поскольку он требует запоминания только дискретных величин. При разнесении по времени этот метод сложения называют методом повторения или иногда
методом накопления.
2. Способ автовыбора по максимальной мощности. Это способ называется
еще способом автовыбора наилучшего сигнала с переключением приемников. Он
является одним из старейших и до сих пор наиболее распространен. При таком
способе решающее устройство имеется в каждой ветви, но окончательное решение
путем переключения приемников определяется той ветвью, в которой мощность
принимаемого сигнала наибольшая. Для такой системы коэффициенты в (3.1) равны: 𝑘𝑖 = 1 при 𝑖 = 𝑗 и 𝑘𝑖 = 0 при 𝑖 ≠ 𝑗. Существует много разновидностей этого
способа, отличающихся методом сравнения мощностей сигналов в ветвях и методов переключения ветвей. Основная идея состоит в том, что при наличии замираний наиболее достоверное решение может быть получено в той ветви, в которой
коэффициент передачи в данный момент имеет наибольшее значение.
3. Способ автовыбора с переключением антенн. Этот способ используется
при пространственном разнесении. Здесь путем переключения антенн выбирается
та ветвь, в которой сигнал больше некоторого порогового уровня. Выбранная ветвь
используется до тех пор, пока сигнал в ней упадет ниже порогового уровня, после
чего выбирается другая ветвь. Недостатком этого способа является то, что работа
переключающей схемы сопровождается нежелательными переходными явлениями.
4. Способ линейного сложения с одинаковым усилением в каждой ветви, что
соответствует в (12.12) значениям коэффициентов 𝑘𝑖 = 1 (𝑖 = 1, 2 … 𝑄). Этот способ будет являться оптимальным, когда отношения сигнал/шум в каждой ветви
одинаковы (идентичные ветви разнесения). Сложение сигналов при этом может
осуществляться как до детектора, так и после детектора.
5. Комбинированные способы, в которых используются принципы автовыбора и сложения.
Эффективность систем разнесенного приема определяется средним суммарным отношением сигнал/шум и его законом распределения. Эти две характеристи263
ки позволяют определить вероятность ошибочного приема. Можно показать, что
все практически используемые способы разнесенного приема обеспечивают примерно одинаковую помехоустойчивость, теоретически мало отличающуюся от потенциальной, если аппаратура функционирует точно по заданным алгоритмам.
Фактически помехоустойчивость реальной аппаратуры разнесенного приема оказывается значительно ниже теоретической вследствие отклонения от заданных
правил решения.
В реальных условиях коэффициенты передачи различных ветвей оказываются коррелированными. Теоретический анализ показывает, что при значениях коэффициента корреляции 𝑟 ≤ 0,4 наличие корреляции почти не влияет на эффективность сдвоенного приема. При больших коэффициентах корреляции помехоустойчивость разнесенного приема снижается.
Р
10-1
Q=1
10-2
10-3
10-4
10-5
Q=2
-6
10
Q=3
1
10
102
103
Рисунок 12.4. Зависимость средней вероятности ошибки от числа ветвей разнесения
На рис. 12.4 в качестве иллюстрации показаны зависимости вероятностей
ошибок от отношения сигнал/шум для когерентного приема ДЧМ при рэлеевских
замираниях сигнала. Приведенные кривые показывают, что разнесенный прием
позволяет существенно повысит помехоустойчивость связи. При этом наибольший
эффект получается от использования второй ветви разнесения (сдвоенный прием).
Дальнейшее увеличение числа ветвей обеспечивает уже более медленное увеличение помехоустойчивости: строенный прием обеспечивает меньший выигрыш по
сравнению со сдвоенным, чем сдвоенный прием по сравнению с одинарным приемом.
12.4. Широкополосные системы связи
Узкополосными системами связи являются такие системы, передача сообщений в которых осуществляется сигналами с минимальными основаниями, т.е. произведение эффективной ширины спектра которых на длительность близко к единице 𝑇Δ𝑓эфф ≈ 1. К таким системам относятся классические системы связи с амплитудной, частотной и фазовой дискретной модуляцией.
264
Широкополосными являются системы связи, в которых передача сообщений
осуществляется сигналами с большим основанием:
𝑇Δ𝑓эфф ≥ 1.
Эффективная ширина спектра сигналов в широкополосных системах:
1
Δ𝑓эфф ≥ .
𝑇
Из этого следует, что широкополосный сигнал представляет собой процесс,
основные параметры которого (амплитуда, фаза и частота) являются функциями
времени, быстро меняющимися в интервале общей длительности сигнала 𝑇. В качестве широкополосных могут быть использованы сигналы с выходов шумовых
или псевдошумовых генераторов.
К широкополосным сигналам (ШПС) можно отнести, например, последовательность импульсов разной полярности (рис. 12.5)
S(t)
Т
t
0
∆τ
Рисунок 12.5. Сущность формирования широкополосного сигнала
Если длительность каждого импульса ∆𝜏, то весь сигнал, содержащий 𝑁 импульсов, имеет длительность 𝑇 = 𝑁∆𝜏. Cигнал длительностью 𝑇 в этом случае
представляет один элемент сообщения и имеет базу
𝐵 = 2𝑇Δ𝑓эфф ≈ 𝑇
1
= 𝑁.
Δ𝜏
(12.14)
Как известно, 𝐵 = 2𝑇Δ𝑓эфф коэффициентов разложения сигнала в ряд Фурье
определяют сигнал с достаточной точностью, а в геометрическом представлении
сигнал изображается в виде N-мерного вектора. Поэтому широкополосные сигналы
иногда называются также составными, сложными, многомерными и т.д.
Широкополосными (шумоподобными) называются также детерминированные сигналы, корреляционные функции которых имеют такой же вид, как и корреляционная функция флуктуационного шума, т.е. имеет лишь один значительный
центральный максимум при 𝜏 = 0 и интервал корреляции 𝜏0 ≪ 𝑇.
Возможность успешного применения широкополосных сигналов для передачи сообщений непосредственно следует из современной теории связи. Действи265
тельно, К.Шенноном было показано, что идеальной системе связи сигнал должен
иметь статическую структуру белого шума, а согласно теории В.А.Котельникова
помехоустойчивость каналов с флуктуационными шумами определяется только
отношением энергии сигнала к спектральной плотности помехи и не зависит от полосы частот, занимаемой сигналом.
Системы связи с широкополосными сигналами и узкополосные системы связи имеют одинаковую помехоустойчивость относительно широкополосных (флуктуационных и импульсных) помех. В конкретных условиях различие может возникнуть в пользу широкополосных систем, т.к. одна и та же помеха для узкополосной системы связи может оказаться широкополосной, а для широкополосной системы связи – относительно узкополосной. Относительно сосредоточенных по
спектру (например, синусоидальных) помех широкополосные системы связи имеют более высокую помехоустойчивость.
Количество каналов связи, которые могут быть размещены в одном и том же
диапазоне частот, для широкополосных и узкополосных систем практически одинаково. Причем если узкополосные сигналы размещаются так, чтобы их спектры
взаимно не перекрывались, то широкополосные сигналы всех каналов занимают
один и тот же спектр частот. Разделение каналов осуществляется за счет различия
формы передаваемых широкополосных сигналов с помощью корреляторов или согласованных фильтров.
Передачу дискретных сообщений (например, кодовых элементов) можно
осуществить с помощью двух независимых генераторов Г1 и Г2 (рис. 12.6) шумоподобных сигналов 𝑆1 (𝑡) и 𝑆2 (𝑡), отличающихся по форме. В передатчике (П) сигналы переносятся в заданный диапазон частот и передаются по линии.
а1
Г1
CФ1
S1(t)
Сообщения
А1(t), A2(t)
М
Г2
Л
П
линия
связи
S2(t)
РУ
X(t)
СФ2
Выход
а2
Рисунок 12.6. Структурные схемы передачи и приема ШПС
В приемнике сигнал 𝑋(𝑡) поступает на согласованные фильтры СФ1 и СФ2,
один из которых согласован с сигналом 𝑆1 (𝑡), а второй – с 𝑆2 (𝑡). На выходах фильтров наблюдается функция взаимной корреляции принятого сигнала и сигнала,
ожидаемого данным фильтром.
𝑇
1
𝐵(𝜏) = ∫ 𝑥(𝑡 + 𝜏)𝑆𝑖 (𝑡)𝑑𝑡 .
𝑇
0
266
(12.15)
В решающем устройстве (РУ) сравниваются выходные сигналы фильтров
(если 𝑎1 > 𝑎2 , принимается решение, что был передан сигнал 𝑆1 (𝑡), если 𝑎2 > 𝑎1 ,
то 𝑆2 (𝑡)). Максимальное значение функции взаимной корреляции будет больше на
выходе того фильтра, характеристики которого в большей степени согласованы с
принимаемым в данный момент времени сигналом 𝑋(𝑡).
Если для передачи сообщений используется многопозиционный код (с основанием 𝑚 > 2), необходим набор соответствующего числа шумоподобных сигналов с хорошими взаимокорреляционными свойствами.
Формирование шумоподобных сигналов
Для того, чтобы широкополосные сигналы могли быть использованы в системах передачи сообщений, они должны удовлетворять ряду дополнительных
требований:
1. Набор шумоподобных сигналов должен быть таким, чтобы их взаимокорреляционные функции были близки к нулю, а корреляционная функция каждого
отдельного сигнала имела один достаточно узкий максимум значительной амплитуды.
2. Сигналы должны обладать минимальным пик-фактором, т.е. огибающая
сигналов должны быть близка к постоянной. Т.к. пиковая мощность сигнала ограничивается техническими характеристиками передатчика, то максимальной энергией будут обладать сигналы с постоянной огибающей и мощностью, равной пиковой мощности передатчика. Как известно, потенциальная помехоустойчивость при
аддитивном шуме зависит только от энергии сигнала и спектральной плотности
шума.
3. Возможность независимого воспроизведения сигналов в приемнике.
4. Возможность синхронизации принимаемых и передаваемых сигналов.
Рассмотрим некоторые шумоподобные сигналы, методы их генерации и приема.
В первых широкополосных системах в качестве сигналов использовались реализации шума достаточно большой длительности. Если спектр источника шума
равномерен по полосе частот ∆𝑓, то при достаточно большой длительности реализации 𝑇 интервал корреляции 𝜏0 обратно пропорционален ∆𝑓, а боковые максимумы автокорреляционной функции достаточно малы. Такие сигналы позволяют построить систему связи с разделением сигналов, временные сдвиги между которыми
превышают интервал корреляции 𝜏0 .
Однако использование в качестве сигналов образцов реального шума связано
с преодолением значительных трудностей. Т.к. в этом случае должен использоваться корреляционный метод приема, то в приемнике должны храниться точные
копии применяемых для передачи сигналов, либо эти опорные сигналы должны
поступать по специальному каналу связи из пункта передачи. В связи с этим возникает необходимость точной синхронизации, которую трудно осуществить, когда
сигналы имеют вид реализаций естественного шума. При применении взаимокорреляционных (относительных) методов приема, не требующих специального опорного сигнала, снижается помехоустойчивость систем связи. Отметим также, что
267
при передаче реализаций шума плохо используется мощность передатчика, т.к.
огибающая высокочастотного колебания, модулированного шумом, имеет значительный пик-фактор, т.е. далека от постоянной.
Ввиду указанных недостатков сигналы в виде реализаций шума не нашли в
настоящее время широкого применения. Из возможных способов построения систем, использующих такие сигналы, можно указать систему с модуляцией расстояния между максимумами корреляционной функции (корреляционная функция реализации шума в этом случае должна иметь по крайней мере два максимума, рис.
12.7).
В(τ) модулируемое
расстояние
τ
Рисунок 12.7. Использование сигналов в виде реализаций шума
Одним из распространенных методов получения широкополосных сигналов
является глубокая модуляция частоты несущего колебания по линейному закону.
При этом частота в пределах длительности сигнала 𝑇 изменяется по закону
Δ𝜔
𝑇
|𝑡| < ,
𝜔 = 𝜔0 +
𝑡,
𝑇
2
где ∆𝜔 = 2𝜋∆𝑓 – девиация частоты,
𝜔0 – несущая частота.
На выходе фильтра, оптимального для такого широкополосного сигнала, получается сигнал (корреляционная функция) вида
Δ𝜔
(𝑡 − 𝑡0 )
sin
2
𝑆2 (𝑡) = 𝐴1 √𝑇Δ𝑓
cos 𝜔0 (𝑡 − 𝑡0 ),
Δ𝜔
(𝑡 − 𝑡0 )
2
(12.16)
где 𝐴1 – амплитуда сигнала на выходе фильтра.
В сигнале 𝑆2 (𝑡) уже нет частотной модуляции, и его огибающая имеет вид:
Δ𝜔
(𝑡 − 𝑡0 )
sin
sin 𝜋Δ𝑓(𝑡 − 𝑡0 )
2
𝐴2 (𝑡) = 𝐴1 (𝑡)√𝑇Δ𝑓
= 𝐴1 (𝑡)√𝑇Δ𝑓
.
Δ𝜔
)
𝜋Δ𝑓(𝑡
−
𝑡
0
(𝑡 − 𝑡0 )
2
(12.17)
Недостатком сигнала с линейной частотной модуляцией является довольно
высокий уровень боковых лепестков огибающей корреляционной функции (12.17),
достигающий 22% основного максимума. Для улучшения формы выходного сигна268
ла в приемнике иногда применяется не оптимальный фильтр, а квазиоптимальный,
обеспечивающий подавление боковых лепестков выходного сигнала (например,
вместо фильтра с прямоугольной огибающей амплитудно-частотной характеристики, оптимального для сигнала с линейной изменяющейся частотой, используется
фильтр с колоколообразной огибающей).
Сигналы с линейной частотной модуляцией можно независимо генерировать
на приемной и передающей станциях и проще синхронизировать, чем реализации
шума. Определенные трудности возникают здесь при необходимости получения
набора сигналов с хорошими корреляционными свойствами.
Наибольшее распространение получили шумоподобные сигналы, образующиеся при модуляции гармонического высокочастотного колебания некоторой
псевдослучайной последовательностью. Чаще всего используются двоичные кодовые последовательности, т.к. их генерирование и прием наиболее просто осуществляется технически. Такие сигналы имеют, как правило, минимальный пикфактор.
Псевдослучайной последовательностью называется регулярная последовательность кодовых символов длиной (значностью) 𝑛, корреляционные свойства которой близки к корреляционным свойствам дискретной случайной последовательности (клиппированного шума).
Число символов различного вида в такой последовательности (0 или 1 в двоичной) примерно одинаково, а число групп одинаковых символов убывает с увеличением количества символов в группе.
В настоящее время известно большое число псевдослучайных последовательностей, обладающих хорошими корреляционными свойствами. Рассмотрим
свойства и способ формирования так называемых двоичных n-последовательностей. Автокорреляционная функция n-последовательности может быть определена
следующим образом:
1. Для периодически повторяющейся последовательности
𝑛
1
𝐵𝑥 (𝑗) = ∑ 𝑥𝑖 𝑥𝑖+𝑗 ,
𝑛
(12.18)
𝑖=1
где 𝑥𝑖 , 𝑥𝑖+𝑗 – значения элементов кодовой последовательности (в двоичной
последовательности это либо «1» либо «–1»), причем
𝑥𝑖+𝑗 = 𝑥𝑘 .
2. Для непериодической последовательности
𝑛−𝑗
1
𝐵𝑥НП (𝑗) = ∑ 𝑥𝑖 𝑥𝑖+𝑗 .
𝑛
(12.19)
𝑖=1
Например, периодическая двоичная последовательность вида (1, –1, –1, 1)
имеет корреляционную функцию 𝐵𝑥 (𝑗) (рис. 12.8), у которой
269
4
1
1
1
𝐵𝑥 (3) = ∑ 𝑥𝑖 𝑥𝑖+3 = [1 ⋅ 1 + (−1) ⋅ (−1) + 1 ⋅ (−1)] = [0] = 0,
4
4
4
𝑖=1
б)
Bx(j)
1
–3 –2 –1 0
𝐵𝑥 (1) = 0,
X(t)
а) 1
0
–1
𝐵𝑥 (2) = 1.
t
1 2 3 xj
BxНП(j)
1
–4 –3 –2 –1 0
в)
1 2 3 4 xj
–1
Рисунок 12.8. а) временная характеристика функции 𝑥(𝑡);
б) функция корреляции периодической последовательности;
в) функция корреляции непериодической последовательности
Если последовательность непериодическая, корреляционная функция имеет
значения
4−3
1
1
1
𝐵𝑥НП (𝑗) = ∑ 𝑥𝑖 𝑥𝑖+3 = [1 ⋅ 1] = .
4
4
4
𝑖=1
Псевдослучайной последовательностью обычно называют только такие последовательности, для которых 𝐵𝑥 (0) = 1, а 𝐵𝑥 (𝑗) << 1 при 0 < 𝑗 < 𝑛. Примером
такой последовательности является последовательность (1, 1, 1, –1). Значения ее
корреляционной функции при 𝑗 ≠ 0 равны 0.
Наиболее распространены и хорошо изучены такие псевдослучайные
nпоследовательности, которые представляют собой последовательности максимальной длины регистра сдвига (линейные рекуррентные последовательности, в которых операции сложения и умножения производятся по модулю 2). Такие последовательности имеют длину 𝑛 = 2𝑘 − 1 и корреляционную функцию вида
−1
(12.20)
𝐵𝑥 (𝑗) = 𝑘
,
1 ≤ 𝑗 ≤ 2𝑘 − 1,
𝑗 ≠ 0,
2 −1
где 𝑘 – число двоичных элементов в регистре сдвига, используемом для формирования данной n-последовательности.
Энергетический спектр периодической n-последовательности определяется
выражением
270
𝜔𝜏 𝑘=∞
𝑛 + 1 sin 2
2𝜋𝑘
1
𝑆(𝜔) =
𝛿
−
+
𝛿(𝜔).
(
)
∑
(𝜔
)
𝜔𝜏
𝑛2
𝑛𝜏
𝑛2
𝑘=−∞
2
(12.21)
𝑘≠0
т.е. является дискретным с частотами, кратными основной части
повторения
2𝜋
𝑛𝜏
, где 𝜏 – длительность одного элемента последовательности.
Рекуррентные n-последовательности нашли широкое применение в системах связи вследствие простоты их формирования. Для этого используется двоичный (бинарный) регистр сдвига. Двоичный регистр сдвига из 𝐾 элементов – это
устройство, содержащее 𝐾 последовательно соединенных двоичных ячеек (например, триггеров), которые в моменты времени, определяемые тактовым генератором, могут изменять свое состояние на обратное (ячейки могут иметь два состояния: либо 1, либо –1 или 0). Причем под действием тактового импульса состояния
предыдущих ячеек переходят в последующие (рис. 12.9). Кроме того, определенные ячейки через специальные логические устройства (обычно это сумматоры по
модулю 2) связаны со входом регистра, в результате чего регистр сдвига из 𝐾 ячеек
может генерировать последовательность с периодом 𝑛, не превосходящим 2𝑘 − 1.
Для каждого 𝐾 существует n-последовательность и она псевдослучайна, т.е. удовлетворяет условиям:
1. Число «единиц» и «нулей» в последовательности отличается не более,
чем на единицу, и чем больше длина группы одинаковых символов, тем меньше
частота их появления в последовательности.
2. Корреляционная функция 𝐵𝑥 (𝑗) имеет единственный максимум, равный 1,
при 𝑗 = 0, а при 𝑗 ≠ 0 не превышает величины – 1/𝑛 и величины 1/√𝑛, когда последовательность не периодическая.
На рис. 12.9 приведена схема для формирования n-последовательности с периодом 𝑛 = 24 − 1 = 15.
Если начальное состояние регистра 1000 (т.е единица записана только в
первую ячейку), то на выходе будет наблюдаться последовательность
000 100 110 101 111. Можно убедиться, что эта последовательность является псевдослучайной (удовлетворяет вышесказанным условиям). Правила выбора обратных
связей в регистре сдвига (на рис. 12.9 третья и четвертая ячейка связаны с первой
через сумматор по модулю 2) известны в теории линейных рекуррентных последовательностей.
271
Тактовый генератор
1
2
3
4
Выход
+
Рисунок 12.9. Структурная схема формирования последовательности 𝑛 = 15
Применение широкополосных сигналов
Широкополосные системы находят практическое применение прежде всего
для борьбы с замираниями в коротковолновых радиоканалах. В узкополосных системах, когда 𝑇∆𝑓эфф ≈ 1, длительность сигнала на выходе оптимального фильтра
определяется интервалом корреляции сигнала
𝜏0 =
1
≈ 𝑇.
Δ𝑓эфф
Это означает, что при многолучевом распространении сигналы отдельных
лучей, имеющих различные запаздывания, взаимно перекрываются (рис. 12.10, а),
и разделить их практически невозможно.
На рис. 12.10, а) в качестве примера показаны огибающие напряжений на выходе согласованных фильтров при приеме двоичной последовательности 1011, когда сигнал является узкополосным и образован тремя лучами. Сплошными линиями показаны напряжения, соответствующие первому лучу, а пунктиром – напряжения, относящиеся к двум другим лучам. Из рисунка видно, что в момент отсчета
максимального значения напряжения первого луча на противоположном фильтре
существуют напряжения от других лучей. Происходит перекрытие сигналов, поступающих на решающее устройство одновременно с двух фильтров, и вероятность ошибки резко возрастает. Это обстоятельство ограничивает скорость передачи информации, т.к. для нормальной работы необходимо, чтобы длительность элемента сообщения 𝑇 во много раз превышала максимальное запаздывание лучей относительно друг друга ∆𝜏м . Иная картина наблюдается в случае широкополосных
сигналов,
когда
𝑇
𝜏0 =
≪ 𝑇, (рис. 12.10, б). Сигналы на выходе в этом случае не перекрыва100÷1000
ются, если ∆𝜏м < 𝑇. Это условие является менее жестким, и поэтому представляется возможным значительно повысить скорость работы по сравнению с узкополосными системами. Разделение лучей в широкополосных системах устраняет интерференцию между ними, т.е. одну из причин, вызывающих замирания сигналов.
Более того, здесь можно посредством дополнительной обработки сложить все раз272
деленные лучи и таким образом использовать многолучевость для повышения помехоустойчивости.
Uвых
1
0
1
1
I согл. фильтр
а)
0
Δtм
Uвых
t
II согл. фильтр
T
0
Uвых
t
I согл. фильтр
б)
0
Uвых
t
II согл. фильтр
0
t
Рисунок 12.10. Отклики на выходе согласованных фильтров в двоичной системе:
а) многолучевых узкополосных;
б) широкополосных сигналов
Другой важной областью применения шумоподобных сигналов является
многоадресные системы связи с вызовом произвольного абонента. В такой системе
связи обеспечивается связь по радио речевыми сигналами в одном частотном канале без помощи центрального коммутатора подобно обычной телефонной связи.
Каждому абоненту присваивается определенный адрес в виде двоичной кодовой
комбинации. Передача адреса осуществляется так, что «единице» соответствует
одна псевдослучайная последовательность, а «нулю» – другая. Для вызова абонента кроме адреса вызываемого абонента обычно передается и собственный адрес,
что упрощает процесс установления двусторонней связи.
Низкочастотный речевой сигнал (после приема адресов) квантуется и передается в дискретном виде также с помощью псевдослучайных последовательностей
аналогично передаче адресов. Система связи обеспечивает хорошую скрытность
передачи и прием речевых сигналов при малых отношениях сигнал/шум.
Известные в настоящее время многоадресные системы связи обеспечивают
связь нескольких тысяч абонентов в одном частотном канале; причем одновременно может состояться несколько десятков переговоров.
Применение шумоподобных сигналов в радиолокации явилось своего рода
технической революцией, т.к. появился реальный путь разрешения противоречия
между требованием большой дальности радиолокатора и его разрешающей спо273
собности (точности). При обычных сигналах для повышения точности необходимо
уменьшение длительности импульса, а для сохранения дальности необходимо сохранение той же энергии импульса, т.е. соответствующего увеличения пиковой
мощности передатчиков. Мощность же радиолокационных передатчиков уже достигает десятков тысяч киловатт, т.е. практического предела.
Зондирующие импульсы большой длительности в виде шумоподобных сигналов позволяют получить сигнал с большой энергией и хорошей разрешающей
способностью благодаря сжатию сигнала в приемнике (основной максимум корреляционной функции остается узким) при тех же пиковых мощностях передатчика.
Кроме рекуррентных n-последовательностей в радиолокации нашли применение и
другие псевдослучайные последовательности (коды Баркера, Шермана, Френка и
др.), автокорреляционные функции которых имеют один большой максимум при
𝜏 = 0 и малый уровень боковых лепестков.
Наконец, необходимо отметить возможность использования шумоподобных
сигналов для повышения эффективности систем связи в ряде областей, например, в
дальней космической связи. Имея набор шумоподобных сигналов с хорошими корреляционными свойствами, можно построить эффективную систему связи, в которой осуществляется прием сигналов в целом (один из наиболее помехоустойчивых
методов приема). В космической связи это позволило уменьшить мощность бортовых передатчиков и увеличить дальность связи.
274
Заключение
Фундаментальными работами В.А. Котельникова и К. Шеннона было положено начало современной теории связи. В трудах советских российских и зарубежных ученых эта теория получила дальнейшее развитие.
Современная система теории электрической связи использует термины и методы из различных научных областей, и прежде всего – математики, физики, теории цепей, вычислительной техники. Основные понятия, используемые в курсе
ТЭС: математические модели сообщений, сигналов, помех и каналов в системах
связи.
Следует подчеркнуть, что ТЭС достигла в последнее время значительных
успехов в связи с переходам к цифровым методам передачи различных сообщений
и цифровой обработки сигналов на большей части тракта передачи при широком
использовании микропроцессорной техники. На этой основе создаются интегральные цифровые сети, в которых достигается не только наиболее полная интеграция
по видам связи и услуг, но и интеграция технических средств передачи, обработки,
коммутации и контроля.
Информация как совокупность знаний является главнейшим стратегическим
ресурсом общества, его основным богатством, определяющим уровень развития
общества, его цивилизованность.
Проблемы информатизации предъявляют высокие требования к технике связи. Для техники связи это прежде всего: высокие скорости (порядка гигабит и более в секунду), малые вероятности ошибок (порядка 10–10...10–11), большие дальности передачи (100 млн. км и более в системах космической связи), малые массы и
низкое потребление энергии аппаратурой.
Успешное решение отмеченных выше проблем – ответственная задача ученых и инженеров, работающих в области связи. Часть этой работы, несомненно,
ляжет на плечи тех, которым в первую очередь адресуется эта книга – нынешним
студентам Университетов Телекоммуникации и Информатики.
275
Список литературы
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
В.С. Андреев. Теория нелинейных электрических цепей. Учеб. пособие для
вузов. – М.: Радио и связь, 1982. – 280 с.
С.И. Баскаков. Радиотехнические цепи и сигналы. Учебник для вузов. – М.:
Высшая школа, 1988 – 448 с.
Л.Е. Варакин. Системы связи с шумоподобными сигналами. – М.: Радио и
связь, 1985. – 384 с.
А.Д. Витерби, Д.К. Омура. Принципы цифровой связи и кодирования / Пер. с
англ. под ред. К.Ш. Зигангирова. – М.: Радио и связь, 1982. – 526 с.
Дж. Возенкрафт, И. Джекобс. Теоретические основы техники связи / Пер. с
англ. под ред. Р.Л. Добрушина. – М.: Мир, 1969. – 640 с.
А.Г. Зюко. Помехоустойчивость и эффективность систем связи. – М.: Связь,
1972. – 352 с.
А.Г. Зюко, Д.Д. Кловский, М.В. Назаров, Л.М. Финк. Теория передачи сигналов. учебник для вузов. – М.: Радио и связь, 1986. – 302 с.
В.А. Котельников. Теория потенциальной помехоустойчивости. – М.–Л.:
Госэнергоиздат, 1956. – 152 с.
Б.Р. Левин. Теоретические основы статистической радиотехники. – М.: Радио
и связь, 1989. – 653 с.
А.А. Макаров, Л.А. Чиненков. Основы теории информации. Учеб. пособие.
Новосибирск, 1998. – 24 с.
А.А. Макаров, Л.А. Чиненков. Основы теории помехоустойчивости дискретных сигналов. Учеб. пособие. Новосибирск, 1997. – 26 с.
Л.М. Финк. Теория передачи дискретных сообщений. – М.: Сов. радио, 1970.
– 727 с.
А.А. Харкевич. Избранные труды. Т.З. Теория информации.Опознание образов. – М.: Наука, 1972. – 524 с.
К. Шеннон. Работы по информации и кибернетике / Пер. с англ. под ред. Н.А.
Железнова. – М.: ИЛ. 1963. – 829 с.
276
Основные обозначения
𝐵 = 2𝐹𝑇
𝐵(𝑡1 , 𝑡2 ), 𝐵(𝜏)
𝐶
𝐷( )
𝑑
𝐸
𝐹(𝑥)
𝐹
𝑓(𝜔)
𝐺(𝑓), 𝐺(𝜔)
𝑔(𝑡)
𝐻(𝑥), 𝐻(𝑥/𝑦)
𝐻(𝑥, 𝑦), 𝐻(𝑥 ↔ 𝑦)
ℎ(𝑥), ℎ(𝑥/𝑦)
ℎ02 =
𝐸
𝑁0
′
𝐻 (𝑥)
𝑔, 𝑔′
𝐽(𝑥)
𝑖, 𝑗
𝑅(𝑥, 𝑦)
𝑘, 𝑙
𝐾(𝑗𝜔)
𝐾(𝑓), 𝐾(𝜔)
𝑘
𝑛
𝑟 =𝑛−𝑘
æ
𝑀
𝑚, 𝑚(𝑡)
𝑚
– база сигнала
– функция корреляции процесса (сигнала)
– пропускная способность канала (бит/символ или
бит/отсчет)
– дисперсия случайного процесса
– расстояние между сигнальными точками, расстояние по
Хэмингу между двоичными последовательностями, минимальное расстояние по Хэмингу между комбинациями
линейного блочного кода.
– энергия принимаемого сигнала
– функция распределения вероятностей (ФРВ); интегральная функция распределения
– полоса частот сигнала (канала)
– частота
– спектральная плотность мощности
– импульсная характеристика линейной цепи
– энтропия и условная энтропия дискретной случайной
величины (дискретного источника)
– энтропия совместная и взаимная
– дифференциальная энтропия и условная дифференциальная энтропия непрерывного источника
– отношение энергии элемента сигнала на входе демодулятора к спектральной плотности мощности белого шума
– производительность дискретного источника
– выигрыш и обобщенный выигрыш системы модуляции
– количественная мера информации
– знаки мнимой единицы
– скорость передачи информации от 𝑥 к 𝑦
– объем алфавита дискретного источника
– комплексный коэффициент передачи
– амплитудно-частотная характеристика (АЧХ)
– число информационных символов в цифровой комбинации
– длина (общее число символов) кодовой комбинации
– число проверочных (корректирующих) символов в кодовых комбинациях блочного кода
– избыточность дискретного источника
– индекс угловой модуляции
– математическое ожидание случайной величины (процесса)
– основание кода, коэффициент глубины амплитудной
модуляции
277
– случайная аддитивная помеха, реализация случайного
процесса (СП)
– спектральная плотность мощности «белого» шума
– средняя мощность сигнала
– вероятность события, указанного в скобках
– вероятность ошибочного приема символа
– нормированная функция корреляции, коэффициент
корреляции
𝜉(𝑡)
𝑁0
𝑃
𝑃( )
𝑃ош (𝑃э )
𝑟(𝑡1 , 𝑡2 ), 𝑟(𝑡)
2
𝐹(𝑥) =
−𝑥 − 𝑡
𝑒 2 𝑑𝑡
∫
√2𝜋 −∞
– интеграл Лапласа
Φ(𝑥) =
𝑥 −𝑡
∫ 𝑒 2 𝑑𝑡
√2𝜋 −𝑥
– интеграл вероятности
1
1
2
– случайный сигнал на входе приемника (детектора) без
учета аддитивных помех
𝑇
– длительность интервала
𝑡
– текущее время
𝑊(𝑥, 𝑡)
– одномерная функция плотности вероятности (ФПВ)
случайного процесса
𝑊(𝑥1 , 𝑡1 ; 𝑥2 , 𝑡2 ; … ; 𝑥𝑛 , 𝑡𝑛 ) – n-мерная ФПВ
𝑥(𝑡)
– реализация суммы сигнала и аддитивной помехи на
входе приемника (детектора)
𝛿( )
– дельта-функция
Λ
– отношение правдоподобия
Π
– пик-фактор сообщения или сигнала (отношение максимального значения к среднеквадратическому)
2
𝜎
– дисперсия случайной величины (процесса)
𝜏
– интервал между двумя сечениями
𝜑(𝑡)
– фаза сигнала или угловой модуляции
𝜓(𝑡) = 𝜔0 𝑡 + 𝜑(𝑡)
– полная фаза сигнала
𝜑(𝑓), 𝜑(𝜔)
– фазо-частотная характеристика (ФЧХ)
𝜓, 𝜑
– фазовый сдвиг, фаза сигнала
𝜔
– угловая частота
𝑑𝜓(𝑡)
𝜔(𝑡) =
– мгновенная частота сигнала
𝑑𝑡
→
– переход
⇒
– отсюда следует
𝑆(𝑡)
Точка сверху означает комплексное выражение
Знак * сверху выражения означает комплексное сопряжение
Прямая черта над символом или формулой означает статистическое усреднение по
(ансамблю), волнистая – по времени
Знак ⊕ означает сложение по модулю 2
(𝑛, 𝑘) – обозначение линейного блочного кода длины 𝑛 с 𝑘 информационными
символами
278
Оглавление
Предисловие ............................................................................................................... 3
Часть I. Теория нелинейных электрических цепей .......................................... 4
1. Задачи курса ТЭС................................................................................................ 4
2. Сигналы связи ..................................................................................................... 8
2.1.
Формирование и преобразование сигналов. Кодирование и
декодирование. Модуляция и демодуляция ............................................................. 8
2.2.
Классификация сигналов и их основные свойства ................................ 8
2.3.
2.4.
Кодирование, декодирование. Модуляция и демодуляция ................ 14
Детерминированные (регулярные) сигналы и их классификация ..... 15
2.5.
Разложение сигналов в ряд по ортогональным функциям ................. 17
3.1.
Восстановление непрерывного сигнала по отсчетам .......................... 21
3.2.
Погрешности дискретизации и восстановления непрерывных сигналов.
23
3.3.
Структурная схема передачи аналогового сигнала отсчетами
Котельникова ............................................................................................................. 25
4. Методы формирования и преобразования сигналов ................................. 29
4.1.
Классификация радиотехнических цепей ............................................ 29
4.2.
Виды преобразования спектров сигнала .............................................. 33
4.3.
Амплитудно-модулированные сигналы ............................................... 36
4.4.
Дискретная амплитудная модуляция (ДАМ) ....................................... 37
4.5.
сигнала
Спектральное и векторное представление амплитудно-модулированного
38
4.6.
Определение глубины модуляции по спектральной диаграмме (графический метод) ............................................................................................................. 39
4.7.
Спектр АМ сигнала при модуляции сообщением сложной формы .. 40
4.8.
Амплитудная модуляция с подавленной несущей (балансная модуляция)........... ................................................................................................................... 42
4.9.
4.10.
Однополосная АМ модуляция ............................................................... 45
Получение АМ колебаний...................................................................... 45
4.11. Выбор режима работы модулятора для обеспечения неискаженной
модуляции .................................................................................................................. 48
4.12.
Балансный модулятор ............................................................................. 50
4.13.
Кольцевой модулятор (двойной балансный) ....................................... 53
4.14.
Амплитудные модуляторы на интегральных микросхемах ............... 55
279
4.15.
Детектирование АМ колебаний (демодуляция) .................................. 57
4.16.
Квадратичный детектор.......................................................................... 59
5. Угловая модуляция (частотная и фазовая) ................................................. 67
5.1.
Фазовая модуляция ................................................................................. 67
5.2.
Частотная модуляция .............................................................................. 67
5.3.
5.4.
Сравнение ЧМ и ФМ .............................................................................. 68
Модуляция сигналом произвольной формы ........................................ 69
5.5.
Спектры при угловой модуляции .......................................................... 70
5.6.
Сходства и различия ЧМ и ФМ ............................................................. 73
5.7.
Методы получения сигналов угловой модуляции ............................... 74
5.8.
Детектирование сигналов угловой модуляции .................................... 81
5.9.
Фазовый (синхронный) детектор (ФД) ................................................. 84
6. Модуляция дискретными сигналами ........................................................... 87
6.1.
Дискретные виды модуляции ................................................................ 87
6.2.
Спектры сигналов дискретной модуляции ........................................... 90
6.3.
Дискретная относительная фазовая модуляция (ДОФМ) ................... 91
6.4.
Импульсные виды модуляции (аналитическое представление, временные
и спектральные диаграммы) ..................................................................................... 94
6.5.
6.6.
Использование компандирования в ИКМ ............................................ 99
Системы передачи с дельта-модуляцией ............................................ 100
7. Случайные процессы ...................................................................................... 102
7.1.
Вероятносные характеристики случайных сигналов (процессов);
числовые характеристики и физическая интерпретация .................................... 102
7.2.
Числовые характеристики случайных процессов .............................. 104
7.3.
Стационарные случайные процессы ................................................... 107
7.3.
Интервал корреляции............................................................................ 108
7.4.
7.5.
Эргодические случайные процессы .................................................... 110
Гауссовский (нормальный) случайный процесс и его свойства ...... 111
7.6.
Нормальный случайный процесс ........................................................ 112
7.7.
Функция корреляции одиночного прямоугольного импульса ......... 114
7.8.
Применение корреляционных методов обработки сигналов в технике
связи.......... ................................................................................................................ 117
Часть II. Теория передачи сигналов................................................................. 120
8. Случайные сигналы ....................................................................................... 120
8.1.
Энергетический спектр случайных сигналов..................................... 120
280
8.2.
Узкополосные и широкополосные случайные процессы. Белый
шум............................................................................................................................ 122
8.3.
Эффективная ширина энергетического спектра и ее связь с интервалом
корреляции ............................................................................................................... 124
8.4.
Функция корреляции узкополосного случайного процесса ............. 126
8.5.
до 𝜔в ..
Функция корреляции «белого» шума, ограниченного полосой частот от 0
128
8.6.
Функция корреляции «белого» шума, ограниченного полосой частот от
𝜔0 − ∆𝜔 до 𝜔0 + ∆𝜔 ............................................................................................... 129
8.7.
Прохождение случайных процессов через линейные инерционные
радиотехнические цепи ........................................................................................... 131
8.8.
Прохождение случайного сигнала через нелинейные безинерционные
радиотехнические цепи ........................................................................................... 135
8.9.
Примеры прохождения случайных сигналов через линейные инерционные и нелинейные безинерционные радиотехнические цепи ............................ 137
8.10. Представление сигнала в комплексной форме. Преобразование Гильберта. Аналитический сигнал................................................................................. 141
8.11. Комплексное представление узкополосного процесса. Квадратурные
составляющие и их свойства .................................................................................. 144
8.12. Огибающая и фаза узкополосного гауссовского случайного процесса и
суммы гармонического сигнала и узкополосного гауссовского случайного
сигнала..... ................................................................................................................. 146
8.14.
Математические модели непрерывных и дискретных каналов связи..........
151
Классификация дискретных каналов связи ........................................ 154
8.15.
Помехи в каналах связи и их классификация .................................... 159
8.16.
Геометрическое представление сигналов и помех ............................ 166
8.13.
9. Основы теории помехоустойчивости .......................................................... 171
9.1.
Задачи приемного устройства.............................................................. 171
9.2.
Критерии приема дискретных сигналов. Отношение правдоподобия............. ................................................................................................................ 173
9.3.
Оптимальный приемник полностью известных сигналов. Приемник
Котельникова ........................................................................................................... 177
9.4.
Вероятность ошибки в приемнике Котельникова (общий случай и
частные случаи) ....................................................................................................... 184
9.5.
9.6.
Частные случаи...................................................................................... 186
Оптимальная фильтрация дискретных сигналов ............................... 189
9.7.
Примеры согласованных фильтров. Квазиоптимальные фильтры ..195
281
9.8.
Оптимальная фильтрация непрерывных сообщений ........................ 198
9.9.
Оптимальная фильтрация непрерывных сигналов ............................ 199
9.10.
Оптимальное с/ш на входе приемника непрерывных сообщений ... 200
9.11.
Обеляющий фильтр............................................................................... 202
9.12.
Прием сигналов с неизвестной фазой (некогерентный прием) ....... 203
9.13.
9.14.
Прием дискретных сигналов со случайной амплитудой .................. 209
Прием сигналов ДОФМ ........................................................................ 211
9.15.
Помехоустойчивость передачи непрерывных сообщений ............... 214
10. Основы теории информации......................................................................... 216
10.1. Информационные характеристики сигнала ....................................... 216
10.2. Энтропия дискретного источника с независимым выбором сообщений............ ................................................................................................................. 218
10.3.
Энтропия дискретного источника с зависимыми сообщениями ..... 219
10.4.
10.5.
Избыточность источника...................................................................... 221
Производительность источника .......................................................... 222
10.6.
Совместная энтропия двух источников .............................................. 223
10.7.
Взаимная информация источников сообщений ................................. 225
10.8.
Скорость передачи и пропускная способность канала связи ........... 226
10.9. Статическое кодирование дискретных сообщений ........................... 228
10.10. Энтропия непрерывного источника и ее свойства ............................ 229
10.11. Пропускная способность непрерывного канала связи ...................... 232
10.12. Эпсилон-энтропия источника непрерывных сообщений ................. 234
11. Корректирующие коды .................................................................................. 237
11.1. Принципы помехоустойчивого кодирования. Кодовое расстояние 237
11.2.
11.3.
Классификация корректирующих кодов ............................................ 238
Обнаруживающая и исправляющая способность кодов ................... 240
11.4.
Простейшие корректирующие коды ................................................... 244
11.5.
Сложные систематические коды ......................................................... 247
12. Системы передачи сообщений с обратной связью ................................... 251
12.1. Классификация систем с обратной связью......................................... 251
12.2. Системы прерывистой связи ................................................................ 257
12.3.
Разнесенный прием ............................................................................... 260
12.4.
Широкополосные системы связи ........................................................ 264
Заключение ............................................................................................................. 275
Список литературы............................................................................................... 276
282
Основные обозначения ......................................................................................... 277
Оглавление ............................................................................................................. 279
283
Download