49. Спектральные характеристики случайных процессов.

advertisement
1
1. Передача информации между двумя оконечными устройствами. Тип соединения
оконечных устройств
Сети с коммутацией каналов — для передачи между оконечными устройствами
выделяется физический или логический канал, по которому возможна непрерывная
передача информации в течение всего сеанса связи. Маршрут передачи в таких системах,
как правило, определяется при установлении сеанса связи и не меняется до окончания.
Сетью с коммутацией каналов является, например, телефонная сеть. В таких сетях
возможно использование узлов весьма простой организации, вплоть до ручной
коммутации, однако недостатком такой организации является неэффективное
использование каналов связи либо возрастание времени ожидания соединения, если
поток информации непостоянный и малопредсказуемый.
Тип соединения оконечных устройств
Оконечные устройства систем связи часто классифицируют согласно типу их соединения
с другими оконечными устройствами. Возможные типы соединения, показанные на рис.
6.6, называются симплексными (simplex) (не путайте с симплексными, или
трансортогональными кодами), полудуплексными (half-duplex) и полнодуплексными
(full-duplex). Симплексное соединение на рис. 6.6, а — это односторонняя линия связи.
2
2. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
Информация – сведения о процессах, явлениях, событиях, или физ. объектах. Для
обеспечения доступа к информации заинтересованного в ней потребителя её необходимо
ему передать. Информация передается в форме сообщения.
Сообщение – такая форма представления информации, которая пригодна для передачи
на расстоянии. 80 – 90 % человек получает с помощью зрительного аппарата; 10 – 20 % с
помощью слуха; остальное с помощью других органов чувств. Т. о. различают
оптические и звуковые сообщения. Если сообщение регистрируются на твердом
носителе, то оно называется документальным. Сообщения, предназначенные для
передачи с помощью цифровой компьютерной техники, называется данными. Объект,
передающий сообщение, называется отправителем или источником. Объект,
воспринимающий полученную информацию, называется получателем (потребителем).
Для передачи сообщения необходим материальный носитель, который называется
сигналом. Сигнал – физический процесс, используемый для передачи сообщений.
Сигнал формируется с помощью изменения какого-либо физического параметра. Сигнал
всегда описывается как функция t, даже если передаваемое сообщение таковым не
является (текст, рисунок). Будем обозначать эту функцию Z(t), Z – информационный
параметр; Z(t) – зависимость от времени. Если Z(t) непрерывна, то сигнал называется
аналоговым или непрерывным сигналом (речь, музыка).
Дискретный сигнал характеризуется тем, что множество его значений конечно:
Z = [z1*, z2*, …, zN*];
N значений дискретного сигнала образуют последовательность Z1, Z2, …, ZN.
Последовательность Z1, Z2, …, ZN называют дискретным сигналом. Множество Z
называют алфавитом сообщения. Компоненты алфавита называют символами алфавита.
В системах цифровой связи непрерывные сообщения преобразуется с помощью
дискретизации по t и квантованию по уровню в дискретные сигналы. В таком виде
передаются по тракту связи.
5. Форматирование информации. Форматирование текстовых данных.
Существующие стандарты.
Форматирование – первый этап обработки информации, имеющий целью обеспечить
совместимость сообщения со средствами цифровой обработки или это преобразование
информации в цифровой код.
Все многообразие источников информации можно обобщить по виду выходных
сигналов, только компьютеры осуществляют обмен информацией только в цифровом
виде, все остальные источники имеют либо буквенно-цифровой вид, либо аналоговый.
Буквенно-цифровой текст должен быть преобразован в поток битов. Для такого
преобразования используется один или несколько стандартных форматов, которые
называются методами знакового кодирования: ASCII, EBCDIC, код Бодо. Следует
отличать алфавит источника и алфавит символов, используемый для передачи.
Составляющие алфавита источника, называемые знаками алфавита, используемые для
передачи, содержит символы. Поток битов разделяется на последовательные группы по к
k
битов. Значит каждая группа может содержать символ, взятый из алфавита M  2 .
3
6. Передача сообщений по каналу, искажения, краевые искажения, дробление
Помехи могут быть от сварки, помехи в сети, космические помехи, помехи могут быть
аддитивные и мультипликативные. Аддитивные помехи складываются с сигналом, а
мультипликативные умножаются. Помехи на сигнал воздействую в отдельности и в
комплексе и неприятное воздействие помех проявляется в том, что единица может быть
принята за ноль, а ноль за единицу. Краевые помехи проявляются в затягивании или
завале фронтов.
Дробление – импульсные помехи, выражаются в самопроизвольном изменении сигнала.
Краевые помехи и дробление происходят одновременно - пакетирование
Краевые помехи проявляются в завале и затягивании фронтов.
9. Дискретизация по методу «выборка-хранение».
x(t)
t
Формально, дискретизованный т.о. сигнал
описывается как свертка:
xs t   pt   xt    t  , где
pt  - идеальный прямоугольный импульс
шириной t s и единичной площади.
xt   t  - последовательность импульсов,
полученная
в
результате
идеальной
t дискретизации.
ts
Главный результат применения такого
способа дискретизации – более быстрое затухание
боковых спектральных копий по сравнению с естественной дискретизацией.
Замечание: При дискретизации по методу «выборка-хранение» все прямоугольники
в сигнале xs t  имеют плоский верх.
xs(t)
10. Сигнал, как реализация процесса. Классификация процессов.
Сигнал – процесс изменения во времени физ. состояния нек. объекта, служащего для
отображения, регистрации и передачи сообщения. Сигнал можно исслед. с пом.
приборов, но этот эмпирический метод подходит только для конкретной ситуации. Для
того, что бы сигнал стал объектом научного исслед. необх. создать путь мат. модели.
Модель позволяет абстрагироваться от конкретной природы носителя сигнала. Мат.
модель может быть функциональной зависимостью, аргументом кот. может быть время.
Моделью может быть частотное представление сигнала. Поскольку сигнал явл-ся носит.
инф-ции, то можно говорить о инф. модели.
В системах DCS передаваемые сигналы называется дискретными или цифровыми.
Однако символы передаваемого сообщения, берущиеся из дискретного и конечного
алфавита, преобразуются в сигналы, которые являются аналоговыми.
4
В этом примере для передачи разных символов из бинарного алфавита используется
гармонический аналоговый сигнал. Причем в этом сигнале каждому символу
соответствует своя частота на интервале передачи бита. Несмотря на то, что для
передачи используется аналоговая функция времени, сигнал все же называется
цифровым. Будем обозначать некоторый сигнал, как z(t). В теории математическая
модель, с помощью которой описывается механизм получения сигнала z(t), называется
процессом. Различают детерминированные и случайные процессы. Детерминированные
процессы описываются явными математическими формулами. Это позволяет получать
точные значения функции z(t) для любого момента времени t.
Случайные процессы нельзя описать во всех деталях. В любой момент времени t
значение такого процесса z(t) не может быть вычислено точно, так как эта величина
является случайной.
Детерминированные процессы подразделяются на периодические и непериодические.
Периодические бывают: гармонические и полигармонические. Непериодические
бывают: почти периодич. и переходные.
Случайные процессы бывают: стационарные и нестационарные, непрерывные и
дискретные.
5
11. Детерминированные процессы. Гармонические и переходные непериодические
процессы.
Детерминированный сигнал – сигнал, если сущ. его математическое описание, т.е. можно найти его знач. в любой
момент времени. Детерминированные сигналы бывают: периодические (гармонич. и полигармонич.) и
непериодические (почти периодич. и переходные).
Гармонич.: x(t)  A0cos(k 1  
Гармонический процесс - это периодический процесс, поведение которого во времени математически выражается
 
z(t )  A sin(2 ft  Q)
0
формулой
, где Ао - амплитуда, fg - циклическая частота в герцах, если t измеряется в
секундах, Q - начальный фазовый угол в радианах, z(t) -мгновенное значение в момент t. При практическом
z(t )  A sin(2 ft )
0
анализе гармонических процессов фазовый угол Q часто игнорируется. В этом случае
.
Уравнение графически можно изобразить либо в виде зависимости мгновенного значения oт времени, либо в
виде зависимости амплитуды от частоты (частотного спектра); оба способа показаны на рисунке:
Интервал времени, на котором происходит одно полное колебание или цикл гармонического процесса,
называется периодом Tg. Число циклов в единицу времени называется частотой fg . Частота и период связаны
Tk 
1
f k . Спектры, задающие непрерывную зависимость амплитуды от частоты, называются дис-
соотношением
кретными или линейчатыми.
Переходные процессы - это все непериодические процессы, за исключением почти периодических процессов.
Другими словами, к переходным относятся все процессы, которые можно задать какой-либо функцией времени,
за исключением процессов, рассмотренных выше.
К переходным процессам приводят многочисленные и самые разнообразные явления.
Важная особенность переходных процессов, отличающая их от периодических и почти периодических
процессов, состоит в том, что их нельзя охарактеризовать дискретным спектром. В большинстве случаев для
переходных процессов можно получить непрерывное спектральное представление, используя преобразование

A( f ) 
 z(t )e
 j 2 ft
dt

Фурье вида
где j - мнимая единица. Вообще говоря, преобразование
Фурье A(f) является комплексной (комплекснозначной)
величиной.
 Ae  at , t  0
0, t  0
Переходные: x(t)= 
x(t)
S(w)
t
w
 Ae  at cos wt, t  0
0, t  0
x(t)= 
6
 A,0  t  C
ед. сигнал длит. С
0, C  t  0
x(t)= 
12. Полигармонические и непериодические процессы их спектральные
характеристики.
К полигармонич. относ. звук скрипки, саксофона, вибр. двигателя.
К полигармоническим процессам относятся периодические процессы, которые
математически представляются функцией времени, точно повторяющей свои значения
через одинаковые интервалы времени, т. е.
z(t )  z(t  mTp ), m  1,2,3...
Как и в случае гармонических процессов, интервал времени, в течение которого
происходит одно полное колебание, называется периодом Тр. Число циклов в единицу
времени называется фундаментальной частотой fv. Гармонические процессы
представляют собой частный случай полигармонических процессов при fg= fp.
В практических случаях полигармонические процессы разлагаются в ряд Фурье по

a
z (t )  0  [am cos(2 mf p t )  bm sin(2 mf p t )]
2 m 1
формуле
,
2
am 
Tp
Tp
 z (t ) cos(2 mf
p
t )dt
0
2
bm 
Tp
Tp
 z (t )sin(2 mf
p
t ) dt
0
,
Другое представление полигармонических процессов рядом Фурье дает формула

z(t )  A0   Am cos(2 f mt  Qm )
m 1
bm
2
2
a0
A

a

b
,
Q

arctg
(
)
m
m
m
A0 
, f m  mf p m
am
2
,
Иначе говоря, формула показывает, что полигармонический процесс есть сумма
постоянной составляющей Ао и бесконечного числа гармонических составляющих,
называемых гармониками и имеющих амплитуды Ат и фазы Q.m . Все частоты
гармонических составляющих кратны фундаментальной частоте fp.
Однако если процесс образован суммой двух и более гармонических процессов с
произвольными частотами, то он, как правило, не будет периодическим. Точнее говоря,
сумма двух и более гармонических процессов будет периодическим процессом тогда и
только тогда, когда отношение частот любых двух гармоник (входящих в состав всего
процесса в целом) есть рациональное число.
ПОЧТИ ПЕРИОДИЧЕСКИЕ процессы определяются математически как функции
z (t )  z (t  mTp ), m  1, 2, 3...
Причем отношения fm/fk не для всех значений индексов явл рациональными числами.
Состовляющ.
x(t) Asin( 2w t  ) A sin( 5w t  ) A sin(3w t  )
1
1
2
1
2
3
1
3
7
13. Определение случайного процесса. Непрерывные и дискретные случайные
процессы.
Случайный процесс – ординаты приним. значения из нек. множества и заранее неизвестно это
значение. Реальный случ. процесс набл. в течении ограниченного времени. Случ. процесс, набл.
за конечный пром. времени наз. РЕАЛИЗАЦИЕЙ случ. процесса. Реализация одного и того же
процесса отлич. друг от друга, но реализации содержат общие с-ва случ. процесса. Наблюдение
за реализацией случ. процесса информации не даёт.
Измерить случ. процесс – определить его статистич. хар-ки, кот. определяются по одной или
нескольким реализациям и эти хар-ки отражают с-ва всего процесса. Случ. процесс, набл. за
короткий промежуток времени – наз. РЕАЛИЗАЦИЕЙ. Совокупность реализаций случ.
процесса наз. АНСАМБЛЕМ.
К хар-кам случ. процесса можно отнести среднее значение квадрата, мат. ожидание, дисперсию,
среднеквадрат. отклонение, закон распред-я. Все статистич. хар-тики получ. путём осреднения,
при этом осреднение может осущ. осреднением по ансамблю либо осреднению по времени.
Случ. процесс обладает с-вом ЭРГОДИЧНОСТИ, если статистич. хар-ки, найдены осреднением
по времени и по ансамблю равны. Будем исходить из гипотезы эргодичности и осреднять будем
по времени.
Детерминированные процессы – это процессы, которые можно описать явными
математическими формулами. Однако многие физические явления, имеющие место при
передаче информации, описываются процессами, которые нельзя считать детерминированными.
Например, тепловые шумы в проводной линии связи, или звуковые помехи, маскирующие
полезный звуковой сигнал, – это процессы, которые невозможно описать во всех деталях.
Совершенно невозможно предсказать точное значение таких процессов в будущие моменты
времени. Эти процессы являются случайными (стохастическими) процессами по своей сути, и
для их описания требуются вероятностные понятия и статистические характеристики.
Случайный (стохастический) процесс определяется как случайная функция Z (t ) от
независимой переменной t . Определенная функция времени z (t ) , полученная как результат
наблюдения процесса Z (t ) , описывающего случайное явление, называется выборочной
функцией. Выборочная функция конечной длительности называется реализацией случайного
процесса.
Теоретически случайный процесс можно рассматривать как совокупность (ансамбль) {z i (t )}
всех возможных выборочных функций, которые может дать случайное явление. Следовательно,
под реализацией случайного физического явления понимается один из возможных исходов
случайного процесса.
Множество возможных реализаций случайного процесса теоретически бесконечно, и
неизвестно, какая из этих реализаций будет наблюдаться в текущем эксперименте. Поэтому для

любого фиксированного момента времени t  t (называемого иногда сечением процесса по

времени) должно быть задано распределение вероятностей случайной величины Z (t ) . Это
распределение характеризуется либо функцией распределения
Fz ( z, t )  Pr ob[ Z (t*)  z ]
(1)
либо плотностью распределения
f z ( z , t *) 
dFz ( z , t *)
dz
(2)
В общем случае функции, задаваемые соотношениями (1) и (2), зависят от расположения точки

сечения t  t , т. е. зависят от времени.
8
Случайные процессы делятся на стационарные и нестационарные. В свою очередь
стационарные случайные процессы делятся на эргодические и неэргодические. Дальнейшая
классификация нестационарных случайных процессов проводится по особенностям их
нестационарностей.
9
14. Измерение случайных процессов.
Измерить случ. процесс – определить его статистич. хар-ки, кот. определяются по одной
или нескольким реализациям и эти хар-ки отражают с-ва всего процесса. Случ. процесс,
набл. за короткий промежуток времени – наз. РЕАЛИЗАЦИЕЙ. Совокупность
реализаций случ. процесса наз. АНСАМБЛЕМ.
К хар-кам случ. процесса можно отнести среднее значение квадрата, мат. ожидание,
дисперсию, среднеквадрат. отклонение, закон распред-я:
1) Среднее значение квадрата:
T
 2 (t )  lim  x 2 (t )dt
T  0
2) Мат. ожидание:
1T
1T
m  lim  x(t )dt , m   x(t )dt
x T
x T  T 0
0
- среднее значение процесса.
3) Дисперсия
1T
D   ( x(t ) m )dt
x
x T
0
Мат. ожидание и дисперсия в дискретном виде:
1 n
m 
 x(i )
x N
i 1
1 n
Dx 
 ( x(i)  mx)2
N  1 i 1
4) Ф-ция распределения (и её вывод)
Tx
T  T
P ( x  x(t )  x  x)  lim
t
 Tx
p ( x  x(t )  x  x)
1 T
lim
 lim lim ( x )  P( x) - ф-ция распределения
x  0
x  0 T   T x
x
i
Если предел сущ., то он наз. функцией плотности распределения или одномер. законом
распределения. Она обладает теми же свойствами:

P(  x  )  P( x)dx

x
 P( )d  F ( x) , где F(x) – оригинал.
0
Все статистич. хар-тики получ. путём осреднения, при этом осреднение может осущ.
осреднением по ансамблю либо осреднению по времени.
10
Случ. процесс обладает с-вом ЭРГОДИЧНОСТИ, если статистич. хар-ки, найдены
осреднением по времени и по ансамблю равны. Будем исходить из гипотезы
эргодичности и осреднять будем по времени.
11
15. Числовые характеристики случайных процессов, их инженерно-физический
смысл.
1) Среднее значение квадрата:
T
 2 (t )  lim  x 2 (t )dt
T  0
2) Мат. ожидание:
1T
1T
m  lim  x(t )dt , m   x(t )dt
x T
x T  T 0
0
- среднее значение процесса.
3) Дисперсия
1T
D   ( x(t ) m )dt
x
x T
0
Мат. ожидание и дисперсия в дискретном виде:
1 n
m 
 x(i )
x N
i 1
1 n
Dx 
( x(i )  mx) 2

N  1 i 1
4) Ф-ция распределения (и её вывод)
P ( x  x(t )  x  x)  lim
T 
t
Tx
T
 Tx
p ( x  x(t )  x  x)
1 T
lim
 lim lim ( x )  P( x) - ф-ция распределения
x  0
x  0 T   T x
x
i
Если предел сущ., то он наз. функцией плотности распределения или одномер. законом
распределения. Она обладает теми же свойствами:

P(  x  )  P( x)dx

x
 P( )d  F ( x) , где F(x) – оригинал.
0
Измерить случ. процесс – определить его статистич. хар-ки, кот. определяются по одной
или нескольким реализациям и эти хар-ки отражают с-ва всего процесса. Случ. процесс,
набл. за короткий промежуток времени – наз. РЕАЛИЗАЦИЕЙ. Совокупность
реализаций случ. процесса наз. АНСАМБЛЕМ.
К хар-кам случ. процесса можно отнести среднее значение квадрата, мат. ожидание,
дисперсию, среднеквадрат. отклонение, закон распред-я:
Все статистич. хар-тики получ. путём осреднения, при этом осреднение может осущ.
осреднением по ансамблю либо осреднению по времени.
12
Случ. процесс обладает с-вом ЭРГОДИЧНОСТИ, если статистич. хар-ки, найдены
осреднением по времени и по ансамблю равны. Будем исходить из гипотезы
эргодичности и осреднять будем по времени.
16.Законы распределения и основные характеристики случайных процессов
Сечение с.п. X(t) при любом фиксированном значении аргумента t представляет собой случайную
величину, которая имеет закон распределения
F(t,x) = P{X(t) < x} (1)
Эта функция зависит от двух аргументов: во-первых, от значения t, для которого берется сечение; во
вторых, от значения х, меньше которого должна быть с.в. X(t) (Рис.4.). Функция (1) называется
одномерным законом распределения.
Рис.4.
Представим себе два случайных процесса с одинаковым распределением в каждом сечении, но
совершенно различных по своей структуре. Первый представлен совокупностью своих реализаций на
рис.5, второй – на рис.6. Первый процесс имеет плавный характер, второй – более резкий, «нервный».
Для первого процесса характерна более тесная зависимость между сечениями с.п.; для второго эта
зависимость затухает довольно быстро с увеличением расстояния между сечениями.
Рис.5.
Рис.6.
Очевидно, одномерный закон не может служить полной, исчерпывающей характеристикой с.п. X(t).
Одномерная функция распределения вероятностей F(x, ti) определяет вероятность того, что в
момент времени ti значение случайной величины X(ti) не превысит значения x:
F(x, ti) = P{X(ti)≤x}.
Очевидно, что в диапазоне значений вероятностей от 0 до 1 функция F(x, t) является
неубывающей с предельными значениями F(-,t)=0 и F(,t)=1. При известной функции F(x,t)
вероятность того, что значение X(ti) в выборках будет попадать в определенный интервал значений [a,
b] определяется выражением:
P{a<X(ti)≤b} = F(b, ti) – F(a, ti).
13
17. Автокорреляционная функция случайного процесса. Примеры автокорр.
функций.
x(t)
Корреляционные хар-ки явл. наиболее широко применимыми
в инженерной практике и в научных исслед., связ. с анализом
случ. процессов.
t
t1
t2
t2-t1=τ
Автокорреляционная ф-ция отражает общую зависимость ординат процесса в данный момент времени
от ординат процесса, отстоящего на некоторое время: t2-t1=τ.
t
1
Автокорреляц. ф-ция: Rx (t1t 2 )  M x(t )  x(t   ), Rx (t1t 2 )  lim  x(t )  x(t   )dt .
T0
T 
Если t2-t1=τ: Rx ( ) 
T
1
x(t )  x(t   )d
T 0
С-ва автокорреляц. ф-ции:
1) Эта величина всегда действительная.
2) Rx(τ)= Rx(τ)
3) Rx(0)≥ Rx(τ) для любого τ
4) Rx(∞)=mx Хвост автокор. ф-ции стремится к мат. ожиданию.
5) Rx(0)=Ψ2(t) энергетич.
Виды автокорреляц. ф-ций:
Rx(τ)
1)Для гармонического процесса:
x(t)=A0sinωt
τ
2) Случ. процесс:
τ
3) Смесь: случ. + гармонич.
τ
4)Белый шум
τ
5)Узкополосный процесс
τ
Примеры применения автокор. ф-ций:
1) Фильтры (когда оч. большой период: 11 лет –активность
Солнца)
2) Геологич. разведка (полезные ископаемые): отделить шумы,
принимаемые сейсмо-датчиками, при взрыве зарядов.
Кор. ф-цию описывают нек. характеристиками:
- Rx(0)
- задают максимумы и минимумы
- корнями
Кор. ф-ция величина размерная, и значения зависят от единиц измерения.
11 лет
14
1
R (t )   x(t ) x(t  )dt
x
T
R ( )
 ( )  x
x
 x2

 max

15
18. Взаимная корреляционная функция случайных процессов. Примеры
применения корреляционных характеристик.
T
1
Rx ( )   x(t )  x(t   )dt Заменим
T0
x(t   ) на y (t   ) .
T
1
R
(

)

x(t ) y(t   )dt
Получим: xy
T 0
Rxy (kt ) 
1
x(i ) y (i  kt )

N
2
Rxy  Rx (0)  Ry (0)
Rxy ( ) 

1
Rx (0)  R y (0)
2

Rxy(τ)
τ
усредненный вид всех гармоник
Применение:
1) Для определения путей прохождения сигнала
2) Выделение полезного сигнала на уровне помех (Корреляционный приём), когда
помеха намного больше сигнала.
С-ва автокорреляц. ф-ции:
1) Эта величина всегда действительная.
2) Rx(τ)= Rx(τ)
3) Rx(0)≥ Rx(τ) для любого τ
4) Rx(∞)=mx Хвост автокор. ф-ции стремится к мат. ожиданию.
5) Rx(0)=Ψ2(t) энергетич.
16
19. Усреднение по ансамблю и по времени. Эргодическое свойство случайных
процессов.
Измерить случ. процесс – определить его статистич. хар-ки, кот. определяются по одной или
нескольким реализациям и эти хар-ки отражают с-ва всего процесса. Случ. процесс, набл. за
короткий промежуток времени – наз. РЕАЛИЗАЦИЕЙ. Совокупность реализаций случ.
процесса наз. АНСАМБЛЕМ.
К хар-кам случ. процесса можно отнести среднее значение квадрата, мат. ожидание, дисперсию,
среднеквадрат. отклонение, закон распред-я. Все статистич. хар-тики получ. путём осреднения,
при этом осреднение может осущ. осреднением по ансамблю либо осреднению по времени.
Случ. процесс обладает с-вом ЭРГОДИЧНОСТИ, если статистич. хар-ки, найдены осреднением
по времени и по ансамблю равны. Будем исходить из гипотезы эргодичности и осреднять будем
по времени.
1
mZ (t )  lim 
K  K


K
z
k 1
k

(t  ) .

(3)
1 K

C Z (t  , t    )  lim  {[ z k (t  )  mZ (t  )][( z k (t    )  mZ (t    )]} . (4)
K  K
 k 1

Формулы (3) и (4) показывают, как можно определить характеристики случайного процесса
путем усреднения по ансамблю в определенные моменты времени. Однако в большинстве
случаев характеристики стационарного случайного процесса можно вычислить, усредняя по
времени в пределах отдельной выборочной функции, входящей в ансамбль. Возьмем, например,
m
k-ую выборочную функцию z k (t ) ансамбля z1 (t ), z 2 (t ), ... Среднее значение Z , k и
ковариационная функция
mZ , k
1
 lim 
T  T

C Z , k ( )
, вычисленные по k-ой реализации равны

z
(
t
)
dt

0 k
 , (7 а)
T
1 T

C Z , k ( )  lim   [ z k (t )  m Z , k ][ z k (t   )  m Z , k ]dt 
T  T
 0
.
(7 б)
m
C ( )
Если случайный процесс Z (t ) стационарен, а Z , k и Z , k , вычисленные по различным
реализациям согласно формулам (7), совпадают, то случайный процесс называется
эргодическим. Для эргодических процессов средние значения и ковариационные функции,
полученные усреднением по времени (как и другие характеристики, вычисленные усреднением
по времени), равны аналогичным характеристикам, найденным усреднением по ансамблю, т. е.
mZ , k  mZ
C ( )  C Z ( )
и Z, k
.
Эргодические случайные процессы образуют очень важный класс случайных процессов,
поскольку все свойства эргодических процессов можно определить по единственной
выборочной функции. На практике стационарные случайные процессы обычно оказываются
эргодическими. По этой причине свойства стационарных случайных явлений можно определить
по одной наблюдаемой реализации.
Особую практическую значимость имеют стационарные процессы, называемые гауссовыми или
нормальными процессами. Гауссов случайный процесс характеризуется тем, что совместная
плотность распределения величин Z (t ) , определенных для всевозможных временных сечений t,
является многомерной нормальной (гауссовой) плотностью. Случайная выборка
17
z (t1 ), z (t 2 ), ..., z (t N ) гауссова процесса, определенная для сечений t1 , t 2 , ..., t N , описывается N-
мерным совместным гауссовым распределением компонент.
18
20. Стационарные и нестационарные случайные процессы. Стационарность в
широком и узком смыслах. (2 стр)
К нестационарным случайным процессам относятся все случайные процессы, не
удовлетворяющие условиям стационарности, сформулированным в п. 1.1.1. Свойства
нестационарных случайных процессов зависят от времени и могут быть установлены
только путем усреднения в отдельные моменты времени по ансамблю выборочных
функций. На практике не удается получить достаточное для более или менее точной
оценки число реализаций, образующих ансамбль.
Во многих случаях нестационарные случайные процессы, отвечающие реальным
физическим явлениям, имеют особенности, упрощающие их анализ. Например, иногда
случайные данные удается представить в виде случайного процесса
выборочные функции которого имеют вид
z (t )   (t )  e(t ),
e(t )
Z (t ) ,
все
(8)
где
 выборочная функция стационарного случайного процесса, а  (t ) 
детерминированная функция, называемая трендом. Если процесс имеет такой вид, то для
описания его свойств не требуется усреднение по ансамблю; часто многие важные
свойства удается оценить по единственной реализации.
1.1.1 Основные характеристики процессов
Все характеристики процессов (как детерминированных, так и случайных) образуют две
группы, в одну из которых входят характеристики, описывающие поведение процессов
во времени, в другую – характеристики, отображающие особенности спектров Фурье,
или частотных спектров. Поэтому методы анализа процессов разделяются на две
большие группы: методы анализа во временной области, и методы анализа в частотной
области.
Основные статистические характеристики, имеющие важное значение для описания
свойств сигналов таковы:
1)
математическое ожидание и дисперсия;
2)
плотность распределения вероятностей;
3)
ковариационная и (или) корреляционная функции;
4)
спектральная плотность.
Первые три характеристики относятся к временной области, четвертая – к частотной
области.
19
Стационарность в широком и узком смыслах.
Различают стационарность в широком смысле и в узком. Стац. проц. в ШИРОКОМ смысле, если его
среднее значение и корреляц. ф-ция не зависит от времени.
M x(t ) 
1T
 x(t )dt Кор. ф-ция:
T 0
Rx ( ) 
1
x(t )  x(t   )dt
T
Стац. процесс в УЗКОМ смысле, если не изменен во времени закон распределения. Стационарность в
узком смысле предполагает стационарность в широком смысле, но не наоборот. Стационарность в
узком смысле шире, чем стационарность в широком. (Например: в узком смысле распознавание
человеком (биологич.), а в широком – роботом).
Процесс стационарный в широком смысле
Если физическое явление описывается случайным процессом, то свойство этого явления в принципе
можно оценить в любой момент времени путем усреднения по ансамблю выборочных функций
z1 (t ), z 2 (t ), ... , образующих случайный процесс. Тогда математическое ожидание случайного процесса

в момент времени t можно вычислить, взяв мгновенные значения всех выборочных функций ансамбля

в момент времени t , сложив эти значения и разделив на число слагаемых, т.е.
1 K

mZ (t  )  lim   z k (t  )
K  K
 k 1
.
(3)

Аналогичным образом ковариация значений случайного процесса в два различных момента времени t

и t   вычисляется путем усреднения по ансамблю произведений центрированных мгновенных
значений, взятых в эти моменты времени:
1 K

C Z (t , t   )  lim  {[ z k (t  )  mZ (t  )][( z k (t    )  mZ (t    )]}
K  K
 k 1
.


(4)
В формулах (3) и (4) суммирование производится в предположении равновероятности всех выборочных
функций. Расстояние  между моментами времени в формуле (4) называется сдвигом или задержкой.


Заметим, что величина C Z (t , t   ) для нулевого сдвига (для  =0) представляет собой дисперсию
2




процесса в момент времени t , т.е.  Z (t )  C Z (t , t ) .



В общем случае, когда величины mZ (t ) и C Z (t , t   ) , определенные уравнениями (3) и (4), зависят

от момента времени t , случайный процесс Z (t ) называется нестационарным. В том частном случае,




когда mZ (t ) и C Z (t , t   ) , не зависят от момента времени t , случайный процесс называется слабо
стационарным или стационарным в широком смысле. Среднее значение слабо стационарного процесса
постоянно, а ковариационная функция зависит только от сдвига времени  , т.е.
mZ (t  )  mZ
, (5 а)
C Z (t , t   )  C Z ( ) , (5 б)


 Z2 (t  )  C Z (0)   Z2 .
Процесс стационарный в узком смысле
Математическое ожидание и ковариацию называют соответственно моментом первого порядка и
смешанным моментом. Для полного определения структуры случайного процесса нужно вычислить
бесконечное число моментов и смешанных моментов высших порядков. В том случае, когда все
моменты и смешанные моменты инвариантны во времени, случайный процесс называется строго
стационарным или стационарным в узком смысле. Во многих приложениях проверка слабой
стационарности позволяет обосновать строгую стационарность. Отметим, что для строго стационарного
процесса функция и плотность распределения вероятностей в любом сечении одинаковы, т. е. они не
зависят от времени:
20
FZ ( z, t  )  FZ ( z ) ,
(6 а)

f Z ( z, t )  f Z ( z ) .
(6 б)
21. Количество информации. Формула Хартли.
Пусть имеется множество N=2k элементов. Пусть во множестве N помечен некоторый
элемент. Каким кол-вом инф-ции (в битах) надо обладать для идентификации помеченного
эл-та?
K=log2 N, где N – кол-во элементов.
В формуле Хартли предполагается, что все элементы множества равновероятны.
Закон аддитивности:
Пусть имеется мн-во M1, содержащее N1 эл-тов и Хi принадлежит N1. M2 содержит N2
эл-тов и Хj принадлежит N2. Составим пары (Хi , Хj)
M=N1*N2
log2(N1*N2)= log2 N1 + log2 N2
22. Формула Шеннона.
Пусть имеется случайная величина Х: Х1, Х2, Х3, … , Хn с вероятностями р1, р2, р3, … , рn
I(Xi) – кол-во информации при одном опыте
I(Xi) = log2 1/Pi
В каждом комплексе мы получаем различное кол-во информации.
Формула Шеннона:
Iср(X)   p  log 2
i
1
  p  log 2 p
p
i
i
i
23. Энтропия источника сообщений. Свойства энтропии источника дискретных
сообщений
Энтропия - это математическое ожидание по частным количествам информации
сообщений, генерируемых источником. Безусловная энтропия источника  вычисляется
по формуле:
K
K
i 1
i 1
H без ( )  M I (ai )   P(ai ) I (ai )   P(ai )  log 2 ( P(ai )).
[бит/сообщ.]
Свойства энтропии:
1. Это величина вещественная, действительная, неотрицательная: 0<=𝑝𝑖 <=1.
2. Энтропия достоверного события = 0.
𝐼(𝑥𝑖 ) = log 2
𝑃(𝑥) =
1
𝑝𝑖
1
= −log 2 𝑝𝑖 , [бит/сообщ.]
(𝑥−𝑚𝑥)
−
𝑒 2𝜎2
∙
= 𝑁(𝑚, 𝑄)
√2𝜋𝜎
Энтропия – это интегральная оценка
𝑛
𝐻(𝑥) = − ∑ 𝑝𝑖 ∙ log 2 𝑝𝑖
𝑖=1
21
Не следует путать среднее значение информации 𝐻(𝑥) с информацией, полученной в
данном конкретном опыте.
𝐻(𝑥) = − ∑𝑛𝑖=1 𝑝𝑖 𝑙𝑜𝑔2 𝑝𝑖 -энтропия достоверного события.
𝐻(𝑥) = −𝑝1 ∙ log 2 𝑝1 − ∑𝑛𝑖=2 𝑝𝑖 ∙ log 2 𝑝𝑖 ;
𝑝1 = 1;
𝑝1 log 2 𝑝1 = 0;
−𝑝𝑖 log 2 𝑝𝑖 = lim
𝑝𝑖 →0
Где
1
𝑝𝑖
log2
1
𝑝𝑖
1
𝑝𝑖
= lim
log2 𝛽
𝛽→0
𝛽
= lim
𝛽→0
1
∙𝑙𝑛2
𝛽
1
= 0;
= 𝛽, 𝛽 → ∞.
3. Энтропия альтернотивного сообщения максимальна при равной вероятности.
𝐻(𝑥) = −𝑝 ∙ log 2 𝑝 − 𝑞 ∙ log 2 𝑞 = −𝑝 ∙ log 2 𝑝 − (1 − 𝑝) ∙ log 2 (1 − 𝑝)
𝑞 = 1−𝑝
𝑑𝑈
𝑞 =1−𝑝
|
𝐻(𝑥) = −𝑝 ∙ log 2 𝑝 − 𝑞 ∙ log 2 𝑞 = −𝑝 ∙ log 2 𝑝 − (1 − 𝑝) ∙ log 2 (1 − 𝑝) 𝑑𝑝
𝑝=0
𝑞=1
𝑝+𝑞 =1
𝑝=1
𝑞=0
4.
Энтропия максимальна, когда
вероятности событий одинаковы.
𝐻𝑚𝑎𝑥 (𝑥) = − ∑𝑛𝑖=1 𝑝𝑖 ∙ log 2 𝑝𝑖 ;
𝑝1 = 𝑝2 =. . = 𝑝𝑛
0 ≤ 𝐻(𝑥) ≤ 𝐻𝑚𝑎𝑥 (𝑥)- при условии равновероятности.
Реальные источники как правило имеют произвольный закон распределения и
энтропия, вызванная неравенством распределения будет меньше max, а энтропия,
вызванная неравенством распределения называется безусловной. Т.о. безусловная
энтропия вызывается только неравенством распределения:
𝑥
𝑃(𝑥𝑖 , 𝑥𝑗 ) = 𝑃(𝑥𝑖 ) ∙ 𝑃 ( 𝑖⁄𝑥𝑗 ) = 𝑃(𝑥𝑖 ) ∙ 𝑃(𝑥𝑗 ) - независимые события
Условная энтропия – термин применимый к зависимым событиям.
𝐻усл (𝑥) = − ∑ 𝑝 (𝑥𝑖 ) ∙ 𝐻усл (𝑥𝑖 );
𝑥
𝑥
𝐻усл (𝑥) = − ∑𝑛𝑖=1 𝑝 ( 𝑖⁄𝑥𝑗 ) ∙ log 2 ( 𝑖⁄𝑥𝑗 ).
24. Избыточность при передаче сообщений. Роль избыточности при передаче
информации
Наличие в сообщении большего числа букв или в кодовой комбинации большего числа
элементов, чем это минимально необходимо для передачи содержащегося в них
количества информации, называют избыточностью. Расчет избыточности проводится по
формуле:
22

H max ( )  H усл ( )
H max ( )
 100%
Роль избыточности при передаче информации: избыточность позволяет обнаруживать и
исправлять ошибки, и эта способность зависит от количества избыточных разрядов.
23
25. Математические модели сигналов. Спектральное представление сигналов.
Физ. природа сигнала зависит от канала связи. Для того, чтобы сигнал стал объектом
научного исследования без относительно физ. природе, необх. указать путь создания его
мат. модели. Различные мат. модели должны отражать различные с-ва сигналов. Сигнал
можно изучать как аналитическое описание ф-ции, аргументом кот. явл. время. Можно
изучать энерг. с-ва сигнала. Можно построить частотную модель сигнала (спектр). Ряд
Фурье произвольной периодической ф-ции любого аргумента:

a
0
f ( x)    a cos kx  b sin nx
n
2 k 1 k
В математике ф-ция любого аргумента, а в ТПС – ф-ции, аргументом кот. явл. ВРЕМЯ –
наз. ПРОЦЕСС.
Спектральные характеристики случайных процессов.
Гармонич. анализ детерминир. процесса явл. мощным средством исслед. и описания их.
Естественно этот аппарат перенести на случ. процессы. Но случ. процесс имеет 2
особенности: 1)процесс не является абсолютно интегрируемым:

 x(t ) dt   . 2)

Преобраз. Фурье случ. процесса есть тоже процесс случайный. Для обобщ. хар-тик случ.
процесса необх. неслуч. величина. Спектральные хар-тики случ. процессов МОГУТ быть
вычислены. Сущ. 2 пути их нахождения: I) Путь усреднения. Исходя из с-ва
эргодичности случ. процесса.
S1(ω)
S2(ω)
корреляц. ф-ция
S ( )
lim i
T  T
2
I I) Путь, связ. с Фурье-преобраз. корреляционной ф-ции. Имеем кор. ф-цию Rx ( ) , кот.
зависит только от τ, то корреляц. ф-ция, связ. с энергетическим спектром Фурьепреобразования.
Ф-лы Винера-Хинчера:

1
1
 j
W ( ) 
R
(

)
e
dt

R( )e  j d
x


2
0
R( )   W ( )e
i

d  2 W ( )e j d
0
24
26. Ряд Фурье по произвольной ортогональной системе функций.
Два сигнала U(t) и V(t) называются ортогональными на промежутке [0,Т] если
T
 V (t ) * U (t )dt  0 .
0
Пусть мы имеем систему ортогональных функций {U1 ,U2 ,U3, …,Un}
Функции называются ортогональными если
T
U
m
(t ) * U n (t )dt  0 , m≠n
2
i
(t )dt  0
0
T
U
0
Пусть имеем систему попарно ортогональных функций и функцию x(t) € [0,T]. Запишем
ряд Фурье по этой системе функций.

(1) x(t) =
C
i 1
i
* U i (t ) - ряд Фурье по выбранной системе произвольно ортогональной
системе функций (базису).
Выразим неизвестные коэффициенты Ci через известную функцию x(t). Возьмем
произвольную функцию с номером k. Умножим левую и правую части (1) на функцию
Uk(t) и проинтегрируем:
T
 x(t )U
k
o
T
T
T
o
0
0
(t )dt  Ci *  U i (t ) * U k (t )dt  ...  C k *  U k (t ) * U k (t )dt  ...  C m *  U m (t ) * U k (t )dt  ...
В следствие попарной ортогональности функций системы получим:
T
T
T
 x(t )U
o
k
(t )dt  Ck *  U k (t ) *U k (t )dt => Ck =
0
 x(t ) * U
k
(t )dt
0
- Формула коэффициентов
T
U
2
k
(t )dt
0
Фурье по ортогональной системе функций.
T
 x(t ) * U
T
2
 U k (t )dt || U k (t ) || - норма функций на отрезке [0,T] => Ck =
0
k
(t )dt
0
|| U k (t ) ||
27. Ряд Фурье по основной тригонометрической системе функций.
ОТС: U0 = 1; U1 = sin(w1*t); U2 = cos(w1); U3 = sin(2w1*t)
U4 = cos(2w1*t)
Для того чтобы доказать ортогональность системы функций нужно доказать что:
T
U
m
(t ) * U n (t )dt  0 , m≠n
0
Ряд Фурье по ОТС:
25
T
2
T
2
T
2
 1dt  T ,  sin( w * t )dt  T2 ,  cos( w * t )dt  T2
1
T

2
1
T

2
T

2
28. Разложение периодических функций в ряд Фурье. Спектр амплитуд и спектр
фаз.
Ряд Фурье произвольной периодической функции любого аргумента:

a0
  (a k * cos( k * x)  bk sin( k * x))
f(x)=
2 k 1
Коэффициент с номером 0 обозначим
ak = коэффициенты при косинусах
bk = коэффициенты при синусах
2
ak = T
2
bk = T
a0
2
T
2
 x(t ) cos(k * w
1
* t )dt
T
2
T
2

 x(t ) sin( k * w
1

a0 1

2 T
* t )dt
T
2
T
2
 x(t )dt , w
1
T

2
=
2П
Т
Множество коэффициентов Фурье – спектр
Ak =
a k2  bk2
 k  arctg
ak
bk

a0
  Ak cos( k * w1 * t   k ) - Ряд Фурье в тригонометрической форме
x(t)=
2 k 1
26
Тригонометрический базис инвариантен к сдвигу. Спектры по периоду Т1 и Т2 совпадают.
Тригонометрический базис является мощным средством и инструментом описания
сигналов и анализа систем.
29. Ряд Фурье в комплексной форме. Спектр фаз и спектр амплитуд.
Ak j ( k *w*t r ) Ak  j ( k *w*t r )
Ak cos(k * w1 * t   k ) 



=
2
2
C k  j ( k *w*t r )
x(t ) 
jx
 jx



 C k   j ( k *w*t r ) , т.к. cos x 
2

jkw1t
C
*

 k
k  
1
Ck 
T
T
2
 jkw1t
x
(
t
)

dt


T
2
- Ряд Фурье в комплексной форме , где
27
Отрицательные частоты в комплексном спектре понятие не физическое, а
математическое, как следствие представления комплексных чисел.
30. Спектр мощности сигнала. Практическая ширина спектра. Равенство
Парсеваля. (3 СТР!!!)
T
T
E   u (t )dt   i 2 (t )dt - Энергия, где u(t) – напряжение, i(t) – сила тока.
2
0
0
28

E
2
S
 ( w)dt

- Энергетический спектр.

P=u(t)*i(t), P=  x 2 (t )dt - мощность
0

S ( w) 
 x(t )
 jwt
dt - Прямое преобразование Фурье (спектральная плотность мощности).


S ( w)  2 П  x 2 (t )dt
2




1
1
2
2
x (t )dt  2 П S (w)dw  П 0 S (w)dw - Равенство Парсеваля – энегрия рассеиваемая
на 1-ом Оме.
Практическая ширина спектра.
2


a0
jkw1t

A
cos(
k
*
w
*
t


)
x
(
t
)

C
*


k
1
k

k
Периодический сигнал: x(t)=
,
2 k 1
k  
29
На практике передаваемые по каналу не могут быть переданы с очень высокими
частотами т.к. реальные системы имеют ограниченную частоту пропускания
(ограниченная частотная характеристика).
Обычно используют два критерия для выбора высшей частоты спектра.
1. Критерий, в основе которого лежит выбор частоты, которая обеспечивает передачу
сигнала заданной мощности. Каждая гармоника несет свою долю мощности. Вся
мощность сигнала:

w1
1
1
2
Р   S ( w)dw => число; P1   S 2 ( w)dw => функция
П0
П 0
λ=
P1
P
2. Критерий основанный на соображениях формы сигналов. Важно не сохранение
мощности сигнала, а его форма.
30
Равенство Парсеваля.
T
T
0
0
E   u 2 (t )dt   i 2 (t )dt - Энергия, где u(t) – напряжение, i(t) – сила тока.

E
S
2
( w) dt - Энергетический спектр.


P=u(t)*i(t), P=  x 2 (t )dt - мощность
0

S ( w) 
 x(t )
 jwt
dt - Прямое преобразование Фурье (спектральная плотность мощности).


S ( w)  2 П  x 2 (t )dt
2


1
x (t )dt  2 П
2
Оме.


1
2
S (w)dw  П 0 S (w)dw - Равенство Парсеваля – энегрия рассеиваемая на 1-ом
2
31
31. Спектральные характеристики непериодического сигнала. Прямое и обратное
преобразования Фурье.
Пусть имеется одиночный сигнал, наблюдаемый на времени Т.
Устремим Т --> ∞, тогда соседние спектре могут стать сколь угодно близкими друг к
другу. Дискретную переменную kw1 можно заменить переменной w текущей частоты,
тогда суммы преобразуются в интеграл:

x(t ) 
jkw1t
C
*

 k
k  

S ( w) 
 x(t )
 jwt
, где
Ck 
1
T
T
2
 jkw1t
x
(
t
)

dt


T
2
dt - Прямое преобразование Фурье (спектральная плотность

мощности).
Физический смысл спектральной плотности мощности – комплексная функция частоты
одновременно является несущей информацию об амплитуде и фазе элементарных
синусоид.
х(t) =
1
2П

jwt
S
(
w
)

dw


- Обратное преобразование Фурье.
32
33
32. Оценивание спектральной плотности с помощью ДПФ
ДПФ является комплексной последовательностью A(k ) , каждый отсчет которой в общем
случае состоит из вещественной и мнимой компонент:
(5.22)
A(k )  Re[ A(k )]  j Im[ A(k )] ,
и может быть представлен в полярной форме как
A(k )  A(k ) exp(  j(k )) ,
где A(k )  модуль A(k ) , (k )  фазовый угол. На практике фазовый угол представляет
интерес для узкого класса задач, поэтому в основном анализ ведется по отсчетам модуля
A(k ) . Квадрат модуля ДПФ как функция частоты используется для оценки истинной
спектральной плотности S (k )  S ( f k ) процесса, реализацией которого является сигнал z(n)
:
~
S (k )  A(k )
~
2
, k  0, 1, ..., N  1 ,
(5.23)
~
где S (k )  S ( f k ) , f k  опорные частоты ДПФ, определяемые формулой (5.12). Заметим,
что специалисты-практики спектром часто называют именно эту действительную
функцию частоты.
Можно показать, что если ДПФ вычисляется по формуле (5.23), то сумма отсчетов
~
плотности S (k ) по индексам k  1, 2, ..., N  1 приблизительно равна выборочной
дисперсии временного ряда S Z2 , т. е.
N 1
~
S Z2   S (m) .
(5.24)
m 1
Нормированная спектральная плотность S норм (k ) вычисляется по одной из формул:
~
S (k )
S норм ( k )  2 ,
SZ
~
~
S (k )
S (k )
S норм (k )  N 1

,
N / 2 1
~
~
~
 S (l ) S ( N / 2)  2  S (l )
l 1
(5.25 а)
(5.25 б)
l 1
k  0, 1, ..., N  1 .
В большинстве практических задач анализу подвергаются действительные сигналы z (n) ,
ДПФ которых обладает комплексно-сопряженной симметрией, согласно формуле (5.16).
Следовательно, для действительного сигнала значения спектральной плотности
симметричны относительно точки f 0  0 :
~
~
S (k )  S (k ), k  1, 2, ..., N / 2 .
Поэтому имеет смысл определять отсчеты спектральной плотности действительного ряда
только для индексов k  0, 1, ..., N / 2 .
34
33. Дискретное преобразование Фурье (ДПФ). Гармонический анализ.
Предположим, что непрерывная реализация z (t ) представлена N эквидистантными
значениями с интервалом дискретизации t . Поскольку при рассмотрении финитного
преобразования Фурье мы задавали интервал определения z (t ) как [0, T ] , моменты t n
удобно индексировать, начиная с n  0 . Тогда последовательность отсчетов запишется в
виде z (n)  z (nt ) , n  0, 1, ..., N  1 .
Дискретная аппроксимация интеграла (по методу прямоугольников) в формуле
T
AT ( f )   z (t ) exp(  j 2ft)  j 2ft при произвольном значении f есть
0
N 1
AT ( f )  t  z (n) exp(  j 2fnt ) .
(5.11)
n0
Для расчета спектра выбираем дискретные значения частоты
fk 
k
k

, k  0, 1, ..., N  1 .
T Nt
(5.12)
Формула (5.11) дает на этих частотах следующие составляющие Фурье
A(k ) 
A( f k ) N 1
  z (n) exp(  j 2f k nt ) , k  0, 1, ..., N  1 ,
t
n0
(5.13)
причем интервал t внесен в значение A( f k ) , чтобы избавиться от множителя перед
знаком суммы. Подставив в соотношение (5.13) выражение для f k из (4.12), получим
формулу для дискретного преобразования Фурье
N 1
2kn 

A(k )   z (n) exp   j
 , k  0, 1, ..., N  1 .
N 

n 0
(5.14)
Внимание, это важно! Дискретное преобразование Фурье (ДПФ) применяется для
оценивания спектра, задаваемого соотношением (5.1). Частоты, определяемые
соотношением (5.12), (точки на оси частот) называются опорными частотами ДПФ, а
промежутки [ f k 1 , f k ] (интервалы частотной оси) между последовательными частотами ДПФ
– бинами ДПФ. Формула (4.14) часто записывается в виде
{ A(k )}  ДПФ{z (n)} ,
где ДПФ{}  оператор ДПФ.
Свойства ДПФ.
1) Последовательность A(k ) периодически повторяется через N значений:
A(k )  A(k  rN ) , где r  0,  1,  2, ... .
(5.15)
обладает свойством комплексной
2) ДПФ действительных временных рядов z(n)
симметрии, которое записывается в виде
A(k )  A ( N  k ) , k  1, 2, ..., N / 2 .
Учитывая (5.15), последнее соотношение можно представить как
A(k )  A (k ) , k  1, 2, ..., N / 2 ,
(5.16)
другими словами, частоты выше N / 2 можно рассматривать (теоретически) как
отрицательные.
3) Значение A(0) для действительных последовательностей z(n) равно
35
N 1
Re[ A(0)]   z (n)  N  z ,
(5.17)
Im[ A(0)]  0 ,
(5.18)
n 0
где z  выборочное среднее величин z (n) .
4) Свойство линейности ДПФ формулируется аналогично (5.5), т. е.
ДПФ{a  x(n)  b  y (n)}  a  ДПФ{ x(n)}  b  ДПФ{ y (n)} ,
где a и b  постоянные коэффициенты, x(n) и y (n)  два разных сигнала одина
ковой длины.
F {ax(t )  by (t )}  aF {x(t )}  bF { y (t )} . (5.5)
Гармонический анализ.
Под гармоническим анализом понимается нахождение коэффициентов Фурье и
построение спектров.
2
ak =
T
t T
 x(t ) cos(k * w1 * t )dt ,
Ck 
t
n 1
ДПФ : G(k)=
 x(i)

j 2 Пki
n
i 0
2 Пki
)
n
i 0
n 1
2 Пki
bk   x(i ) sin(
)
n
i 0
a k   x(i ) cos(
Ak  ak2  bk2
 x(t )

T
2
, где k=0,…,n-1
i=0,…,n-1
n 1
1
T
T
2
 jkw1t
dt
36
37
34. Примеры ортогональных базисов. Функции Уолша.
Примеры ортогональных базисов:
1 1
1 1
1 1 1 1
H4 =
- Матрица Адамара
1 1 1 1
1 1 1 1
H =|1|
H2 = | 1 1 |
| 1 -1 |
H4 = | H2 H2|
| H2 –H2|
Hn = | H H |
|H H|
H2n = | Hn Hn |
| Hn -Hn |
Функции Уолша (Wol)
Функции Адамара (Had)
Wol (0, θ)
Had(0, θ)
Wol (3, θ)
Had(1, θ)
Wol(1, θ)
Had(2, θ)
Wol(2, θ)
Had(3, θ)
Упорядочим функции Адамара по по количеству изменений значений на отрезке [0,1].
T
 x(t ) * U
Ck =
k
(t )dt
0
|| U k (t ) ||
- Формула коэффициентов Фурье, где
T
U
2
k
(t )dt || U k (t ) ||
- норма функций на отрезке [0,T]
0
По тригонометрической системе:
2
ak = T
T
2
n 1
 x(t ) cos(k * w
1
* t )dt ,
a k   x(i ) cos(
i 0
T

2
2 Пki
)
n
По системе функций (Had, Wol, Pal):
T
C k   x(t )Wol (k , )dt ,
0
n 1
C k   x(i )Wol (k , )
i 0
38
35. Модуляция. Зачем она нужна
Сигнал – переносчик информации, но для перемещения информации необходимо ее
разместить на сигнале. Сигнал должен содержать эту информацию. Модуляция –
изменение какого-либо параметра сигнала по закону сообщения. Сигнал, который
перемещается называется несущим. А информация должна быть размещена на несущем
сигнале.
Несущая нужна, так как:
- не все среды в состоянии передавать постоянную составляющую
- наиболее доступным каналом связи является воздушная среда или безвоздушная
Для формирования волн используется антенна. Длина антенны λ/4.
Несущая или использование несущей позволяет перемещать спектр модулирующего
сигнала по частотной оси, что позволяет осуществить уплотнение каналов в частотной
области, что позволяет по одному каналу передавать несколько сообщений.
36. Спектр АМ сигнала. Ширина полосы.
Имеем A(t)=Ancos(Ωt+γ), где Ω<<ω0
X(t)=A0[1+Mcos(Ωt+γ)]cos(ω0t+θ)= A0 cos(ω0t+θ)+ A0M/2cos[(ω0+Ω)t+θ+γ]+ A0M/2cos[(ω0Ω)t+γ-θ] – Спектр АМ сигнала
Имеем три составляющих:
1) амплитуда А0 и несущая ω0
2) амплитуда A0M/2 и несущая ω0+Ω
3) амплитуда A0M/2 и несущая ω0-Ω
Спектр:
A0
A0 M
2
ω0-Ω
ω0
ω0+Ω
нижняя
боковая
2Ω
боковая
A0 M
2
верхняя
Информацию несут боковые частоты. Полоса пропускания должна быть равна 2Ω
38. Амплитудная модуляция.
Рассмотрим гармонический сигнал x(t)=Acos(ωt-θ)
Изменяя А получим амплитудную модуляцию, изменяя ωt-θ=φ – угловую
Рассмотрим случай тональной модуляции, частота несущей ω0
x(t)=A(t)cos(ω0t+θ)
39
где ΔАм/А0=М<=1(для неискаженной модуляции)
40
39-40. Балансовая модуляция. Спектр и ширина полосы пропускания
Модуляция – наложение информации на гармонический сигнал(в радиотехнике)
X(t)=A0[1+Mc(t)]cos(ω0t+θ0)
X(t)=c(t)cos(ω0t+θ0)
Где c(t)=Cmcos(Ωt+γ)
X(t)= A0cos(Ωt+γ)cos(ω0t+θ)=A0/2cos[(ω0+Ω)t+θ0+γ]+A0/2cos[(ω0-Ω)t+γ-θ0]
Спектр имеет вид:
A0
2
A0
2
A0
ω0-Ω
ω0
ω0+Ω
нижняя
боковая
2Ω
боковая
верхняя
Полоса пропускания должна быть равна 2Ω
41. Угловая модуляция
x(t)=A(t)cos(ω0t+θ)
ω – частота, θ – фаза
мгновенное значение частоты ω=dφ/dt
φ=θ0 +∫ωdt
42. Частотная модуляция.
Пусть ω изменяется по линейному закону
ω= ω0+kЧМc(t); c(t) – модулирующий сигнал
φ= ω0t+kЧМ∫c(t)dt + θ0
x(t) = Amcos[ω0t+kЧМ∫c(t)dt + θ0]
c(t)=Cmcos(Ωt+γ)
x(t)=Amcos[ω0t+kЧМCm∫cos(Ωt+γ) + θ0]
обозначим kЧМCm= ωд – девиация – максимальное отклонение частоты от несущей
x(t)= Amcos[ω0t+ωд/Ω sin(Ωt+γ) + θ0], m= ωд/Ω – индекс модуляции
x(t)= Amcos[ω0t+msin(Ωt+γ) + θ0] – сигнал с ЧМ
Максимальное изменение фазы определяется индексом модуляции m и для повышения
помехоустойчивости применяют большие m. Девиация не зависит от частоты ω, а только
от амплитуды модулирующего сигнала.
41

g
m

C (t )
 (t )
t
43. Спектр колебаний с угловой модуляцией
Для определения спектра ЧМ (ФМ) сигнала при гармонической модуляции распишем:
u(t )  U m sin( 0t  m sin t )  U m cos(m sin t ) sin 0t  sin( m sin t ) cos 0t 
Если модуляция не глубокая ( m  1 ), то
cos( m sin t )  1
sin( m sin t )  m sin t 
u(t )  U m sin  0t  m  sin t  cos  0t  
m
m
U m sin ( 0  )t   U m sin ( 0  )t 
2
2
Т.о. при m  1 спектр мощности точно соответствует АМ - три линии в спектре :
 U m sin  0t 
- но фаза нижней боковой полосы сдвинута (по отношению к АМ)
на 180 градусов - как следствие, биения возникают не в амплитуде, а в фазе сигнала .
m
раз меньше амплитуды несущей  общая мощность в
2
2
m
m2
боковых полосах = 2    P0  P0 ; но достоинство - полная мощность сигнала не
2
2
Амплитуда боковых полос в
меняется
При увеличении индекса модуляции m  1 возникают ряды
sin( m sin t )  a1 sin t  a3 sin 3t  ...
cos(m sin t )  a0  a2 cos t  a4 cos 4t  ... 
в спектре ЧМ (ФМ) появляются частоты 0  n
При больших m ширина спектра  2 Д  2m , причем несущая подавлена до уровня
остальных составляющих :
42
Основное применение ЧМ - высококачественное радиовещание (при девиации частоты
~100KHz - т.е. с m ~ 10 ) в диапазоне УКВ (60-100MHz) и в каналах передачи звука в
телевещании. Причина - низкая чувствительность к паразитной амплитудной модуляции
и к помехам.
43
44. Сравнение методов амплитудной и угловой модуляций
АМ
ЧМ
Мощность
2
P=(1+M )P0
P=const
Ширина полосы
ΔF определяется
ΔF=2ωд (зависит
спектром сигнала только от
амплитуды
модулирующего
сигнала)
Частотно модулируемый сигнал имеет постоянную амплитуду, которую можно
регулировать, т.е. обрезать помеху на приемном конце.
45. Шумы. Тепловой шум. Представление тепловых шумов. Мощность шума.
Распределение тепловых шумов.
Полезный сигнал как переносчик информации всегда сопровождается помехами,
имеющими общее название – шумы. Источников помех много, и каждый из них вносит
свою долю в искажение сигнала.
Для линий связи различают помехи искусственные и естественные.
К искусственным относятся те, которые возникают в результате деятельности
человека(производственные и т.п.). От искусственных помех можно защититься путем
экранирования.
К естественным относятся атмосферные, космические, электрические излучения,
т. Е. все множество помех, источником которых является природа.
Тепловой шум – это естественная помеха, от которой избавиться невозможно. Его
физическое явление состоит в том, что при увеличении температуры тепловой шум
увеличивается за счет увеличения кинетической энергии электронов.
𝑈ш = √4𝑘𝑇𝐵𝑅 - величина шумового напряжения, которое имеет случайный
характер (формула Найквиста).
k=1,38*10-3 Дж/К
Т – температура, В – полоса рассматриваемых частот, R – сопротивление.
Эквивалентный генератор шума:
𝑈ш = √4𝑘𝑇𝐵𝑅
Эквивалентный источник шума:
𝐼ш = √
4𝑘𝑇𝐵
𝑅
44
𝑃ш = 𝑘𝑇𝐵 – мощность шума в нагрузке.
Т.к. Uш имеет случайный характер, то его распределение имеет нормальный характер.
(𝑥−𝑚𝑥 )2
1
−
𝑓(𝑈ш ) =
𝑒 2𝜎2
𝜎√2𝜋
mx=0
σ=Uэфф
𝑓(𝑈ш ) =
1
𝑈2
− 2
2𝑈эф
𝑒
𝑈эфф √2𝜋
Т. О. тепловой шум является основным и неистребимым источником помех.
49. Спектральные характеристики случайных процессов.
Гармонич. анализ детерминир. процесса явл. мощным средством исслед. и описания их.
Естественно этот аппарат перенести на случ. процессы. Но случ. процесс имеет 2
особенности: 1)процесс не является абсолютно интегрируемым:

 x(t ) dt   . 2)

Преобраз. Фурье случ. процесса есть тоже процесс случайный. Для обобщ. хар-тик случ.
процесса необх. неслуч. величина. Спектральные хар-тики случ. процессов МОГУТ быть
вычислены. Сущ. 2 пути их нахождения: I) Путь усреднения. Исходя из с-ва
эргодичности случ. процесса.
S1(ω)
S2(ω)
корреляц. ф-ция
S ( )
lim i
T  T
2
I I) Путь, связ. с Фурье-преобраз. корреляционной ф-ции. Имеем кор. ф-цию Rx ( ) , кот.
зависит только от τ, то корреляц. ф-ция, связ. с энергетическим спектром Фурьепреобразования.
Ф-лы Винера-Хинчера:

1
1
 j
W ( ) 
R
(

)
e
dt

R( )e  j d
x


2
0
R( )   W ( )e
i

d  2 W ( )e j d
0
50. Коды, применяемые в информационных системах. Преобразование кодов.
При передачи инф-ции всегда присутствуют помехи. Источников помех очень много
(производственные, атмосферные и т. д.). Вся совокупность помех находит выражение в
том, что 0 преобразуется в 1, а 1 в 0.
Вопрос очень обобщён, поэтому дальше можно гнать вопрос 51 про классификацию
кодов.
45
Преобразование кодов.
Способы преобразования кода:
1) Ручной
2) Программный
3) Аппаратный
Преобразование бинарного кода в код Грея.
Дан бинарный код 1011010. Преобразуем в код Грея по алгоритму:
Перебираем все цифры слева направо. Если кол-во единиц перед цифрой нечётное, то
инвертируем число, первый разряд (левый) не инвертируется.
В результате получим код Грея 1101100.
51.Исправляющие или корректирующие коды.
Вектор ошибок – кодовая комбинация равная длине сообщения, в котором единицами
отмечают разряды, в которых произошла ошибка.
l
E  Cn
l
l 1
Пусть имеется алфавит из N сообщений
N  2k
E*N – возможное количество ошибок
N – разрешённые кодовые комбинации
N0-N – запрещённые кодовые комбинации
E  N  N0  N
N 0  N  (1  E )
2k 
2n
1 E
Код Хемминга
k
k
k
a1 a2
a3
a4
a5
a6
a7
0
1
1
0
0
1
1
0
1
0
0
0
1
1
Верхний ряд – отправленное сообщение
Нижний ряд – принятое
Ошибка в разряде a3
a1 0001
a2 0010
a3 0011
a4 0100
a5 0101
a6 0110
a7 0111
a8 1000
K
a8
0
0
a9
0
0
46
a9 1001
Проверка на передаче:
S1-правые разряды с 1 (смотрим в таблице)
S1=a1  a3  a5  a7  a9 = 0  1  0  1  0 =0
S2 – разряд левее S1 и т. д.
S2=a2  a3  a6  a7 = 1  1  1  1 =0
S3=a4  a5  a6  a7 = 0  0  1  1 =0
S4=a8  a9 =0  0 =0
Проверка на приёме:
S1=0  0  0  1  0 =1
S2=1  0  1  1 =1
S3=0  0  1  1 =0
S4=0  0 =0
Считываем суммы в порядке S4, S3, S2, S1 и получаем число 0011, что в десятичной
форме равно 3, значит ошибка в разряде a3.
52. Кодирование источников без памяти: Код Хаффмана.
Таблица кодирования строится как процесс формирования дерева (дерево кодирования
Хаффмана).
А также в порядке убывания вероятностей.
0.4
a 0.4
0.4
0.6
1
1.0
0.22
0.38
1
b 0.2
0.2
c 0.18
d 0.12
0.4
0.6
1
0.22
0
0
0.18
1
0.22
0
e 0.1
0
Этим символам ставятся в соответствие листья формируемого дерева. К листу
направлена ветвь возле которой записываются вероятности листа. Две самые нижние
ветви формируют вершины ветвления, к которой направляется ветвь с суммарной
вероятностью далее формируется следующий уровень дерева в которой нижележащие
вершины упорядочиваются и так до тех пор пока не будет 1.
После построения дерева ветви исходящие из каждой вершины ветвления.
Снабжаются двоичным решением: верхняя ветвь 1, нижняя ветвь 0. Такой алгоритм
построения дерева называется методом пузырька т.к. после каждого объединения двух
вершин полученная вершина родитель поднимается. Для построения кода
осуществляется переход от корня к каждому листу попутно в код заносятся попавшиеся
двоичные решения.
A
0
На практике можно добиться увеличения эффективности сжатия
B
111 переопределив алфавит источника следующим образом. Кроме
C
110 единичных символов в алфавит поместить всевозможные пары
D
E
101
100
47
символов алфавита. Если считать что символы статистически независимы то вероятности
каждого парного элемента будут равны произведению отдельных вероятностей. Затем к
полученному алфавиту применить метод Хаффмана. В результате получается код
называемый кодом расширения.
53. Кодирование источников без памяти: Код Шеннона-Фано
Все кодируемые символы перечисляются в порядке уменьшения их вероятностей
X*m
Prob[X*m]
Код
Длина Lm
Prob[X*m] Lm
a
0.4
00
2
0.8
b
0.2
01
2
0.4
c
0.2
10
2
0.4
d
0.1
110
3
0.3
e
0.1
111
3
0.3
Lср=2,2
Все символы делятся на m примерно равновероятностных групп.
Верхней группе ставится 0, а нижней 1. Затем обе группы снова разделяются на m
подгрупп. Такое разделение продолжается до тех пор пока в таблице не исчезнут
префиксно зависимые кодовые слова
Н=2,122
  0,96
48
Оглавление
1. Передача информации между двумя оконечными устройствами. Тип соединения оконечных
устройств ............................................................................................................................................................... 1
2. Основные определения: информация, сообщение, система связи, сигнал, алфавит. ................................ 2
5. Форматирование информации. Форматирование текстовых данных. Существующие стандарты. ........ 2
6. Передача сообщений по каналу, искажения, краевые искажения, дробление ........................................... 3
9. Дискретизация по методу «выборка-хранение». ........................................................................................... 3
10. Сигнал, как реализация процесса. Классификация процессов. ................................................................. 3
11. Детерминированные процессы. Гармонические и переходные непериодические процессы. ................ 5
12. Полигармонические и непериодические процессы их спектральные характеристики. .......................... 6
13. Определение случайного процесса. Непрерывные и дискретные случайные процессы. ....................... 7
14. Измерение случайных процессов ................................................................................................................. 9
15. Числовые характеристики случайных процессов, их инженерно-физический смысл. ......................... 11
16.Законы распределения и основные характеристики случайных процессов ............................................ 12
17. Автокорреляционная функция случайного процесса. Примеры автокорр. функций. ........................... 13
18. Взаимная корреляционная функция случайных процессов. Примеры применения корреляционных
характеристик. .................................................................................................................................................... 15
19. Усреднение по ансамблю и по времени. Эргодическое свойство случайных процессов ..................... 16
20. Стационарные и нестационарные случайные процессы. Стационарность в широком и узком
смыслах. (2 стр) ................................................................................................................................................. 18
21. Количество информации. Формула Хартли. ............................................................................................. 20
22. Формула Шеннона........................................................................................................................................ 20
23. Энтропия источника сообщений. Свойства энтропии источника дискретных сообщений .................. 20
24. Избыточность при передаче сообщений. Роль избыточности при передаче информации ................... 21
25. Математические модели сигналов. Спектральное представление сигналов. ......................................... 23
26. Ряд Фурье по произвольной ортогональной системе функций. .............................................................. 24
27. Ряд Фурье по основной тригонометрической системе функций. ............................................................ 24
28. Разложение периодических функций в ряд Фурье. Спектр амплитуд и спектр фаз. ............................ 25
29. Ряд Фурье в комплексной форме. Спектр фаз и спектр амплитуд. ......................................................... 26
30. Спектр мощности сигнала. Практическая ширина спектра. Равенство Парсеваля. (3 СТР!!!) ........... 27
31. Спектральные характеристики непериодического сигнала. Прямое и обратное преобразования
Фурье. .................................................................................................................................................................. 31
32. Оценивание спектральной плотности с помощью ДПФ .......................................................................... 33
33. Дискретное преобразование Фурье (ДПФ). Гармонический анализ. ..................................................... 34
34. Примеры ортогональных базисов. Функции Уолша................................................................................. 37
35. Модуляция. Зачем она нужна ...................................................................................................................... 38
36. Спектр АМ сигнала. Ширина полосы. ....................................................................................................... 38
38. Амплитудная модуляция. ............................................................................................................................ 38
39-40. Балансовая модуляция. Спектр и ширина полосы пропускания ....................................................... 40
41. Угловая модуляция....................................................................................................................................... 40
42. Частотная модуляция. .................................................................................................................................. 40
43. Спектр колебаний с угловой модуляцией .................................................................................................. 41
44. Сравнение методов амплитудной и угловой модуляций.......................................................................... 43
45. Шумы. Тепловой шум. Представление тепловых шумов. Мощность шума. Распределение тепловых
шумов................................................................................................................................................................... 43
49. Спектральные характеристики случайных процессов. ............................................................................. 44
50. Коды, применяемые в информационных системах. Преобразование кодов .......................................... 44
51.Исправляющие или корректирующие коды. .............................................................................................. 45
52. Кодирование источников без памяти: Код Хаффмана. ............................................................................ 46
53. Кодирование источников без памяти: Код Шеннона-Фано ..................................................................... 47
Download