В настоящее время в технике наблюдения сигналов и оценки их

advertisement
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ
УЧРЕЖДЕНИЕ
ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ
«ВОРОНЕЖСКИЙ ГОСУДАРСТВЕННЫЙ
УНИВЕРСИТЕТ»
А.П. Трифонов
М.Б. Беспалова
СТОХАСТИЧЕСКИЕ СИГНАЛЫ
И ИХ СВОЙСТВА
Учебно-методическое пособие
Издательско-полиграфический центр
Воронежского государственного университета
2008
Утверждено научно-методическим
17 сентября 2008 г., протокол № 7
советом
физического
факультета
Рецензент д-р физ.-мат. наук, профессор, гл. науч. сотрудник «ОАО Концерн «Созвездие» Ю.Б. Нечаев
Учебно-методическое пособие подготовлено на кафедре радиофизики физического факультета Воронежского государственного университета.
Рекомендовано для студентов физического факультета Воронежского государственного университета 4 курса д/о и 5 курса в/о.
Для специальности: 010801 – Радиофизика и электроника
2
Статистическая радиофизика изучает те случайные (в том числе
флуктуационные) явления с которыми приходится сталкиваться в радиоэлектронике. Увеличение чувствительности измерительных и приемных
устройств, повышение точности измерений привели к тому, что во многих
областях физики и техники проблемы флуктуаций играют все более существенную роль. В радиоэлектронике этот процесс совершенствования методов и средств наблюдения был в значительной степени стимулирован
развитием радиосвязи, радиолокации, радиоастрономии и т. д. Как правило, случайные явления, с которыми приходится иметь дело в радиофизике –
это процессы, протекающие во времени. Адекватным математическим аппаратом для трактовки таких явлений служит теория случайных функций,
которая за последние десятилетия приобрела большое значение во многих
областях физики и техники. Эта теория позволяет дать описание важного
класса стохастических сигналов и их свойств.
1. Стохастические сигналы и способы их описания.
1.1. Общие сведения. Любые физические процессы, используемые
для передачи (связь) или получения (локация) информации называют сигналами [1]. Математическая модель сигнала s(t) устанавливает соответствие между любым моментом времени t ∈ T и значением сигнала s ∈ S. Здесь
T – интервал времени на котором наблюдается сигнал (область определения сигнала), а S – множество возможных значений сигнала. Сигнал s(t)
является аналоговым, если множество T континуально, т. е. представляет
собой множество точек некоторого отрезка. Для решения задач получения
или передачи информации представляют интерес не отдельные сигналы, а
целые их классы, определенные в соответствующем пространстве сигналов. Пространством сигналов называют совокупность сигналов, удовлетворяющую некоторым априори (заранее) заданным условиям.
Рассмотрим ситуацию, когда возможно неоднократное наблюдение
(измерение) сигнала из заданного пространства сигналов. Причем предпо3
лагается, что наблюдения выполняются при неизменном комплексе условий. Сигнал называют детерминированным, если априори (до наблюдения)
известно, что результат наблюдения при его неоднократном повторении в
неизменных условиях будет один и тот же [1]. Если априори известно
лишь множество возможных исходов многократных наблюдений при неизменных условиях, то сигнал называют стохастическим. Для стохастического сигнала результат конкретного наблюдения предсказать достоверно
невозможно. Однако при анализе длинных серий результатов многократных наблюдений в неизменных условиях для многих реальных сигналов
проявляется статистическая закономерность. Суть ее в том, что при возможном существенном различии результатов отдельных наблюдений, их
средние значения в достаточно больших сериях наблюдений оказываются
устойчивыми. Возникающая ситуация неопределенности конкретного результата отдельного наблюдения обычно допускает вероятностное описание. Такое описание включает в себя априори заданное множество случайных событий, при чем для каждого события A постулируется существование количественной меры – вероятности P[A] события A [2]. Вероятность
является эквивалентом относительной частоты появления события в длинной серии наблюдений при неизменных условиях.
1.2. Случайные величины. Результатом заранее непредсказываемого наблюдения может быть численное значение некоторой величины. Числовой
формой представления случайного результата наблюдения является случайная
величина [2]. Случайная величина ξ характеризуется множеством возможных
значений X и распределением вероятности F(x), заданным на этом множестве.
Случайная величина – это простейший пример стохастического сигнала
s (t ) = ξ, t ∈ T .
(1.1)
Такой стохастический сигнал остается постоянным в течение интервала
наблюдения T, но изменяется непредсказываемым точно образом от на-
блюдения к наблюдению.
4
Полной (в вероятностном смысле) характеристикой стохастического
сигнала (1.1) является функция распределения вероятности
F ( x) = P[ξ < x] .
(1.2)
Для того чтобы эта функция описывала случайную величину, F(x) должна
быть неотрицательной и неубывающей функцией, а также удовлетворять
условиям: F(-∞) = 0, F(+∞) =1 [2].
Если функция (1.2) дифференцируема, случайную величину можно
описывать плотностью распределения вероятности
W ( x) = dF ( x) / dx .
(1.3)
Плотность вероятности неотрицательна и удовлетворяет условию нормировки
+∞
∫
−∞
W ( x)dx = 1 .
(1.4)
Вероятностные свойства стохастического сигнала (1.1) можно также
описывать характеристической функцией, представляющей собой математическое ожидание случайной величины exp(juξ)
+∞
+∞
−∞
−∞
θ ξ (u ) = < exp( juξ) > = ∫ exp( jux)dF ( x) = ∫ exp( jux)W ( x)dx.
(1.5)
По заданной характеристической функции можно определить плотность
вероятности (1.4) (если она существует)
+∞
W ( x) = ∫ exp( − jux)θ ξ (u )du / 2π .
−∞
(1.6)
Функция распределения вероятности (1.2) также однозначно определяется
характеристической функцией (1.5) [2]. Следовательно, рассмотренные
способы описания стохастического сигнала (1.1) посредством (1.2), (1.3)
или (1.5) эквивалентны. Еще один эквивалентный способ описания возможен при использовании кумулянтной функции [1; 3]
Ψ ξ (u ) = ln θ ξ (u ) .
(1.7)
Для менее полного, но и более простого, чем с помощью (1.2), (1.3),
(1.5) или (1.6) вероятностного описания случайной величины, целесооб5
разно использовать моменты и кумулянты различного порядка [1–7]. Момент n-го порядка определяется соотношением
+∞
+∞
mn =< ξ >= ∫ x dF ( x) = ∫ x nW ( x)dx,
n
n
−∞
(1.8)
−∞
если эти интегралы существуют. Момент n-го порядка можно также найти,
дифференцируя характеристическую функцию (1.5)
mn = ( − j ) n d nθ ξ (u ) / du n
u= 0
.
(1.9)
Особенно часто используется и играет особую роль момент первого порядка
+∞
a = m1 =< ξ >= ∫ xdF ( x)
(1.10)
−∞
– математическое ожидание стохастического сигнала (1.1).
Кумулянт n-го порядка определяется по кумулянтной функции (1.7)
κ n = ( − j ) n d n ψξ (u ) / du n
u =0
.
(1.11)
Наиболее часто используются кумулянты первого и второго порядков
κ 1 = m1 = a,
+∞
κ 2 = σ =< [ξ − < ξ > ] >= ∫ ( x − a)2 dF ( x),
2
2
−∞
где σ2 – дисперсия случайной величины ξ. Отметим, что моменты (1.9) могут быть выражены через кумулянты (1.11). Аналогично кумулянты (1.11)
могут быть выражены через моменты (1.9) [3]. В частности, для моментов
и кумулянтов первых двух порядков имеем
m1 = κ 1 ,
m2 = κ 2 + κ 12 ,
κ 2 = m2 − m12 .
Часто оказывается удобным использование безразмерных кумулянтов –
кумулянтных коэффициентов [3]
γ n = κ n / κ 2 n /2 = κ n / σ n .
(1.12)
Коэффициенты γ 3 и γ 4 называются коэффициентами асимметрии и эксцесса соответственно [4].
6
1.3. Случайные процессы. Более сложным, но и более реалистиче-
ским, чем (1.1), стохастическим сигналом может служить случайный процесс ξ(t)
s(t) = ξ(t),
tЄT.
(1.13)
Такой стохастический сигнал является широко используемой в прикладных задачах математической моделью как информационных (полезных) сигналов, так и мешающих сигналов – помех и шумов [1; 3; 5–8].
Существуют различные способы определения (и соответственно –
описания) случайного процесса ξ(t). В прикладных задачах обычно используется способ, основанный на понятии случайной величины [2]. Именно:
функция ξ(t) называется случайным процессом, если при каждом фиксированном значении tЄT она является случайной величиной. Как известно, детерминированный процесс описывает такое изменение физического явления или объекта во времени, которое априори точно может быть предсказано. В отличие от детерминированного случайный процесс описывает такое изменение во времени физического явления или состояния физического объекта, которое априори точно предсказать невозможно. Конкретный
вид, который принимает случайный процесс в результате некоторого эксперимента (наблюдения), называют выборочной функцией, траекторией
или реализацией случайного процесса. Множество X всех возможных реализаций случайного процесса ξ(t) называют его фазовым пространством
[5] или пространством значений процесса [7].
В соответствии с приведенным определением случайного процесса,
при каждом фиксированном tЄT функция ξ(t) является случайной величиной. Аналогично выражению (1.2) она полностью характеризуется функцией распределения вероятности
F1 ( x; t ) = P [ξ (t ) < x].
(1.14)
Эту функцию интерпретируют как одномерную функцию распределения
вероятности стохастического сигнала (1.13). Одномерная функция распре7
деления вероятности является важной, но далеко не полной характеристикой случайного процесса. Действительно она дает представление о свойствах случайного процесса лишь в один, фиксированный момент времени.
Полное в вероятностном смысле описание стохастического сигнала
дает последовательность n-мерных (n = 1, 2, …) функций распределения
вероятности
Fn ( x1 , ..., xn ; t1 , ..., tn ) = P [ξ (t1 ) < x1 , ..., ξ (tn ) < xn ],
xk ∈ X ,
tk ∈ T ,
k = 1, n.
(1.15)
Эта функция определяет вероятность совместного выполнения неравенств:
ξ (tk ) < xk , k = 1, n. Для того чтобы последовательность n-мерных функций
Fn ( x1 , ..., xn ; t1 , ..., tn ) при n = 1, 2, … характеризовала некоторый стохастический сигнал, она, кроме очевидных условий неотрицательности и нормировки, должна удовлетворять условиям согласованности и симметрии [8].
Fn (x1, ..., xn−1, ∞ ; t1, ..., tn−1, tn ) = Fn−1(x1, ..., xn−1;t1, ..., tn−1),
Fn (x1, ..., xn ;t1, ..., tn ) = Fn (xi1, ..., xin ;ti1, ..., tin ),
(1.16)
(1.17)
где i1 … in – любая перестановка индексов 1, 2, …n.
Если функция (1.15) дифференцируема по x1 , …, x n , то полное описание стохастического сигнала (1.13) можно также дать с помощью последовательности n-мерных плотностей распределения вероятности
Wn ( x1 , ..., xn ; t1 , ..., tn ) =
∂ n Fn ( x1 , ..., xn ; t1 , ..., tn )
.
∂ x1 , ..., ∂ xn
(1.18)
Плотность вероятности неотрицательна, удовлетворяет условию нормировки
+∞
+∞
−∞
−∞
∫ ...∫
Wn ( x1 , ..., xn ; t1 , ..., tn )dx1 , ..., dxn = 1,
(1.19)
а также условиям согласованности и симметрии, следующим из (1.16) и
(1.17).
8
Вероятностные свойства стохастического сигнала (1.13) можно также описать посредством n-мерной характеристической функции
n
+∞
+∞
n
k =1
−∞
−∞
k =1
θξn (u1, ..., un ;t1, ..., tn ) =< exp[ j∑ukξ(tk )] >=∫ ...∫ exp[ j∑uk xk ]dFn (x1, ..., xn ;t1, ..., tn ) =
+∞
+∞
n
−∞
−∞
k =1
= ∫ ...∫ exp[ j∑uk xk ]Wn ( x1 , ..., xn ; t1 , ..., tn )dx1 , ..., dxn .
(1.20)
По заданной характеристической функции (1.20), аналогично (1.6), можно
определить n-мерную плотность вероятности (1.18) (если она существует)
+∞ +∞
n
−∞ −∞
k =1
Wn (x1, ..., xn;t1, ..., tn ) =∫ ...∫ exp[− j∑uk xk ]θξn (u1, ..., un;t1, ..., tn )dx1, ..., d xn / (2π)n. (1.21)
Многомерная функция распределения вероятности (1.15) также однозначно определяется через характеристическую функцию (1.20) [2].
Следовательно, рассмотренные способы описания стохастического сигнала
(1.13) с помощью последовательностей n-мерных функций (1.15), (1.18)
или (1.20) эквивалентны. Кроме того, в ряде задач, вместо характеристической функции (1.20) целесообразно использовать кумулянтную функцию
ψξn (u1 , ..., un ; t1 , ..., tn ) = ln θ ξn (u1 ,..., un ; t1 ,..., tn ).
(1.22)
Рассмотренный стохастический сигнал (1.13) – аналоговый, т. е. является случайным процессом с непрерывным временем. Поэтому исчерпывающее полное вероятностное описание этого сигнала посредством конечномерных распределений (n – конечно), в общем случае невозможно [5, 7, 8].
Тем не менее, если: 1) интервал наблюдения T конечен; 2) n, хотя и конечно, но велико; 3) точки t1, … , ti, … , tn близки друг к другу; то, с достаточной
для многих прикладных задач точностью [5], можно аппроксимировать
аналоговый стохастический сигнал ξ(t) при tЄT последовательностью случайных величин ξ(t1), …, ξ(tn). В этом частном случае для приближенного
описания аналогового стохастического сигнала можно использовать конечномерные функции (1.15), (1.18), (1.20) или (1.22).
9
В общем случае полное вероятностное описание аналогового стохастического сигнала возможно при переходе от конечномерных к континуальным распределениям [5, 9]. Для этого необходимо в формулу (1.15) или
(1.18) устремить n→∞ и max |ti+1 – ti|→0. Континуальные распределения
могут существовать при соответствующей нормировке, что используется в
дальнейшем при рассмотрении функционалов отношения правдоподобия.
Аналогичный предельный переход в функциях (1.20) или (1.22) приводит к
характеристическому или кумулянтному функционалу соответственно [1].
Для описания стохастического сигнала можно использовать моментные и корреляционные функции [1; 3; 10]. Эти функции являются обобщением моментов (1.8) и кумулянтов (1.11) случайной величины.
Моментная функция n-го порядка стохастического сигнала (1.13) определяется выражением
+∞
+∞
−∞
−∞
mn (t1, ..., tn ) =< ξ(t1), ..., ξ(tn ) > = ∫ ...∫ x1, ..., xndFn ( x1, ..., xn ;t1, ..., tn ) =
+∞
+∞
−∞
−∞
(1.23)
= ∫ ...∫ x1 , ..., xnWn ( x1 , ..., xn ; t1 , ..., tn )dx1 , ..., dxn .
Моментные функции также выражаются через производные характеристической функции (1.20)
mn (t1 , ..., tn ) = ( − j )
n
∂ nθ ξn (u1 , ..., un ; t1 , ..., tn )
∂ u1 , ..., ∂ un
u1 =...=un = 0
.
(1.24)
Как и для случайной величины (1.10), особую роль играет моментная
функция первого порядка
+∞
a (t ) = m1 (t ) =< ξ (t ) >= ∫ xdF1 ( x, t )
−∞
(1.25)
– математическое ожидание стохастического сигнала (1.13).
Корреляционные функции n-го порядка стохастического сигнала
(1.13) определяются по кумулянтной функции (1.22)
10
)
(
κ n t1 , …, t n = ( − j )
n
∂ n ψξn (u1 , ..., un ; t1 , ..., tn )
u1 =...=un = 0
∂ u1 , ..., ∂ un
.
(1.26)
Наиболее часто используются корреляционные функции первых двух порядков
) (
(
κ 1 ( t ) = m1 ( t ) = a ( t ) ,
)
κ 2 t1 , t 2 = B t1 , t 2 .
(1.27)
Они связаны с моментными функциями (1.23) простыми соотношениями
κ 1 (t) = m1(t),
κ 2 (t1, t2) = m2 (t1, t2) – m1(t1)m1(t2), m2(t1,t2) = κ 2 (t1, t2) + κ 1 (t1) κ 2 (t2).
Корреляционная функция второго порядка (1.27) (далее – корреляционная
функция) может быть непосредственно выражена через функции или
плотности распределения вероятности
B(t1, t2 ) =< [ξ(t1 )− < ξ(t1 ) >][ξ(t2 )− < ξ (t2 ) >] >=< ξ(t1 )ξ(t2 ) > − < ξ(t1 ) >< ξ(t2 ) >=
=∫
=∫
+∞
∫
−∞
[ x1 − a (t1 )][ x2 − a (t2 )]dF2 ( x1 , x2 ; t1 , t2 ) =
+∞
∫
−∞
[ x1 − a (t1 )][ x2 − a (t2 )]W2 ( x1 , x2 ; t1 , t2 )dx1dx2 .
(1.28)
Для того чтобы функция двух переменных B(t1,t2) была корреляционной
функцией некоторого стохастического сигнала, необходимо и достаточно,
чтобы она была симметричной и неотрицательно определенной [7; 8]. Это
означает, что должны выполняться соотношения
B(t,t) = σ2(t) ≥ 0;
B(t1,t2) = B(t2,t1),
n
∑ B(t , t ) x x
i ,k =1
i
k
i k
≥0
– для любых n; tk Є T и действительных xk, k = 1, n .
Таким образом, полное в статистическом смысле описание стохастического сигнала (1.13) задано, если для n = 1, 2… известны последовательности функций распределения вероятностей (1.15) или плотностей распределения вероятности (1.18) или характеристических функций (1.20) или
кумулянтных функций (1.22) или моментных функций (1.23) или корреляционных функций (1.26), если соответствующие функции существуют.
11
2. Гауссовские сигналы и их параметры
2.1. Определение и основные свойства. Одной из наиболее распро-
странённых и широко используемых моделей стохастических сигналов является гауссовский (нормальный) стохастический сигнал. Стохастический
сигнал является гауссовским, если все его корреляционные функции равны
нулю, т. е.
(
)
κ n t1 , …, t n = 0
(2.1)
для любых tk Є T и n ≥ 3. При этом очевидно, для кумулянтных коэффициентов (1.12) справедливо аналогичное соотношение
γn = 0,
n ≥ 3.
Разложим кумулянтную функцию (1.22) в n-мерный ряд Маклорена. Выразим коэффициенты этого разложения через корреляционные функции
(1.26). Учитывая выражение (2.1) и используя обозначения (1.27), получаем кумулянтную функцию гауссовского стохастического сигнала
n
n
k =1
i ,k =1
ψξn (u1 , ..., un ; t1 , ..., tn ) = j∑ a (tk )uk − ∑ B(ti , tk )uiuk / 2.
(2.2)
Используя функцию (1.22), выразим характеристическую функцию
(1.20) через кумулянтную и подставим ее значение из (2.2). Находим,
что характеристическая функция гауссовского стохастического сигнала
имеет вид
n
n
k =1
i , k =1
θ ξn (u1 , ..., un ; t1 , ..., tn ) = exp[ j∑ a (tk )uk − ∑ B (ti , tk )uiuk / 2].
(2.3)
Подставляя функцию (2.3) в функцию (1.24), видим, что у гауссовского
стохастического сигнала все моментные функции выражаются через математическое ожидание (1.25) и корреляционную функцию (1.28).
Выполняя затем дифференцирование в функции (1.24), для моментных функций 3 и 4-го порядков гауссовского стохастического сигнала можем записать
12
m3 (t1 , t2 , t3 ) = a (t1 ) B (t2 , t3 ) + a (t2 ) B (t1 , t3 ) + a (t3 ) B (t1 , t2 ) + a (t1 )a (t2 )a (t3 );
m4 (t1 , t2 , t3 , t4 ) = B (t1 , t2 )[ B(t3 , t4 ) + a(t3 ) a(t4 )] + B(t1 , t3 )[ B(t2 , t4 ) + a(t2 ) a(t4 )] +
+ B(t1 , t4 )[ B(t2 , t3 ) + a(t2 )a(t3 )] + a(t1 )a(t2 ) B(t3 , t4 ) + a(t1 )a(t3 ) B(t2 , t4 ) +
+ a(t1 )a (t4 ) B (t2 , t3 ) + a(t1 )a(t2 )a(t3 )a(t4 ).
(2.4)
Подставим фунцию (2.3) в выражение (1.21) и вычислим интеграл.
Получим n-мерную плотность вероятности гауссовского стохастического
сигнала.
⎧⎪ 1 n
⎫⎪
Wn (x1, ..., xn; t1, ..., tn ) = (2π)−n/2 det−1/2 || B(ti , tk )|| exp⎨ − ∑Cik [xi − a(ti )][xk − a(tk )]⎬ , (2.5)
⎩⎪ 2 i,k=1
⎭⎪
где ||Cik|| – матрица, обратная корреляционной матрице
||Cik|| = ||B(ti, tk)|| -1,
k , i = 1, n .
Одномерная и двумерная плотности вероятности гауссовского стохастического сигнала, согласно выражению (2.5) определяются выражениями
⎧⎪ [ x − a (t )]2 ⎫⎪
1
W1 ( x, t ) =
exp⎨ −
⎬,
⎪⎩
2σ 2 (t ) ⎪⎭
σ (t ) 2 π
W2 (x1, x2, t1, t2 ) =
1
2πσ(t1)σ(t2 ) 1− R2 (t1, t2 )
(2.6)
⋅
(2.7)
2
2⎤ ⎫
⎧
⎡⎛
⎞
⎛
⎞
⎪⎪
⎪
⎢ x − a(t1)⎟
1
x1 − a(t1) x2 − a(t2 ) ⎜ x2 − a(t2 )⎟ ⎥ ⎪
⎢ ⎜⎜ 1
⋅ exp⎨ −
−
+⎜⎜
2
R
(
t
,
t
)
⎟
⎟⎟ ⎥⎥ ⎪⎬ ,
1
2
2
⎪ 2[1− R (t1,t2 )]⎢⎢ ⎝⎜ σ(t1) ⎠⎟
σ(
t
)
σ(
t
)
σ(
t
)
1
2
2
⎝
⎠ ⎥⎦ ⎪⎭
⎪⎩
⎣
где σ 2(t)=B(t,t) – дисперсия,
R(t1 , t2 ) = B(t1 , t2 ) / B(t1 , t1 ) B(t2 , t2 ) = B (t1 , t2 ) / σ (t1 )σ (t 2 )
(2.8)
– нормированная корреляционная функция (коэффициент корреляции).
Гауссовский стохастический сигнал обладает полезными во многих
прикладных задачах свойствами [7; 8 и др]. Так, гауссовский случайный
процесс инвариантен к любым линейным преобразованиям. Следовательно, в результате любого линейного преобразования гауссовского процесса
13
опять получаем гауссовский процесс. Кроме того, из некоррелированности
значений гауссовского процесса следует их статистическая независимость.
Действительно, пусть значения гауссовского процесса ξ(t1) и ξ(t2) некоррелированы, т. е. коэффициент корреляции (2.8) для них равен нулю. Тогда,
подставляя в выражение (2.7) R(t1, t2) = 0, получаем, что двумерная плотность вероятности факторизуется, т. е., может быть представлена в виде
произведения одномерных плотностей вероятностей (2.6).
Модель стохастического сигнала в виде гауссовского случайного
процесса широко используется в естествознании в целом и в технике в частности. В радиофизике, локации, связи гауссовский случайный процесс
является достаточно адекватной математической моделью активных и пассивных помех, атмосферных и космических шумов, каналов с замираниями, с многолучевым распространением и т. д. Флуктуационные шумы устройств обработки информации, обусловленные дробовым эффектом и тепловым движением электронов, также подчиняются гауссовскому распределению. Адекватность модели гауссовского случайного процесса многим
реальным помехам и стохастическим сигналам объясняется в большинстве
случаев действием центральной предельной теоремы [2]. Действительно,
часто встречающиеся в реальных условиях радиофизические случайные
процессы представляют собой результирующий эффект (сумму) большого
числа сравнительно слабых элементарных импульсов, возникающих в случайные моменты времени. Оказывается, что распределение суммы приближается к гауссовскому с увеличением числа слагаемых, практически
независимо от того, какие распределения вероятности имеют отдельные
слагаемые. При этом важно лишь, чтобы влияние отдельных слагаемых с
негауссовским распределением на сумму было равномерно малым (приблизительно одинаковым).
2.2. Стационарные гауссовские сигналы. Гауссовский стохастиче-
ский сигнал называют стационарным, если его математическое ожидание
14
(1.25) постоянно, а корреляционная функция (1.28) зависит только от разности своих аргументов так, что
a (t ) = a,
B (t1 , t2 ) = B(t1 − t2 ) = B(t2 − t1 )
(2.9)
при всех t , t1 , t2 ∈ T . Из выражений (2.3), (2.5) следует, что при выполнении (2.9) все вероятностные характеристики стационарного гауссовского
сигнала не зависят от начала отсчета времени, т. е. инвариантны относительно сдвига интервала Т. Поэтому, для стационарного гауссовского сигнала, без потери общности начало интервала наблюдения Т можно совместить с началом отсчета времени, полагая интервал наблюдения
t ∈ T = [0;T ].
(2.10)
Важной характеристикой стационарного гауссовского сигнала является спектральная плотность [7,8]. Обозначим
0
ξ (t ) = ξ (t ) − a – центриро-
ванный сигнал и
0
T
ZT (ω) = ∫ exp( − j ω t )ξ (t )dt , .
0
где ZT (ω) – спектр усечённого на интервале [0; T] центрированного стохастического сигнала. Тогда спектральная плотность определяется выражением [7; 8]
1
2
< ZT (ω) > .
T→ ∞ T
G (ω) = lim
(2.11)
Введенная таким образом спектральная плотность связана с корреляционной функцией преобразованием Фурье
+∞
G (ω) = ∫ exp( − j ω Δ ) B ( Δ )d Δ .
−∞
(2.12)
В свою очередь корреляционная функция может быть выражена через
спектральную плотность
+∞
B(t2 − t1 ) = ∫ exp[ j ω(t2 − t1 )]G (ω)d ω / 2 π .
−∞
15
(2.13)
Простейшим примером стационарного гауссовского процесса может
служить процесс с постоянной на всех частотах спектральной плотностью
G (ω) = N 0 / 2,
−∞ < ω < ∞ .
(2.14)
Такой случайный процесс называют белым шумом [7; 8]. Подставляя выражение (2.14) в выражение (2.13), получаем корреляционную функцию
белого шума
+∞
N
N
B(t2 − t1 ) = 0 ∫ exp[ j ω(t2 − t1 )d ω = 0 δ (t2 − t1 ),
4π −∞
2
(2.15)
где δ(·)-дельта – функция [7; 8]. Далее гауссовский белый шум будем
обозначать n(t). Согласно выражению (2.15) гауссовский белый шум характеризуется тем, что значения его в любые два, даже сколь угодно
близкие, момента времени статистически независимы. Белый шум представляет собой обобщенный случайный процесс [5; 7] так, что распределение вероятностей белого шума в обычном смысле не существует.
Он является идеализацией, поскольку достаточно близкие значения реального случайного процесса практически всегда зависимы. Кроме того,
реальные процессы имеют конечную дисперсию, а дисперсия белого
шума бесконечна. Поэтому использовать гауссовский белый шум в качестве модели реального случайного процесса можно лишь, когда представляет интерес результат воздействия белого шума на некоторые линейные системы. Выходным эффектом в этом случае будет линейный
функционал от белого шума. Если распределение любого линейного
функционала от процесса со спектральной плотностью (2.14) и корреляционной функцией является гауссовским, то процесс n(t) называют гауссовским белым шумом [7; 8].
При качественном рассмотрении формы различных спектральных
плотностей гауссовских стационарных сигналов целесообразно выделить
два широко распространенных класса – низкочастотные (широкополосные) и высокочастотные (узкополосные) сигналы.
16
С этой целью обозначим
γ = sup G (ω),
(2.16)
где γ – величина спектральной плотности.
+∞
Ω = ∫ G 2 (ω)d ω[sup G (ω)]−2 ,
(2.17)
−∞
где Ω – эквивалентная полоса частот стохастического сигнала. Будем называть сигнал широкополосным (низкочастотным), если основная масса
его спектральной плотности (2.11) сосредоточена в окрестности начала оси
частот, т. е. в окрестности точки ω = 0, так, что
G (ω) << γ,
ω > Ω.
(2.18)
Спектральную плотность широкополосного процесса удобно представить в
виде
G (ω) = γ g (ω / Ω).
Здесь функция g(·) описывает форму спектральной плотности и обладает
свойствами
+∞
g ( x) ≥ 0,
g ( x) = g ( − x), sup g ( x) = 1,
∫
−∞
g 2 ( x)dx = 1 .
(2.19)
Таким образом, полное описание широкополосного гауссовского
стационарного сигнала задано, если известны: 1) функция g(·), определяющая форму спектральной плотности; 2) параметр γ (2.16), определяющий величину спектральной плотности; 3) параметр Ω (2.17), определяющий ширину спектральной плотности; 4) математическое ожидание стохастического сигнала a (2.9).
Частным случаем широкополосного сигнала является полосовой
сигнал, для которого
⎧
⎪ 1, x ≤ 1 / 2,
g ( x) = I ( x) = ⎨
⎪ 0, x > 1 / 2.
⎩
17
(2.20)
Такого вида аппроксимацию формы спектральной плотности целесообразно использовать, если реальная спектральная плотность быстро убывает за пределами полосы частот Ω. Хорошо известно [11], что разрешающая способность любого спектроанализатора имеет порядок величины
2π/Т. Обозначим ΔΩ – полоса частот, в которой реальная спектральная
плотность спадает от своего максимального значения практически до нуля.
Тогда условия применимости аппроксимации (2.20) можно записать как
ΔΩ << (2 π / T ) << Ω .
Определим теперь класс узкополосных (высокочастотных) гауссовских стационарных стохастических сигналов. У этих сигналов основная
масса спектральной плотности сосредоточена в некоторой полосе в окрестности центральной частоты, много большой полосы частот сигнала
[7; 8]. Полагая, что G(ω) – спектральная плотность узкополосного процесса, обозначим
γ = 2 sup G ( ω) ,
(2.21)
∞
Ω = ∫ G 2 (ω)d ω[sup G (ω)]−2
(2.22)
0
и ν – центральная частота узкополосного процесса. В соответствии с определением, основная масса спектральной плотности G( ω ) сосредоточена
в окрестности частот ±ν , причем
ν >> Ω ,
G(ω)<<γ,
ω ±ν > Ω.
(2.23)
(2.24)
В частности,
G(0)<<γ.
(2.25)
Поэтому без потери общности можно ограничиться рассмотрением гауссовских стационарных узкополосных сигналов с нулевым математическим
ожиданием
a≡ 0 .
18
(2.26)
Действительно, спектр математического ожидания стационарного сигнала
(2.9) сосредоточен на нулевой частоте, где спектральная плотность узкополосного сигнала практически равна нулю (2.25).
Ограничимся далее рассмотрением узкополосных сигналов, спектральные плотности которых симметричны относительно центральной
частоты [7; 8]. Тогда, учитывая (2.21–2.25), спектральную плотность узкополосного стохастического сигнала можно представить, как
γ ⎡⎢
G (ω) = ⎢
2 ⎢⎣
⎛ ν − ω⎞
⎛ ν + ω⎞ ⎤⎥ .
⎜
⎟
⎜
⎟
g⎜
⎟ + g ⎜ Ω ⎟ ⎥⎥
Ω
⎝
⎠
⎝
⎠⎦
(2.27)
Здесь функция g(·) обладает свойствами (2.19) и определяет форму спектральной плотности узкополосного сигнала. Отметим, что формально вырожденный вариант узкополосного сигнала при ν = 0 имеет спектральную
плотность (2.27), совпадающую со спектральной плотностью широкополосного сигнала (2.18). Однако ограничения (2.23–2.25), отражающие физические особенности узкополосных процессов, не позволяют рассматривать широкополосный процесс, как частный случай узкополосного.
Таким образом, полное описание узкополосного гауссовского стационарного стохастического сигнала задано, если известны: 1) функция
g(·), определяющая форму спектральной плотности; 2) параметр γ (2.21),
определяющий величину спектральной плотности; 3) эквивалентная полоса Ω (2.22), определяющая ширину спектральной плотности; 4) центральная частота ν , определяющая положение спектральной плотности на оси
частот.
Так же, как для широкополосных сигналов, для узкополосных сигналов часто оказывается полезной аппроксимация формы спектральной
плотности вида (2.20). Узкополосный сигнал со спектральной плотностью
прямоугольной формы (2.20) также будем называть полосовым.
19
Введенная классификация гауссовских стационарных стохастических сигналов – широкополосные и узкополосные не является исчерпывающей. В общем случае возможны формы спектральной плотности, которые не относятся ни к одному из этих двух классов. Однако в практических приложениях такие стохастические сигналы встречаются относительно редко.
2.3. Импульсные гауссовские сигналы. Полагая ξ(t) стационарным
гауссовским случайным процессом (2.9), определим гауссовский импульсный стохастический сигнал, как случайную функцию вида
s (t ) = ξ (t ) I [(t − λ) / τ],
(2.28)
где I (·) – индикатор единичной длительности (2.20), τ – длительность сигнала, а λ определяет временное положение импульса.
Используя выражения (2.9) и (2.28), находим математическое ожидание
as (t ) =< s (t ) >= aI [(t − λ) / τ]
(2.29)
и корреляционную функцию
Bs (t1, t2 ) =< [s(t1 ) − as (t1 )][s(t2 ) − as (t2 )] > = I[(t1 − λ ) / τ ]I[(t2 − λ) / τ]B(t2 − t1 ) (2.30)
гауссовского стохастического импульса. Согласно выражениям (2.29) и (2.30)
импульсный гауссовский сигнал является нестационарным процессом.
К числу неизвестных параметров импульсного гауссовского сигнала
(2.28), кроме возможно неизвестных параметров процесса ξ(t) (п. 2.2), могут относиться временное положение λ и длительность τ. В случае, когда
временное положение λ импульса (2.28) априори известно, а длительность
τ неизвестна, целесообразно совместить передний фронт импульса с началом интервала наблюдения (2.10). Тогда импульсный гауссовский сигнал
(2.28) можно переписать как
s (t ) = ξ (t ) I [(t − τ / 2) / τ].
(2.31)
Соответственно его математическое ожидание и корреляционная функция
примут вид
20
as (t ) =< s (t ) > = aI [(t − τ / 2) / τ],
Bs (t1 , t2 ) = I [(t1 − τ / 2) / τ]I [(t2 − τ / 2) / τ]B(t2 − t1 ).
(2.32)
Импульсный гауссовский сигнал (2.28) является определенной идеализацией реальных импульсов со случайной субструктурой [7; 8; 12; 13].
Действительно, модель (2.28) предполагает скачкообразное изменение параметров стохастического сигнала в моменты времени t = λ − τ / 2 и
t = λ + τ / 2. У реальных случайных импульсов параметры изменяются хотя
и быстро, но на некотором конечном интервале времени Δτ. Тем не менее,
при решении задач обнаружения допустимо использование аппроксимации
(2.28), если Δτ << τ [14] и
2π / Ω << τ,
(2.33)
где Ω – эквивалентная полоса частот (2.17) или (2.22) процесса ξ(t).
В заключение отметим, что стохастические сигналы являются широко
используемыми в различных приложениях статистической радиофизики
математическими моделями как информационных (полезных), так и мешающих сигналов – помех и шумов.
21
ЛИТЕРАТУРА
1. Левин Б.Р. Вероятностные модели и методы в системах связи и управления / Б.Р. Левин, В. Шварц. – М. : Радио и связь, 1985. – 312 с.
2. Гнеденко Б.В. Курс теории вероятностей : учебник для ун-тов /
Б.В. Гнеденко. – М. : Наука, 1969. – 400 с.
3. Малахов А.Н. Кумулянтный анализ случайных негауссовых процессов и
их преобразований / А.Н. Малахов. – М. : Сов. радио, 1978. – 376 с.
4. Крамер Г. Математические методы статистики / Г. Крамер ; пер. с англ.
А.С. Монина и А.А. Петрова ; под ред. А.Н. Колмогорова. – М. : Мир, 1975. – 648 с.
5. Сосулин Ю.Г. Теория обнаружения и оценивания стохастических сигналов / Ю.Г. Сосулин. – М. : Сов. радио, 1978. – 320 с.
6. Стратонович Р.Л. Избранные вопросы теории флуктуаций в радиотехнике / Р.Л. Стратонович. – М. : Сов. радио, 1961. – 560 с.
7. Левин Б.Р. Теоретические основы статистической радиотехники /
Б.Р. Левин. – М. : Радио и связь, 1989. – 656 с.
8. Тихонов В.И. Статистическая радиотехника / В.И. Тихонов. – М. : Радио и
связь, 1982. – 624 с.
9. Амиантов И.Н. Избранные вопросы статистической теории связи /
И.Н. Амиантов. – М. : Сов. радио, 1971. – 416 с.
10. Обрезков Г.В. Методы анализа срыва слежения / Г.В. Обрезков, Б.Д. Разевиг. – М. : Сов. радио, 1972. – 239 с.
11. Харкевич А.А. Спектры и анализ / А.А. Харкевич. – М. : Физматгиз,
1952. – 191 с.
12. Ахманов С.А. Введение в статистическую радиофизику и оптику /
С.А. Ахманов, Ю.Е. Дьяков, А.С. Чиркин. – М. : Наука, 1981. – 640 с.
13. Рытов С.М. Введение в статистическую радиофизику. Случайные процессы / С.М. Рытов. – М. : Наука, 1976. – 496 с.
14. Трифонов А.П. Совместное различение сигналов и оценка их параметров
на фоне помех / А.П. Трифонов, Ю.С. Шинаков. – М. : Радио и связь, 1986. – 264 с.
22
Учебное издание
Трифонов Андрей Павлович
Беспалова Марина Борисовна
СТОХАСТИЧЕСКИЕ СИГНАЛЫ И ИХ СВОЙСТВА
Учебно-методическое пособие для вузов
Редактор Л.М. Носилова
Подписано в печать 27.10.08. Формат 60×84/16. Усл. печ. л. 1,4.
Тираж 50 экз. Заказ 2008.
Издательско-полиграфический центр
Воронежского государственного университета.
394000, г. Воронеж, пл. им. Ленина, 10. Тел. 208-298, 598-026 (факс)
http://www.ppc.vsu.ru; e-mail: pp_center@ppc.vsu.ru
Отпечатано в типографии Издательско-полиграфического центра
Воронежского государственного университета.
394000, г. Воронеж, ул. Пушкинская, 3. Тел. 204-133
23
24
Download