1. Основные понятия теории случайных процессов

advertisement
Государственное бюджетное образовательное учреждение
высшего профессионального образования
«СТАВРОПОЛЬСКИЙ ГОСУДАРСТВЕННЫЙ АГРАРНЫЙ
УНИВЕРСИТЕТ»
Экономический факультет
Кафедра информационных систем и технологий
ЛЕКЦИЯ
по учебной дисциплине "Моделирование случайных процессов"
для студентов специальности «Информационные системы и
технологии»
Лекция 1. Основные понятия
Обсуждена и одобрена на
заседании кафедры ИСиТ
протокол № ___________
«_____» _________ 200__ г.
Ставрополь 2015 г.
Учебные и воспитательные цели:
1. Дать основные понятия о случайных функциях и случайных
процессах.
2. Знать основную классификацию случайных процессов.
3. Знать основные характеристики случайных процессов.
Время - 80 минут
Учебно-материальное обеспечение:
Лектор-2000
Распределение времени лекции:
Вступительная часть
5 мин
Учебные вопросы лекции:
1. Основные понятия теории случайных процессов
2. Основные характеристики случайных функций
30 мин
40 мин
Заключение
Задание студентам для самостоятельной работы
3 мин
2 мин
2
СОДЕРЖАНИЕ ЛЕКЦИИ
Вступительная часть
Теория случайных процессов - интенсивно развивающийся раздел
теории вероятностей, имеющий многочисленные приложения в физике,
технике, биологии, медицине, экономике и других областях знаний. Для
овладения методами этой теории нужны знания не только в объеме базового
курса высшей математики и традиционных разделов курсов теории
вероятностей и математической статистики, но и ряда специальных курсов. В
частности необходимо оперировать основными понятиями теории
дифференциальных уравнений математической физики, а также методами
теории интегральных преобразований.
В процессе развития теории вероятностей, как науки можно условно
выделить три этапа, первый из которых связан с понятием случайного
события, второй - с понятием случайной величины, а третий - с понятием
случайной функции. При этом начало первого этапа относится к середине
XVII в., второго - к середине XIX в., а третьего - к 20-30 гг. XX в., и начало
каждого следующего этапа, в принципе, не связано с завершением
предыдущего.
Теория случайных процессов возникла вследствие практической
необходимости математического моделирования реальных процессов
различной природы, состояние каждого из которых в любой фиксированный
момент времени представляет собой случайный вектор соответствующей
размерности. Примером случайного процесса является процесс изменения во
времени пространственных координат частицы, совершающей броуновское
движение. Другими примерами случайных процессов являются: процесс
стабилизации полета самолета в реальных условиях, когда он находится под
постоянным воздействием случайных изменений вектора скорости ветра и
других параметров турбулентной атмосферы; процесс развития
неоднородной популяции с несколькими типами индивидуумов; процессы
спроса и предложения на рынке товаров и т.д.
3
1. Основные понятия теории случайных процессов
Теорией случайных процессов называется математическая наука,
изучающая закономерности случайных явлений в динамике их развития.
Теория случайных процессов (в другой терминологии - теория
случайных функций) представляет собой сравнительно новый раздел теории
вероятностей, особенно бурно развивающийся в последние десятилетия в
связи со всерасширяющимся кругом его практических приложений.
При изучении явлений окружающего мира мы часто сталкиваемся с
процессами, течение которых заранее предсказать в точности невозможно.
Эта неопределенность (непредсказуемость) вызвана влиянием случайных
факторов, воздействующих на ход процесса. Приведем несколько примеров
таких процессов.
1. Напряжение в электросети, номинально постоянное и равное 220 В,
фактически меняется во времени, колеблется вокруг номинала под влиянием
таких случайных факторов, как количество и вид включенных в сеть
приборов, моменты их включений и выключений и т. д.
2. Население города (или области) меняется с течением времени
случайным (не предсказуемым) образом под влиянием таких факторов, как
рождаемость, смертность, миграция и т. д.
3. Уровень воды в реке (или в водохранилище) меняется во времени
случайным образом в зависимости от погоды, количества осадков, таяния
снега, интенсивности оросительных мероприятий и т. д.
4. Частица, совершающая броуновское движение в поле зрения
микроскопа, меняет свое положение случайным образом в результате
соударений с молекулами жидкости.
5. Происходит полет космической ракеты, которую необходимо
вывести в заданный момент в заданную точку пространства с заданными
направлением и абсолютным значением вектора скорости. Фактическое
движение ракеты не совпадает с расчетным из-за таких случайных факторов,
как турбулентность атмосферы, неоднородность горючего, ошибки в
отработке команд и т. д.
6. ЭВМ в ходе работы может случайным образом переходить из
состояния в состояние, например:
S1 - работает исправно;
S2 - имеется неисправность, но она не обнаружена;
S3 - неисправность обнаружена, ведется поиск ее источника;
S4 - ремонтируется и т. д.
Переходы из состояния в состояние происходят под действием
случайных факторов, таких как колебания напряжения в сети питания ЭВМ,
выход из строя отдельных элементов, момент обнаружения неисправностей,
время их устранения и т. д.
Строго говоря, в природе не существует совершенно не случайных, в
точности детерминированных процессов, но есть процессы, на ход которых
4
случайные факторы влияют так слабо, что при изучении явления ими можно
пренебречь (пример: процесс обращения планет вокруг Солнца). Однако
существуют и такие процессы, где случайность играет основную роль
(пример: вышерассмотренный процесс броуновского движения частицы).
Между двумя крайними случаями лежит целый спектр процессов, в которых
случайность играет большую или меньшую роль. Учитывать (или не учитывать) случайность процесса зависит также и от того, какую практическую
задачу мы решаем. Например, при составлении расписания движения
самолетов между двумя пунктами можно считать их траектории
прямолинейными, а движение - равномерным; те же допущения не подойдут,
если решается задача конструирования автопилота для управления полетом
самолета.
Можно выделить два основных вида задач, решение которых требует
использования теории случайных функций (случайных процессов).
Прямая задача (анализ): заданы параметры некоторого устройства и его
вероятностные характеристики (математические ожидания, корреляционные
функции, законы распределения) поступающей на его «вход» функции
(сигнала, процесса); требуется определить характеристики на «выходе»
устройства (по ним судят о «качестве» работы устройства).
Обратная задача (синтез): заданы вероятностные характеристики
«входной» и «выходной» функций; требуется спроектировать оптимальное
устройство (найти его параметры), осуществляющее преобразование
заданной входной функции в такую выходную функцию, которая имеет
заданные характеристики. Решение этой задачи требует кроме аппарата
случайных функций привлечений и других дисциплин.
Определение случайной функции
Определение 1.1. Случайной функцией называют функцию
неслучайного аргумента t, которая при каждом фиксированием значении
аргумента является случайной величиной. Случайные функции аргумента t
обозначают прописными буквами X (t), Y(t) и т. д.
Например, если U - случайная величина, то функция X(t) = t2U случайная. Действительно, при каждом фиксированном значении аргумента
эта функция являете случайной величиной: при t1 = 2 получим случайную
величину X1 = 4U, при t2 =1,5 - случайную величин X2 = 2,25 U и т.д.
Определение 1.2. Сечением случайной функции называют случайную
величину, соответствующую фиксированному значению аргумента
случайной функции. Например, для случайной функции X(t) = t2U,
приведенной выше, при значениях, аргумента t2 = 2 и t2 = 1,5 были получены
соответственно случайные величины Х1= 4U и X2 = 2,25 U, которые и
являются сечениями заданной случайной функции.
Итак, случайную функцию можно рассматривать как совокупность
случайных величин {X(t)}, зависящих от параметра t. Возможно и другое
истолкование случайной функции, если ввести понятие ее реализации.
5
Определение 1.3. Реализацией (траекторией, выборочной функцией)
случайной функции X (t) называют неслучайную функцию аргумента t,
равной которой может оказаться случайная функция в результате испытания.
Таким образом, если в опыте наблюдают случайную функцию, то в
действительности наблюдают одну из возможных ее реализаций; очевидно,
при повторении опыта будет наблюдаться другая реализация.
Реализации функции X (t) обозначают строчными буквами x1(t), x2(t) и
т. д., где индекс указывает номер испытания. Например, если X(t) = Usint, где
U - непрерывная случайная величина, которая в первом испытании приняла
возможное значение u1 = 3, а во втором испытании u2= 4,6, то реализациями
X (t) являются соответственно неслучайные функции х1 (t) = 3 sin t и х2 (t) =
4,6 sin t.
Итак, случайную функцию можно рассматривать как совокупность ее
возможных реализаций.
Определение 1.4. Случайным (стохастическим) процессом называют
случайную функцию аргумента t, который истолковывается как время.
Например, если самолет должен лететь с заданной постоянной
скоростью, то в действительности вследствие воздействия случайных
факторов (колебание температуры, изменение силы ветра и др.), учесть
влияние которых заранее нельзя, скорость изменяется. В этом примере
скорость самолета - случайная функция от непрерывно изменяющегося
аргумента (времени), т. е. скорость есть случайный процесс.
Заметим, что если аргумент случайной функции изменяется дискретно,
то соответствующие ему значения случайной функции (случайные величины)
образуют случайную последовательность.
Аргументом случайной функции может быть не только время.
Например, если измеряется диаметр ткацкой нити вдоль ее длины, то
вследствие воздействия случайных факторов диаметр нити изменяется. В
этом примере диаметр - случайная функция от непрерывно изменяющегося
аргумента (длины нити).
Очевидно, задать случайную функцию аналитически (формулой),
вообще говоря, невозможно. В частных случаях, если вид случайной
функции известен, а определяющие ее параметры - случайные величины,
задать ее аналитически можно. Например, случайными являются функции:
X(t) = sin , где  - случайная величина,
X(t) = U sin t, где U - случайная величина,
X(t) = U sin t, где  и U - случайные величины.
Определение 1.5. Случайный процесс X(t) называется процессом с
дискретным временем, если система, в которой он протекает, может менять
свои состояния только в моменты t1, t2,... ti ..., число которых конечно или
счетно. Множество T является дискретным.
Примеры процессов с дискретным временем: 1) процесс работы ЭВМ,
которая может менять свои состояния в моменты t1, t2,... ti ..., определяемые
тактом работы машины; 2) процесс работы технического устройства, которое
осматривается в моменты t1, t2,.... и переводится в результате осмотра из
6
одной категории в другую; 3) процесс обстрела цели в моменты t1, t2,... , в
ходе которого цель может менять свои состояния (не повреждена, частично
выведена из строя, перестала функционировать, полностью разрушена и т.
п.). Если рассматривается одномерный случайный процесс X(t) с дискретным
временем (моменты t1, t2, ...), то его сечения в эти моменты образуют
последовательность случайных величин: X(t1), X(t2), ... В качестве аргумента
последовательности может быть выбран номер значения момента перехода:
Х(1), Х(2), ...
Определение 1.6. Случайный процесс X(t) называется процессом с
непрерывным временем, если переходы системы из состояния в состояние
могут происходить в любой момент t наблюдаемого периода .
Для процесса с непрерывным временем множество Т моментов, когда
система меняет свое состояние, несчетно (они непрерывно заполняют
рассматриваемый участок оси абсцисс). Примеры случайных процессов с
непрерывным временем: 1) X(t) - число отказов технического устройства от
начала работы до момента t; 2) броуновское движение частицы в поле зрения
микроскопа; 3) число N(t) заболевших в данном городе в ходе развития
эпидемии к моменту t.
Определение 1.7. Одномерный случайный процесс X(t) называется
процессом с непрерывными состояниями, если его сечение в любой момент t
представляет собой не дискретную, а непрерывную (или смешанную)
случайную величину и, значит, множество ее значений  (кси) несчетно.
Аналогично, многомерный (векторный) случайный процесс называется
процессом с непрерывными состояниями, если при любом t множество
возможных значений случайного вектора, определяющего состояние системы
S, в которой протекает процесс, несчетно. Примеры случайных процессов с
непрерывными состояниями: 1) напряжение U(t) питания ЭВМ в момент t; 2)
давление газа P(t) в заданном резервуаре в момент t; 3) координаты частицы,
совершающей броуновское движение X(t), Y(t), в момент t (двумерный
случайный процесс с непрерывными состояниями); 4) параметры,
характеризующие в момент t состояние космической ракеты, выводимой на
орбиту (многомерный случайный процесс с непрерывными состояниями).
Определение 1.8. Случайный процесс, протекающий в системе S,
называется процессом с дискретными состояниями, если в любой момент
времени t множество его состояний конечно или счетно; другими словами,
если его сечение в любой момент t характеризуется дискретной случайной
величиной X(t) (в многомерном случае - несколькими дискретными
случайными величинами).
Разумеется, все случайные процессы с «качественными» состояниями
относятся к категории процессов с дискретными состояниями; сечение
такого процесса представляет собой случайное событие - аналог дискретной
случайной величины.
Таким образом, в зависимости от характера множества Т значений
аргумента t, в которые возможны переходы системы из состояния в
7
состояние, а также множества  самих состояний все случайные процессы
можно разделить на четыре класса:
1а. Процессы с дискретными состояниями и дискретным временем.
16. Процессы с дискретными состояниями и непрерывным временем.
2а. Процессы с непрерывными состояниями и дискретным временем.
26. Процессы с непрерывными состояниями и непрерывным временем.
Корреляционная теория случайных функций
Как известно, при фиксированном значении аргумента случайная
функция является случайной величиной. Для задания этой величины
достаточно задать закон ее распределения, в частности одномерную
плотность вероятности. Например, случайную величину X1=X(t1) можно
задать плотностью вероятности f(x1); в теории случайных функций ее
обозначают через f1(x1; t1); здесь индекс 1 при f указывает, что плотность
вероятности одномерная, t1 - фиксированное значение аргумента t, Xi возможное значение случайной величины X1=X(t1). Аналогично, через
f1(x2;t2), f1(x3;t3) и т. д. обозначают одномерные плотности вероятности
сечений X2=X(t2), Х3=Х(tз) и т. д. Одномерную плотность вероятности любого
сечения обозначают через f1(x; t), подразумевая, что аргумент t принимает все
допустимые значения. Например, если случайная функция X(t) распределена
нормально с параметрами mx(t) = 4, x(t) = 3, то
f1 ( x; t ) 
 ( x  4t ) 2 
1
exp 
2 
3 | t | 2
 2(3 | t |) 
Хотя функция f1(x; t), полностью характеризует каждое отдельно взятое
сечение, нельзя сказать, что она полностью описывает и саму случайную
функцию. (Исключением является случай, когда любой набор сечений
образует систему независимых случайных величин.) Например, зная лишь
одномерную функцию распределения сечения, невозможно выполнять над
случайной функцией операции, требующие совместного рассмотрения
совокупности сечений.
В простейшем случае совместно рассматривают два сечения: Х1=Х(t1) и
X2=X(t2)., т.е. изучают систему двух случайных величин (Х1, Х2). Известно,
что эту систему можно задать двумерным законом распределения, в
частности двумерной плотностью вероятности f(x1; x2).
Хотя двумерный закон распределения описывает случайную функцию
более полно, чем одномерный (по известному двумерному можно найти
одномерный закон), он не характеризует случайную функцию
исчерпывающим образом (исключением являются случаи, когда случайная
функция распределена нормально или представляет собой марковский
случайный процесс).
Аналогично обстоит дело и при переходе к трехмерным,
четырехмерным распределениям и т. д. Поскольку такой способ изучения
случайных функций является, вообще говоря, громоздким, часто идут по
8
другому пути, не требующему знания многомерных законов распределения, а
именно изучают моменты, причем ограничиваются моментами первых двух
порядков.
Корреляционной теорией случайных функций называют теорию,
основанную на изучении моментов первого и второго порядка. Эта теория
оказывается достаточной для решения многих задач практики.
В отличие от случайных величин, для которых моменты являются
числами и поэтому их называют числовыми характеристиками, моменты
случайной функции являются неслучайными функциями (их называют
характеристиками случайной функции).
Далее рассмотрим следующие характеристики случайной функции:
математическое ожидание (начальный момент первого порядка), дисперсия
(центральный момент второго порядка), корреляционная функция
(корреляционный момент).
9
2. Основные характеристики случайных функций
2.1. Математическое ожидание случайной функции
Рассмотрим случайную функцию X(t). При фиксированном значении
аргумента, например при t = t1, получим сечение - случайную величину X(t1)
с математическим ожиданием М[Х(t1)]. (Полагаем, что математическое
ожидание любого сечения существует.) Таким образом, каждое
фиксированное значение аргумента определяет сечение - случайную
величину, а каждой случайной величине соответствует ее математическое
ожидание. Отсюда следует, что каждому фиксированному значению
аргумента t соответствует определенное математическое ожидание; это
означает, что математическое ожидание случайной функции есть функция
(неслучайная) от аргумента t; ее обозначают через mx(t). В частном случае
функция mx(t) может сохранять постоянное значение при всех допустимых
значениях аргумента. Дадим теперь определение математического ожидания.
Определение 2.1. Математическим ожиданием случайной функции
X(t) называют неслучайную функцию mx(t), значение которой при каждом
фиксированном значении аргумента t равно математическому ожиданию
сечения, соответствующего этому же фиксированному значению аргумента:
mx(t) = М[Х(t)].
Геометрически математическое ожидание случайной функции можно
истолковать как «среднюю кривую», около которой расположены другие
кривые - реализации; при фиксированном значении аргумента
математическое ожидание есть среднее значение сечения («средняя
ордината»), вокруг которого расположены его возможные значения
(ординаты).
Свойства математического ожидания случайной функции.
Используя свойства математического ожидания случайной величины,
легко получить свойства математического ожидания случайной функции.
Свойство 1. Математическое ожидание неслучайной функции (t)
равно самой неслучайной функции:
M [ (t )]   (t ).
Свойство 2. Неслучайный множитель (t) можно выносить за знак
математического ожидания:
M [ (t ) X (t )]   (t )M [ X (t )]   (t )mx (t ).
Свойство 3. Математическое ожидание суммы двух случайных
функций равно сумме математических ожиданий слагаемых:
M[X(t) + Y(t)] = mx(t) + mv(t).
Следствие. Для того чтобы найти математическое ожидание суммы
случайной и неслучайной функций, достаточно к математическому
ожиданию случайной функции прибавить неслучайную функцию:
M [ X (t )   (t )]  mx (t )   (t ).
10
Пример 2.1. Найти математическое ожидание случайной функции X(t)
= Ucost, где U - случайная величина, причем M(U)=2.
Решение. Найдем математическое ожидание, учитывая, что
неслучайный множитель cost можно вынести за знак математического
ожидания:
M[X(t)] =M[Ucost] = costM(U) = 2cost. Итак, искомое математическое
ожидание mх (t)=2cost.
Если f есть отображение множества X на множество Y ( f : X  Y ),
где X - некоторое множество и Y – подмножество множества матриц типа
n x m с элементами из множества действительных чисел ( Y  M mn (R ) ), то
при дальнейших рассуждениях будем говорить, что определена матричная
функция типа m x n с областью определения X и областью значений
Y  M mn (R ) .
Определение 2.2. Ковариационной матрицей (матрицей
ковариаций) n-мерного случайного процесса  (t ,  ), t  T , называют
неслучайную матричную функцию  (t ) типа n x n, которая при каждом
фиксированном t  T представляет собой ковариационную матрицу
случайного вектора  (t , ) , являющегося сечением исходного случайного
процесса, соответствующего рассматриваемому значению t.
2.2. Дисперсия случайной функции
Рассмотрим случайную функцию X (t). При фиксированном значении
аргумента, например при t = t1, получим сечение - случайную величину X (t1)
с дисперсией D[X(t1)]  0 (предполагается, что дисперсия любого сечения
существует). Таким образом, каждое фиксированное значение аргумента
определяет сечение - случайную величину, а каждой случайной величине
соответствует ее дисперсия. Отсюда следует, что каждому фиксированному
значению аргумента t соответствует определенная дисперсия; это означает,
что дисперсия случайной функции есть функция (неслучайная, причем
неотрицательная) от аргумента t; ее обозначают через Dx(t). В частном случае
Dx (t) может сохранять постоянное значение при всех допустимых значениях
аргумента. Дадим теперь определение дисперсии.
Определение 2.3. Дисперсией случайной функции X(t) называют
неслучайную неотрицательную функцию Dx(t), значение которой при каждом
фиксированном значении аргумента t равно дисперсии сечения,
соответствующего этому же фиксированному значению аргумента:
Dx(t)=D[X(t)].
Дисперсия характеризует степень рассеяния возможных реализаций
(кривых) вокруг математического ожидания случайной функции («средней
кривой»). При фиксированном значении аргумента дисперсия характеризует
степень рассеяния возможных значений (ординат) сечения вокруг
математического ожидания сечения («средней ординаты»).
11
Часто вместо дисперсии рассматривают среднее квадратичное
отклонение случайной функции, которое определяют по аналогии со средним
квадратичным отклонением случайной величины.
Средним квадратичным отклонением случайной функции называют
квадратный корень из дисперсии:
 x (t )  Dx (t )
Свойства дисперсии случайной функции.
Используя свойства дисперсии случайной величины, легко получить
свойства дисперсии случайной функции.
Свойство 1. Дисперсия неслучайной функции (t) равна нулю:
D[ (t )]  0
Свойство 2. Дисперсия суммы случайной функций X(t) и неслучайной
функции (t) равна дисперсии случайной функции:
D[ X (t )   (t )]  Dx (t ).
Свойство 3. Дисперсия произведения случайной функции X(t) на
неслучайную функцию (t) равна произведению квадрата неслучайного
множителя на дисперсию случайной функции:
D[ X (t ) (t )]   2 (t ) D x (t ).
Пример 2.2. Найти дисперсию случайной функции X(t) = Usin t, где U случайная величина, причем D(U) = 6.
Решение. Найдем дисперсию, приняв во внимание, что неслучайный
множитель sin t можно вынести за знак дисперсии, возведя его в квадрат:
D[X(t)] = D[Usint] = sin2tD(U) = 6sin2t. Итак, искомая дисперсия
D[X(t)]=6sin2 t.
Математическое ожидание и дисперсия характеризуют случайную
функцию далеко не полно. Можно привести примеры двух случайных
функций, которые имеют одинаковые математические ожидания и
дисперсии, но поведение которых различно. Зная лишь эти две
характеристики, в частности, ничего нельзя сказать о степени зависимости
двух сечений. Для оценки этой зависимости вводят новую характеристику корреляционную функцию. Далее покажем, что, зная корреляционную
функцию, можно найти и дисперсию; поэтому знать закон распределения для
отыскания дисперсии нет необходимости. Уже это обстоятельство указывает
на целесообразность введения корреляционной функции.
Определение 2.4. Ковариационной функцией n-мерного случайного
процесса  (t ,  ), t  T , называют матричную функцию K  (t1 , t 2 ) типа n х n
двух скалярных переменных t1 и t2 значение которой при фиксированных
t  T равно ковариации двух случайных векторов  (t1 , ) и  (t2 ,)
определяемой следующим образом:
K  (t1 , t 2 )  M [( (t1 ,  )  m (t1 ))( (t 2 ,  )  m (t 2 )) T ] 

,
  ( x(1)  m (t1 ))( x(2)  m (t 2 )) f ( x(1) , x( 2) | t1 , t 2 )dx(1) dx( 2)
T
Rn Rn
12
где x( k )  ( x1( k ) ...xn( k ) )T  R n и f  ( x(1) , x( 2) | t1 , t 2 ) - двумерная функция плотности
вероятностей (возможно обобщенная) исходного случайного процесса.
Прежде чем перейти к дальнейшему изложению, введем следующие
понятия.
Определение 2.5. Центрированной случайной функцией называют
разность между случайной функцией и ее математическим ожиданием:

X (t )  X (t )  mx (t ) .
2.3. Корреляционная функция случайной функции
Рассмотрим случайную функцию X(t). При двух фиксированных
значениях аргумента, например при t = t1 и t = t2 получим два сечения систему двух случайных величин X(t1) и Х(t2) с корреляционным моментом


M [ X (t1 ) X (t2 )] , где


X (t1 )  X (t1 )  mx (t1 ), X (t2 )  X (t2 )  mx (t2 ).
Таким образом, каждая пара чисел t1 и t2 определяет систему двух
случайных величин, а каждой такой системе соответствует ее
корреляционный момент. Отсюда следует, что каждой паре фиксированных
значений t1 и t2, соответствует определенный корреляционный момент; это
означает, что корреляционный момент случайной функции есть функция
(неслучайная) двух независимых аргументов t1 и t2; ее обозначают через Kx(t1,
t2). В частном случае значения обоих аргументов могут быть равны между
собой.
Приведем теперь определение корреляционной функции.
Определение 2.6. Корреляционной функцией случайной функции X(t)
называют неслучайную функцию Kx(t1, t2) двух независимых аргументов t1 и
t2, значение которой при каждой паре фиксированных значений аргументов
равно корреляционному моменту сечений, соответствующих этим же
фиксированным значениям аргументов:


K x (t1 , t 2 )  M [ X (t1 ) X (t 2 )].
Замечание. При равных между собой значениях аргументов t1 = t2= t
корреляционная функция случайной функции равна дисперсии этой
функции:
Kx(t, t) = Dx(t).
Таким образом, достаточно знать корреляционную функцию, чтобы
найти дисперсию случайной функции.
Свойства корреляционной функции
Свойство 1. При перестановке аргументов корреляционная функция не
изменяется (свойство симметрии.):
K x (t1 , t 2 )  K x (t 2 , t1 ).
13
Прибавление к случайной функции X(t) неслучайного слагаемого не
изменяет ее центрированной функции.
Свойство 2. Прибавление к случайной функции X(t) неслучайного
слагаемого (t) не изменяет ее корреляционной функции:
если Y (t )  X (t )   (t ), то K y (t1 , t2 )  K x (t1 , t2 ).
Замечание 1. При умножении случайной функции X(t) на неслучайный
множитель (t) ее центрированная функция умножается на этот множитель.
Свойство 3. При умножении случайной функции X(t) на неслучайный
множитель (t) ее корреляционная функция умножается на произведение
(t1) (t2):
если Y (t )  X (t ) (t ), то K y (t1 , t2 )  K x (t1 , t2 ) (t1 ) (t2 ).
Свойство 4. Абсолютная величина корреляционной функции не
превышает среднего геометрического дисперсий соответствующих сечений:
| K x (t1 , t 2 ) | Dx (t1 ) Dx (t 2 ) .
Определение 2.7. Нормированной корреляционной функцией случайной
функции X(t), называют неслучайную функцию двух независимых
переменных t1 и t2, значения которой при каждой паре фиксированных
значений аргументов равно коэффициенту корреляции сечений,
соответствующих этим же фиксированным значениям аргументов:
 x (t1 , t 2 ) 
K x (t1 , t 2 )
.
 x (t1 ) x (t 2 )
Учитывая, что  x (t1 )  Dx (t1 )  K x (t1 , t1 )
получим
 x (t1 , t2 ) 
(1)
и  x (t2 )  Dx (t2 )  K x (t2 , t2 ) ,
K x (t1 , t2 )
.
K x (t1 , t1 ) K x (t2 , t2 )
(2)
Нормированная корреляционная функция имеет те же свойства, что и
корреляционная функция, причем абсолютная величина нормированной
корреляционной функции не превышает единицы  x (t1, t2 )  1.
Вероятностный смысл нормированной корреляционной функции
заключается в том, что чем ближе модуль этой функции к 1, тем линейная
связь между сечениями сильнее, и наоборот, чем ближе модуль этой функции
к 0, тем линейная связь между сечениями слабее.
Определение 2.8. Взаимной корреляционной функцией двух случайных
функций X(t) и Y(t) называют неслучайную функцию Rxy(t1, t2) двух
независимых аргументов t1 и t2, значение которой при каждой паре
фиксированных значений аргументов равно корреляционному моменту
сечений обеих функций, соответствующих этим же фиксированным значениям аргументов:


Rxy (t1 , t2 )  M [ X (t1 ) Y (t2 )].
Коррелированными называют две случайные функции, если их
взаимная корреляционная функция не равна тождественно нулю.
14
Некоррелированными называют две случайные функции, если их
взаимная корреляционная функция тождественно равна нулю.
Свойства взаимной корреляционной функции
Свойство 1. При одновременной перестановке индексов и аргументов
взаимная корреляционная функция не изменяется:
Rxy (t1 , t2 )  Rxy (t2 , t1 ).
Свойство 2. Прибавление к случайным функциям X(t) и Y(t)
неслучайных слагаемых, соответственно (t) и (t), не изменяет их взаимную
корреляционную функцию:
если X1 (t )  X (t )   (t ) и Y1 (t )  Y (t )  (t ), то Rx y (t1 , t2 )  Rxy (t1 , t2 ).
Свойство 3. При умножении случайных функций X(t) и Y(t) на
неслучайные множители, соответственно (t) и (t), взаимная
корреляционная функция умножается на произведение (t1)(t2):
если X1 (t )  X (t ) (t ) и Y1 (t )  Y (t ) (t ), то Rx y (t1 , t2 )  Rxy (t1 , t2 ) (t ) (t ).
Свойство 4. Абсолютная величина взаимной корреляционной функции
двух случайных функций не превышает среднего геометрического их дисперсий:
1 1
1 1
| Rxy (t1 , t2 ) | Dx (t1 ) Dy (t2 ).
Определение 2.9. Нормированной взаимной корреляционной функцией
двух случайных функций X(t) и Y(t) называют неслучайную функцию двух
независимых аргументов t1 и t2:
Rxy (t1 , t 2 )
Rxy (t1 , t 2 )
.
 xy (t1 , t 2 ) 

K x (t1,t1 ) K y (t 2 , t 2 )
D x (t1 ) Dy (t 2 )
Теорема 2.1. Корреляционная функция суммы двух коррелированных
случайных функций равна сумме корреляционных функций слагаемых и
взаимной корреляционной функции, которая прибавляется дважды (с разным
порядком следования аргументов):
если Z(t)=X(t) + Y(t),
то Kz(t1 ,t2)= Kx (t1 ,t2) + Ky(t1 ,t2)+ Rxy (t1 ,t2)+ Rxy (t2 ,t1)
Следствие
1.
Корреляционная
функция
суммы
двух
некоррелированных случайных функций равна сумме корреляционных
функций слагаемых:
если Z(t)=X(t) + Y(t), то Kz(t1 ,t2)= Kx (t1 ,t2) + Ky (t1 ,t2).
Следствие 2. Корреляционная функция случайной функции X(t) и
некоррелированной с ней случайной величины Y равна сумме
корреляционных функций случайной функции и дисперсии случайной
величины:
если Z(t)=X(t) + Y, то Kz(t1 ,t2)= Kx (t1 ,t2) +Dy.
15
Заключение
Задание студентам для самостоятельной учебной работы, список
рекомендуемой литературы и методические указания.
1. Доказать самостоятельно свойства математического ожидания и
дисперсии случайной функции, свойства корреляционной функции.
2. Использованная для подготовки лекции литература:
1) Гмурман В.Е. Теория вероятностей и математическая статистика. Учеб.
пособие для вузов. - Изд. 11-е, стер. - М.: Высш.шк., 2005. - 479с: ил.
2) Вентцель Е.С., Овчаров Л.А. Теория случайных процессов и ее
инженерные приложения. - Учеб. Пособие для втузов. - 2-е изд., стер. М.: Высш.шк., 2000. - 383с: ил.
3) Волков И.К., Зуев С.М., Цветкова Г.М. Случайные процессы: Учебник для
вузов / Под редакцией В.С. Зарубина, А.П. Крищенко. – 2-е изд.,
стереотип. – М.: Изд-во МГТУ им. Баумана, 2003. – 448 с.
Лекция разработана
доцентом кафедры ИСиТ
к.ф.-м.н, Зайцевой И.В.
_______________________
«____»___________200__г.
16
Download