Uploaded by Владислав Черепцов

Теория вероятностей. Вентцель Е.С

advertisement
Е.С.Вентцель
ВЫСШАЯ ШКОЛА
Е.С.Вентцель
ТЕОРИЯ
ВЕРОЯТНОСТЕЙ
ИЗДАНИЕ ШЕСТОЕ, СТЕРЕОТИПНОЕ
Рекомендовано Министерством
общего и профессионального образования
Российской Федерации
в качестве учебника
для студентов высших учебных заведений
Москва
«Высшая школа»
1999
УДК 511.3
ББК 22.171
В 29
ЮкиэдГ!» 5£*Я|4<К
Ч­
} и*1УПШтЕЛ Ф '
( ****•>*< И » 1И> л т * щ ]
В 29
Вентцель Е.С.
Теория вероятностей: Учеб. для вузов.— 6-е изд. стер.— М.:
Высш. шк., 1999.— 576 с.: ил.
18ВЫ 5-06-003650-2
Книга представляет собой один из наиболее известных учебников по теории
вероятностей и предназначена для лиц, знакомых с высшей математикой и
интересующихся техническими приложениями теории вероятностей. Она пред­
ставляет также интерес для всех тех, кто применяет теорию вероятностей в
своей практической деятельности.
В книге уделено большое внимание различным приложениям теории
вероятностей (теории вероятностных процессов, теории информации, теории
массового обслуживания и др.).
ISBN 5-06-003650-2
О Издательство «Высшая школа», 1999
Оригинал-макет данного издания является собственностью издательства «Высшая
школа» и его репродуцирование (воспроизведение) любым способом без согласия
издательства запрещается.
О ГЛА ВЛЕН И Е
Предисловие.......................................................................................... ...
9
Г л а в а 1. В в е д е н и е ...........................................................................................
1.1. Предмет теории вероятностей..................................................... ...
1.2. Краткие исторические сведения.....................................................
11
И
17
Г л а в а 2. Основные понятия теории в еро ятн о стей ..............................
2.1. Событие. Вероятность со бы тия......................................^ . . .
2.2. Непосредственный подсчет в еро ятн остей ..................................
2.3. Частота, или статистическая вероятность, события...................
2.4. Случайная в е л и ч и н а ........................................................................
2.5. Практически невозможные и практически достоверные со­
бытия. Принцип практической уверенности ..............................
23
23
24
28
32
Г л а в а 3. Основные теоремы теории в е р о я т н о с т е й ..........................
3.1. Назначение основных теорем. Сумма и произведение событий
3.2. Теорема сложения вероятностей.....................................................
3.3. Теорема умножения вероятностей.................................................
3.4. Формула полной вероятности.........................................................
3.5. Теорема гипотез (формула Б е й е с а ) .............................................
37
37
40
45
54
56
Г л а в а 4. Повторение о п ы т о в .......................................................................
4.1. Частная теорема о повторении о п ы т о в ......................................
4.2. Общая теорема о повторении опытов..........................................
59
59
61
34
Г л а в а 5. Случайные величины и их законы распределения . . . .
67
5.1. Ряд распределения. Многоугольник распределения...................
67
5.2. Функция распределения....................................................................
72
5.3. Вероятность попадания случайной величины на заданный
участок.................................................................................................
78
5.4. Плотность распределения................................................................
80
5.5. Числовые характеристики случайных величин. Их роль и на­
значение ..............................................................................................
84
5.6. Характеристики положения (математическое ожидание, мода,
м ед и ан а)..............................................................................................
85
5.7. Моменты. Дисперсия. Среднее квадратическое отклонение . .
92
5.8. Закон равномерной плотности........................................................ 103
5.9. Закон Пуассона...................................................................................106
4
ОГЛАВЛЕНИЕ
Г л а в а 6. Нормальный закон р асп р ед ел ен и я ......................................... 119
6.1. Нормальный закон и его параметры............................................. 116
6.2. Моменты нормального распределения......................................... 120
6.3. Вероятность попадания случайной величины, подчиненной
нормальному закону, на заданный участок. Нормальная функ­
ция распределения ........................................................................... 122
6.4. Вероятное (срединное) отклонение . . » ......................................127
Г л а в а 7. Определение законов распределения случайных вели­
чин на основе опытных д а н н ы х .............................................131
7.1. Основные задачи математической статистики.......................... 131
7.2. Простая статистическая совокупность. Статистическая функ■
ция распределения........................................................................... 133
7.3. Статистический ряд. Гистограмма.................................................135
7.4. Числовые характеристики статистического распределения . . 139
7.5. Выравнивание статистических рядов ..............................................143
7.6. Критерии со гл аси я ........................................................................... 149
Г л а в а 8. Системы случайных в ел и ч и н .....................................................159
8.1. Понятие о системе Случайных в е л и ч и н ......................................159
8.2. Функция распределения системы двух случайных величин . . 16Э
8.3. Плотность распределения системы двух случайных величин
163
8.4. Законы распределения отдельных величин, входящих в си­
стему. Условные законы распределения......................................163
8.5. Зависимые и независимые случайные величины.......................171
8.6. Числовые характеристики системы двух случайных величин.
Корреляционный момент. Коэффициент корреляции............... 175
8.7. Система произвольного числа случайных величин...................182
8.8. Числовые характеристики системы нескольких случайных
величин • .......................................................................................... 184
Г л а в а 9. Нормальный закон распределения для системы случай­
ных в е л и ч и н ...................................................................................188
9.1. Нормальный закон на п л о с к о с т и .................................................188
9.2. Эллипсы рассеивания. Приведение нормального закона к ка­
ноническому виду................................................................ ...............193
9.3. Вероятность попадания в прямоугольник со сторонами, па­
раллельными' главным осям рассеивания......................................196
9.4. Вероятность попадания в эллипс рассеивания.......................... 198
9.5. Вероятность попадания в область произвольной формы . . . 202
9.6. Нормальный закон в пространстве трех измерений. Общая
запись нормального закона для системы произвольного числа
случайных величин........................................................................... 205
Г л а в а 10. Числовые характеристики функций случайных величин 210
10.1. Математическое ожидание функции. Дисперсия функции . . 210
10.2. Теоремы о числовых характеристиках......................................219
10.3. Применения теорем о числовых характеристиках...................230
Г л а в а 11. Линеаризация ф у н к ц и й ............................................................ 252
11.1. Метод линеаризации функций случайных аргументов . . . .
252
11.2. Линеаризация функции одного случайного аргумента . . . .
253
11.3. Линеаризация функции нескольких случайных аргументов
255
11.4. Уточнение результатов, полученных методом линеаризации
259
ОГЛАВЛЕНИЕ
5
Г л а в а 12. Законы распределения функций случайных аргументов 263
12.1. Закон распределения монотонной функции одного случай­
ного а р г у м е н т а ...............................................................................263
12.2. Закон распределения линейной функции от аргумента, под­
чиненного нормальному закону.....................................................266
12.3. Закон распределения немонотонной функции одного случай­
ного а р г у м е н т а ...............................................................................267
12.4. Закон распределения функции двух случайных величин . . . 269
12.5. Закон распределения суммы двух случайных величин. Ком­
позиция законов распределения
271
12.6. Композиция нормальных законов.................................................275
12.7. Линейные функции от нормально распределенных аргументов 279
12.8. Композиция нормальных законов на плоскости.......................280
Г л а в а 13. Предельные теоремы теории вер о ятн о стей .......................286
13.1. Закон больших чисел и центральная предельная теорема . . 286
13.2. Неравенство Ч е б ы ш е в а ................................................................287
13.3. Закон больших чисел (теорема Чебышева).............................. 29Э , /
✓13.4. Обобщенная теорема Чебышева. Теорема М аркова............... 292
*’ 13.5. Следствия закона больших чисел: теоремы Бернулли и Пуас­
сона ..................................................................................................... 295
13.6. Массовые случайные явления и центральная предельная
т е о р е м а ..............................................................................................297
13.7. Характеристические функции........................................................ 299
13.8. Центральная предельная теорема для одинаково распреде­
ленных слагаемых........................................................................... 302
13.9. Формулы, выражающие центральную предельную теорему и
встречающиеся при ее практическом применении...................308
Г л а в а 14. Обработка о п ы т о в ....................................................................... 312
14.1. Особенности обработки ограниченного числа опытов. Оценки
для неизвестных параметров закона распределения............... 312
14.2. Оценки для математического ожидания и дисперсии . . . . 314
14.3. Доверительный интервал. Доверительная вероятность . . . . 317
14.4. Точные методы построения доверительных интервалов для
параметров случайной величины, распределенной по нор­
мальному з а к о н у ...........................................................................324
14.5. Оценка вероятности по ч а с т о т е .................................................330
14.6. Оценки для числовых характеристик системы случайных
величин............................................................................................. 339
14.7. Обработка с т р е л ь б .......................................................................317
14.8. Сглаживание экспериментальных зависимостей по методу
наименьших квадратов........................................................ ... ......... 351
Г л а в а 15. Основные понятия теории случайных функций . . . . 370
15.1. Понятие о случайной функции.....................................................370
15.2. Понятие о случайной функции как расширение понятия о си­
стеме случайных величин. Закон распределения случайной
ф у н к ц и и ...........................................................................................374
15.3. Характеристики случайных функций......................................... 377
15.4. Определение характеристик случайной функции из опыта . . 383
15.5. Методы определения характеристик преобразованных слу­
чайных функций по характеристикам исходных случайных
функций ....................................................................... . . . . . 385
ОГЛАВЛЕНИЕ
6
15.6. Линейные и нелинейные операторы. Оператор динамической
системы...................................... ..................................................... 388
15.7. Линейные преобразования случайных функций.......................393
15.8. Сложение случайных ф ункций.....................................................399
15.9. Комплексные случайные ф у н к ц и и ............................................. 402
Г л а в а 16. Канонические разложения случайных функций . . . .
16.1. Идея метода канонических разложений. Представление слу­
чайной функции в виде суммы элементарных случайных
функций..........................................................................................
16.2. Каноническое разложение случайной функции......................
16.3. Линейные преобразования случайных функций, заданных
каноническими р азл о ж ен и ям и ............................................. ... .
406
406
410
411
Г л а в а 17. Стационарные случайные ф у н к ц и и ......................................419
17.1. Понятие о стационарном случайном процессе...........................419
17.2. Спектральное разложение стационарной случайной функции
на конечном участке времени. Спектр дисперсий...................427
17.3. Спектральное разложение стационарной случайной функции
на бесконечном участке времени. Спектральная плотность
стационарной случайной функции ............................................. 431
17.4. Спектральное разложение случайной функции в комплексной
ф орм е.................................. , ............................................................. 438
17.5. Преобразование стационарной случайной функции стацио- нарной линейной системой............................................................ 447
17.6. Применения теории стационарных случайных процессов
к решению задач, связанных с анализом и синтезом динами­
ческих систем ...................................................................................454
17.7. Эргодическое свойство стационарных случайных функций
457
17.8. Определена характеристик эргодической стационарной слу­
чайной функции по одной реализаци и......................................462
Г л а в а 18. Основные понятия теории информации.............................. 468
18.1. Предмет и задачи теории информации......................................468
18.2. Энтропия как мера степени неопределенности состояния
изической систем ы ............................................................ ...
469
нтропия сложной системы. Теорема сложения энтропий . . 475
18.4. Условная энтропия. Объединение зависимых систем . . . . 477
18.5. Энтропия и информация...................... .........................................481
13.6. Частная информация о системе, содержащаяся в сообщении
о событии. Частная информация о событии, содержащаяся
в сообщении о другом с о б ы т и и .................................................489
18.7. Энтропия и информация для систем с непрерывным множестством состояний............................................................................... 493
18.8. Задачи кодирования сообщений. Код Шеннона — Фэно . . . 502
18.9. Передача информации с искажениями. Пропускная способ­
ность канала с помехами • ............................................................ 509
Ф
Г л а в а 19. Элементы теории массового обслуж ивани я.......................515
19.1. .Предмет теории массового обслуживания.............................. 515
19.2. ^Случайный процесс со счетным множеством состояний „ . 517
19.3. Поток событий. Простейший поток и его свойства . . . . 520
19.4. Нестационарный пуассоновский поток......................................527
ОГЛАВЛЕНИЕ
19.
19.
19.
19.
5.
6.
7.
8.
Поток с ограниченным последействием (поток Пальма) . .
Время обслуживания....................................................................
Марковский случайный процесс.................................................
Система массового обслуживания с отказами. Уравнения
Э р л а н г а ..........................................................................................
19. 9. Установившийся режим обслуживания. Формулы Эрланга .
19.10. Система массового обслуживания с ож и дан и ем ...................
19.11. Система смешанного типа с ограничением по длине очереди
Приложение. Таблицы...........................................................................................
Литература.............................................................................................................
Предметный у к а з а т е л ь .......................................................................................
7
529
534
537
540
544
548
557
561
573
574
ГРЕЧЕСКИЙ АЛФАВИТ
А, а — альфа
Е, е — эпсилон
I, г — йота
N. V — ню
I , а — сигма
х , X — хи
В, Р — бета
г , С '— дзета
к, к — каппа
з , £ — кси
Т, X — тау
у , * — пси
Г, У
н, 1
А, ).
п, п
— гамма
— эта
— лямбда
— пи
— ипсилон
X V
(О
— омега
п,
д, 5 — дельта
0 , в, V — тета
м, М — мю
— ро
р, Р
— фи
ф , <Р
ПРЕДИСЛОВИЕ
Настоящая книга написана на базе лекций по теории вероят­
ностей, читанных автором в течение ряда лет слушателям Воен­
но-воздушной инженерной академии им. Н. Е. Жуковского, а так­
же учебника автора по тому же предмету.
Учебник рассчитан, в основном, на инженера, имеющего ма­
тематическую подготовку в объеме обычного курса высших тех­
нических учебных заведений. При составлении книги автор ста­
вил задачу изложить предмет наиболее просто и наглядно, не
связывая себя рамками полной математической строгости. В свя­
зи с этим отдельные положения приводятся без доказательства
(раздел о доверительных границах и доверительных вероятно­
стях; теорема А. Н. Колмогорова, относящаяся к критерию
согласия, и некоторые другие); некоторые положения доказыва­
ются не вполне строго (теорема умножения законов распределе­
ния; правила преобразования математического ожидания и кор­
реляционной функции при интегрировании и дифференцировании
случайной функции и др.).
Применяемый математический аппарат, в основном, не выхо­
дит за рамки курса высшей математики, излагаемого в высших
технических учебных заведениях; там, где автору приходится
использовать менее общеизвестные понятия (например, понятие
линейного оператора, матрицы, квадратичной формы и т. д.), эти
понятия поясняются.
Книга снабжена большим количеством примеров, в ряде слу­
чаев расчетного характера, в которых применение излагаемых
методов иллюстрируется на конкретном практическом материале
и доводится до численного результата. Несмотря на несколько
специфический подбор примеров, иллюстративный материал, по­
мещенный в книге, понятен и инженерам, работающим в разных
областях техники, и всем, кто использует методы теории вероят­
ностей в своей работе.
Автор выражает глубокую благодарность профессору Е. Б.
Дынкину и профессору В. С. Пугачеву за ряд ценных указаний.
Е. Вентцель
ГЛАВА 1
ВВЕДЕНИЕ
1.1.
Предмет теории вероятностей
Теория вероятностей есть математическая наука, изучающая законо­
мерности в случайных явлениях.
Условимся, чтб мы будем понимать под «случайным явлением».
При научном исследовании различных физических и технических
вадач часто приходится встречаться с особого типа явлениями, кото­
рые принято называть с л у ч а й н ы м и . С л у ч а й н о е я в л е н и е — это
такое явление, которое при неоднократном воспроизведении одного
и того же опыта протекает каждый раз несколько по-иному.
Приведем примеры случайных явлений.
1. Производится стрельба из орудия, установленного под задан­
ным углом к горизонту (рис. 1. 1. 1).
Пользуясь методами внешней баллистики (науки о движении сна­
ряда в воздухе), можно найти теоретическую траекторию снаряда
(кривая К на рис. 1. 1. 1).
Эта траектория вполне
определяется условиями
стрельбы: начальной ско­
ростью снаряда г»0, углом
бросания 60 и баллисти­
ческим
коэффициентом
Рис. 1.1.1.
снаряда с. Фактическая
траектория каждого отдельного снаряда неизбежно несколько откло­
няется от теоретической за счет совокупного влияния многих факторов.
Среди этих факторов можно, например, назвать: ошибки изготовления
снаряда, отклонение веса заряда от номинала, неоднородность струк­
туры заряда, ошибки установки ствола в заданное положение, метео­
рологические условия и т. д. Если произвести несколько выстрелов
при неизменных основных условиях (и0, 60’ с)> мы получим не одну
теоретическую траекторию, а целый пучок или «сноп» траекторий,
образующий так называемое «рассеивание снарядов».
2. Одно и то же тело несколько раз взвешивается на аналити­
ческих весах; результаты повторных взвешиваний несколько отли­
чаются друг от друга. Эти различия обусловлены влиянием многих
12
ВВЕДЕНИЕ
ГГЛ. I
второстепенных факторов, сопровождающих операцию взвешивания,
таких как положение тела на чашке весов, случайные вибрации аппа­
ратуры, ошибки отсчета показаний прибора и т. д.
3. Самолет совершает полет на заданной высоте; теоретически
он летит горизонтально, равномерно и прямолинейно. Фактически
полет сопровождается отклонениями центра массы самолета от тео­
ретической траектории и колебаниями самолета около центра массы.
Эти отклонения и колебания являются случайными и связаны с турбу­
лентностью атмосферы; от раза к разу они не повторяются.
4. Производится ряд подрывов осколочного снаряда в определен­
ном положении относительно цели. Результаты отдельных подрывов
несколько отличаются друг от друга; меняются общее число осколков,
взаимное расположение их траекторий, вес, форма и скорость каждого
отдельного осколка. Эти изменения являются случайными и связаны
с влиянием таких факторов, как неоднородность металла корпуса
снаряда, неоднородность взрывчатого вещества, непостоянство ско­
рости детонации и т. п. В связи с этим различные подрывы,
осуществленные, казалось бы, в одинаковых условиях, могут при­
водить к различным результатам: в одних подрывах цель будет
поражена осколками, в других — нет.
Все приведенные примеры рассмотрены здесь под одним и тем же
углом зрения: подчеркнуты случайные вариации, неодинаковые резуль­
таты ряда опытов, основные условия которых остаются неизменными.
Эти вариации всегда связаны с наличием каких-то второстепенных
факторов, влияющих на исход опыта, но не заданных в числе его
основных условий. Основные условия опыта, определяющие в общих
и грубых чертах его протекание, сохраняются неизменными; второ­
степенные— меняются от опыта к опыту и вносят случайные разли­
чия в их результаты.
Совершенно очевидно, что в природе нет ни одного физического
явления, в котором не присутствовали бы в той или иной мере
элементы случайности. Как бы точно и подробно ни были фиксиро­
ваны условия опыта, невозможно достигнуть того, чтобы при повто­
рении опыта результаты полностью и в точности совпадали.
Случайные отклонения неизбежно сопутствуют любому законо­
мерному явлению. Тем не менее в ряде практических задач этими
случайными элементами . можно пренебречь, рассматривая вместо
реального явления его упрощенную схему, «модель», и предполагая,
что в данных условиях опыта явление протекает вполне определен­
ным образом. При этом из бесчисленного множества факторов,
влияющих на данное явление, выделяются самые главные, основные,
решающие; влиянием остальных, второстепенных факторов просто
пренебрегают. Такая схема изучения явлений постоянно применяется
в физике, механике, технике. При пользовании этой схемой для
решения любой задачи прежде всего выделяется основной круг учи­
III
П РЕ Д М Е Т
ТЕ ОРИ И
В ЕРО ЯТН ОСТЕЙ
13
тываемых условий и выясняется, на какие параметры задачи они
влияют; затем применяется тот или иной математический аппарат
(например, составляются и интегрируются дифференциальные уравне­
ния, описывающие явление); таким образом выявляется основная
закономерность, свойственная данному явлению и дающая возможность
предсказать результат опыта по его заданным условиям. По мере
развития науки число учитываемых факторов становится все боль­
ше; явление исследуется подробнее; научный прогноз становится
точнее.
Однако для решения ряда вопросов описанная схема — классиче­
ская схема так называемых «точных наук» — оказывается плохо при­
способленной. Существуют такие задачи, где интересующий нас исход
опыта зависит от столь большого числа факторов, что практически
невозможно зарегистрировать и учесть все эти факторы. Это — задачи,
в которых многочисленные второстепенные, тесно переплетающиеся
между собой случайные факторы играют заметную роль, а вместе
с тем число их так велико и влияние столь сложно, что применение
классических методов ис­
следования себя не оправ­
дывает.
Рассмотрим
пример.
Производится стрельба по
некоторой
цели Ц из
орудия,
установленного
под углом 0О к гориРис. 1.1.2.
зонту (рис. 1.1.2). Траек-*
тории снарядов, как было указано выше, не совпадают между
собой; в результате точки падения снарядов на земле рассеиваются.
Если размеры цели велики по сравнению с областью рассеивания,
то этим рассеиванием, очевидно, можно пренебречь: при правильной
установке орудия любой выпущенный снаряд попадает в цель. Если же
(как обычно и бывает на практике) область рассеивания снарядов
превышает размеры цели, то некоторые из снарядов в связи с влия­
нием случайных факторов в цель не попадут. Возникает ряд вопро­
сов, например: какой процент выпущенных снарядов в среднем попадает
в цель? Сколько нужно потратить снарядов для того, чтобы доста­
точно надежно поразить цель? Какие следует принять меры для
уменьшения расхода снарядов?
Чтобы ответить на подобные вопросы, обычная схема точных
наук оказывается недостаточной. Эти вопросы органически связаны
со случайной природой явления; для того чтобы на них ответить,
очевидно, нельзя просто пренебречь случайностью ,— надо изучить
случайное явление рассеивания снарядов с точки зрения закономер­
ностей, присущих ему именно как случайному явлению. Надо иссле­
довать закон, по которому распределяются точки падения снарядов;
14
ВВЕДЕНИЕ
[ГЛ. I
нужно выяснить случайные причины, вызывающие рассеивание, срав­
нить их между собой по степени важности и т. д.
Рассмотрим другой пример. Н екоторое техническое устройство,
например система автоматического управления, решает определенную
задачу в условиях, когда на систему непрерывно воздействуют слу­
чайные помехи. Наличие помех приводит к тому, что система решает
задачу с некоторой ошибкой, в ряде случаев выходящей за пределы
допустимой. Возникают вопросы: как часто будут появляться такие
ошибки? Какие следует принять меры для того, чтобы практически
исключить их возможность?
Чтобы ответить на такие вопросы, необходимо исследовать при­
роду и структуру случайных возмущений, воздействующих на систему,
изучить реакцию системы на такие возмущения, выяснить влияние
конструктивных параметров системы на вид этой реакции.
Все подобные задачи, число которых в физике и технике чрезвы­
чайно велико, требуют изучения не только основных, главных зако­
номерностей, определяющих явление в общих чертах, но и анализа
случайных возмущений и искажений, связанных с наличием второ­
степенных факторов и придающих исходу опыта при заданных усло­
виях элемент неопределенности.
Какие же существуют пути и методы для исследования случай­
ных явлений?
С чисто теоретической точки зрения те факторы, которые мы
условно назвали «случайными», в принципе ничем не отличаются от
других, которые мы выделили в качестве «основных». Теоретически
можно неограниченно повышать точность решения каждой задачи,
учитывая все новые и новые группы факторов: о т самых существен­
ных до самых ничтожных. Однако практически такая попытка оди­
наково подробно и тщательно проанализировать влияние решительно
всех факторов, от которых зависит явление, привела бы только к тому,
что решение задачи, в силу непомерной громоздкости и сложности,
оказалось бы практически неосуществимым и к тому же не имело бы
никакой познавательной ценности.
Например, теоретически можно было бы поставить и решить
вадачу об определении траектории вполне определенного снаряда,
с учетом всех конкретных погрешностей его изготовления, точного
веса и конкретной структуры данного, вполне определенного поро­
хового заряда при точно определенных метеорологических данных
{температура, давление, влажность, ветер) в каждой точке траектории.
Такое решение не только было бы необозримо сложным, но и не
имело бы никакой практической ценности, так как относилось бы
только к данному конкретному снаряду и заряду в данных конкрет­
ных условиях, которы е практически больше не повторятся.
Очевидно, должна существовать принципиальная разница в мето­
дах учета основных, решающих факторов, определяющих в главных
1.11
ПРЕДМЕТ ТЕОРИИ
ВЕРОЯТНОСТЕЙ
15
чертах течение явления, и вторичных, второстепенных факторов,
влияющих на течение явления в качестве «погрешностей» или «воз­
мущений». Элемент неопределенности, сложности, многопричинности,
присущий случайным явлениям, требует создания специальных мето­
дов для изучения этих явлений.
Такие методы и разрабатываются в теории вероятностей. Ее
предметом являются специфические закономерности, наблюдаемые
в случайных явлениях.
П рактика показывает, что, наблюдая в совокупности массы одно­
родных случайных явлений, мы обычно обнаруживаем в них вполне
определенные закономерности, своего рода у с т о й ч и в о с т и , свой­
ственные именно массовым случайным явлениям.
Например, если много раз подряд бросать монету, частота по­
явления герба (отношение числа появившихся гербов к общему числу
бросаний) постепенно стабилизируется, приближаясь к вполне опре­
деленному числу, именно к 4 - .
Такое
же
свойство
«устойчивости
частот» обнаруживается и при многократном повторении любого д ру­
гого опыта, исход которого представляется заранее неопределенным,
случайным. Так, при увеличении числа выстрелов частота попадания
в некоторую цель тоже стабилизируется, приближаясь к некоторому
постоянному числу.
. Рассмотрим другой пример. В сосуде заключен какой-то объем
газа, состоящий из весьма большого числа молекул. Каждая моле­
кула за секунду испытывает множество столкновений с другими
молекулами, многократно меняет скорость и направление движения;
траектория каждой отдельной молекулы случайна. Известно, что
давление газа на стенку сосуда обусловлено совокупностью ударов
молекул об эту стенку. Казалось бы, если траектория каждой о т­
дельной молекулы случайна, то и давление на стенку сосуда должно
было бы изменяться случайным и неконтролируемым образом; однако
это не так. Если число молекул достаточно велико, то давление
газа практически не зависит от траекторий отдельных молекул и
подчиняется вполне определенной и очень простой закономерности.
Случайные особенности, свойственные движению каждой отдельной
молекулы, в массе взаимно компенсируются; в результате, несмотря
на сложность и запутанность отдельного случайного явления, мы
получаем весьма простую закономерность, справедливую для массы
случайных явлений. Отметим, что именно м а с с о в о с т ь случайных
явлений обеспечивает выполнение этой закономерности; при ограни­
ченном числе молекул начинают сказываться случайные отклонения
от закономерности, так называемые флуктуации.
Рассмотрим еще один пример. По некоторой мишени произво­
дится один за другим ряд выстрелов; наблюдается распределение
точек попадания на мишени. При ограниченном числе выстрелов точки
!6
ЭВЕДрЬ|ИЕ
■
[ГЛ. I
попадания распределяются по мниген1Г в :полном беспорядке, без какойлибо пидимой закономерности. По мере увеличения числа выстрелов
в расположении точек попадания начинает 1:а5людаться некоторая
закономерность; эта закономерность проявляется тем отчетливее, чем
большее количеств выстрелов произведено. Расположение точек
попадания оказывается приблизительно симметричным относительно
некоторой центральной точки: в центральной области группы пробоин
они расположены гуще, чем по краям; при этом густота пробоин
убывает по вполне определенному закону (так называемый «нормаль­
ный закон» или «закон Гаусса», которому будет уделено большое
внимание в данном курсе).
Подобные специфические, так называемые «статистические», за­
кономерности наблюдаются всегда, когда мы имеем дело с массой
однородных случайных явлений. Закономерности, проявляющиеся
я этой массе, оказываются практически независимыми от индиви­
дуальных особенностей отдельных случайных явлений, входящих
в массу. Эти отдельные особенности в массе как бы взаимно пога­
шаются, нивелируются, и средний результат массы случайных явле­
ний оказывается практически уже не случайным. Именно эта много­
кратно подтвержденная опытом устойчивость массовых случайных
явлений и служит базой для применения вероятностных (статистиче­
ских) методов исследования. Методы теории вероятностей по природе
приспособлены только для исследования массовых случайных явлений;
они не дают возможности предсказать исход отдельного случайного
явления, но дают возможность предсказать средний суммарный ре­
зультат массы однородных случайных явлений, предсказать средний
исход массы аналогичных опытов, конкретный исход каждого из ко­
торых остается неопределенным, случайным.
Чем большее количество однородных случайных явлений участ­
вует в задаче, тем определеннее и отчетливее проявляются прису­
щие им специфические законы, тем с большей уверенностью и точ­
ностью можно осуществлять научный прогноз.
Во всех случаях, когда применяются вероятностные методы
исследования, цель их в том, чтобы, минуя слишком сложное
(и зачастую практически невозможное) изучение отдельного явления,
обусловленного слишком большим количеством факторов, обратиться
непосредственно к законам, управляющим массами случайных явле­
ний. Изучение этих законов позволяет не только осуществлять науч­
ный прогноз в своеобразной области случайных явлений, но в ряде
случаев помогает целенаправленно влиять на ход случайных явлений,
контролировать их, ограничивать сферу действия случайности, су­
жать ее влияние на практику.
Вероятностный, или статистический, метод в науке не про­
тивопоставляет
себя классическому, обычному методу точных
наук, а является его дополнением, позволяющим глубже анали­
зировать явление с
| элементов случай­
ности.
Характерным для современного этапа развития естественных и
технических наук является весьма широкое и плодотворное приме­
нение статистических методов во всех областях знания. Это вполне
естественно, так как при углубленном изучении любого круга явле­
ний неизбежно наступает этап, когда'требуется не только выявление
основных закономерностей, но и анализ возможных отклонений от
них. В одних науках, в силу специфики предмета и исторических
условий, внедрение статистических методов наблюдается раньше,
в других — позже. В настоящее время нет почти ни одной есте­
ственной науки, в которой так или иначе не применялись бы ве­
роятностные методы. Целые разделы современной физики (в част­
ности, ядерная физика) базируются на методах теории вероятностей.
Все шире применяются вероятностные методы в современной электро­
технике и радиотехнике, метеорологии и астрономии, теории авто­
матического регулирования и машинной математике.
Обширное поле применения находит теория вероятностей в раз­
нообразных областях военной техники: теория стрельбы и бомбоме­
тания, теория боеприпасов, теория прицелов и приборов управления
огнем, аэронавигация, тактика и множество других разделов военной
науки широко пользуются методами теории вероятностей и ее мате­
матическим аппаратом.
Математические законы теории вероятностей — отражение реаль­
ных статистических законов, объективно существующих в массовых
случайных явлениях природы. К изучению этих явлений теория ве­
роятностей применяет математический метод и по своему методу
является одним из разделов математики, столь же логически точным
и строгим, как другие математические науки.
1.2. К р атк и е и сто р и ч ески е сведен ия
Теория вероятностей, подобно другим математическим наукам,
развилась из потребностей практики.
Начало систематического исследования задач, относящихся к мас­
совым случайным явлениям, и появление соответствующего математи­
ческого аппарата относятся к XVII веку. В начале XVII века знаме­
нитый физик Галилей уже пытался подвергнуть научному исследованию
ошибки физических измерений, рассматривая их как случайные и
оценивая их вероятности. К этому же времени относятся первые
попытки создания общей теории страхования, основанной на анализе
закономерностей в таких массовых случайных явлениях, как заболе­
ваемость, смертность, статистика несчастных случаев и т. д. Необ­
ходимость создания математического аппарата, специально приспособ­
ленного для анализа слу чайных явлений, вытекала и из потребностей
18
ВВЕДЕНИЕ
ГГЛ. t
обработки и обобщения обширного статистического материала во
всех областях науки.
Однако теория вероятностей как математическая наука сформи­
ровалась, в основном, не на материале указанных выше практических
задач: эти задачи слишком сложны; в них законы, управляющие слу­
чайными явлениями, проступают недостаточно отчетливо и затушеваны
многими осложняющими факторами. Необходимо было сначала изу­
чить закономерности случайных явлений на более простом материале.
Таким материалом исторически оказались так называемые «азартные
игры». Эти игры с незапамятных времен создавались рядом поколе­
ний именно так, чтобы в них исход опыта был независим от под­
дающихся наблюдению условий опыта, был чисто случайным. Самое
слово «азарт» (фр. «le hasard») означает «случай». Схемы азартных
игр дают исключительные по простоте и прозрачности модели слу­
чайных явлений, позволяющие в наиболее отчетливой форме наблю­
дать и изучать управляющие ими специфические законы; а возмож­
ность неограниченно повторять один и тот же опыт обеспечивает
экспериментальную проверку этих законов в условиях действитель­
ной массовости явлений. Вплоть до настоящего времени примеры из
области азартных игр и аналогичные им задачи на «схему урн» ши­
роко употребляются при изучении теории вероятностей как упро­
щенные модели случайных явлений, иллюстрирующие в наиболее
простом и наглядном виде основные законы и правила теории ве­
роятностей.
Возникновение теории вероятностей в современном смысле слова
относится к середине XVII века и связано с исследованиями Паскаля
(1623— 1662), Ферма (1601— 1665) и Гюйгенса (1629— 1695) в об­
ласти теории азартных игр. В этих работах постепенно сформирова­
лись такие важные понятия, как вероятность и математическое ожи­
дание; были установлены их основные свойства и приемы их вычи­
сления. Непосредственное практическое применение вероятностные
методы нашли прежде всего в задачах страхования. Уже с конца
XVII века страхование стало производиться на научной математи­
ческой основе. С тех пор теория вероятностей находит Dce более
широкое применение в различных областях.
Крупный шаг вперед в развитии теории вероятностей связан
с работами Якова Бернулли (1654— 1705). Ему принадлежит первое
доказательство одного из важнейших положений теории вероят­
н остей— так называемого закона больших чисел.
Еще до Якова Бернулли многие отмечали как эмпирический факт
ту особенность случайных явлений, которую можно назвать «свой­
ством устойчивости частот при большом числе опытов». Было неод­
нократно отмечено, что при большом числе опытов, исход каждого
из которых является случайным, относительная частота появления
каждого данного исхода имеет тенденцию стабилизироваться, при­
1.2]
КРАТКИЕ ИСТОРИЧЕСКИЕ СВЕДЕНИЯ
19
ближаясь к некоторому определенному числу — вероятности этого
исхода. Например, если много раз бросать монету, относительная
частота появления герба приближается к 1/2; при многократном б ро­
сании игральной кссти частота появления грани с пятью очками при­
ближается к */б и т Яков Бернулли впервые дал теоретическое
обоснование этому эмпирическому факту. Теорема Якова Бернулли —
простейшая форма закона больших чисел — устанавливает связь
между вероятностью события и частотой его появления; при доста­
точно большом числе опытов можно с практической достоверностью
ожидать сколь угодно близкого совпадения частоты с вероятностью.
Другой важный этап в развитии теории вероятностей связан
с именем Моавра (.1667— 1754). Этот ученый впервые ввел в рас­
смотрение и для простейшего случая обосновал своеобразный вакон,
очень часто наблюдаемый в случайных явлениях: так называемый
нормальный закон (иначе — закон Гаусса). Нормальный закон, как
мы увидим далее, играет исключительно важную роль в случайных
явлениях. Теоремы, обосновывающие этот закон для тех или иных
условий, носят в теории вероятностей общее название «центральной
предельной теоремы».
Выдающаяся роль в развитии теории вероятностей принадлежит
знаменитому математику Лапласу (1749— 1827). Он впервые дал
стройное и систематическое изложение основ теории вероятностей,
дал доказательство одной из форм центральной предельной теоремы
(теоремы Моавра — Лапласа) и развил ряд замечательных приложе­
ний теории вероятностей к вопросам практики, в частности к ана­
лизу ошибок наблюдений и измерений.
Значительный шаг вперед в развитии теории вероятностей связан
с именем Гаусса (1777— 1855), который дал еще более общее обо­
снование нормальному закону и разработал метод обработки экспе­
риментальных данных, известный под названием «метода наименьших
квадратов». Следует также отметить р а б о т ы П уассона (1781— 1840),
доказавш его более общую, чем у Якова Бернулли, форму закона
больших чисел, а также впервые применившего теорию вероятностей
к задачам стрельбы. С именем Пуассона связан один из законов
распределения, играющий большую роль в теории вероятностей и ее
приложениях.
Для всего XVIII и начала XIX века характерны бурное развитие
теории вероятностей и повсеместное увлечение ею. Теория вероят­
ностей становится «модной» наукой. Ее начинают применять не только
там, где это применение правомерно, но и там, где оно ничем не
оправдано. Для этого периода характерны многочисленные попытки
применить теорию вероятностей к изучению общественных явлений,
к так называемым «моральным» или «нравственным» наукам. Во
множестве появились работы, посвященные вопросам судопроизвод­
ства, истории, политики, даже богословия, в которых применялся
20
ВВЕДЕНИЕ
ГГЛ. I
аппарат теории вероятностей. Для всех этих псевдонаучных исслгдований характерен чрезвычайно упрощенный, механистический подход
к рассматриваемым в них общественным явлениям. В основу рас­
суждения полагаются некоторые произвольно заданные вероятности
(например, при рассмотрении вопросов судопроизводства склонность
каждого человека к правде или лжи оценивается некоторой постоян­
ной, одинаковой для всех людей вероятностью), и далее общ ествен­
ная проблема решается как простая арифметическая задача. Естест­
венно, что все подобные попытки были обречены на неудачу и не
могли сыграть положительной роли в развитии науки. Напротив, их
косвенным результатом оказалось то, что примерно в 2 0 -х — 30-х
год'ах XIX века в Западной Европе повсеместное увлечение теорией
вероятностей сменилось разочарованием и скептицизмом. На теорию
вероятностей стали смотреть как на науку сомннтельную, второсорт­
ную, род математического развлечения, вряд ли достойный серьез­
ного изучения.
Замечательно, что именно в это время в России создается та
знаменитая Петербургская математическая школа, трудами которой
теория вероятностей была поставлена на прочную логическую и ма­
тематическую основу и сделана надежным, точным и эффективным
методом познания. Со времени появления этой школы развитие тео­
рии вероятностей уже теснейшим образом связано с работами рус­
ских, а в дальнейшем — советских ученых.
Среди ученых Петербургской математической школы следует
назвать В. Я. Буняковского (1804— 1889) — автора первого курса
теории вероятностей на русском языке, создателя современной рус­
ской терминологии в теории вероятностей, автора оригинальных ис­
следований в области статистики и демографии.
Учеником В. Я. Буняковского был великий русский математик
П. Л. Чебышев (1821 — 1894). Среди обширных и разнообразных
математических трудов П. Л. Чебышева заметное место занимают
его труды по теории вероятностей. П. Л. Чебышеву принадлежит
дальнейшее расширение и обобщение закона больших чисел. Кроме
того, П. Л. Чебышев ввел в теорию вероятностей весьма мощный и
плодотворный метод моментов.
Учеником П. Л. Чебышева был А. А. Марков (1856— 1922},
также обогативший теорию вероятностей открытиями и методами
большой важности. А. А. Марков существенно расширил область
применения закона больших чисел и центральной предельной теоремы,,
распространив их не только на независимые, но и на зависимые
опыты. Важнейшей заслугой А. А. Маркова явилось то, что он за ­
ложил основы совершенно новой ветви теории вероятностей— теории
случайных, или «стохастических», процессов. Развитие этой теори»
составляет основное содержание новейшей, современной теории ве­
роятностей.
КРАТКИЕ ИСТОРИЧЕСКИЕ СВЕДЕНИЯ
21
Учеником П . Л. Чебышева был и A r М. Ляпунов (1857 — 1918),
с именем которого связано первое доказательство центральной пре­
дельной теоремы при чрезвычайно общих условиях; Для доказатель­
ства своей теоремы А. М. Ляпунов разработал специальный метод
характеристических функций, широко применяемый в современной
теории вероятностей.
Характерной особенностью работ П етербургской математической
цоколь! была исключительная четкость постановки задач, полная ма­
тематическая строгость применяемых ^методов и наряду с этим тесная
связь теории с непосредственными требованиями практики. Трудами
ученых Петербургской математической школы теория вероятностей
была выведена с задворков науки и поставлена как полноправный
Член в ряд точных математических наук. Условия применения ее ме­
тодов были строго определены, а самые методы доведены до высокой
степени совершенства.
Современное развитие теории вероятностей характерно всеобщим
подъемом интереса к ней и резким расширением круга «е практи­
ческих применений. За последние десятилетия теория вероятностей
превратилась в одну из наиболее быстро развивающихся наук, тес­
нейшим образом связанную с потребностями практики и техники.
Советская ш кола теории вероятностей, унаследовав традиции П етер­
бургской математической школы, занимает в мировой науке веду­
щее место.
Здесь мы назовем только некоторых крупнейших советских уче­
ных, труды которых сыграли решающую роль в развитии современ­
ной теории вероятностей и ее практических приложений.
С. Н. Бернштейн разработал первую законченную аксиоматику
теории вероятностей, а также существенно расширил область при­
менения предельных теорем.
А. Я. Хинчин (1 8 9 4 — 1959) известен своими исследованиями
в области дальнейшего обобщения и усиления закона больших чисел,
но главным образом своими исследованиями в области так называемых
стационарных случайных процессов.
Ряд важнейших основополагающих работ в различных областях
теории вероятностей и математической статистики принадлежат
А. Н. Колмогорову. Он дал наиболее совершенное аксиоматическое
построение теории вероятностей, связав ее с одним из важнейших
разделов современной математики — метрической теорией функций.
Особое значение имеют работы А. Н. Колмогорова в области теории
случайных функций (стохастических процессов), которые в настоящее
время являются основой всех исследований в данной области. Работы
А. Н. Колмогорова, относящиеся к оценке эффективности легли
в основу целого нового научного направления в теории стрельбы, пе­
реросш его затем в более широкую науку об эффективности боевих
действий.
ВВЕДЕНИЕ
22
ГГЛ. I
В.
И. Романовский (1879 — 1954) и Н. В. Смирнов известн
своими работами в области математической статистики, E. Е. Слуц­
кий (1880 — 1948) — в теории случайных процессов, Б. В. Гнеденко —
в области теории массового обслуживания, Е . Б. Дынкин — в об­
ласти марковских случайных процессов, В. С. Пугачев — в области
случайных процессов в применении к задачам автоматического упра­
вления.
Развитие зарубежной теории вероятностей в настоящее время
также идет усиленными темпами в связи с настоятельными требова­
ниями практики. Преимущественным вниманием пользуются,, как и
у нас, вопросы, относящиеся к случайным процессам. Значительные
работы в этой области принадлежат, например, Н . Винеру, В. Феллеру,
Д . Дубу. Важные работы по теории вероятностей и математической
статистике принадлежат Р . Фишеру, Д . Нейману и Г. Крамеру.
За последние годы мы стали свидетелями рождения новых и свое­
образных методов прикладной теории вероятностей, появление кото­
рых связано со спецификой исследуемых технических проблем. Речь
идет, в частности, о таких дисциплинах, как «теория информации»
и «теория массового обслуживания». Возникшие из непосредственных
потребностей практики, эти разделы теории вероятностей приобрета­
ют общее теоретическое значение, а круг их приложений постоянно
увеличивается.
I
ГЛАВА 2
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
Ц,
2 .1 . Событие. Вероятность события
£ ^Каждая наука, ‘развивающая общую теорию какого-либо круга
явГлений, содержит ряд основных понятий, на которых она базируется.
Таковы, например, в геометрии понятия точки, прямой, линии; в ме­
ханике— понятия силы, массы, скорости, ускорения и т. д. Есте­
ственно, что не все основные понятия могут быть строго определены,
так как определить понятие — это значит свести его к другим, более
известным. Очевидно, процесс определения одних понятий через другие
должен где-то заканчиваться, дойдя до самых первичных понятий,
к которым сводятся все остальные и которые сами строго не- опре­
деляются, а только поясняются.
Такие основные понятия существуют и в теории вероятностей.
В качестве первого из них введем понятие события^
Под «событием* в теории вероятностей понимается всякий факт,
который в результате опыта может произойти или не произойти.
Приведем несколько примеров событий:
А — появление герба при бросании монеты;
В — появление трех гербов при трехкратном бросании монеты;
С — попадание в цель при выстреле;
£ )— появление туза при вынимании *сарты из колоды;
Е — обнаружение объекта при одном цикле обзора радиолока­
ционной станции;
Р — обрыв нити в течение часа работы ткацкого станка.
Рассматривая вышеперечисленные события, мы видим, что каждое
из нйх обладает какой-то степенью возможности: одни — большей,
другие — меньшей, причем для некоторых из этих событий мы сразу же
можем решить, какое из них более, а какое менее возможно. Например,
сразу видно, что событие А более возможно, чем В и й . Относи­
тельно событий С, £ и /=" аналогичных выводов сразу сделать нельзя;
для этого следовало бы несколько уточнить условия опыта. Так или
иначе ясно, что каждое из таких событий обладает той или иной
степенью возможности. Чтобы количественно сравнивать между собой
события по степени их возможности, очевидно, нужно с каждым
24
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
ГГЛ 2
событием связать определенное ч и с л о , которое тем больш е, чем
более возможно событие. Такое число мы назовем в е р о я т н о с т ь ю
события.
Таким образом, мы ввели в рассмотрение второе основное по­
нятие теории вероятностей — понятие вероятности события. Вероят­
ность события есть численная мера степени объективной возможности
этого события.
Заметим, что уже при самом введении понятия вероятности со­
бытия мы связываем с этим понятием определенный практический
смысл, а именно: на основании опыта мы считаем более вероятными
те события, которые происходят чаще; менее вероятными — те события,
которые происходят реже; мало вероятными — те, которые почти
никогда не происходят. Таким образом, понятие вероятности события
в самой своей основе связано с опытным, практическим понятием
частоты события.
Сравнивая между собой различные события по степени их воз­
можности, мы должны установить какую-то единицу измерения.
В качестве такой единицы измерения естественно принять вероятность
д ос т о в е р н о г о с обыти я , т. е. такого события, которое в результате
опыта непременно должно произойти. Пример достоверного события —
выпадение не более 6 очков при бросании одной игральной кости.
Если приписать достоверному событию вероятность, равную еди­
нице, то все другие события — возможные, но не достоверные —
будут характеризоваться вероятностями, меньшими единицы, соста­
вляющими какую-то долю единицы.
Противоположностью по .отношению к достоверному событию
является н е в о з мо ж но е событие, т. е. такое событие, которое
в данном опыте не может произойти. Пример невозможного события —
появление 12 очков при бросании одной игральной кости. Естест­
венно приписать невозможному событию вероятность, равную нулю.
Таким образом, установлены единица измерения вероятностей —
вероятность достоверного события — и диапазон изменения вероятно­
стей любых событий — числа от 0 до 1.
2 .2 . Непосредственный подсчет вероятностей
Существует целый класс опытов, для которых вероятности их
возможных исходов легко оценить непосредственно из условий самого
опыта. Для этого нужно, чтобы различные исходы опыта обладали
симметрией и в силу этого были объективно одинаково возможными.
Рассмотрим, . например, опыт, состоящий в бросании игральной
кости, т. е. симметричного кубика, на гранях которого нанесено р а з­
л и ч н о е число очков: от 1 до 6 .
В силу симметрии кубика есть основания считать все шесть воз­
можных исходов опыта одинаково возможными. Именно это дает нам
2:21
НЕПОСРЕДСТВЕННЫЙ
подсчет
вероятностей
25
право предполагать, что при многократном бросании кости все шесть
граней будут выпадать примерно одинаково часто. Это предположе­
ние для правильно выполненной кости действительно оправдывается
на опыте; при многократном бросании кости каждая ее грань по­
является примерно в одной шестой Доле всех случаев бросания,
причем отклонение этой доли от
тем доеньше, чем большее число
опытов произведено. Имея в виду, что вероятность достоверного
события принята равной . единице, естественно приписать выпадению
каждой отдельной грани вероятность, равную
Это число харак­
теризует некоторые объективные свойства данного случайного явле­
ния, а именно свойство симметрии шести возможных исходов опыта.
Для всякого опыта, в котором возмож ны е' исходы, симметричны
и одинаково возможны, можно применить аналогичный прием, который
называется не п ос р ед с тв е н н ым подс че том в ер о я т н о с те й .
Симметричность возможных исходов опыта обычно наблюдается
только в искусственно организованных опытах, типа азартных игр.
Так как первоначальное развитие теория вероятностей получила
именно' на схемах азартных игр, то прием непосредственного под­
счета вероятностей, исторически возникший вместе с возникновением
математической теории случайных явлений, долгое время считался
основным и был положен в основу так называемой «классической»
теории вероятностей. При этом опыты, не обладающие симметрией
возможных исходов, искусственно сводились к «классической» схеме.
Несмотря на ограниченную сферу практических применений этой
схемы, она все же представляет известный интерес, так как именно
на опытах, обладающих симметрией возможных исходов, и на собы­
тиях, связанных с такими опытами, легче всего познакомиться с основ­
ными свойствами вероятностей. Такого рода событиями, допускаю ­
щими непосредственный подсчет вероятностей, мы и займемся в первую
очередь.
Предварительно введем некоторые вспомогательные понятия.
1. Полная группа событий.
Говорят, что несколько событий в данном опыте образуют п о л ­
н у ю г р у п п у событий, если в результате опыта непременно должно
появиться хотя бы одно из них.
Примеры событий, образующих полную группу;
1) выпадение герба и выпадение цифры при бросании монеты;
2) попадание и промах при выстреле;
3 ) появление 1 , 2 , 3, 4, 5, 6 очков при бросании игральной кости;
4) появление белого шара и появление черного шара при выни­
мании одного шара из урны, в которой 2 белых и 3 черных шара;
5 ) ни одной опечатки, -одна, две, три и более трех опечаток при
проверке страницы напечатанного текста;
26
ОСНОВНЫЕ
понятия
ТЕОРИИ ВЕРОЯТНОСТЕЙ
[ГЛ. а
6)
хотя бы одно попадание и хотя бы один промах при двух
выстрелах.
2. Несовместные события.
Н есколько событий называются н е с о вм е ст ны м и в данном опыте,
если никакие два из них не могут появиться вместе.
Примеры несовместных событий:
1) выпадение герба и выпадение цифры при бросании монеты;
2) попадание и промах при одном выстреле;
3) появление 1, 3, 4 очков при одном бросании игральной кости;
4) ровно один отказ, ровно два отказа, ровно три отказа тех­
нического устройства за десять часов работы.
3. Равно,возможные события.
Несколько событий в данном опыте называются р а в н о в о з м о ж ­
н ы м и, если по условиям симметрии есть основание считать, что
ни одно из этих событий не является объективно более возможным,
чем другое.
Примеры равновозможных событий:
1) выпадение герба и выпадение цифры при бросании монеты;
2) появление 1, 3, 4, 5 очков при бросании игральной, кости;
3) появление карты бубновой, червонной, трефовой масти при
вынимании карты из колоды;
4) появление ш ара с № 1, 2, 3 при вынимании одного шара
из урны, содержащей 10 перенумерованных ш аров.
Существуют группы событий, обладающие всеми тремя свойствами:
они образуют полную группу, несовместны и равновозможны; на­
пример: появление герба и цифры при бросании монеты; появление
1, 2, 3, 4, 5, 6 очков при бросании игральной кости. События,
образующие такую группу, называются с л у ч а я м и (иначе «ш ан­
сами»).
Если какой-либо опыт по своей структуре обладает симметрией
возможных исходов, то случаи представляют собой исчерпывающую
систему равновозможных и исключающих друг друга исходов опыта.
Про такой опыт говорят, что он «сводится к схеме случаев» (иначе —
к «схеме урн»).
Схема случаев по преимуществу имеет место в искусственно о р ­
ганизованных опытах, в которых заранее и сознательно обеспечена
одинаковая возможность исходов опыта (как, например, в азартных
играх). Для таких Опытов возможен непосредственный подсчет ве­
роятностей, основанный на оценке доли так называемых «благопри­
ятных» случаев в общем числе случаев.
Случай называется б л а г о п р и я т н ы м (или «благоприятствующим»)
некоторому событию, если появление этого случая влечет за собой
появление данного события.
Например, при бросании игральной кости возможны шесть слу­
чаев: появление 1, 2, 3, 4, 5, 6 очков. Из них событию А — появ­
НЕПОСРЕДСТВЕННЫ Й
ПОДСЧЕТ
ВЕРОЯТНОСТЕЙ
27
лению четного числа очков — благоприятны три случая: 2, 4, 6 и не
благоприятны остальные три.
Если опыт сводится к схеме случаев, то вероятность события А
в данном опыте можно оценить по относительной доле благоприят­
ных случаев. Вероятность события А вычисляется как отношение
числа благоприятных случаев к общему числу случаев:
Р(А) = ~ ,
(2.2.1)
где Р (Л) — вероятность события А; п — общее число случаев;
т — число случаев, благоприятных событию А.
Так как число благоприятных случаев всегда заключено между
О и п ( 0 — для невозможного и п — для достоверного события), то
вероятность события, вычисленная по формуле (2.2.1), всегда есть
рациональная правильная дробь:
0<Р(Л)<1.
(2.2.2)
Формула (2.2.1), так называемая «классическая формула» для вы­
числения вероятностей, долгое время фигурировала в литературе как
определение вероятности. В настоящее время при определении (по­
яснении) понятия вероятности обычно исходят из других принципов,
непосредственно связывая понятие вероятности с эмпирическим поня­
тием частоты; формула же (2.2.1) сохраняется лишь как формула
для непосредственного подсчета вероятностей, пригодная тогда и
только тогда, когда опыт сводится к схеме случаев, т. е. обладает
симметрией возможных исходов. •
П р и м е р 1. ’ В урне находится 2 белых и 3 черных шара. Из урны на­
угад вынимается один шар. Требуется найти вероятность того, что этот шар
будет белым.
Р е ш е н и е . Обозначим А событие, состоящее в появлении белого шара.
Общее число случаев п =» 5; число случаев, благоприятных событию А, т = 2.
Следовательно,
ЯМ ) = | .
П р и м е р 2. В урне а белых и Ь черных шаров. Из урны вынимаются
два шара. Найти вероятность того, что оба шара будут белыми.
Р е ш е н и е . Обозначим В событие, состоящее в появлении двух белых
шаров. Подсчитаем общее число возможных случаев п и число случаев т
благоприятных событию В:
^
п ~
а+ Ь’
т = С 2а ');
следовательно,
Р ( в) = ~РГ~1
'■'спЬ
*) Знаком С1к обозначено число сочетаний из £ элементов по I
28
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
[ГЛ. 3
П р и м е р 3. В партии из N изделий М бракованных. Из партии выби­
рается наугад п изделий. Определить вероятность того, что среди этих п
изделий будет ровно т бракованных.
Р е ш е н и е . Общее число случаев, очевидно, равно С^; число благо­
приятных случаев С ^ л г-л 1* 0ТКУДа вероятность интересующего нас
события
г т г п-т
' 9
2 .3 . Частота, или статистическая вероятность, события
Формула (2.2.1) для непосредственного подсчета вероятностей
применима только, когда опыт, в результате которого может по­
явиться интересующее нас событие, обладает симметрией возможных
исходов (сводится к схеме случаев). Очевидно, что далеко не всякий
опыт может быть сведен к схеме случаев, и существует обширный
класс событий, вероятности которых нельзя вычислить по формуле
(2.2.1). Рассмотрим, например, неправильно выполненную, несимме­
тричную игральную кость. Выпадение определенной грани уже не
будет характеризоваться вероятностью
вместе с тем ясно, что
для данной конкретной несимметричной кости выпадение этой грани
обладает некоторой вероятностью, указывающей, насколько часто
в среднем должна появляться данная грань при многократном
бросании. Очевидно, что вероятности таких событий, как «попадание
в цель при выстреле», «выход из строя радиолампы в течение од­
ного часа работы» или «пробивание брони осколком снаряда», так­
же не могут быть вычислены по формуле (2 .2 . 1), так как соот­
ветствующие опыты к схеме случаев не сводятся. Вместе с тем ясно,
что каждое из перечисленных событий обладает определенной сте­
пенью объективной возможности, которую в принципе можно изме­
рить численно и которая при повторении подобных опытов будет
отражаться в относительной частоте соответствующих событий. П о­
этому мы будем считать, что каждое событие, связанное с массой
однородных опытов, — сводящееся к схеме случаев или н е т ,— имеет
определенную вероятность, заключенную между нулем и единицей.
Для событий, сводящихся к схеме случаев, эта вероятность может
быть вычислена непосредственно по формуле (2.2.1), Для событий,
не сводящихся к схеме случаев, применяются другие способы опре­
деления вероятностей. Все эти способы корнями своими уходят
в опыт, в эксперимент, и для того чтобы составить представление
об этих способах, необходимо уяснить себе понятие частоты собы­
тия и специфику той органической связи, которая существует между
вероятностью и частотой.
Если произведена серия из п опытов, в каждом из которых могло
появиться или не появиться некоторое событие А , то ч а с т о то й
1.3]
ЧАСТОТА, ИЛИ СТАТИСТИЧЕСКАЯ
ВЕРОЯТНОСТЬ, СОБЫТИЯ
29
события А в данной серии опытов называется отношение числа опы­
тов, в которых появилось событие .<4, к общему числу произведен­
ных опытов.
.^Частоту события часто называют его статистической вероят­
ностью (в отличие от ранее введенной «математической» вероятности).
Условимся обозначать частоту (статистическую вероятность) со­
бытия А знаком Р* (Л). Частота события вычисляется на основании
результатов опыта по формуле
Р * ( А) — ^ ,
(2.3.1)
где т — число появлений события Л; п — общее число произведен­
ных опытов.
'
При небольшом числг опытов частота события носит в значи­
тельной мере случайный характер и может заметно изменяться от
одной Группы опытов к другой. Например, при каких-то десяти бро­
саниях монеты вполне возможно, что герб появится только два раза
(частота появления герба будет равна 0,2); при других десяти бро­
саниях мы вполне можем получить 8 гербов (частота 0,8). Однако
при увеличении числа опытов частота события все более теряет свой
случайный характер; случайные обстоятельства, свойственные каж­
дому отдельному опыту, в массе взаимно погашаются, и частота
•проявляет тенденцию стабилизироваться, приближаясь с незначитель­
ными колебаниями^ некоторой средней, постоянной величине. Например, при многократном бросании монеты частота появления герба
будет лишь незначительно уклоняться от у .
Э то свойство «устойчивости частот», многократно проверенное
экспериментально и подтверждающееся всем опытом практической
деятельности человечества, есть одна из наиболее характерных за­
кономерностей, наблюдаемых в случайных явлениях. Математическую
формулировку этой закономерности впервые дал Я. Бернулли в своей
теореме, которая представляет собой простейшую форму закона
больших чисел. Я. Бернулли доказал, что при неограниченном уве­
личении числа однородных независимых опытов с практической до­
стоверностью можно утверждать, что частота события будет сколь
угодно мало отличаться .от его вероятности в отдельном опыте.
Связь между частотой события и" его вероятностью — глубокая,
органическая связь. Эти два понятия по существу неразделимы. Дей­
ствительно, когда мы оцениваем степень возможности какого-либо
события, мы неизбежно связываем эту оценку с большей или меньшей частотой появления аналогичных событий на практике. Характе­
ризуя вероятность события каким-то числом, мы не можем придать
этому числу иного реального значения и иного практического смысла,
чем относительная частота появления данного события при большом
числе опытов. Численная оценка степени возможности событии
30
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ
ВЕРОЯТНОСТЕЙ
[ГЛ. 2
посредством вероятности имеет практический смысл именно потому,
что более вероятные события происходят в среднем чаще, чем менее
вероятные. И если практика определенно указывает на то, что при
увеличении числа опытов частота события имеет тенденцию выравни­
ваться, приближаясь сквозь ряд случайных уклонений к некоторому
постоянному числу, естественно предположить, что это число и есть
вероятность события.
Проверить такое предположение мы, естественно, можем только
для таких событий, вероятности которых могут быть вычислены не­
посредственно, т. е. для событий, сводящихся к схеме случаев, так
как только для этих событий существует точный способ вычисления
математической вероятности. Многочисленные опыты, производившиеся
со времен врзникновения теория вероятностей, действительно под­
тверждают это предположение. Они показывают, что для события,
сводящегося к схеме случаев, частота события п ри1увеличение числа
опытов всегда приближается к его вероятности. Вполне естественно
допустить, что и для события, не сводящегося к схеме- случаев, тот
же закон остается в силе и что постоянное значение, к которому
при увеличении числа опытов приближается частота события, пред­
ставляет собой не что иное, как вероятность события. Тогда частоту
события при достаточно большом числе опытов можно принять за
приближенное значение вероятности. Так и поступают на практике,
определяя из опыта вероятности событий, не сводящихся к схеме
случаев.
Следует отметить, что характер приближения частоты к вероят­
ности при увеличении числа опытов несколько отличается от «стрем­
ления к пределу» в математическом смысле слова.
Когда в математике мы говорим, что переменная х„ с возраста­
нием п стремится к постоянному пределу а, то это означает, что
разность \ х п — о) становится меньше любого положительного числа е
для всех значений я , начиная с некоторого достаточно большого
числа.
Относительно частоты события и его вероятности такого кате­
горического утверждения сделать нельзя. Действительно, нет ничего
физически невозможного в том, что при большом числе опытов ча­
стота события будет значительно уклоняться от его вероятности;
но такое значительное уклонение является весьма маловероятным,
тем менее вероятным, чем большее число опытов произведено. Н а­
пример, при бросании монеты 10 раз физически возможно (хотя и
маловероятно), что все 10 раз появится герб, и частота появления
герба будет равна 1; при 1000 бросаниях такое событие все еще
остается физически возможным, но приобретает настолько малую ве­
роятность, что его смело можно считать практически неосуществи­
мым. Таким образом, при возрастании числа опытов частота прибли­
жается к вероятности, но не с полной достоверностью, а с большой
2.9|
ЧАСТОТА. ИЛИ
СТАТИСТИЧЕСКАЯ
ВЕРОЯТНОСТЬ, СОБЫТИЯ
31
вероятностью, которая при достаточно большом числе опытов может
рассматриваться как практическая достоверность.
В теории вероятностей чрезвычайно часто встречается такой ха­
рактер приближения одних величин к другим, и для его описания
введен специальный термин: «сходимость по вероятности».
Говорят, что величина Х п сходится по вероятности к вели­
чине а, если прр. сколь угодно малом е вероятность неравенства
\ Х п — а | < е с увеличением п неограниченно приближается к единице.
Применяя этот термин, можно сказать, что при увеличении числа
опытов частота события не «стремится» к вероятности события, а
«сходится к ней по вероятности».
Это свойство частоты и вероятности, изложенное здесь пока без
достаточных математических оснований, просто на основании прак­
тики и здравого смысла, составляет содержание т е * о р е м ы Б е р ­
н у л л и , которая будет доказана нами в дальнейшем (см. гл. 13).
Таким образом, вводя понятие частоты события и пользуясь
связью между частотой и вероятностью, мы получаем возможность
приписать определенные вероятности, заключенные между нулем и
единицей, не только событиям, которые сводятся к схеме случаев,
но и тем событиям, которые к этой схеме не сводятся; в последнем
случае вероятность события может быть приближенно определена
по частоте события при большом числе опытов.
В дальнейшем мы увидим, что для определения вероятности со­
бытия, не сводящегося к схеме случаев, далеко не всегда необхо­
димо непосредственно определять из опыта его частоту. Теория ве­
роятностей располагает многими способами, позволяющими опреде­
лять вероятности событий косвенно, через вероятности других собы­
тий, с ними связанных. В сущности, такие косвенные способы и со­
ставляют основное содержание теории вероятностей. Однако и при
таких косвенных методах исследования в конечном счете все же при­
ходится обращаться к экспериментальным данным. Надежность и
объективная ценность всех практических расчетов, выполненных
с применением аппарата теории вероятностей, определяется качеством
и количеством экспериментальных данных, на базе которых этот
расчет выполняется.
Кроме того, при практическом применении вероятностных ме­
тодов исследования всегда необходимо отдавать себе отчет в том,
действительно ли исследуемое случайное явление принадлежит к ка­
тегории массовых явлений, для которых, по крайней мере на неко­
тором участке времени, выполняется свойство устойчивости частот.
Только в этом случае имеет смысл говорить о вероятностях собы­
тий, имея в виду не математические фикции, а реальные характери­
стики случайных явлений.
Например, выражение «вероятность поражения самолета в воз­
душном бою для данных условий равна 0,7» имеет определенный
32
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
[гл. а
конкретный смысл, потому , что воздушные бои мыслятся как массо­
вые операции, которые будут неоднократно повторяться в приблизи­
тельно аналогичных условиях.
Напротив, выражение «вероятность того, что данная научная про­
блема решена правильно, равна 0,7» лишено конкретного смысла,
и было бы методологически неправильно оценивать правдоподобие
научных положений методами теории вероятностей.
2 .4 . С лучай ная в ел и ч и н а
Одним из важнейших основных понятий теории вероятностей
является понятие о случайной величине.
С л у ч а й н о й в е л и ч и н о й называется величина, которая в резуль­
тате опыта может принять то или иное значение, причем неизвестно
варанее, какое именно.
Примеры случайных величин:
1) число попаданий при трех выстрелах;
2) число вызовов, поступавших на телефонную станцию за сутки;
3) частота попадания при 10 выстрелах.
Во всех трех приведенных примерах случайные величины могут
принимать отдельные, изолированные значения, которые можно за*
ранее перечислить.
Так, в примере 1) эти значения:
0 , 1. 2 , 3;
в примере 2):
1, 2, 3. 4 ____ ;
в примере 3):
0 ; 0 . 1; 0 ,2 ; . . . ;
1.0 .
* Такие случайные величины, принимающие только отделенные друг
от друга значения, которые можно заранее перечислить, называются
п р е р ы в н ы м и или д и с к р е т н ы м и с л у ч а й н ы м и в е л и ч и н а м и .
Существуют случайные величины другого типа, например: 1) абсцисса точки попадания при выстреле;
2) ошибка взвешивания тела на аналитических весах;
3) скорость летательного аппарата в момент выхода на заданную
высоту;
4) вес наугад взятого зерна пшеницы.
'
Возможные значения таких случайных величин не отделены друг
от друга; они непрерывно заполняют некоторый промежуток, к о т о ­
рый иногда имеет резко выраженные границы, а чаще — границы
неопределенные, расплывчатые.
Такие случайные величины, возможные значения которых непре­
рывно заполняют некоторый промежуток, называются н е п р е р ы в н ы м и
случайными величинами.
М1
СЛУЧАЙНАЯ ВЕЛИЧИНА
33
Понятие случайной величины играет весьма важную роль в тео­
рии вероятностей. Если «классическая» теория вероятностей опери*
роваяа по преимуществу с событиями, то современная теория вероят­
ностей предпочитает, где только возможно, оперировать со случай­
ными величинами.
Приведем примеры типичных для теории вероятностей приемов
перехода от событий к случайным величинам.
Производится опыт, в результате которого может появиться или
не появиться некоторое событие А. Вместо события А можно рас­
смотреть случайную величину X , которая равна 1, если событие А
происходит, и равна 0, если событие А не происходит. Случайная
величина X , очевидно, является прерывной; ока имеет два возмож­
ных значения: 0 и I. Эта случайная величина называется х а р а к т е ­
ристической случайной величиной события А. На практике часто
вместо событий оказывается удобнее оперировать их характеристи­
ческими случайными величинами. Например, если производится ряд
опытов, в каждом из которых возможно появление события А, то общее
число появлений события равно сумме характеристических случайных
величин события А во всех опытах. При решении многих практиче­
ских задач пользование таким приемом оказывается очень удобным.
С другой стороны, очень часто для
вычисления вероятности события ока­
зывается удобно связать это событие
;С какой-то непрерывной случайной ве­
личиной (или системой непрерывных
величин).
Пусть, например, измеряются коор­
динаты какого-то объекта О для того,
црпгобы построить точку М, изобра­
жающую этот объект на панораме (раз- ,
вертке) местности. Нас интересует со­
бытие А, состоящее в том, что ошиб­
ка /? в положении точки М не превзой­
Рис. 2.4.1,
д ет заданного значения г 0 (рис. 2.4.1).
Обозначим X , У случайные ошибки
а измерении координат объекта. Очевидно, событие А равносильно
.попаданию случайной точки М с координатами X , У в пределы круга
радиуса г 0 с центром в точке О. Другими словами, для выполнения собы­
тия А случайные величины X и У должны удовлетворять неравенству
ЛГ24 - К 2 <
го.
(2.4.1)
Вероятность события А есть не что иное, как вероятность выпол­
нения неравенства (2.4.1). Эта вероятность может быть определена,
если известны свойства случайных величин X , V.
2 Теория вероятностей
34
ОСНОВНЫЕ
ПОНЯТИЯ ТЕО РИ И
ВЕРОЯТНОСТЕЙ
[ГЛ. 2
Такая органическая связь между событиями и случайными вели*
чинами весьма характерна для современной теории вероятностей,
которая, где только возможно, переходит от «схемы событий»
к «схеме случайных, величин». Последняя схема сравнительно с пер­
вой представляет собой гораздо более гибкий и универсальный аппа­
рат для решения задач, относящихся к случайным явлениям.
2 .5 . Практически невозм ож ны е и практически достоверны е
собы тия. Принцип практической уверенности
0 п° 2.2 мы познакомились с понятиями невозможного и досто­
верного события. Вероятность невозможного события, равная нулю,
и вероятность достоверного события, равная единице, занимают край­
ние положения на шкале вероятностей.
>л (/Н а практике часто приходится иметь дело не с невозможными и
достоверными событиями, а с так называемыми «практически невоз­
можными» и «практически достоверными» событиями.
Практически невозможным событием называется событие,
вероятность которого не в точности равна нулю, но весьма близка
к нулю. I
Рассмотрим, например, следующий опыт: 32 буквы разрезной
азбуки смешаны между собой; вынимается одна карточка, изображен­
ная на ней б у ква, записывается, после чего вынутая карточка воз­
вращается обратно, и карточки перемешиваются. Такой опыт произ­
водится 25 раз. Рассмотрим событие А. заключающееся в том, что
после 25 выниманий мы запишем первую строку «Евгения Онегина»:
«Мой дядя самых честных правил».
Такое событие не является логически невозможным; можно поХно ввиду того что
считать его вероятность, которая равна
вероятность события А ничтожно мала, можно считать его практи­
чески невозможным.
' г!
Практически достоверным событием называется событие, йй1роятность которого не в точности равна единице, но весьма близИЬ
к единице.
зи
Если какое-либо событие А в данном опыте практически невой*можно, то противоположное ему событие А, состоящее в »невыпол­
нении события А, будет практически достоверным. Таким образоШ.
с точки зрения теории вероятностей все равно, о каких событиях
говорить: о практически невозможных или о практически достовер­
ных, так как они всегда сопутствуют друг другу.
Практически невозможные и практически достоверные события
играют большую роль в теории вероятностей; на них основывайся
все практическое применение этой науки ./-
*8.8]
ПРАКТИЧЕСКИ НЕВОЗМОЖНЫЕ И ДОСТОВЕРНЫЕ СОБЫТИЯ
35
В самом деле, .если нам известно, что вероятность события в дан­
ном опыте равна 0,3, это еще не дает нам возможности предсказать
езультат опыта. Н о если вероятность события в данном опыте нитожно мала или, наоборот, весьма близка к единице, это дает нам
возможность предсказать результат опыта; в первом случае мы не
будем ожидать появления события А; во втором случае будем Ожи­
дать его с достаточным о с н о в а н и е м .^ ^ " ^ ^ таком предсказании мы
руководствуемся так называемом [прггАципом п р а к т и ч е с к о й у в е ­
р е н н о с т и , который можно сформулировать следующим образом.
Е с л и в е р о я т н о с т ь н е к о т о р о г о с о б ы т и я А в д а н н о м опыте Е
еесъма м а л а , то м о ж н о быть п р а к т и ч е с к и у в е р е н н ы м в т о м ,
ч то п р и о д н о к р а т н о м в ы п о л н е н и и оп ыт а Е событие А не
п р о и з о й д е т .|
Иными словами, если вероятность события А в данном опыте
Ьесьма мала, то, приступая к выполнению опыта, можно организовать
свое поведение так, как будто это событие вообще невозможно,
т. е. не рассчитывая совсем на его появление.
В повседневной жизни мы непрерывно бессознательно пользуемся
йрииципом практической уверенности. Например, выезжая в путеше­
ствие по железной дороге, мы все свое поведение организуем, не
считаясь с возможностью железнодорожной катастрофы, хотя неко­
торая, весьма малая, вероятность такого события все же имеется.
Принцип практической уверенности не может быть доказан мате­
матическими средствами; он подтверждается всем практическим опы­
том человечества.
. .
Вопрос о том, насколько мала должна быть вероятность события,
' чтобы его можно было считать практически невозможным, выходит
_8£ рамки математической теории и в каждом отдельном случае ре­
шается из практических соображений в соответствии с той важностью,
ЖЬторую имеет для нас желаемый результат опыта.
. .и Например, если вероятность отказа взрывателя при выстреле
равна 0 ,0 1 , мы еще можем помириться с этим и считать отказ взрыадтеля практически невозможным событием. Напротив, если вероятд о сть отказа парашюта при прыжке также равна 0 ,0 1 , мы, очевидно,
не можем считать этот отказ практически невозможным событием и
.Должны добиваться большей надежности работы парашюта.
>Г( Одной из важнейших задач теории вероятностей является выявле) эдре практически невозможных (или практически достоверных) собы$дой, дающих возможность предсказывать результат опыта, и выявле: т условий, при которых те или иные события становятся практи­
чески невозможными (достоверными). Существует ряд теорем теории
лв|роятностей — так называемых предельных теорем, в которых уста­
навливается
существование
событий,
становящихся практически
' , невозможными (достоверными) при увеличении числа опытов или
при увеличении числа случайных величин, участвующих в задаче.
Е
2*
36
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
[ГЛ. 3
Примером такой предельной теоремы является уже сформулированная
выше теорема Бернулли (простейшая форма закона больших чисел).
Согласно теореме Бернулли при большом числе опытов событие,
заключающееся в том, что разность между частотой события и его
вероятностью сколь угодно мала, становится практически достоверным.
Наряду с практически невозможными (достоверными) событиями,
которые позволяют с уверенностью предсказывать исход опыта, не­
смотря на наличие случайности, в теории вероятностей большую роль
играют особого типа случайные величины, которые, хотя и являются
случайными, но имеют такие незначительные колебания, что практи­
чески могут рассматриваться как не случайные. Примером такой
«почти не случайной» величины может служить частота события при
большом числе опытов. Эта величина, хотя и является случайной, но
при большом числе опытов практически может колебаться только
в очень узких пределах вблизи вероятности события.
Такие «почти не случайные» величины дают возможность пред­
сказывать численный результат опыта, несмотря на наличие в нем
элементов случайности, оперируя с этим результатом столь же уве­
ренно, как мы оперируем с данными, которые доставляются обыч­
ными методами точных наук.
ГЛАВА 3
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
3.1. Назначение основных теорем. Сумма и произведение
событий
;
В предыдущей главе мы познакомились со способами непосред­
ственного определения вероятностей, а именно: с классической фор­
мулой для вероятности события, сводящегося к схеме случаев, и со
способом приближенного определения вероятности по частоте для
события, которое к схеме случаев не сводится. Однако не эти непосредственные способы являются основными в теории вероятностей
их применение не всегда удобно и не всегда возможно. Даже когда
событие сводится к схеме случаев, зачастую эта схема бывает
«лишком сложна, и непосредственный подсчет вероятности по фор­
муле (2.2.1) становится чрезмерно громоздким. Что касается событий,
не сводящихся к схеме случаев, то и их вероятности лишь в ред­
ких случаях определяются непосредственно по частотам. На практике
обычно требуется определять вероятности событий, непосредствен­
ное экспериментальное воспроизведение которых затруднено. Напри­
мер, если требуется определить вероятность поражения самолета
а воздушном бою, ясно, что определение этой вероятности по ча­
стоте практически невозможно. И не только потому, что такие
опыты оказались бы непомерно сложными и дорогостоящими, а еще
и потому, что часто нам требуется оценить вероятность того или
иного исхода боя не для существующих образцов техники, а для
перспективных, проектируемых. Обычно такая оценка и произво­
дится для того, чтобы выявить наиболее рациональные конструктив­
ные параметры элементов перспективной техники.
Поэтому, как правило, для определения вероятностей событий
применяются не непосредственные прямые методы, а косвенные, поз­
воляющие по известным вероятностям одних событий определять
вероятности других событий, с ними связанных. Вся теория вероят­
ностей, в основном, и представляет собой систему таких косвенных
методов, пользование которыми позволяет свести необходимый экспе­
римент к минимуму.
38
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
[ГЛ. 3
Применяя эти косвенные методы, мы всегда в той или иной
форме пользуемся о с н о в н ы м и т е о р е м а м и теории вероятностей.
Этих теорем две: теорема сложения вероятностей и теорема умно­
жения вероятностей. Строго говоря, оба эти положения являются
теоремами и могут быть доказаны только для событий, сводящихся
к схеме случаев. Для событий, не сводящихся к схеме случаев, они
принимаются аксиоматически, как принципы или постулаты.
П еред тем как формулировать и доказывать основные теоремы,
введем некоторые вспомогательные понятия, а именно понятия
о с у м м е с о бы т ий и п р о и з в е д е н и и событий.
Во многих областях точных наук применяются символические
операции над различными объектами, которые получают срои назва­
ния по аналогии с арифметическими действиями, рядом свойств кото­
рых они обладают. Таковы, например, операции сложения и умно­
жения векторов в механике, операции сложения и умножения матриц
в алгебре и т. д. Эти операции, подчиненные известным правилам,
позволяют не только упростить форму записей, но в ряде случаев
существенно облегчают логическое построение научных выводов.
Введение таких символических операций над событиями оказывается
плодотворным и в теории вероятностей.
•
С у м м о й д в у х с о бы ти й А и В называется событие С, состоя­
щее в выполнении события А или события В , или обоих вместе.
Например, если событие А — попадание в цель при первом вы­
стреле, событие В — попадание в цель при втором выстреле, то
событие С = А - \ - В есть попадание в цель вообще, безразлично при
каком выстреле — при первом, при втором или при обоих вместе,
Если события А и В несовместны, то естественно, что появление
обоих этих событий вместе отпадает, и сумма событий А и В сво­
дится к появлению или события А , или события В . Например, если
событие А — появление карты червонной масти при вынимании карты
из колоды, событие В — появление карты бубновой масти, то
С = А - \ - В есть появление карты красной масти, безразлично — чер­
вонной или бубновой.
Короче, с у м м о й д в у х с о бы т ий А к. В называется событие С,
состоящее в появлении хотя бы одного из событий А л В.
С у м м о й н е с к о л ь к и х с об ыт ий называется событие, состоящее
в появлении хотя бы одного из этих событий.
!
Например, если опыт состоит в пяти выстрелах по мишени %
даны события:
и
А 0 — ни одного попадания,
л
А 1 — ровно одно попадание,
А 2 — ровно два попадания,
Л 3 — ровно три попадания,
А 4 — ровно четыре попадания,
А 5 — ровно пять попаданий,
СУММА И ПРОИЗВЕДЕНИЕ СОБЫТИЯ
Л = Ад
39
/*1 -+» Л2
есть событие «не более двух попаданий», а
В = А $ - \ - А±-\- А$
есть событие «не мёнее трех попаданий».
П р о и з в е д е н и е м д в у х с обыти й А и В называется событие С,
состоящее в совместном выполнении события А и события В.
Например, если событие А — появление туза при вынимании карты
из колоды, событие В — появление карты бубновой масТл, то собы­
тие С — А В есть появление бубнового туза. Если производится два
выстрела по мишени и событие А — попадание при первом выстреле,
событие В — попадание при втором выстреле, то С = А В есть
попадание при обоих выстрелах.
П р о и з в е д е н и е м н е с к о л ь к и х с об ыт ий называется событие, состоя­
щее в совместном появлении всех этих событий.
Например, если по мишени производится три выстрела и рассма*
триваются события
. В ! — промах при первом выстреле,
В 2 — промах при втором выстреле,
В 3 — промах при третьем выстреле,
то событие
В — В^В2ВЪ
Достоит в том, что в мишень не будет ни одного попадания.
'
При определения вероятностей часто приходится представлять
Сложные события в виде комбинаций болге простых событий, при*
Меняя и операцию сложения, и операцию умножения событий.
0
Например, пусть по мишени производится три выстрела и рас­
сматриваю тся следующие элементарные события;
А^ — попадание при первом выстреле,
А х—>промах при первом выстреле,
А 2— попадание при втором выстреле.
А 2 — промах при втором выстреле,
А г — попадание при третьем выстреле,
А 3 — промах при третьем выстреле.
Рассмотрим более сложное событие В , состоящее в том, что
£ результате данных трех выстрелов будет р о в н о о д н о попада­
ние в мишень. Событие В можно представить в виде следующей
комбинации элементарных событий:
В — А 1А2А3
А 1 А 2 А -3 *4* А 1 А 2А у
;
Событие С, состоящее в том, что в мишень будет не менее двух
■попаданий, может быть представлено в виде:
С = А^А^А^ -)-* А-^А^А}
^ ^ 2^ 3.
40
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
[ГЛ. 3
Такие приемы представления сложных событий часто применяются
в теории вероятностей.
Непосредственно из определения суммы и произведения событий
следует, что
Л + А = А,
АА=А.
Если
событие
В
есть
частный
случай
события
А,
то
А - \ - В = А;
,А+В
А В = В.
А+В+С
На рис.
событий.
При пользовании понятиями
суммы и произведения событий
часто оказывается полезной на­
глядная геометрическая интер­
р ис. 3.1.1.
претация этих понятий.
Н а рис. 3.1.1
наглядно
иллюстрированы понятия суммы
и произведения двух событий.
Если событие А есть попада­
ние точки в область А, соот­
ветственно событие В — по­
падание в область В,
то
событие А - \ - В есть попада­
ние в область, заш трихован­
ную на рис. 3.1.1, а), а собыРис. 3.1.2.
тие А В — в область, заш три­
хованную на рис. 3 .1 .1 , б').
3.1.2 аналогично показаны сумма и произведение трех
3 .2 . Теорема сложения вероятностей
Теорема сложения вероятностей формулируется следующим образом.
В е р о я т н о с т ь с у м м ы д в у х н е с о в м е с т н ы х с обытий р а в н а
с у м м е в е р о я т н о с т е й э т и х с о бы т и й :
Р ( Л + 5 ) = Р ( Л ) + Р (В ).
(3.2.1)
Докажем теорему сложения вероятностей для схемы случаев.
Пусть возможные исходы опыта сводятся к совокупности случаев,
которые мы для наглядности изобразим в виде п точек:
т-
А
к —В
п
8.21
41
ТЕОРЕМА СЛОЖ ЕНИ Я ВЕРОЯТНОСТЕЙ
Предположим, что из этих случаев /и благоприятны событию
а А — событию В. Тогда
Р(А) = ^ ;
А,
Рф) = ±.
Так как события А и В несовместны, то нет таких случаев,
которые благоприятны и А, и В вместе. Следовательно, событию
А - ^ В благоприятны т - { - к случаев и
Р (Л + Б ) =
^ ± ^ -.
Подставляя полученные выражения в формулу (3.2.1), получим
тождество. Теорема доказана.
Обобщим теорему сложения на случай трех событий. Обозначая
событие А - \ - В буквой й и присоединяя к сумме еще одно собы­
тие С, легко доказать, что
Р ( А + В + С) = Р ( 0 + С) = Р ( 0 ) + Р ( С ) =
= Р (А - 1 г В ) - \ - Р ( С ) = Р ( А ) + Р ( В ) + Р( С) .
Очевидно, методом полной индукции м ож но обобщить теорему
сложения на произвольное число несовместных событий. Действи­
тельно, предположим, что она справедлива для п событий:
Л ;. А 2........... А 1г,
И докажем, что она будет справедлива для п
,
Обозначим:
т
+
А- А ....... А ’ А+1'
А+ А+
Имеем:
А +
1 событий:
• • • Ч - А Н - А + 1) —
+
Ац-С-
( С + А . +1) = Р ( С ) - Ь Р ( Л Я+,).
так как для п событий мы считаем теорему уже доказанной, то
м
Р (С) = Р (Л ,) + Р (Л 2) +
...
+
Р (/»я).
•откуда
(.!Р(А + А + ••• + А -Ь А+1)=*
:«!>■
= Р ( А 1) + Р ( а 2) +
... + Р (л „ ) +
Р ( Л л+1),
/а» .
что и требовалось доказать.
Таким образом, теорема сложения вероятностей применима к лю­
бому Числу несовместных событий. Ее удобно записать в виде:
р
( £ а ^ = £ р (А)\ / =1 /
ы1
(3-2.2)
42
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
1ГЛ. 3
ОтМётИМ следствия, вытекающие из теоремы сложения вероят­
ностей.
С л е д с т в и е 1. Е с л и с о б ы т и я А 1г А 2, . . . . А я о б р а з у ю т п о л ­
н у ю г р у п п у н е с о в м е с т н ы х с обы ти й, т о с у м м а и х в ероятностей,
р а в н а единице:
'
" Р ( А г) = 1.
Д о к а з а т е л ь с т в о . Так как события А г, А г.......... А„ образуют
полную группу, то появление хотя бы одного из них — достоверное
событие:
Р С^.1 +
+ ...
А„) = 1.
Так как А 1, А 2 .......... А п
несовместные события, то к ним приме­
нима теорема сложения вероятностей
Л
Р(А,
Л2Н - . . .
А„) = Р (А ,) + Р (А2)
откуда
2
1
Р (А Д) = У Р (А,),
(=■1
р ( л , ) = 1.
ч то ,и требовалось доказать.
Перед тем как вывести второе следствие теоремы сложения,
определим понятие о «противоположных событиях».
П р о т и в о п о л о ж н ы м и с о б ы т и я м и называются два несовместных
события, образующих полную группу.
, Событие, противоположное событию А , принято обозначать А.
Примеры противоположных событий.
1) 4 — попадание при выстреле,
Л -~ п р р м а х при выстреле;
2 ) В — выпадение герба при бросании монеты,
В — выпадение цифры при бросании монеты;
3) С — безотказная работа всех элементов .технической системы,
С — отказ хотя бы одного элемента;
4) £> — обнаружение не менее двух, бракованных изделий в конт-‘
рольной партии,
*
О
— обнаружение не более одного бракованного изделия.
С л е д с т в и е 2. С у м м а в е р о я т н о с т е й п р о т и в о п о л о ж н ы х г
с обыти й р а в н а е д и н и ц е :
Р (А )-\-Р (А )**1.
VI
Это следствие есть частный случай следствия 1. Оно выделено
особо ввиду его большой важности в практическом применении теории
вероятностей. Н а практике весьма часто Оказывается легче вычислить
43
ТЕОРЕМА СЛОЖ ЕНИ Я ВЕРОЯТНОСТЕЙ
Вероятность противоположного события А , чем вероятность прямого
события А. В этих случаях вычисляют Р (А) и находят Я (Л) = 1—Р ( А ) .
Рассмотрим несколько примеров на применение теоремы сложения
в ее следствий.
П р и м е р 1. В лотерее 1000 билетов; из них на один билет падает
выигрыш 500 руб., на 10 билетов — выигрыши по 100 руб., на 50 бцлетов —
выигрыши по 20 руб., на 100 билетов — выигрыши по 5 руб., остальные
билеты невыигрышные. Некто покупает один билет. Найти вероятность
Выиграть не мекее 20 руб.
Р е ш е н и е . Рассмотрим события:
А — выиграть не менее 20 руб.,
А 1 — выиграть 20 руб.,
А г — выиграть 100 руб.,
А 3 — выиграть 500 руб.
Очевидно,
А = А\ -}- А 2 “I- А$.
По теореме сложения вероятностей
Р ( А ) = Р ( А 1) + Р ( А2) + Р (Л3) = 0,050 + 0,010 + 0,001 == 0,061.
П р и м е р 2. Производится бомбометание по трем складам боеприпасов,
причем сбрасывается одна бомба. Вероятность попадания в первый склад 0,01;
во второй 0,008; в третий 0,025. При попадании в один из складов взры­
ваются все три. Найти вероятность того, что склады будут взорваны,
р е ш е н и е . Рассмотрим события:
А — взрыв складов,
А, — попадание в первый склад,
А%— попадание во второй склад,
А 3 — попадание в третий склад.
Очевидно,
А = А, -}- А%-}- Аз.
Так как при сбрасывании одной бомбы события А 1 »
Ар А> несовместны, то
Я (^ ) = Р (Л 1) + Я М а) + / >( Л ) =
р ис 321
=. 0,01 + 0,008 + 0,025 = 0,04а
П р и м е р 3. Круговая мишень (рис. 3.2.1) состоит из трех зон: /, / /
I!> ///. Вероятность попадания в первую зону при одном выстреле 0,15, во
вторую 0,23, в третью 0,17. Найти вероятность промаха.
Р е ш е н и е . Обозначим А — промах,
А — попадание.
Тогда
_
А=
_
_
-(- Ла -{- Аз,
где Ли Да, А) — попадание соответственно в первую, вторую и третью, зоны
<,
Р ( А ) = Р (Х у) + Р (Л,) + Р (Л3) = 0,15 + 0,23 + 0,17 = 0,55,
откуда
Р(Л) = 1— Р(Д)=0,45.
44
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
ГГЛ. )
Как уже указывалось, теорейа сложения вероятностей (3.2.1)
справедлива только для несовместных событий. В случае, когда со­
бытия А и В совместны, вероятность суммы этих событий выражается
формулой
Р ( А + В) = Р ( А ) + Р( ВУ— Р ( А В ) .
(3.2.3)
В справедливости формулы (3 .2 .3 ) можно наглядно убедиться, рас­
сматривая рис. 3.2 .2 .
Рис. 3.2.2.
Аналогично вероятность
числяется по формуле
Р(А + В + С ) =
Рис. 3.2.3.
суммы трех совместных событий вы­
■
= Р ( А ) - \ - Р ( В ) + Р ( С) — Р ( А В ) — Р ( А С ) — Р ( В С ) + Р (А В С ) .
Справедливость этой формулы также наглядно следует из геометри­
ческой интерпретации (рис. 3.2.3).
Методом полной индукции можно доказать общую формулу для
вероятности суммы любого числа совместных событий:
я ( 2 л ) = 2 т ) - 2 я м и у ) + 2 Р ( А 1А]А к) — . . .
\/=1
/
<
ЛУ
I. л *
. . . + ( _ ! ) - ’ р ( л И г . . . Ла),
(3.2.4)
где суммы распространяются на различные значения индексов /; /, У;
I, у, А, и т. д.
Формула (3.2.4) выражает вероятность суммы любого числа собы­
тий через вероятности произведений этих событий, взятых по одному,
по два, по три и т. д.
Аналогичную формулу можно написать для произведения собы­
тий Действительно, из рис. 3 .2 .2 непосредственно ясно, что
Р ( А В ) = Р { А ) + Р ( В ) — Я (Л + 5 ) .
Из рис. 3.2 .3 видно, что
(3.2.5)
1
Р(АВС) = Р(А) + Р ( В ) + Р ( С ) — Р ( А - } - В ) —
- Р ( А + С ) — Р { В + С) + Р { А - \ - В - \ - С ) .
(3.2.6)
3.3]
ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ
45
Общая формула, выражающая вероятность произведения произ­
вольного числа событий через вероятности сумм этих событий, взя­
тых по одному, по два, по три и т. д ., имеет вид:
Р ( а 1 а 2 . . . л „) = 2
‘
+
р (А) — 2
]
р {А 1 -\- А ])-\-
2 т . + л у + л А) + . . . + ( - 1) " - 1 т + . . . + А
*» Jl Л
1). (3.2.7)
Формулы типа (-3.2.4) и (3.2.7) находят практическое применение
при преобразовании различных выражений, содержащих вероятности
сумм и произведений событий. В зависимости от специфики задачи
в некоторых случаях удобнее бывает пользоваться только суммами,
а в других только произведениями событий: для преобразования
одних в другие и служат подобные формулы.
П р и м е р . Техническое устройство состоит из трех агрегатов: двух
агрегатов первого типа — А, и Л2— и одного агрегата второго типа — В.
Агрегаты Л| и Л 2 дублируют друг друга: при отказе одного из них про­
исходит автоматическое переключение на втшюй. Агрегат В не дублирован.
Для того чтобы устройство прекратило работу (отказало), нужно, чтобы
одновременно отказали оба агрегата А х и Ла или же агрегат В. Таким обра*
зом, отказ устройства — событие С — представляется в виде:
О — Л | Л2
уде Л , — отказ агрегата Л|, Ла — отказ агрегата Л2, В — отказ агрегата В.
Требуется выразить вероятность события С через вероятности событий,
содержащих только суммы, а не произведения влементарных событий А и
Аг и В.
Р е ш е н и е . По формуле (3.2.3) имеем:
Р( С) — Р (Л, Л,) + Р (В) - Р (Л, Ла£>);
(3.2.8)
по формуле (3.2.5)
Р (А, А,) = Р ( А ,) + Р (Л2) - Р ( А, + А^;
по формуле (3.2.6)
{А, АгВ) - Р (Л,) + Р (Л2) + Р {В) - Р (Л , + Аг) —
- Р ( А 1 + В ) - Р ( А %+ В) + Р ( А 1 + А г + В).
Подставляя эти выражения в (3.2.8) и производя сокращения, получим;
Р ( С ) = Р ( Л 1+ В ) + Р ( Л , + В ) - Р ( Л 14 - Л , + В ) .
3 .3 . Теорема умнож ения вероятностей
Перед тем как излагать теорему умножения вероятностей, введем
*ёще одно важное понятие: понятие о независимых и зависимых со­
бытиях.
Событие А называется независимым от события В , если ве­
роятность события А не зависит от того, произошло событие В
(или нет.
46
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
1ГЛ. 8
Событие А называется зав исимым от события В, если вероят­
ность события А меняется в зависимости от того, произошло собы­
тие В или нет.
Рассмотрим примеры.
1) Опыт состоит в бросании двух монет; рассматриваются события:
А — появление герба на первой монете,
( В — появление герба на второй монете.
В данном случае вероятность события А не зависит от того,
произош ло событие В или нет; событие А н е з а в и с и м о от со­
бытия В.
2) В урне два белых ш ара и один черный; два лица вынимают
из урны по одному шару; рассматриваются события:
А — появление белого ш ара у 1-го лица,
В — появление белого шара у 2-го лица.
Вероятность события А до того, как известно что-либо о собы2
тии В, равна -у . Если стало известно, что событие В произошло, то
вероятность события А становится равной
, из чего заключаем, что
событие А з а в и с и т от события В .
\
■
Вероятность события А, вычисленная при условии, что имело место
другое событие В, называется у с ло вно й вероятностью события А
и обозначается
Р(А\В).
Для условий последнего примера
Я (4 ) =
Р ( 4 |5 ) = | . 1
Условие независимости события А от события В
в виде:
можно записать
ч
Р ( А \ В ) = Р(А).
а условие зависимости — в виде:
Р{А\В)Ф Р(А).
Перейдем к формулировке и доказательству теоремы умножения
вероятностей.
Теорема умножения вероятностей формулируется следующим
образом.
В еро ятно сть п роизведения д в у х событий р а в н а произведем
нию в е ро ятн ости одного из н и х на у с ло вну ю вероятность
др уг ого , вычисленцую п р и условии, что первое имело место :
Р (АВ) = Р ( А ) Р ( В \ А ) .
(3.3.1)
ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ
47
Докажем теорему умножения для схемы Случаев. Пусть возможные
исходы опыта сводятся к п случаям, которые мы снова для нагляд­
ности изобразим в виде п точек:
к
В
т —>А . ' "■ —---------- ,
1 ~ АВ
п
Предположим, что событию А благоприятны т случаев, а
.тию В благоприятны А случаев. Так как мы не предполагали
тия А и В несовместными, то вообще существуют случаи,
приятные н событию А, и событию В одновременно. Пусть
таких случаев I. Тогда
Р (Л Я ) = 1 ;
собысобы­
благо­
число
Р (Л ) = - £ .
Вычислим Р ( В | Л), т. е. условную вероятность события В в предпо­
ложении, что А имело место. Если известно, что событие А про­
изошло, то из ранее возможных п случаев остаются возможными
только те т, которые благоприятствовали событию А . И з них I
случаев благоприятны событию В . Следовательно,
Р (Я | Л )» -^ -.
Подставляя выражения Р (Л В ), Р ( А ) и Р ( В \ А) в формулу (3.3.1),
получим тождество. Теорема доказана.
Очевидно, при применении теоремы умножения вполне безраз­
лично. какое из событий А п В считать первым, а какое вторым,
И теорему умножения можно записать и в таком виде;
Р(АВ) = Р (В )Р (А \В ).
Отметим следствия, вытекающие из теоремы умножения,
С л е д с т в и е 1. Е с л и событие А не з а в и с и т от с о б ы т и я В,
део и событие В не з а в ис и т о т с о б ы т и я Л.
Д о к а з а т е л ь с т в о . Дано, что событие Л не зависит от В, т. е.
и
Р ( Л ) = Р ( Л |В ) .
Требуется доказать, что и событие В не зависит от Л, т. е.
*"
Р(,В) — Р ( В \ Л).
доказательстве будем предполагать, что Р (Л ) ф 0.
(3.3.2)
48
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
(ГЛ. в
Напишем теорему умножения вероятностей в двух формах;
Р ( А В ) = Р (/4) Р ( В | А),
Р ( А В ) = Р ( В ) Р ( А \ В),
откуда
Р ( А ) Р ( В | А) = Р ( В ) Р ( А \ В )
или, согласно условию (3.3.2),
Р (А )Р (В \А ) = Р(В)Р(А).
.
(3.3.3)
Разделим обе части равенства (3.3.3) на Р ( А ) . Получим:
Р ( В \ А ) — Р(В), .
что и требовалось доказать,
И з следствия 1 вытекает, что зависимость или независимость
событий всегда в з а и м н ы . В связи с этим можно дать следующее
новое определение независимых событий.
Д в а с о б ы т и я н а з ы в а ю т с я н е з а в и с и м ы м и , е сл и п о я в л е н и е о д­
н ог о из н и х не и з м е н я е т в е р о я т н о с т и п о я в л е н и я д р у г о г о .
Понятие независимости событий может быть распространено на
случай произвольного числа событий. Н есколько событий называются
независимыми, если любое из них не зависит от любой совокупности
^ остальных.
С л е д с т в и е 2. В е р о я т н о с т ь п р о и з в е д е н и я д в у х н е з а в и с и м ы х
с обыти й р а в н а п р о и з в е д е н и ю в е р о я т н о с т е й э т и х событий.
Следствие непосредственно вытекает из определения независимых
событий.
Теорема умножения вероятностей может быть обобщена на слу­
чай произвольного числа событий. В общем виде она формули­
руется так.
Вероятность произведения нескольких событий равна произведе­
нию вероятностей этих событий, причем вероятность каждого сле­
дующего по порядку события вычисляется при условии, что все
предыдущие имели место:
Р ( А 1 А 3 . . . А п) — Р (Л ^ Р (Л 2 1А{) Р (Л31 Л 1Л2) . . .
. . . Р ( А п \ Л ,Л 2 . . . Ля_,).
(3.3.4)
Д оказательство может быть дано тем же методом полной индукции.
В случае независимых событий теорема упрощается и принимает вид:
Р (АлА 2 . . . А „) = Р (А,) Р (Л 2) . . . Р (Л я),
(3.3.5)
т. е. в е р о я т н о с т ь п р о и з в е д е н и я н е з а в и с и м ы х с обыти й р а в н а
п р о и з в е д е н и ю в е р о я т н о с т е й э т и х событий.
Применяя знак произведения, теорему можно записать в виде:
(3.3.6)
1Л)
ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ
Рассмотрим примеры на применение
ностей.
49
теоремы умножения вероят­
П р и м е р 1. В урне 2 белых и 3 черных шара. Из урны вынимают
подряд два шара. Найти вероятность того, что оба шара белые.
Р е ш е н и е . Обозначим:
А — появление двух белых шаров.
Событие А представляет собой произведение двух событий:
А = А 1А 2 ,
где А 1 — появление белого шара при первом вынимании,
А 3— появление белого шара при втором вынимании.
По теореме умножения вероятностей
Р (А) = Р (А ) Р (Л2|Л,) = \
\ = 0,1-
П р и м е р 2. Те же условия, но после первого вынимания шар возвра­
щается в урну, и шары в урне перемешиваются.
Р е ш е н и е . В данном случае события А х и А 2 независимы и
,
Р (А) = Р (А ) Р (Л2) = |
| = 0,16.
П р и м е р 3. Прибор, работающий в течение времени I, состоит из трех
узлов, каждый из которых* независимо от других, может в течение времени I
. отказать (выйти из строя). Отказ хотя бы одного узла приводит^ к отказу
прибора в целом. За время ^ надежность (вероятность безотказной работы)
первого узла равна р х = 0,8; второго р г = 0,9; третьего />3 = 0,7. Найти на­
дежность прибора в целом.
Р е ш е н и е . Обозначая:
А — безотказная
Д — безотказная
А2 — безотказная
А 3 — безотказная
'
работа
работа
работа
работа
прибора,
первого узла,
второго узла,
третьего узла,
имеем:
А = А 1А%А$,
.
•откуда по теореме, умножения для независимых событий
Р{ А) — Р (А,) Р (А?) Р (А3) = р хр грг = 0,504.
Н а практике сравнительно редко встречаются задачи, в которых
1 Нужно применять только теорему сложения или только теорему
умножения вероятностей. Обычно обе теоремы приходится применять
совместно. При этом, как правило, событие, вероятность которого
требуется определить, представляется в виде суммы нескольких не1 совместных событий (вариантов данного события), каждое из кото­
рых в свою очередь является произведением событий.
50
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
[ГЛ. Э
П р и м е р 4. Производится три выстрела по одной и той же мишени.
Вероятности попадания при первом, втором и третьем выстрелах равны
соответственно
Р\ = 0,4;
рг в 0,5;
р$ = 0,7.
Найти вероятность того, что в результате .этих трех выстрелов в. мишени
будет ровно одна пробоина.
Р е ш е н и е . Рассмотрим событие А — ровно одно попадание в мишень.
Это событие может осуществиться несколькими способами, т. е. распадается
на несколько несовместных вариантов: может быть попадание при первом
выстреле, промахи при втором и третьем; или же попадание при втором
выстреле, промахи при первом и третьем; или, наконец, промахи при первом
и втором выстрелах и попадание при третьем- Следовательно,
А
=
А 1Л 2А 3
А хА д А з
где А,, А/, А 3 — попадание при первом, втором, третьем выстрелах,
А\, А г, А 3 — промах при первом, втором, третьем выстрелах.
Применяя теоремы сложения и умножения вероятностей и пользуясь
свойством противоположных событий, находим:
Р (Л) = Р (Л|
4* Р (А А А ) -|- Р (Л |Л аЛз) =
= 0,4 • 0,5 • 0,3 + 0,6 • 0,5 • 0,3 + 0,6 • 0,5.0,7 = 0,36.
П р и м е р 5. В условиях предыдущего примера найти вероятность того,
что в мишени будет хотя бы одна пробоина.
Р е ш е н и е . Рассмотрим событие В — хотя бы одно попадание в мишень.
Пользуясь тем же приемом, который был применен в предыдущем примере,
и теми же обозначениями, можно представить событие В в виде суммы не*
совместных вариантов:
В => А ХА 2 А$
А 1А 2 А 3
А\ А%А$ 4"
4 “ А ХЛ2 Л3 ^
3 -|~ Ж^А^Аз,
найти вероятность каждого варианта по теореме умножения и все эти ве­
роятности сложить. Однако такой путь решения задачи слишком сложен;
здесь целесообразно от прямого события В перейти к противоположному:
Б — ни одного попадания в мишень.
Очевидно,
По теореме умножения
Р (В) = Р ( Л ,1 Д 3) = 0,6 • 0,5 ■03 = 0,09,
откуда
Р (В ) = 1 — Р ( В ) = 1 — 0,09 = 0,91.
.
На последнем примере проиллюстрирован принцип целесообраз­
ности применения противоположных событий в теории вероятностей.
Его можно сформулировать следующим образом.
Е с л и п р о т и в о п о л о ж н о е событие р а с п а д а е т с я н а меньшее
чи сло в а р и а н т о в , чем п р я м о е событие, то и ме ет с м ы с л При
вы ч ис ле ни и в е р о я т н о с т е й п е р е х о д и т ь к п р о т и в о п о л о ж н о м у
с обытию.
8.3]
ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ
61
П р и м е р 6. Происходит бой («дуэль») между двумя участниками (ле­
тательными аппаратами, танками, кораблями) А и В. У стороны А в запасе
два выстрела, у стороны В — один. Начинает стрельбу А: он делает по В
одни выстрел и поражает его с вероятностью 0,2. Если В не поражен, он
отвечает противнику выстрелом и поражает его с вероятностью 0,3. Если А
втим выстрелом но поражен, то он делает по В свой последний выстрел,
которым поражает его с вероятностью 0,4. Найти вероятность того, что
в бою будет поражен: а) участник А, б) участник В.
Р е ш е н и е . Рассмотрим события:
А — поражение участника А,
В — поражение участника В.
Для выполнения события А необходимо совмещение (произведение) двух
событий: 1) А не поразил В первым выстрелом и 2) В поразил А своии
ответным выстрелом. По теореме умножения вероятностей получим
Р (Л) = 0,8 • 0,3 = 0,24.
Перейдем к событию В. Оно, очевидно, состоит из двух несовместных
вариантов:
в = в , 4 . в 2,
где В { — поражение участника В первым выстрелом А,
В2 — поражение участника В вторым выстрелом А.
По теореме сложения вероятностей ,
Р ( В ) = Р ( В !) + Р ( В 2).
По условию Р( Ву) = 0,2. Что касается события В2, то оно представляет
собой совмещение (произведение) трех событий, а именно:
1) первый выстрел стороны А не должен поразить В;
2) ответный выстрел стороны В не должен поразить А;
3) последний (второй) выстрел стороны А должен поразить В.
По теореме умножения вероятностей
Р (В2) = 0,8 • 0,7 • 0,4 = 0,224,
откуда
Р (В) = 0,2 + 0,224 = 0,424.
П р и м е р 7. Цель, по которой ведется стрельба, состоит из трех раз­
личных по уязвимости частей. Для поражения цели достаточно одного по­
падания в первую часть, или двух попаданий во вторую, или трех попаданий
в третью. Если снаряд, попал в цель, то вероятность ему попасть в ту или
другую часть пропорциональна' площади этой части. На проекции цели на
плоскость* перпендикулярную направлению стрельбы, первая, вторая и
третья части занимают относительные площади 0,1, 0,2 и 0,7. Известно, что
В цель попало ровно два снаряда. Найти вероятность того, что цель будет
поражена.
Р е ш е н и е . Обозначим А — поражение цели; Р{А\ 2) — условную ве­
роятность поражения цели при условии^ что в нее попало ровно два сна­
ряда. Два снаряда, попавшие в цель, могут поразить ее двумя способами:
или хотя бы один из них попадает в первую часть, или же оба снаряда
попадут во вторую. Эти варианты несовместны, так как в цель попало всего
два снаряда; поэтому можно применить теорему сложения. Вероятность
того, что хотя бы юдин снаряд попадет в первую часть, может быть вычис­
лена через вероятность противоположного события (ни один из двух сна­
рядов не попадет в первую часть) и равна 1 — 0,9а. Вероятность того, что
оба снаряда попадут во вторую часть, равна 0,2г. Следовательно,
Р {А \2) = \ — 0,92 + 0,22= 0,23.
62
ОСНОВНЫЕ ТЁОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
[ГЛ. 3
П р и м е р 8. Для условий предыдущего примера найти вероятность
поражения дели, если известно, что в нее попало три снаряда.
Р е ш е н и е . Решим задачу двумя способами: через прямое и противо­
положное событие.
' Прямое событие — поражение цели при трех попаданиях — распадается
на четыре несовместных варианта:
A t — хотя бы одно попадание в первую часть,
Л2^-два попадания во вторую часть и одно — в третью,
Лз-^-три попадания во вторую часть,
A t — три попадания в трётью часть.
Вероятность первого варианта находим аналогично предыдущему при­
меру:
Р ( Л , ) - 1 — 0,9» = 0,271.
Найдем вероятность второго варианта. Три попавших снаряда могу г
распределиться по второй и третьей частям нужным образом (два во вторую
и один — в третью) тремя способами (С3 = 3). Следовательно,
Р (А2) = 3 • 0,2» • 0,7 = 0,084.
Далее находим:
.
Отсюда
Р (А ) =0,2» = 0,008,
Р (Л4) = 0,7» = 0,343.
Р {А 13) = 0,271 + 0,084 + 0,008 + 0,343 = 0,706.
Однако проще решается задача, если перейти к противоположному со­
бытию— непоражению цели при трех попаданиях. Это событие может осу­
ществиться только одним способом: если два снаряда из трех попадут
в третью часть, а один — во вторую. Таких комбинаций может быть три
(С3 = 3), следовательно, _
Р (Л 13) = 3 ■0,7я • 0,2 = 0,294,
откуда
Р (Л |3) = 1 — 0,294 = 0,706.
П р и м е р 9. Монета бросается 6 раз. Найти вероятность того, что
выпадет больше гербов, чем цифр.
Р е ш е н и е . Для нахождения вероятности интересующего нас события А
(выпадет больше гербов, чем цифр) можно было бы перечислить все воз­
можные его варианты, например:
'
.Ai — выпадет шесть гербов и ни одной цифры,
■ *■
А г — выпадет пять гербов и одна цифра
и т. д.
Однако проще будет применить другой прием. Перечислим все возмож­
ные исходы опыта:
А — выпадет больше гербов, чем цифр,
В — выпадет больше цифр, чем гербов,
С —-;выпадет одинаковое число цифр и гербов.
События А, В, С несовместны и образуют полную группу. Следова­
тельно,
.
Р (Л ) + Р (В ) + ^ ( С ) = 1.
8.8)
ТЕОРЕМА УМНОЖЕНИЯ ВЕРОЯТНОСТЕЙ
Так как задача симметрична относительно «герба» и «цифры»,
Я (Л) = />(£>),
ОТКУИ
2Я<Л) + Р<С) = 1
'
/• ( - «
63
■'
:
Найдем вероятность события С, состоящего в том, что при шести бро­
саниях монеты появится ровно три герба (а значит, ровно три цифры). Веро­
ятность любого из вариантов события С (например, последовательности
Г, ц, г, г, ц, ц при шести бросаниях) одна и та же и равна (-^ | • Число таких
комбинаций равно
= 20 (числу способов, какими можно из шести броса­
ний выбрать три, в которых появился герб). Следовательно,
64
16 ’
отсюда
11
32
П р и м е р 10. Прибор состоит из четырех узлов: А и А 2, А 3, А 4, причем,
узел А г дублирует А х, а узел А а дублирует узел Д3. При отказе (выходе из
строя) любого из основных узлов (А или А 3) происходит автоматическое
переключение на дублирующий узел. Надежность (веррятность безотказной
работы) в течение заданного времени каждого из узлов равна соответственно
,, р г, р 3, рА. Надежность каждого из переключающих устройств равна р.
се элементы выходят из строя Независимо друг от друга. Определить на­
дежность прибора.
Р е ш е н и е . Рассмотрим совокупность узлов А и А 2 и соответствующего
Переключающего устройства как один «обобщенный узел» В, а совокупность
узлов А 3, Л 4 и соответствующего переключающего устройства — как обоб­
щенный узел С. Рассмотрим события:
А — безотказная работа прибора,
В — безотказная работа обобщенного узла В,
С — безотказная работа обобщенного узла С.
ё
Очевидно,
откуда
А = ВС,
Я(Л) = Р(В)Я(С).
Найдем вероятность события В. Оно распадается на два варианта:
А х— исправно работал узел А,
И
А '2 — узел А I отказал, но оказались йспраты ии переключающее
устройство и узел А3.
Имссм*
Р (В ) = Р (Л,) + Р (Аг) = Л + (1 — р х) ррг,
аналогично
*
Р ( С ) = Рл+ (1— Рз)РР*.
откуда
Р (Л) = [/>, + (1 — /?,) р р г] [рг + (1 — Рг) р р &
54
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
[ГЛ. 3
3 .4 . Формула полной вероятности
Следствием обеих основных теорем — теоремы сложения вероят­
ностей и теоремы умножения вероятностей — является так называемая
ф о р м у л а полной, в е р о я т н о с т и .
Пусть требуется определить вероятность некоторого события Л,
которое может произойти вместе с одним из событий:
Я р я 2.......... н п,
образующих полную группу несовместных событий. Будем эти собы­
тия называть г и по т е за м и.
Докажем, что в этом случае
Р(А)
= ^ Р ( Н 1) Р ( А \ Н 1).
/= ].
(3.4.1)
т. е. вероятность события А вычисляется как сумма произведений
вероятности каждой гипотезы на вероятность события при этой ги­
потезе.
*
Формула (3.4.1) носит название ф о р м у л ы п о л н о й в е р о я т н о с т и .
Д о к а з а т е л ь с т в о . Так как гипотезы Н г, Я 2, . . . . Я я обра­
зуют полную группу, то событие А может появиться только в ком ­
бинации с какой-либо из этих гипотез:
А = Н 1А + Н 2 А +
. . . + Я „Л -
‘
Так как гипотезы Н х, Н 2 .......... Н п несовместны, то и комбинации
Н ХА, Н 2 А , . . . . Н пА также несовместны; применяя к ним теорему
сложения, получим:
Р ( А ) = Р (Я ,Л ) + Р (Я 2Л) + . . . + / > ( Я„ Л) = 2 Р (Я гЛ).
(=1
Применяя к событию //^Л теорему умножения, получим:
Р ( А ) = ' 2 1 Р ( Н 1) Р ( А \ Н 1),
1=\
что и требовалось доказать.
П р и м е р 1. Имеются три одинаковые на вид урны; в перюй урне два
белых и один черный шар; во второй — три белых и один черный; в третьей —
два белых и два черных шара. Некто выбирает наугад одну из урн и выни­
мает из нее шар. Найти вероятность того, что этот шар белый.
Р е ш е н и е . Рассмотрим три гипотезы:
.
#1 — выбор первой урны,
Нг — выбор второй уриы,
Н г — выбор третьей урны
и событие А — появление белого шара.
ФОРМУЛА ПОЛНОЙ
».<1
ВЕРОЯТНОСТИ
55
Так как гипотезы, по условию задачи, равновозможны, то
Р ( Н \ ) — Р (Яг) = Р (Я3) = ~ .
Условные вероятности события А при этих гипотезах соответственно равны:
Р ( А | //,) = ■§■;
Р ( Л |Я 2) = | ;
/> ( Л |Я 3) = -1 .
По формуле полной вероятности
Р ( Л _ 1 .1 - 1 .1 , 1 . 1 _ 2 3
^ >~ 3 3 - 3
4
3 2
36 '
П р и м е р 2. По самолету производится три одиночных выстрела. Ве­
роятность попадания при первом выстреле равна 0,4, при втором — 0,5, при
третьем — 0,7. Для вывода самолета из строя заведомо достаточно трех по­
паданий; при одном попадании самолет выходит из строя с вероятностью 0,2,
При двух попаданиях с вероятностью 0,6. Найти вероятность того, что а ре­
зультате трех выстрелов самолет будет выведен из строя.
Р е ш е н и е . Рассмотрим четыре гипотезы:
Я 0— в самолет не попало ни одного снаряда,
Н 1 — в самолет попал один снаряд,
Я 2 — в самолет попало два снаряда,
Я 3— в самолет попало три снаряда.
Пользуясь теоремами сложения и умножения, найдем вероятности этих
гипотез:
Р (Я0) = 0,6 • 0,5 • 0,3 *= 0,09;
Р (//,) = 0,4 ■0,5 • 0,3 4- 0,6 • 0,5 • 0,3 + 0,6 • 0,5 • 0,7 ■= 0,36;
Р (Я2) = 0,6 • 0,5 • 0,7 + 0,4 • 0,5 • 0,7 + 0,4 • 0,5 • 0,3 = 0,41;
Р (Я 3) = 0,4 - 0,5 • 0,7 = 0,14.
Условные вероятности события А (выход самолета из строя) при этих
Гипотезах равны:
/> (Л |Я „) = 0; Р (А 1Я ,) = 0,2; Р (Л | Я г) = 0,6; Р (Л | Я 3) = 1,0.
Применяя формулу полной вероятности, получим:
р (Л) = Р (Я0) Р (А I Но) 4- Р (Я,) Р (Л I Я ,) + Р (Яг) Р (Л IЯ а) 4 ­
4- Р (Я 3) Р (А 1Яз) = 0,36 • 0,2 4 - 0,41 • 0,6 4- 0,14 • 1,0 = 0,458.
Заметим, что первую гипотезу Я 0 можно было бы не вводить в рас­
смотрение, так как соответствующий член в формуле полной вероятности
обращается в нуль. Так обычно и поступают при применении формулы пол­
ной вероятности, рассматривая не полную группу несовместных гипотез,
4 только те из них, при которых данное событие возможно.
,
П р и м е р 3. Работа двигателя контролируется двумя регуляторами.
Рассматривается определенный период времени /, в течение которого жела­
тельно, обеспечить безотказную работу двигателя. При наличии обоих регуг. при работе только пер­
Мторов двигатель отказывает с вероятностью
вого из них — с вероятностью ди при работе только второго — с вероят­
ностью дг, при отказе обоих регуляторов — с вероятностью цй- Первый из
регуляторов имеет надежность Р х, второй — Р 3. Все элементы выходят из
(троя независимо друг от друга. Найтн полную надежность (вероятность
безотказной работы) двигателя.
56
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ
ВЕРОЯТНОСТЕЙ
[ГЛ. 3
Р е ш е н и е . Рассмотрим гипотезы:
— работают оба регулятора,
Нх — работает только первый регулятор (второй вышел из строя),
Н г — работает только второй регулятор (первый вышел из строя),
Я 0 — оба регулятора вышли из строя
и событие
.
А — безотказная работа двигателя.
Вероятности гипотез равны:
Р Щ\, ») Р (Я ,) = Я, (1 - Р 2);
,
р (Я ,) - />, (1 - />,); р (Я0) = (1 - я ,) (1 _ я 8).
Условные вероятности события А при этих гипотезах заданы:
Р { А \ Н и Ц ш ш \ - Щий Р ( А | Я , ) - 1 - * ; Р ( Л | Я г) = 1 _ ?аг
_ .
л
„
р (А 1Я 0) = 1 —
По формуле полной вероятности получим:
Р (Л ) = Р ,Р , (1 - Чи г) + Л (1 - Р а) (1 - Г1) +
+ Р> о - Л ) (1 - яг) + (1 - Л ) (1 - Л ) (1 - *.).
3 .5 . Теорема гип отез (ф орм ула Бейеса)
Следствием теоремы умножения и формулы полной вероятности
является так называемая т е о р е м а гипотез, или ф о р м у л а Бейеса,
Поставим следующую задачу.
Имеется полная группа несовместных гипотез Н х, Н 2..........Н п.
Вероятности этих гипотез до опыта известны и равны соответственно
Р (//,). Р ( Я 2), . . . . Р ( Н п). Произведен опыт, в результате которого
наблюдено появление некоторого события А. Спрашивается, как сле­
дует изменить вероятности гипотез в связи с появлением этого со ­
бытия?
Здесь, по существу, речь идет о том, чтобы найти условную
вероятность р ф ^ А ) для каждой гипотезы.
И з теоремы умножения имеем:
Р ( А Н 1) = Р ( А ) Р ( Н 1 \ А ) = Р ( Н 1) Р ( А \ Н 1)
(1 =
1
, 2 ..........п),
или, отбрасывая левую часть,
Р ( А ) Р ( Н 1 \ А ) = Р ( Н 1) Р ( А \ Н 1)
( / = 1. 2 .......... я ),4
откуда
Я ( Я г| Л) = ^ > ^ ± " £
Выражая Р ( А )
имеем•
с помощью формулы
( / = 1 . 2 .......... п).
полной
вероятности
Р { Н 11А) = ~ р{И-{) р (
■ (/ = 1, 2 .......... п).
% Р ( Н 1) Р ( А \ Н 1)
1= 1
(3.4.1),
(3.5.1)
8 5]
ТЕОРЕМА ГИПОТЕЗ (ФОРМУЛА БЕЙЕСА)
57
Формула (3.5.1) и носит название фор му лы Бейеса или тео­
ремы гипотез.
П р и м е р 1. Прибор может собираться из высококачественных деталей
и из деталей обычного качества; вообще около 40% приборов собирается из
высококачественных деталей. Если прибор собран из высококачественных де­
талей, его надежность (вероятность безотказной работы) за время * равна
0,95; если из деталей обычного качества — его надежность равна 0,7. Прибор
испытывался в течение времени Ь и работал безотказно. Найти вероятность
того, что он собран из высококачественных деталей.
Р е ш е н и е . Возможны две гипотезы:
Ну — прибор собран из высококачественных деталей,
Н 2— прибор собран из деталей обычного качества.
Вероятности этих гипотез до опыта:
Р ( Нх) = 0 ,4 ; Р (Я2) = 0,6.
В результате опыта наблюдено событие А — прибор безотказно работал
время
Условные вероятности этого события при гипотезах Я, и Я г равны:
Р ( А \ Ну) = 0,95;
Р ( А ] Я ,) = 0,7.
По формуле (3.5.1) находим вероятность гипотезы Ну после опыта:
п/ич
0,4 0,95
(
= 0,4 • 0,95 + 0,6 • 0,6
л ,,е
’
П р и м е р 2. Два стрелка независимо один от другого стреляют по
одной мишени, делая каждый по одному выстрелу. Вероятность попадания
в мишень для первого стрелка 0,8, для второго 0,4. После стрельбы в мишени
обнаружена одна пробоина. Найти вероятность того, что эта пробоина при­
надлежит первому стрелку.
Р е ш е н и е . До опыта возможны следующие гипотезы:
Ну — ни первый, ни второй стрелок не попадет,
Н 2— оба стрелка попадут,
Я 3 — первый стрелок попадет, а второй не попадет,
Нь — первый стрелок не попадет, а второй попадет.
Вероятности этих гипотез:
Р (Ну) = 0,2-0,6 = 0,12;
Р ( Н2) = 0,8 • 0,4 = 0,32;
р ( Я 3 ) = 0,8 ■0,6 = 0,48;
Р ( Н4) = 0,2 • 0,4 = 0,08.
Условные вероятности наблюденного события А при этих гипотезах
равны:
!
Р (Л\ Ну) = 0 ; Р ( А \ Н 2) = 0 ; Р ( А | Н 3) = 1; Р ( Л | Я 4) = 1.
'
После опыта гипотезы Я , и Я 2 становятся невозможными, а вероят­
ности гипотез Я 3 и Я* будут равны:
!
, .ч
1
0,48-1
6
0,48-1+0,08-1 ~ 7 ’
0,08-1
0,48-1+0,08-1 ~
1
7 ‘
58
ОСНОВНЫЕ ТЕОРЕМЫ ТЕОРИИ
Следовательно, вероятность
6
стрелку, равна
того,
ВЕРОЯТНОСТЕЙ
что пробоина принадлежит
1ГЛ. 3
первому
П р и м е р 3. Производится наблюдение за некоторым объектом с по*
мощью двух наблюдательных станций. Объект может находиться в двух
различных состояниях 5 , и 5 2, случайно переходя из одного в другое.
Долговременной практикой установлено, что примерно 30% времени объект
находится в состоянии 5,, а 70% — в состоянии 6'2> Наблюдательная стан­
ция № 1 передает ошибочные сведения приблизительно в 2 % всех случаев,
а наблюдательная станция № 2 — в 8%. В какой-то момент, времени
наблюдательная станция № 1 сообщила: объект находится в состоянии £],
а наблюдательная станция № 2: объект находится в состоянии 5 а. .
Спрашивается: какому из сообщений следует верить?
Р е ш е н и е . Естественно верить тому из сообщений, для которого
больше вероятность того, что оно соответствует истине. Применим формулу
Бейеса- Для этого сделаем гипотезы о состоянии объекта:
Н х — объект находится в состоянии 5,,
И г — объект находится в состоянии 5 2.
Наблюденное событие А состоит в следующем: станция № 1 сообщила,
что объект находится в состоянии
а станция № 2 — что он находится
в состоянии
Вероятности гипотез до опыта
Р (Я ,) = 0 ,3 ; Р (Я ,) = 0,7.
Найдем условные вероятности наблюденного события А при этих гипо­
тезах. При гипотезе Я ь чтобы произошло событие А, нужно, чтобы первая
станция передала верное сообщение, а вторая — ошибочное:
Р ( А { Н 1) = 0,98 • 0,08 ** 0,0784.
Аналогично
Р (Л I Я 2) 0,92.0,02 « 0,0184.
Применяя формулу Бейеса, найдем вероятность того, что истинное
состояние объекта — 5 ^
0,3 0,0784
0,3 • 0,0784 + 0,7 • 0‘,0184 *
т. е. из двух переданных сообщений более правдоподобным является сооб­
щение первой станции.
ГЛАВА 4
П О ВТО РЕН И Е ОПЫТОВ
4 .1 . Ч астн ая т ео р ем а о повторени и опы тов
При практическом применении теории вероятностей часто прихо­
дится встречаться с задачами, в которых один и тот же опыт или
аналогичные опыты повторяются неоднократно. В результате каждого
опыта может появиться или не появиться некоторое событие А, при­
чем нас интересует не результат каждого отдельного опыта, а общее
Число появлений события А в результате серии опытов. Например,
если производится группа выстрелов по одной и той же цели, нас,
как правило, интересует не результат каждого выстрела, а общее
число попаданий. В подобных задачах требуется уметь определять
вероятность любого заданного числа появлений события в результате
серии опытов. Такие задачи и будут рассмотрены в данной главе.
Они решаются весьма просто в случае, когда опыты являются н е ­
зависимыми.
Несколько опытов называются независимыми, если вероятность
того или иного исхода каждого из опытов не зависит от того, какие
исходы имели другие опыты. Например, несколько последовательных
.Йросаний монеты представляют собой независимые опыты. Несколько
последовательных выниманий карты из колоды представляют собой
независимые опыты при условии, что вынутая карта каждый раз воз­
вращается в колоду и карты перемешиваются; в противном случае
Это — зависимые опыты. Несколько выстре'лов представляют собой
Независимые опыты только в случае, если прицеливание производится
ваново перед каждым выстрелом; в случае, когда прицеливание про­
изводится один раз перед всей стрель'бой или непрерывно осуще­
ствляется в . процессе стрельбы (стрельба очередью, бомбометание
серией) выстрелы представляют собой зависимые опыты.
Независимые опыты могут производиться в одинаковых или раз­
личных усл о ви ях .' В первом случае вероятность события А во всех
опытах одна и та же. Во втором случае вероятности события А от
опыта к опыту меняется. К первому случаю относится ч а с тн ая
те ор ема , а ко второму — об щая те ор ема о повторении опытов.
60
ПОВТОРЕНИЕ ОПЫТОВ
Мы начнем с частной теорем ы , к ак более
всего рассм отрим конкретны й прим ер.
ГГЛ 4
элем ентарной.
П реж де
П р и м е р . Производится три независимых выстрела по мишени, вероят­
ность попадания в которую при каждом выстреле равна р. Найти вероят­
ность того, что при этих трех выстрелах мы получим ровно два попадания.
Р е ш е н и е . Обозначим В2 событие, состоящее в том, что в мишень
попадет ровно два снаряда. Это событие может произойти тремя способами:
1) попадание при первом выстреле, попадание при втором, промах при
третьем;
2) попадание при первом выстреле, промах при втором, попадание при
третьем;
3) промах при первом выстреле, попадание при втором, попадание при
третьем.
Следовательно, событие В2 можно представить как сумму произведений
событий:
В2 — А ХА%А$ —
|- А хА2А$ —
1~ А ] А2Ау
где А х, А2, А -$_— попадание при первом, втором, третьем выстрелах соответ­
ственно, ~КХ, А2, А3— промах при первом, втором, третьем выстрелах.
Учитывая, что три перечисленных варианта события В2 несовместны,
а события, входящие в произведения, независимы, по теоремам сложения
и умножения получим:
Р ( В 2) = р р ( \ ~ р ) + р { \ — р ) р + ( \ — р)рр,
или, обозначая 1 — р ^ д ,
Р (В2) = Ър*д.
Аналогичным образом , перечисляя все возм ож ны е варианты , в к о ­
торы х интересую щ ее нас собы тие м ож ет появиться заданное число
р аз, м ожно реш ить и следую щ ую общ ую задачу.
П роизводится п независимы х опы тов, в каж дом из к о то р ы х м ож ет
появиться или не появиться некоторое собы тие А ; вероятность п о явл е­
ния события А в каж дом опы те равна р , а вероятность непоявления
9 = 1 — р . Т ребуется найти вероятность Р т,„ то го , что собы тие А
в этих п опы тах появится ровно т. раз.
Р ассм отрим событие В т, состоящ ее в том , ч то собы тие А появится
в п опы тах ровно т раз. Это событие м ож ет осущ ествиться р азли ч­
ными способами. Р азлож им собы тие В т на сумму произведений со б ы ­
тий, состоящ их в появлении или непоявлении события А в отдельном
опыте. Будем обозначать А 1 появление события А в 1-м опыте; А 1 —
непоявление события А в /-м Опыте.
О чевидно, каж дый вариант появления события В т (каж ды й член
суммы) долж ен состоять из т появлений события А и п — т н епо­
явлений, т. е. из т. событий А а п — т собы тий А с различными
индексами. Таким образом ,
В т = А^А2 . . . А тА т+1 . . . Ап
* ...
...
А 1А 2 А 3 . . .
...
• • ■ Ч- ^1^2 • • • ■ '^л-т^я-т-н . . . Ап„
ОБЩАЯ ТЕОРЕМА О ПОВТОРЕНИИ ОПЫТОВ
причем
в каж дое
произведение
61
событие А долж но входить т р аз,
а А долж но входить п — т р аз.
Число всех комбинаций тако го рода равно С™. т. е. числу сп о ­
собов. какими м ожно из п опытов вы брать т, в к ото р ы х п рои зош ло
событие А. В ероятность каж дой такой комбинации, по теорем е у м н о ­
жения для независимых собы тий, равна р тдп~т. Т ак как комбинации
м еж ду собой несовм естны , то , по теорем е слож ения, вероятность
события В т равна
р т, „ = Р т9я- ' * + . . . + р тдп~т = с ; , - * - - .
С
раз
Таким образом , мы можем дать следую щ ую
теорем ы о повторении опы тов.
Если производится п независимых опы тов,
событие А появляется с вероятностью р , то
событие А появится ровно т. раз. вы раж ается
ф орм ули ровку частной
в каж дом из к о торы х
вероятность то го , что
ф орм улой
Л п, я = С / Л Г т .
(4 .1 .1 )
где ц = \ — р .
Ф орм ула (4 .1 .1 ) оп и сы вает, к ак распределяю тся вероятности между
возможными значениями н екоторой случайной величины — числа п о ­
явлений события А при п опы тах.
В связи с тем, что вероятности Р„и „ по форм е представляю т с о ­
бой члены разлож ения бинома (Ц - \ - р )п. распределение вероятностей
вида (4 .1 .1 ) назы вается б ино миа льным ра сп р е де ле н ие м.
4.2. Общая теорема о повторении опытов
Ч астная теорем а о повторении опытов касается того случая, когда
вероятность события А во всех опы тах одна и та ж е. Н а практике
часто приходится встречаться с более сложным случаем, когда опыты
П роизводятся в неодинаковы х услови ях, и вероятность события от
Опыта к опыту меняется. Н априм ер, если производится р яд вы стрелов
в переменных условиях (скаж ем , при изменяющ ейся дальности),
то вероятность попадания от вы стрела к вы стрелу м ож ет заметно
Меняться.
С пособ вычисления вероятности заданного числа появлений со б ы ­
тия в таки х условиях дает общ ая теорем а о повторении опы тов.
П усть производится п независимых опы тов, в каж дом из ко то р ы х
Может появиться или не появиться н ек оторое событие А, причем
вероятн ость появления события А в 1-и опы те равна р 1, а в ер о ят­
ность непоявления ?,- = 1 — р 1 (I = 1, . . . . п). Т ребуется найти в е р о ­
ятность Р пип того, что в р езультате п опытов событие А появится
ровн о т раз,-
62
ПОВТОРЕНИЕ ОПЫТОВ
[ГЛ. <
О бозначим п о -п р еж н ем у В т собы тие, состоящ ее в том , что собы ­
тие А появится т раз в ге опы тах. П о-преж нем у представим В т к ак
сумму произведений элем ентарны х событий:
В т = А\А2 . . . Ат Ат
Ап+
+ , ...
...
. . . -}- A tA 2A3 . . . А п_^Аи +
••• +
...
А 1А 2 • • • А п - т А п - т + 1 • • • Ап>
причем в каж дое из произведений событие А входит т раз, собы тие А
п — т р аз. Число таких комбинаций по-п реж и ем у буд ет С™, но сами
комбинации между собой будут уж е неравновероятны .
П рименяя теорем у слож ения и теорем у ум нож ения для независи­
мых собы тий, получим:
Р т, n
P 1P 2
• • •
РтЧт+1
• • •
Чп
~ (“
• • •
• • • ~+- Р 1Ч2 Р 3 • • • Яп- lP n " Ь • ■•
• • •
~\~Ч\Й2 • •
•
Яп-тРп-т+1
• • •
Рп>
т. е. иском ая вероятность равна сумме всех возм ож ны х произведений,
в ко то р ы е буквы р с разными индексами входят т р аз, а буквы q
с разны ми индексами п — т раз.
Д ля того чтобы чисто механически составлять все возм ож ны е
произведения из т. букв р и п — т букв q с разными индексами,
применим следую щ ий форм альны й прием. Составим произведение ге
биномов:
<P«(2) = ( ? 1 +
/ j 12 )( ? 2 +
или короче
J V ;) • • • (4n~\-Pnz )
п
(г) =
П (?; + />**),
i=l
где z — произвольны й парам етр.
Зададим ся целью найти в этом произведении биномов к о эф ф и ­
циент при z m.' Д л я этого перемнож им биномы и произведем при ве­
дение подобны х членов. О чевидно, каж ды й член, содерж ащ ий z m,
будет иметь в качестве коэф ф ициента произведение т. букв р
с к аки м и -то индексами и г е — т букв q, а после приведения п о до б­
ных членов коэф ф ициент при z m будет п редставлять собой сумму
всех возм ож ны х произведений тако го типа. С ледовательно, способ
составления этого коэф ф ици ента полностью совпадает со способом
вычисления вероятности Р т> п в задаче о повторении опытов.
Ф ункция tpn (z), разлож ение к оторой по степеням ’ парам етра г
д ает в качестве коэф ф ициентов вероятности P m i называется п р о изводящей функцией вероятностей Р т>а или просто п р о и з в о д я ­
щей функцией.
'
ОБЩАЯ ТЕОРЕМА О ПОВТОРЕНИИ ОПЫТОВ
63
П о л ьзу ясь понятием п роизводящ ей ф ункции, м ож но сф о р м у л и р о ­
вать общ ую теорем у о повторении опы тов в следую щ ем виде.
В ероятность то го , что собы тие А в п независимы х опы тах п о я­
вится ровно т. раз, равна коэф ф ициенту при г т в выраж ении п р о и з­
водящ ей функции:
П
<Р*(*) =
П
1=1
(? ! +
/»/*)•
где р 1— вероятность появления события А в £-м опы те, ^ = 1 — Р[.
В ы ш еприведенная ф орм улировка общ ей теорем ы о п овторении
опы тов в отличие от частной теорем ы не д ает явного вы раж ения
дл я вероятности Р т>
Т ак о е вы раж ение в принципе написать мож но,
н о оно является слиш ком слож ны м , и мы не будем его при води ть.
О дн ако , не прибегая к таком у явному вы раж ению , все ж е м ожно
записать общ ую теорем у о повторении опытов в виде одной
ф орм улы :
П
(4 .2 .1 )
т~0
П= 1
Л евая и правая части равен ства (4 .2 .1 ) представляю т собою одну
и т у ж е производящ ую функцию <ря ( г ) ' то л ь к о слева она написана
в виде одночлена, а справа — в виде многочлена. Р аскры вая скоб ки
в левой части и выполняя приведение подобны х членов, получим все
вероятности:
Л>. П> Р\. л> • • • • Рп. п
к ак коэф ф ициенты соответственно при нулевой, первой и т. д . сте»
пенях г .
О чевидно, частная теорем а о повторении опы тов вы текает из
общ ей при
Р\ — Р2 =
• • ■ — Р п ~ Р>
Ч\~Ч2~
~
Ча~Ч'
В этом случае производящ ая функция обращ ается в п -ю степень
бинома (ц -1- р г ):
Фя ( г ) = (< 7 + />*)".
Р аск р ы в ая это вы раж ение по ф орм уле бинома, имеем:
*"
,
■
(? + /> г)я = 1 Ю
т= О
откуда следует ф орм ула (4 .1 .1 ).
У
' тгт .
64
[гл . 4
ПОВТОРЕНИЕ ОПЫТОВ
О тметим, что к ак в общ ем, та к и в частном случае сумма всех
вероятностей Р т> „ равна единице:
1
П
2 / т , и=
ги -О
Ь
(4 .2 .2 )
Э то следует п реж де всего из то го , что события В 0, В 1........... В а
образую т полную группу несовм естны х событий. Ф ормально к р ав ен ­
ству (4 .2 .2 ) м ож но придти, полагая в общ ей ф орм уле (4 .2 .1 ) 2 = 1.
Во многих случаях практики, кром е вероятности
п ровн о т.
появлений события А, приходится рассм атривать вероятность н е
м е н е е т появлений события А.
О бозначим С т собы тие, состоящ ее в том, что событие А поя­
вится не менее т раз, а вероятность события С т обозначим К т я .
О чевидно,
Ст — В т - \ - В т +1 +
• • • ~ \ - В п;
отк уда, по теорем е слож ения,
или короче
Кт, п — « т , л +
« т + 1, « +
+ Л » , п>
п
« * ,» =
51 Л . « / = ГП
(4-2.3)
П ри вычислении /?т1П часто бы вает удобнее не пользоваться н е­
п осредственно ф орм улой (4 .2 .3 ), а переходить к противополож ном у
событию и вычислять вероятн ость
„ по ф орм уле
т -1
Я т .л =
1 -
Е л . п*
1= 0
(4-2.4)
П р и м е р 1. Производится 4 независимых выстрела по одной и той же
цели с различных расстояний; вероятности попадания при этих выстрелах
равны соответственно
/ ’1 = 0 ,1 ; р г = 0,2; р 3 = 0,3; р к = 0,4.
Найти вероятности ни одного, одного, двух, трех и четырех попаданий:
^0,4»
Р I»4* ^2,4»
Р\3,4» Р 4,4*
Р е ш е н и е . Составляем производящую функцию:
4
?4 (г) = Ц ( ^ + Л г ' ) =
»=1
= (0,9 + 0,1 г) (0,8 + 0,2г) (0,7 + 0,3*) (0,6 + 0,4г) =
0,302 Ц- 0,440* + 0,215г2 + 0,040г3 + 0,002г\
откуда
Р 0,4 = 0,302; />,,4 = 0,440; Р м = 0,215; />3(< = 0 ,0 4 0 ;. Л , 4 = 0-002.
4.2]
ОБЩАЯ ТЕОРЕМА О ПОВТОРЕНИИ ОПЫТОВ
65
П р и м е р 2. Производится 4 независимых выстрела в одинаковых усло­
виях, причем вероятность Попадания р есть средняя из вероятностей /?,, р 2,
рг, рц предыдущего примера:
р ~ - £ (Р\ + Рг + Рг + Ра) — 0,25.
Найти вероятности
Р<>,й
Р 2,4» Р 3,4; РКЛ'
Р е ш е н и е . По формуле (4.1.1) имеем:
Р 0 , == 4* = 0,316;
Р},4 ~ С\РдЭ — 0,421;
р 2 4 = С2.РУ = 0,211;
^3.4
.
= 0,047;
= р< = 0,004.
П р и м е р 3. Имеется 5 станций, с которыми поддерживается связь.
Время от времени связь прерывается из-за атмосферных помех. Вследствие
удаленности станций перерыв друг от друга связи с каждой из них происхо­
дит независимо от остальных с вероятностью р = 0,2. Найти вероятность
того, что в данный момент времени будет иметься связь не более чем с
двумя станциями.
Р е ш е н и е. Событие, о котором идет речь, сводится к тому, что будет
нарушена связь пе менее чем с тремя станциями. По формуле (4.2.3)
получим:
Яз.5 = Р 3,5 + р 4,ь + Р 5,5 = С1 • 0,23 • 0,82 + С* ■0,24 • 0,8 + 0.25 =
= 0,0512 + 0,0064 + 0,0003 = 0,0579.
П р и м е р 4. Система радиолокационных станций ведет наблюдение за
группой объектов, состоящей из 10 единиц. Каждый из объектов может
быть (независимо ог других) потерян с вероятностью 0,1. Найти вероят­
ность того, чго хотя бы один из объектов будет потерян.
Р е ш е н и е . Вероятность потери хотя бы одного объекта /?1,1в можно
,было бы найти по формуле
^1,10 = Л,10 + ^ 2,10 4 “ ••• 4" Р 10,10<
но несравненно проще воспользоваться вероятностью противоположного со­
бытия — ни один объект не потерян — и вычесть ее из единицы:
Я ы о = 1 - Ро.ю = 1 - 0,9« « 0,65.
П р и м е р 5. Прибор состоит из 8 однородных элементов, но может
работать при наличии в исправном состоянии не менее 6 из них. Каждый
из элементов за врбмя работы прибора < выходит из строя независимо от
других с вероятностью 0,2. Найти вероятность того, что прибор откажет
за время I.
Р е ш е н и е . Для отказа прибора требуется выход из строя не менее
двух из восьми элементов. По формуле (4.2.4) имеем:
*2,8 = 1 - (Л),8 + Яье) = 1 - (0,8® + С1 ■0,2 • 0,87) » 0,497.
П р и м е р 6. Производится 4 независимых выстрела с самолета по са­
молету. Вероятность попадания при каждом выстреле равна ОД Для
3 Теория вероятностей
66
ПОВТОРЕНИЕ ОПЫТОВ
[ГЛ
4
поражения (выхода из строя) самолета заведомо достаточно двух попаданий;
при одно;« попадании самолет поражается С вероятностью 0,6. Найти вероят­
ность того, что самолет будет поражен.
Р е ш е н и е . Задача решается но формуле полной вероятности. Можно
было бы рассмотреть гипотезы
/ / , — в самолет попал 1 снаряд,
Н г — в самолет попало 2 снаряда,
/ / , — в самолет попало 3 снаряда,
— в самолет попало 4 снаряда
и находить вероятность события А — поражения самолета — с помощью этих
четырех гипотез. Однако значительно проще, рассмотреть всего две гипотезы.
Н0 — в самолет не попало ни одного снаряда,
/ / | — в самолет попал 1 снаряд,
и вычислять вероятность события Л — непоражения самолета:
Р (А) = Р (Н0) Р (Л 1 Н0) + Р (Я ,) Р (А \ Я ,).
Имеем:
Р ( Я 0) = Р 0,4 = 0,7^ = 0,240;
.
Р (Я !) = Р 1А = С\ ■0,3 • 0,73 = 0,412;
Я (Л | Я 0) = I;
Р (А | //; ) = 1 — 0,6 = 0,4.
Следовательно,
Р (Л) = 0,240 + 0,412 • 0,4 к 0,405,
откуда
Р (/1) = 1 — 0,405 = 0,595.
ГЛАВА 5
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
5.1. Ряд распределения. М ногоугольник распределения
В разделе к урса, посвящ енном основным понятиям теории вероят*
„ностей, мы уж е ввели в рассм отрение чрезвы чайно важ ное понятие
с лу чайной величины. Зд есь мы дадим дальнейш ее развитие этого
понятия и укаж ем способы , с помощью к оторы х случайные величины
могут бы ть Описаны и характери зован ы .
К ак уж е бы ло сказан о, случайной величиной назы вается величина,
ко то р ая в р езультате опыта м ож ет принять то или иное значение,
неизвестно заранее — какое именно. Мы условились такж е различать
случайные величины преры вного (дискретного) и непреры вного
типа. Возмож ны е значения преры вны х величин м огут бы ть заран ее
Перечислены. Возмож ны е значения непреры вны х величин не м огут
вы ть заранее перечислены и непреры вно заполняю т некоторы й п р о ­
м еж уток.
, П римеры преры вны х случайных величин:
1) число появлений герба при трех бросаниях монеты (возм ож ны е
•начения 0, 1. 2, 3);
2) частота появления герба в том ж е опы те (возм ож ны е значе-
3) число отказавш их элем ентов в п риборе, состоящ ем из пяти
•лем ентов (возм ож ны е значения 0, 1 , 2 , 3, 4, 5);
4) число попаданий в сам олет, достаточн ое д л я вы вода его из
Строя (в о зм о ж н ы е'зн ач ен и я 1, 2, 3, . . . . п, . . . ) ;
;
5) число сам олетов, сбиты х в воздуш ном бою (возм ож ны е з н а ­
чения 0 . 1, 2 ............ N . где N — общ ее число сам олетов, участвую ­
щ и х в бою ).
П рим еры непреры вны х случайных величин:
1) абсцисса (ордината) точки попадания при вы стреле;
2) расстояние о т точки попадания до центра мишени;
3) ош ибка изм ерителя высоты;
. 4) время безотказной работы радиолам пы .
68
СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
И ИХ ЗАКОНЫ
РА С П РЕДЕЛЕН И Я
[ГЛ. 5
Условимся в дальнейш ем случайные величины обозначать б о л ь ­
шими буквами, а их возм ож ны е значения — соответствую щ ими малыми
буквами. Н априм ер, X — число попаданий при т р е х вы стрелах; в о з­
можные значения: х
: 0; х 2 — 1;
=■■ 2; лг4 ■3..
Рассм отрим преры вную случайную величину X с возможными з н а ­
чениями Жр х 2 ...........х п. К аж дое из этих значений возм ож но, но не
достоверн о, и величина X м ож ет принять каж дое из них с н ек о то ­
рой вероятностью . В результате опыта величина X примет одно из
этих значений, т. е. прои зой дет одно из полной группы несовм ест­
ных событий:
Х = х,_,
X — х 2,
(5.1,1)
ЛГ:
О бозначим вероятности этих событий буквами р с соответствую ­
щими индексами:
Р ( Х = х 1) = р 1\
Т ак
как
Р ( Х = х 2) = р г; . . . ; Р ( X = х„) = р п.
несовм естные события (5 .1 .1 ) образую т полную группу, то
1.
1=1
т . е. сумма вероятностей всех возм ож ны х значений случайной вели ­
чины равна единице. Эта суммарная вероятность каким -то образом
р а с п р е д е л е н а между отдельными значениями. Случайная величина
будет полностью описана с вероятностной точки зрения, если мы
зададим это распределение, т. е. в точности укаж ем , какой в е р о я т ­
ностью обладает каж дое из событий (5 .1 .1 ). Этим мы установим так
называемый з а к о н р а с п р е д е л е н и я случайной величины.
З а к о н о м р а с п р е д е л е н и я случайной величины называется всякое
соотнош ение, устанавливаю щ ее связь между возможными значениями
случайной величины и соответствую щ ими им вероятностям и. П р о с л у ­
чайную величину мы будем говорить, что она подчинена данному
зако н у распределения.
Установим форм у, в к оторой м ож ет бы ть задан закон р асп р ед е­
ления преры вной случайной величины X . П ростейш ей ф орм ой за д а ­
ния этого закона является таблица, в к оторой перечислены во зм о ж ­
ные значения случайной величины и соответствую щ ие им вероятности:
X,
X,
хг . . .
х„
Р1
Р\
Рг
. . .
Рп
5,1)
РЯД
РА СП РЕДЕЛ ЕН И Я.
МНОГОУГОЛЬНИК
РАСПРЕДЕЛЕНИЯ
69
Такую таблицу мы будем назы вать р я д о м р а с п р е д е л е н и я сл у ­
чайной величины X .
Чтобы придать ряду распределения более наглядный вид, часто
прибегаю т к его граф ическом у изображ ению : по оси абсцисс о тк л ад ы ­
ваются возможны е значения случайной величины, а по оси орди н ат —
вероятности этих значений. Д ля наглядности полученны е точки с о ­
единяются отрезкам и прямых. Т ак ая ф игура назы вается м н о г о у г о л ь ­
ником р а с п р е д е л е н и я (рис. 5 .1 .1 ). М ногоугольник распределения,
<так же как и ряд распределения, полностью х арак тер и зу ет случай­
ную величину; он является одной из форм закона р ас п р ед е­
ления.
И ногда удобной оказы вается так называемая «м еханическая» и н тер ­
претация ряда распределения. П редставим себе, что н екоторая масса,
равная единице, распределена по оси абсцисс так, что в п отдельны х
Точках
х 2............ х п сосредоточены соответственно массы р г,
р~........... р„. Тогда ряд распределения интерпретируется как система
м атериальны х точек с каким и-то массами, располож енны х на оси
•бсц и сс.
Р ассмотрим несколько, прим еров преры вны х случайны х величин
С- их 'законам и распределения.
П р и м е р 1. Производится один опыт, в котором может появиться или
не появиться событие А. Вероятность события А равна ОД Рассматривается
случайная величина X — число появлений события А в данном опыте (т. е.
Характеристическая случайная величина события А принимающая значение 1,
вели оно появится, и 0, если не появится). Построить ряд распределения и
многоугольник распределения величины X.
70
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
[ГЛ. 5
Р е ш е н и е . Величина X имеет всего два значения; 0 и 1. Ряд распре*
деления величины X имеет вид:
XI
0
1
Р1
0,7
0,3
Многоугольник распределения изображен на рис. 5.1.2.
П р и м е р 2. Стрелок производит три вы­
стрела по мишени. Вероятность попадания в ми­
шень при каждом выстреле равна 0,4. За каждое
попадание стрелку засчитывается 5 очков. По­
строить ряд распределения числа выбитых очков.
Р е ш е н и е . Обозначим X число выбитых
очков. Возможные значения величины X: дг, = 0;
х 2 = 5; х } = 10; х 4 «= 15. ..
Вероятности этих значений находим по тео­
реме о повторении опытов:
Р1 = 0,63 = 0,216; р 2 ‘= С \ - 0,4• 0,62 = 0,432;
Рз = $ ■0.42 • 0,6 - 0,288; р А= 0,43 = 0,064.
Ряд распределения величины X имеет вид:
*1
0
5
Р1
0,216
0,432
10
0,288
15
0,064
Многоугольник распределения изображен на рис. 5.1.3.
Пример
3. Вероятность появления события А в одном опыте
равна р. Производится ряд незави­
симых опытов, которые продол­
жаются до первого появления собы­
тия А, после чего опыты прекра­
щаются. Случайная величина X —
число произведенных опытов. По­
строить ряд распределения вели­
чины X.
Р е ш е н и е . Возможные значания величины X: 1, 2, 3 , . . . (теорети­
чески они ничем не ограничены). Для
того чтобы величина X приняла зна­
чение 1, необходимо, чтобы событие А
произошло в первом же опыте; ве­
роятность (того равна р. Для того
чтобы величина X приняла значе­
ние 2, нужно, чтобы в первом опыте событие А не появилось, а во вто­
ром — появилось; вероятность »того равна qp, где д *»» 1 — р, и т. д. Ряд
8.11
РЯ Д
РА СП РЕДЕЛ ЕН И Я.
МНОГОУГОЛЬНИК
РАСПРЕДЕЛЕНИЯ
71
распределения величины X имеет вид:.
Х1
1
2
3
Р1
р
РЧ
РЧ*
. ..
• «
•
1
РЯ1- '
. ..
. .
.
Первые пять ординат многоугольника распределения для случая
= 0,5 показаны на рис. 5.1.4.
П р и м е р 4. Стрелок ведет стрельбу по мишени до первого попадания,
имея боезапас 4 патрона. Вероятность попадания при каждом, выстреле
равна 0,6. Построить ряд распределения боезапаса, оставшегося неизрасхо­
дованным.
Рис. 5.1.4.
Р е ш е н и е . Случайная величина X — число неизрасходованных патро­
нов — имеет четыре возможных значения: 0, 1,' 2 и 3. Вероятности этих зна­
чений равны соответственно:
Ро = 0,43 = 0,064;
Р1 = 0.42 • 0,6 = 0,096;
р%= 0,4 • 0,6 = 0,240;
р» = 0,600.
Ряд распределения величины X имеет вид:
Х1
0
Р1
0,064 0,096
1
2
3
0,240 0,600
Многоугольник распределения показан на рис. 5.1.5.
72
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
И ИХ ЗАКОНЫ
РА С П РЕДЕЛЕН И Я
[ГЛ.
Й
П р и м е р 5. Техническое устройство может применяться в различных
условиях и в зависимости от этого время от времени требует регулировки.
При однократном применении устройства оно может случайным образом
попасть в благоприятный или неблагоприятный режим. В благоприятном
режиме устройство выдерживает три применения без регулировки; перед
четвертым его приходится регулировать. В неблагоприятном режиме устрой­
ство приходится регулировать после первого же применения. Вероятность
того, что устройство попадает в бла­
гоприятный реж им ,— 0,7, что в не­
благоприятный, — 0,3.
Рассматри­
вается случайная величина X — число
применений устройства до регули­
ровки. Построить, ее ряд распреде­
ления.
Решение.
Случайная вели­
чина X имеет три возможных значе­
ния: 1, 2 и 3. Вероятность того, что
X = 1, равна вероятности того, что
при первом же применении устрой­
ство попадет в неблагоприятный ре­
жим, т. е. р 1 = 0,3. Для того чтобы
да
величина X приняла значение 2 ,
‘ нужно, чтобы при первом применении
устройство попало в благоприятный
режим, а при втором — в неблаго­
приятный; вероятность этого - р3 =
= 0,7 ■0,3 «= 0,21. Чтобы величина X приняла значение 3, нужно, чтобы два
первых раза устройство попало в благоприятный режим (после третьего
раза его все равно придется регулировать). Вероятность этого равна
Ръ = 0,72 = 0>49
Ряд распределения величины X имеет вид:
XI
1
2
3
Р1
0,30
0,21
0,49
Многоугольник распределения показан на рис. 5.1.6.
5.2. Функция распределения
В преды дущ ем п° мы ввели в рассм отрение ряд распределения
как исчерпы ваю щ ую х арак тери сти к у (закон распределения) п р ер ы в­
ной случайной величины. О дн ако эта х арак тери сти к а не является
универсальной; она сущ ествует то л ько для преры вны х случайных
величин. Н е т р у д н о убедиться, что для непреры вной случайной вел и ­
чины т а к о й характери сти ки построить нельзя. Д ей стви тельн о, н еп р е­
ры вная сл уч ай н ая величина имеет бесчисленное м нож ество во зм о ж ­
ных знач ений, сплош ь заполняю щ их некоторы й п ром еж уток (так назы ­
ваем о е «несчетное м нож ество»). С оставить таблицу, в к о то р о й были бы
п еречислены все возм ож ны е значения такой случайной величины, н е­
ФУНКЦИЯ
6.21
73
РА СПРЕДЕЛЕНИЯ
возм ож но. К ром е то го , как мы увидим в дальнейш ем , каж до е о тд ел ь ­
ное значение непрерывной случайной величины обычно не обладает
никакой отличной o r нуля вероятностью . С ледовательн о, для н еп р е­
рывной случайной величины не сущ ествует ряда распределения в том
смысле, в каком он сущ ествует для преры вной величины. О днако
различны е области возм ож ны х значений случайной величины все же
не являю тся одинаково вероятны м и, и для непреры вной величины
сущ ествует «распределение вероятностей», хотя и‘ не в том смысле,
как для преры вной.
Д ля количественной характери сти ки этого распределения в е р о ят­
ностей удобно воспользоваться не вероятностью собы тия X = х ,
В вероятностью события X < х , где х — н екоторая текущ ая п ер е­
менная. В ероятность этого собы тия, очевидно, ^ависит от х , есть
Некоторая ф у н к ц и я от х . Эта функция назы вается функцией р а с ­
пр е де ления случайной величины X и обозначается F (х) \
F ( x ) = P ( X < х).
'
(5 .2 .1 )
Функцию распределения F ( x ) иногда называю т такж е и н т е г р а л ь ­
ной функцией р а с п р е д е л е н и я или и нте гра льн ым з а к о н о м р а с ­
пределения.
Ф ункция распределения — самая универсальная хар ак тер и сти к а
случайной величины. О на сущ ествует для всех случайных величин:
Как преры вны х, так и непреры вны х. Функция распределения полыостью х ар ак тер и зу ет случайную величину с вероятностной точки
врёния, т. е. является одной из форм закона распределения.
С ф ормулируем некоторы е о б щ и е с в о й с т в а функции р ас п р е­
деления.
1. Функция распределения F (х) есть неубываю щ ая функция своего
аргум ента, т. е. при х 2 > х г F ( x 2) ^ F ( x l).
2. Н а минус бесконечности функция распределения равна нулю:
F ( — о о ) = 0.
3. Н а плюс бесконечности
функция распределения равна
■единице:
F(-f о о ) = 1 .
-**■
---------------- ------------ *----- ■£---------------- х
'
Рис 52Л,
Н е давая строгого док азател ьства этих свойств, проиллю стрируем
наглядной геом етрической интерпретации. Д ля этого
будем рассм атривать случайную величину X как с л у ч а й н у ю
т о ч к у X на оси О х (рис. 5 .2 .1 ), которая в результате опыта м ож ет
ванять то или иное полож ение. Т огда функция распределения F (х)
есть вероятность того, что случайная точка X в результате опыта
: Попадет л е в е е точки х.
' ... Будем увеличивать х , т. е. перемещ ать точку х вправо по оси
абсцисс. О чевидно, при этом вероятность то го , что случайная точка X
ИХ с помощью
74
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И
ИХ ЗАКОНЫ
РА С П РЕДЕЛЕН И Я
(ГЛ. 5
попадет левее х , не м ож ет ум еньш иться; сл едовател ьн о , функция
распределения Р ( х ) с возрастанием х убы вать не I м ож ет.
Ч тобы убедиться в том , что
— оо) = 0. будем неограниченно
перемещ ать точку х влево по оси абсцисс. П ри этом попадание с л у ­
чайной точки X левее х в пределе становится невозмож ны м со б ы ­
тием; естественно полагать, что вероятность этого собы тия стрем ится
к нулю, т. е. Р ( — оо) = 0.
Аналогичным образом , неограниченно перемещ ая точку х вправо,
убеж даемся, что / 7 ( - | - с о ) = 1 , так как событие X < х становится
в п ределе достоверны м .
Г раф ик функции распределения Р (л;) в общ ем случае п редставляет
собой граф ик неубываю щ ей функции (рис. 5 .2 ,2 ), значения к о то р о й
начинаются от 0 и доходят
до 1, причем в отдельны х
то ч ках функция мож ет иметь
скачки (разры вы ).
Зная ряд распределения
преры вной случайной вел и ­
чины, м ож но легко построить
функцию распределения этой
величины.
Д ей стви тельн о,
Р (х) = Р ( X < х) —
х1 < .г
где неравенство х 1 < ^ х под
знаком
суммы указы вает,
на все те значения х г, которы е
что суммирование распростран яется
меньш е х.
К огда текущ ая переменная х проходит через какое-н и будь из
возмож ны х значений преры вной величины X , функция распределения
меняется скачкообразн о, причем величина скачка равна вероятности
этого значения.
П р и м е р 1. Производится один опыт, в котором может появиться
или не появиться событие А. Вероятность события А равна 0,3. Случайная
величина X — число появлений события А в опыте (характеристическая
случаНная величина события А). Построить ее функцию распределения.
Р е ш е н и е . Ряд распределения величины л имеет вид:
8.2)
ФУНКЦИЯ
75
РА СПРЕДЕЛЕНИЯ
Построим функцию распределения величины Х\
1) при х < О
Р (х) = Р ( Х < х) = 0;
2) при 0 < х < 1
Р (х) = Р (.X < х ) = * Р { Х = 0) = 0,7;
3) при х > 1
Р (х) = Р (X < х) = Р (X = 0) 4 - Р (X = I) = 1.
График функции распределения представлен на рис. 5.2.3. В точках раз­
рыва функция Р{х) пр-лнимает значения, отмеченные ка чертеже точками
(функция непрерывна слева).
. Пт)____
!
I
I
I
__ ____________ !________ !________ I
'
0
1
2
3
*
Рис. 6.2.3,
П р и м е р . 2. В условиях предыдущего примера производится 4 неза­
висимых опыта. Построить функцию распределения числа появлений
события А.
Р е ш е н и е . Обозначим X — число появлений события А в четырех
опытах. Эта величина имеет ряд распределения
XI
0
1
2
3
4
Л
0,2401
0,4116
0,2646
0,0756
0,0081
Построим функцию распределения случайной величины X :
1) при * < 0
2) при 0 < х ^ 1
3) при 1 < х < 2
4) при 2 < х ^ 3
5) при 3 < х
4
6) при х > 4
Р(х)^0;
Р (х) = 0,2401;
Р (х) — 0,6517;
Р (х) = 0,9163;
Р( х) — 0,9919;
Р ( х) = 1.
График функции распределения представлен на рис. 5.2.4.
76
случайны е
величины
и
ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
[ГЛ. 5
Ф ункция распределения лю бой преры вной случайной величины
всегда есть разры вная ступенчатая ф ункция, скачки к о то р о й п роис­
ходят в точ ках, соответствую щ их возможны м значениям случайной
величины, и равны вероятностям этих значений. Сумма всех скачков
функции F (х) равна единице.
П о м ере увеличения числа возм ож ны х значений случайной вел и ­
чины и уменьш ения интервалов между ними число скачков становится
больш е, а сами скачки — меньше; ступенчатая кривая становится
более плавной (рис. 5 .2 .5 ); случайная величина постепенно прибли­
ж ается к непреры вной величине, а ее функция распределения — к н е­
преры вной функции (рис. 5 .2 .6 ).
Н а п р акти ке обы чно функция распределения непреры вной сл у ­
чайной величины представляет собой функцию , непреры вную во всех
ФУНКЦИЯ
77
РАСПРЕДЕЛЕНИЯ
точ ках, как это показано на рис. 5 .2 .6 . О днако м ож но п острои ть
примеры случайных величин, возм ож ны е значения к отор ы х непреры вно
заполняю т некоторы й п ром еж уток, но для которы х функция р ас п р е­
деления не везде является непреры вной, а в отдельны х точках терп и т
Рис. 5.2.6.
разры вы (рис. 5 .2 .7 ). Т акие случайные величины называю тся с ме ша н ­
ными. В качестве прим ера смеш анной величины можно привести
площ адь разруш ений, наносимы х цели бомбой, радиус р азр у ш и тел ь­
ного действия к оторой равен /? (рис. 5 .2 .8 ). Значения этой случайной
величины н епреры вно заполняю т п ром еж уток от 0 до и/?2, но при
Рис. 5.2.7.
Рис. 5.2.8.
этом крайние значения пром еж утка 0 и тс/?2, осущ ествляю щ иеся при
полож ениях бомбы типа / и / / , обладаю т определенной конечной
вероятностью , и этим значениям соответствую т скачки функции р а с ­
п ределения, тогд а как в пром еж уточны х значениях (полож ение типа III)
функция распределения непреры вна. Д ругой пример смешанной сл у ­
чайной в ел и ч и н ы — время Т безотказн ой работы прибора, испы ты ­
ваем ого в течение времйни t. Ф ункция распределения этой случайной
величины непреры вна всю ду, к ром е точки t.
78
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
[ГЛ. 5
5.3. Вероятность попадания случайной величины
на заданный участок
П ри реш ении практических задач, связанных со случайными вели ­
чинами, часто оказы вается необходимым вычислять вероятность того,
что случайная величина прим ет значение, заклю ченное в н екоторы х
пределах, например от а до р. Это событие мы будем назы вать
«попаданием случайной величины X на участок от а до р».
Условимся для определенности левый конец а вклю чать в у ч а ­
сток (а, (3), а правый — не вклю чать. Т огда попадание случайной
величины X на участок (а, р) равносильно выполнению неравенства:
а
< р.
Вы разим вероятность этого события через функцию распределения
величины X . Д ля этого рассм отрим три события:
собы тие А, состоящ ее в том , что X < [3;
собы тие В, состоящ ее в том , что X < а;
собы тие С , состоящ ее в том , что а ^ X < р.
Учитывая, что
имеем:
А = В-\-С,
по теорем е
слож ения
вероятностей
Р ( Х < р) = Р ( Х < а) + Р ( а < X < Р).
или
.
/ ? ( р ) = / 7 (а) + Я ( а < ^ < р ) ,
откуда
Р ( л ^ Х < р) = Т7 (Р) — Р (а),
(5 .3 .1 )
т. е. вероятность п о п а д а н и я с лу чайной величины н а зад анн ый
у ча сто к р а в н а п ри р а щ ен ию функции р а с п р е д е л е н и я н а этом
участке.
Будем неограниченно ум еньш ать участок (а, р), полагая, что
р —> а . В пределе вм есто вероятности попадания на у часток получим
вероятн ость то го , что величина примет отдельно взятое значение а:
Р ( Х = а ) — 1 1 ш Я ( а < А '< Р) = П т [ / г (р) — ^ ( а ) ] .
р->а
(5 .3 .2 )
р->а
Значение этого предела зависит от того, непреры вна ли ф у н к­
ция Р (х) в точ ке х = а или ж е терпит разры в. Если в точке а
функция Р (х) имеет разры в, то предел (5 .3 .2 ) равен значению скачка
функции Р (х) в точ ке а . Если ж е функция Р ( х ) в точке а н еп р е­
ры вна, то этот предел р а в е н н у л ю .
В дальнейш ем изложении мы условимся назы вать «непрерывными»
то л ь к о те случайные величины, функция распределения ко то р ы х везде
непреры вна. И мея это, в виду, можно сф орм улировать следую щ ее
положение:
6.31
ВЕРОЯТНОСТЬ ПОПАДАНИЯ НА ЗАДАННЫ Й УЧАСТОК
79
В е ро я тн ос ть л юб о г о отдельного значени я н епр е ры вн ой с л у ­
чайной величины р а в н а нулю.
О становим ся на этом полож ении н есколько подробн ее. В данном
к у р се мы уж е встречались с событиями, вероятности к о то р ы х были
равны нулю: это были невозмож ны е события. Т еперь мы видим, что
обладать нулевой вероятностью м огут не то л ько невозмож ны е, но и
возм ож ны е собы тия. Д ействительно, событие X = а, состоящ ее в том,
что непреры вная случайная величина X прим ет значение а, возм ож но;
одн ако вероятность его равна нулю. Т акие события — возм ож ны е, но
с нулевой вероятн остью — появляю тся то л ько при рассм отрении опы тов,
не сводящ ихся к схеме случаев.
П онятие о событии «возм ож ном , но обладаю щ ем нулевой в е р о ят­
ностью » каж ется на первый взгляд парадоксальны м . В д ей стви тель­
ности оно не более парадоксально, чем представление о теле, имеющем
определенную массу, тогда как ни одна из точек внутри тела о п р е­
деленной конечной массой не обладает. С коль угодн о малый объ ем ,
выделенный из тела, обладает определенной конечной массой; эта
масса приближ ается к нулю по мере уменьш ения об ъ ем а и в пределе
равна нулю для точки. А налогично при непрерывном распределении
вероятностей вероятность попадания на сколь угодно малый участок
м ож ет бы ть отлична о т нуля, тогда к ак вероятность попадания
в строго определенную точку в точности равна нулю.
Если производится опы т, в котором непреры вная случайная вели­
чина X долж на принять одно из своих возм ож ны х значений, т о до
опыта вероятность каж дого из таких значений равна нулю; однако,
в исходе опы та случайная величина X непременно примет одно из
своих возм ож ны х значений, т. е. заведомо произой дет одно из собы ­
тий, вероятности к оторы х были равны нулю.
И з то го, что событие X = а имеет вероятность, равную нулю,
вовсе не следует, что это собы тие не будет появляться, т. е. что
частота этого события равна нулю. Мы знаем, что частота события
при больш ом числе опытов не равна, а то л ько приближ ается к в ер о ят­
ности. И з то го , что вероятность события X = а равна нулю, следует
то л ь к о , что при неограниченном повторении опыта это собы тие
будет появляться сколь угодно редко.
Если собы тие А в данном опыте возм ож но, но имеет вероятн ость,
равную нулю , то противополож ное ему собы тие А имеет вероятность,
равную единице, но не достоверно. Д ля непреры вной случайной
величины X при любом а собы тие X Ф а имеет вероятность, равную
единице, однако это собы тие не достоверн о. Т ако е событие при
неограниченном повторении опы та будет происходить п о ч т и всегда,
н о не всегда.
В п °5 .1 мы познаком ились с «м еханической» интерпретацией
п реры вн ой случайной величины как распределения единичной массы,
со ср ед о то ч ен н ой в нескольких изолированны х точках на оси абсцисс.
80
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
[ГЛ. S
В случае непреры вной случайной величины механическая ин терп ре­
тация сводится к распределению единичной массы не по отдельным
точкам, а непреры вно по оси абсцисс, причем ни одна точка не
обладает конечной массой.
5 .4 . П л о т н о с т ь р а с п р е д е л е н и я
П усть имеется непреры вная случайная величина X , с функцией
распределения F (х), которую мы предполож им непреры вной и ди ф ­
ференцируем ой. Вычислим вероятность попадания этой случайной
величины на участок от х д о х - { - А х :
Р ( х < X < х + Ах) = F ( х -+- Ах) — F (х ),
т. е. приращ ение функции распределения на этом у частке. Р ассм о т­
рим отнош ение этой вероятности к длине участка^ т. е. с р е д н ю ю
в е р о я т н о с т ь , приходящ ую ся на единицу длины на этом участке,
и будем приближ ать Ах к нулю. В пределе получим п р о и з в о д ­
н у ю от функции распределения:
lim Ддг->0
(5 .4 .1 )
Введем обозначение:
/ ( * ) = / > '( * ) .
(5 .4 .2 )
Функция f ( x ) — производная функции р асп ред ел ен и я— х ар а к те­
ри зует как бы п л о т н о с т ь , с к оторой распределяю тся значения
случайной величины в данной точке. Эта функция назы вается п л о т­
ностью р а с п р е д е л е н и я (иначе—
«плотностью ве р о ятн о с ти » )н е п р е­
рывной случайной величины X .
И ногда функцию f ( x ) называю т
такж е «диф ференциальной ф у н к­
цией распределения» или «диф ф е­
ренциальным законом р асп р ед ел е­
ния» величины X .
Термины «плотность р асп ред е­
ления», «п лотн ость вероятности»
становятся особенно наглядными
Рис. 5.4.1.
при пользовании
м еханической
интерпретацией
распределения;
в этой интерпретации функция f (х) буквально х ар ак тер и зу ет
п л о т н о с т ь распределения масс по оси абсцисс (так называемую
«линейную плотность»). Кривая, изображ аю щ ая плотность расп ределения случайной величины, называется к р и в о й р а с п р е д е л е н и я
(рис. 5 .4 .1 ).
ЬА)
81
ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ
П лотность распределения, та к ж е как и функция распределения,
есть одна из форм закона распределения. В п роти вополож н ость
функции распределения эта ф орм а не является уни версальной: она
сущ ествует тол ько для н еп реры в­
ных случайны х величин.
Р ассмотрим непрерывную сл у ­
чайную величину X с плотностью
р аспределения / (х) и эл ем ен тар­
ный участок й х , примыкаю щ ий
к точ ке х (рис. 5 .4 .2 ). В е р о я т­
ность попадания случайной вели­
чины X на этот элементарный
у часток (с точностью до б е с к о ­
нечно малых вы сш его порядка)
равна / ( х ) й х . Величина / ( х ) й х
назы вается элементом в е р о я т ­
ности. Геометрически это есть
площ адь элем ентарного прям оугольника, опираю щ егося на о тр еаок й х (рис. 5 .4 .2 ).
Выразим вероятность попадания величины X на о тр езо к о т а до р
(рис. 5 .4 .3 ) через плотность распределения. О чевидно, она равна
сумме элементов вероятности на всем этом участке, т. е. интегралу:
Р
/ > ( « < * . < р) = |
/ ( х ) й х ]).
(5 .4 .3 )
Геометрически вероятность
попадания
величины
X
на
участок (а, р) равна площ ади
кривой
распределения,
оп и ­
раю щ ейся
на
этот участок
(риС. 5 .4 .3 ).
Ф ормула (5 .4 .2 ) вы раж ает
плотность распределения через
функцию распределения. Зададим ся обратной задачей: вы разить ф у н к ­
цию распределения через плотность. П о определению
/* ( х ) — Р ( X < х) — Р (— оо < X < лг),
о ткуда по ф орм уле (5 .4 .3 ) имеем:
Р (х)=
£ / ( х)( 1х .
(5 .4 .4 )
') Так как вероятность любого отдельного значения непрерывной слу­
чайной величины равна нулю, то можно рассматривать здесь отрезок (а, р),
не включая в него левый конец, т. е. отбрасывая знак равенства в а < ^ < р .
82
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
ГГЛ. 5
Геометрически Р (х) есть не что иное, к ак площ адь кри вой р а с ­
пределения, леж ащ ая левее точки х (рис. 5 .4 .4 ).
Укажем основны е свойства плотности распределения.
1. П лотность распределения есть неотрицательная функция:
/ ( * ) > 0.
Э то свойство непосредственно вы текает из то го , что ф ункция
распределения Р ( х ) есть неубы ваю щ ая функция.
2. И н теграл в бесконечны х пределах от плотности расп ределен и я
равен единице:
00
£ / (х) й х — I.
г
Рис. 5.4.4.
—оо
Э то следует из ф орм улы
(5 .4 .4 )
и
из
то го ,
что
Р ( + оо) * 1.
Геом етрически
основны е
свойства плотности р ас п р ед е­
ления означаю т, что:
1)
вся кривая распределения
л еж ит не ниже оси абсцисс;
ограниченная
кривой распределения и осью
2)
полная площ адь,
абсцисс, равна единице.
Выясним разм ерн ости основны х хар ак тер и сти к случайной вел и ­
ч и н ы — функции распределения и плотности распределения. Ф ункция
распределения Р ( х ) , как всякая вероятн ость, есть величина б е зр а з­
м ерная. Разм ерн ость плотности распределения / (je), как видно из
ф орм улы (5 .4 .1 ), обратн а разм ерн ости случайной величины.
П р и м е р 1. Функция распределения непрерывной случайной величины X
задана выражением
0
при х < О,
F ( x ) :=
ах г при
1
0<л:<1,
при х > 1.
а) Найти коэффициент а.
б) Найти плотность распределения / (лг).
в) Найти вероятность попадания величины X на участок от 0,25 до 0,5.
Р е ш е н и е , а) Так как функция распределения величины X непрерывна,
то при х = 1 ах 2 = 1, откуда а ~ 1.
б) Плотность распределения величины X выражается формулой
0
/( * ) =
2х
0
в) По формуле (5.3.1) имеем:
при
при
при
х <; 0,
0 < х < 1,
х > 1.
Р (0,25 < Х < 0,5) = F (0,5) — F (0,25) = 0,5» — 0,25г - 0,1875.
'8 3
ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ
5.41
П р и м е р 2. Случайная величина X подчинена закону распределения
с плотностью:
п
я
/ (х) = а соз х при —
< х < -j
/(* ) = О
а)
б)
в)
г)
при
jc <
—
Х >
ИЛИ
Найти коэффициент а.
Построить график плотности распределения / ( * ) .
Найти функцию распределения F (х) и построить
Найти вероятность попадания ве­
ее
график.
ТО
личины X на участок от 0 до —.
Р е ш е н и е , а) Для определения
коэффициента а воспользуемся свойст­
вом плотности распределения:
ио
J f (х) dx =
J a cos х d x = 2а = 1,
1
откуда а = -^.
б) График плотности f (x)
представлен
на
рис.
5.4.5.
в) По формуле (5.4.4) получаем выражение функции распределения:
л
О при
-2 ( s l n * + l )
1
при
^
— -g < * < J-,
при х > ~ 2 .
График функции F (х) изображен на рис. 5.4.6.
84
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
[ГЛ. 5
г) По формуле (5.3.1) имеем:
я (о С х С -J) - i
(sin -J + 1 ) - i ( s l n 0 + 1) -
.
Тот же результат, но несколько более сложным путем можно получить
по формуле (5.4.3).
fftf
О
Рис. 5.4.7.
Пример
формулой:
3. Плотность распределения случайной величины X задана
/м-чпЬт1''
а) Построить график плотности f ( x ) .
б) Найти вероятность того, что величина X попадет на участок (—1,-f-l).
Р е ш е н и е , а) График плотности дан на рис. 5.4.7.
б) По формуле (5.4.3) имеем:
¥ « c t g j r |L i — у .
5.5. Числовы е характеристики случайных величин.
Их роль и назначение
В данной главе мы познаком ились с рядом полны х, исчерпы ваю ­
щ их х ар актери сти к случайных величин — так называемых законов
распределения. Такими характеристикам и были:
для дискретной случайной величины
а) функция распределения;
б) ряд распределения (граф ически — м ногоугольник распределения);
для непреры вной величины
а) функция распределения;
•
б) плотность распределения (граф ически — кривая распределения).
‘) Так называемый закон Коши.
Б.6]
ХАРАКТЕРИСТИКИ ПОЛОЖ ЕНИЯ
85
Каждый закон распределения представляет собой некоторую
ф у н к ц и ю , и указание этой функции полностью описы вает случай­
ную величину с вероятностной точки зрения.
О днако во многих вопросах практики нет необходим ости х ар а к те­
ризовать случайную величину полностью , исчерпывающ им образом .
Зачастую достаточно бы вает указать тол ько отдельны е числовые
п араметры , до некоторой степени характеризую щ ие сущ ественны е
черты распределения случайной величины: например, к ак о е-то с р е д ­
нее значение, около ко то р о го группирую тся возм ож ны е значения с л у ­
чайной величины; к ак ое-л и б о число, характеризую щ ее степень р а з ­
бросанности этих значений относительно среднего, и т. д. П о л ь ­
зуясь такими характеристикам и, мы хотим все сущ ественные св е­
дения относительно случайной величины, которыми мы располагаем,
вы разить наиболее компактно с помощью минимального числа числовых
п арам етров. Такие характеристики , назначение которы х — вы разить
в сж атой форме наиболее сущ ественные особенности распределения,
называю тся числовыми х а р а к т е р и с т и к а м и случайной величины.
В теории вероятностей числовые характеристики и операции с ними
играю т огромную роль. С помощью числовых характери сти к су щ е­
ственно облегчается реш ение многих вероятностны х задач. Очень
часто удается реш ить задачу до конца, оставляя в стороне законы
распределения и оперируя одними числовыми характеристикам и. П ри
этом весьма важную роль играет то обстоятельство, что когда
в задаче ф игурирует больш ое количество случайных величин, каж дая
из которы х оказы вает известное влияние на численный результат опыта,
то закон распределения этого результата в значительной м ере можно
считать независимым от законов распределения отдельны х случайных ве­
личин (возникает так называемый нормальный закон распределения).
В этих случаях по сущ еству задачи для исчерпы ваю щ его суж дения
о результирую щ ем законе распределения не требуется знать законов р а с ­
пределения отдельны х случайных величин, ф игурирую щ их в задаче; д о ­
статочно знать лишь некоторы е числовые характеристики этих величин.
В теории вероятностей и математической статистике применяется
больш ое количество различных числовых характери сти к, имеющих
различное назначение и различные области применения. И з них
в настоящ ем к урсе мы введем тол ько н екоторы е, наиболее часто
применяемые.
5.6.
Х арактеристики положения
(м атематическое ожидание, мода, медиана)
С реди числовых характеристи к случайных величин нужно преж де
всего отметить те, которы е характеризую т п о л о ж е н и е случайной
величины на числовой оси, т. е. указы ваю т некоторое среднее,
ориентировочное значение, около которого группирую тся все во зм о ж ­
ные значения случайной величины.
86
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
[ГЛ. 5
С реднее значение случайной величины есть некоторое число,
являю щ ееся как бы ее «представителем » и заменяю щ ее ее при грубо
ориентировочны х расчетах. К огда мы говорим: «среднее время работы
лампы равно 100 часам» или «средняя точка попадания смещ ена о т ­
носительно цели на 2 м вправо», мы этим указы ваем определенную
числовую характери стику случайной величины, описываю щ ую ее
м естополож ение на числовой оси, т. е. «характери сти ку полож ения».
И з характеристик полож ения в теории вероятностей важнейш ую
р о л ь играет математическое ожидание случайной величины, к о ­
то р о е иногда называю т просто средним значением случайной
величины.
Рассмотрим дискретную случайную величину X , имеющую в о з ­
можные значения х х, х 2, . . . . х„ с вероятностями р х, р 2...........р п. Нам
требуется охарактери зовать каким -то числом полож ение значений
случайной величины на оси абсцисс с учетом того, что эти значения
имеют различны е вероятности. Д ля этой цели естественно в о сп о л ьзо ­
ваться так называемым «средним взвеш енны м» из значений x it причем
каж до е значение x t при осреднении долж но учиты ваться с «весом »,
пропорциональны м вероятности этого значения. Таким образом , мы
вычислим среднее значение случайной величины X , к оторое мы о б о ­
значим М [ Х ] :
П
М
I V I _
X lP l
Х зР з
Рх +
-f~
Рг +
-\~Х пРп
•••
•••
+ Р п
_
=_i____
' = 1
"
I,"
или, учитывая, что 2 / ’i — 1*
М [ Х 1 = ^ х {р,.
/=I
(5 ,6 .1 )
Э то среднее взвеш енное значение и назы вается математическим
ожиданием случайной величины. Таким образом , мы ввели в р а с ­
смотрение одно из важнейш их понятий теории вероятностей — пон я­
тие м атем атического ожидания.
Ма те ма ти ч ес ки м ожиданием случайной величины называется
с у м м а произведений всех возможных значений с лучайной ве ли­
чины на в ероятнос ти этих значений.
Заметим, что в выш еприведенной ф орм ули ровке определение м ате­
м атического ожидания справедливо, строго говоря, то л ько для д и ­
скр етн ы х случайных величин; ниже будет дано обобщ ение этого п о ­
нятия на случай непреры вны х величин.
Д ля то го чтобы сделать понятие м атематического ожидания более
наглядным, обратим ся к м еханической интерпретации распределения
ХАРАКТЕРИСТИКИ ПОЛОЖ ЕНИЯ
5.61
87
дискретной случайной величины. П усть на оси абсцисс располож ены
точки с абсциссами д^, х 2, . . . . х п, в к о то р ы х сосредоточен ы со о т-
П
ветственно массы р , , р 2, . . . . р п, причем 2 Pi — 1- Т огда, очевидно,
i = 1.
м атематическое ож идание М [ Х ] , определяем ое ф орм улой ( 5 .6 .1 ),
есть не что иное, как абсцисса ц е нт р а тяжести данной системы
м атериальны х точек.
М атематическое ож идание случайной величины X связано св о е­
образной зависим остью со с р е д н и м а р и ф м е т и ч е с к и м н аблю ­
денных значений случайной величины при больш ом числе опы тов.
Эта зависимость того ж е типа, к ак зависим ость между частотой и
вероятностью , а именно: при больш ом числе опытов среднее ар и ф ­
м етическое наблю денных значений случайной величины приближ ается
(сходится по вероятности) к ее м атематическому ожиданию . И з нали­
чия связи между частотой и вероятностью м ожно вывести как сл ед ­
ствие наличие подобной ж е связи между средним арифметическим к
м атематическим ожиданием.
•
Д ействительно, рассм отрим дискретную случайную величину X ,
х арактеризуем ую рядом распределения:
Х\
х2
.
.
.
хп
Pi
Рг
.
.
.
Рп
где Pl — P ( X = x i).
П усть производится N независимы х опы тов, в каж дом из ко то р ы х
величина X принимает определенное значение. П редполож им , что
значение х 1 появилось т 1 р аз, значение х 2 появилось тг р аз, вообщ е
значение x t появилось т { р аз. О чевидно,
П
т, — ЛЛ
Вычислим среднее ариф м етическое наблю денных значений вели ­
чины X , ко то р о е в отличие о т м атем атического ожидания М [ Х \ мы
обозначим М * [ Х ]:
Л Г [,Y] =
x imi + x nm2 +
••• + х птп
88
случайны е
Но
величины
и
ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
[ГЛ. 6
есть не что иное, как ч а с т о т а (или статистическая в е ­
роятность) события X ~ x L\ эту частоту можно обозначить р*. Т огда
\ x tP],
т. е. среднее ариф метическое наблю денных значений случайной в ел и ­
чины равно сумме произведений всех возможны х значений случайной
величины на частоты этих значений.
П ри увеличении числа опытов N частоты р * будут приближ аться
(сходиться по вероятности) к соответствую щ им вероятностям p t.
С ледовательно, и среднее ариф метическое наблю денных значений
случайной величины Л Г |A"1 при увеличении числа опытов будет п ри ­
ближ аться (сходиться по вероятности) к ее м атематическому ож и д а­
нию М [А-!.
С ф орм улированная выше связь между средним арифметическим и
м атематическим ожиданием, составляет содерж ание одной из форм
закона больш их чисел. С трогое доказател ьство этого закона будет
дано нами в главе 13.
Мы уж е знаем, что все ф орм ы закон а больш их чисел ко н стати ­
рую т ф акт устойчивости некоторы х средних при больш ом числе опы ­
тов. Здесь речь идет об устойчивости среднего ариф метического из
ряда наблюдений одной и той ж е величины. П ри небольш ом числе
опытов среднее ариф метическое их результатов случайно; при д о с т а ­
точном увеличении числа опытов оно становится «почти не случай­
ным» и, стабилизируясь, приближ ается к постоянной величине —
м атематическом у, ожиданию.
С войство устойчивости средних при больш ом числе опытов легко
проверить эксперим ентально. Н априм ер, взвеш ивая к ак о е-л и б о тело
в лаборатории на точных весах, мы в результате взвеш ивания п о л у ­
чаем каж дый раз новое значение; чтобы уменьш ить ош ибку наблю ­
дения, мы взвеш иваем тело несколько раз и пользуем ся средним
арифметическим полученных значений. Л егко убедиться, что при
дальнейш ем увеличении числа опытов (взвеш иваний) среднее ариф м е­
тическое реагирует на это увеличение все меньш е и меньше и при
достаточно больш ом числе опытов практически перестает меняться.
Ф орм ула (5 .6 .1 ) для математического ожидания соответствует
случаю ди скретной случайной величины. Д ля непреры вной величины X
м атематическое ожидание, естественно, вы раж ается уж е не суммой,
а интегралом:
СО
М\Х] =
J xf(x)dx,
— СО
где / (лг) — плотность распределения величины X .
(5 .6 .2 )
6.6]
ХАРАКТЕРИСТИКИ ПОЛОЖ ЕНИЯ
89
Ф орм ула (5 .6 .2 ) получается из ф орм улы (5 .6 .1 ), если в ней зам е­
нить отдельны е значения лг/ непреры вно изменяющ имся парам етром х ,
соответствую щ ие вероятности p t — элементом вероятн ости f \ x ) d x ,
конечную сумму — интегралом . В дальнейш ем мы часто будем п о л ь ­
зоваться таким способом распространения ф орм ул, выведенных для
преры вны х величин, на случай непреры вны х величин.
В м еханической интерпретации м атематическое ож идание н еп р е­
рывной случайной величины сохраняет то т ж е смысл — абсциссы
центра тяж ести в случае, когда м асса распределена по оси абсцисс
непреры вно, с плотностью f (х). Э та интерпретация часто п озволяет
найти математическое ож идание без вычисления интеграла (5 .6 .2 ), из
просты х м еханических соображ ений.
Выш е мы ввели обозначение А1 [Х\ для м атематического о ж и д а­
ния величины X . В ряде случаев, когда величина М [X] входит
в ф орм улы как оп ределенное число, ее удобнее обозначать одной
буквой. В этих случаях мы будем обозначать м атематическое о ж и д а­
ние величины X через тх\
тх — М [X].
О бозначения тх и М [X] для м атематического ож идания будут
в дальнейш ем применяться п араллельно в зависим ости от удобства
той или иной записи ф орм ул. Условимся такж е в случае надобности
со кр ащ ать слова «м атематическое ож идание» буквами м. о.
С ледует заметить, что важнейш ая х арак тери сти к а полож ения —
м атематическое ож идание — сущ ествует не для всех случайных вели ­
чин. М ожно составить прим еры таких случайных величин, для ко то р ы х
м атематического ож идания не сущ ествует, так как соответствую щ ая
сумма или интеграл расходятся.
Р ассм отрим , наприм ер, преры вную случайную величину X с рядом
распределения:
xi I 2
1
P l
22
. . .
1
2‘
1
2‘
2
Н етр у дн о убеди ться в том, что 2
. . .
. . .
Р, — Ь т - е - Р ДД расп р ед ел е-
СО
ния имеет смысл; однако сумма 2
Х 1Р 1 в данном случае расходится
и, следовательно, м атем атического ож идания величины X не сущ е­
ствует. О днако для практики такие случаи сущ ественного интереса
не представляю т. О бычно случайные величины, с которы м и мы имеем
д ел о , имеют ограниченную область возм ож ны х значений и безусловн о
о бладаю т математическим ожиданием.
90
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
[ГЛ. 5
Выше мы дали ф орм улы (5 .6 .1 ) и (5 .6 .2 ), вы раж аю щ ие м атем ати­
ческое ож идание соответственно для преры вной и непреры вной сл у ­
чайной величины X .
Если величина X принадлеж ит к величинам смеш анного типа, то
ее м атематическое ож идание вы раж ается ф орм улой вида:
М1ЛТ] — У ^ х 1р 1 -\-
I
.
+ £ х Р '{ х )< 1х ,
(5 .6 .3 )
где сумма распространяется
на все точки
в к о то р ы х
функция распределения т е р ­
пит р азры в, а интеграл — на
все участки, на к о торы х
функция распределения не­
преры вна.
Рис. 5.6.1,
Кром е важнейш ей из х а ­
рактеристик полож ения —м а­
тем атического ож идания, — на п рактике иногда применяю тся и другие
хар актер и сти ки полож ения, в частности м о д а и ме диа на случайной
величины.
М о д о й случайной величины назы вается ее наиболее вероятное
значение. Термин «наиболее вероятное значение», строго говоря,
применим то л ько к прерывным величинам; для непреры вной величины
модой является то значение, в котором плотность вероятности м акси ­
мальна. У словимся обозначать моду буквой о41. Н а рис. 5.6.1 и
5 .6 .2 показана м ода соответственно для преры вной и непреры вной
случайны х величин.
6.61
ХАРАКТЕРИСТИКИ ПОЛОЖ ЕНИЯ
91
Если м ногоугольник распределения (кривая распределения) имеет
более одного максимума, распределение назы вается «полимодальным»
(рис. 5 .6 .3 и 5 .6 .4 ).
И н огда встречаю тся распределения, обладаю щ ие посередине не
максимумом, а минимумом (рис. 5 .6 .5 и 5 .6 .6 ). Т акие распределения
назы ваю тся «антимодальны ми». П римером антим одального расп р ед е­
ления м ож ет служ ить распределение, полученное в прим ере 5 , п° 5 .1 .
92
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
(ГЛ
5
В общем случае мода и м атематическое ож идание случайной в е л и ­
чины не совпадаю т. В частном случае, когда распределен и е является
симметричным и модальным (т. е. имеет моду) и сущ ествует м ате­
матическое ож идание, то оно совпадает с модой и центром симметрии
распределения.
Часто применяется ещ е одна характеристи ка положения — так на­
зываемая м ед и ан а случайной величины. Этой характери сти кой п оль­
зую тся обычно только для
непреры вны х случайных ве­
личин,
хотя
форм ально
можно ее определить и для
преры вной величины.
М е диа н ой случайной в е ­
личины X назы вается такое
ее значение а*Ме, для к о ­
то р о го
Р (X
<
аЯе)=Р (X
>
аНе),
т. е. одинаково вероятно,
окаж ется ли случайная вели­
чина меньше или больш е о/Не.
Геометрическая медиана — это абсцисса точки, в к оторой п лощ адь,
ограниченная кривой распределения, делится пополам (рис. 5 .6 .7 ).
В случае симметричного модального распределения медиана с о в ­
падает с математическим ожиданием и модой.
Рис. 5.6.7.
5.7. Моменты. Дисперсия. Среднее квадратическое отклонение
К ром е характери сти к полож ения — средних, типичных значений
случайной в е л и ч и н ы ,— употребляется ещ е ряд характер и сти к, каж дая
из к о торы х описы вает то или иное свойство распределения. В к ач е­
стве таких характеристик чаще всего применяются так называемые
моменты.
П онятие момента ш ироко применяется в механике для описания
распределения масс (статические моменты, моменты инерции и т. д.).
С оверш енно теми же приемами пользую тся в теории вероятностей для
описания основны х свойств распределения случайной величины. Чащ е
всего применяются на практике моменты двух видов: начальные и
центральны е.
Н ача льн ым мо ме нто м в -го п о р я д к а преры вной случайной
величины X называется сумма вида:
6.7]
МОМЕНТЫ. ДИСПЕРСИЯ
93
О чевидно, это оп ределение совпадает с определением начального
м омента п орядка « в м еханике, если на оси абсцисс в точках
х 2........... х п сосредоточены массы
р 2.............. р п.
Д ля непреры вной случайной величины X начальным моментом
5 -го п оряд ка назы вается интеграл
00
}х'/(х)(1х.
(5 .7 .2 )
—СО
Н етрудно убедиться, что введенная в предыдущ ем п° основная
х ар ак тер и сти к а полож ения — м атематическое ож идание — представляет
собой не что иное, как первый начальный мо ме нт случайной в е ­
личины X .
П о л ьзу ясь знаком м атем атического ож идания, можно объединить
две форм улы (5 .7 .1 ) и (5 .7 .2 ) в одну. Д ействительно, форм улы (5 .7 .1 )
и (5 .7 .2 ) по структуре полностью аналогичны формулам (5 .6 .1 ) и
(5 .6 .2 ), с той разницей, что в них вместо х 1 и х стоят, со о твет­
ственно,
и х 1. П оэтом у м ож но написать общ ее определение началь­
ного момента 5-го порядка, справедливое к ак для преры вны х, так и
для непреры вны х величин:
* , [ * ] = Л! [ * * ].
(5 .7 .3 )
т. е. начальным мо м енто м « -го п о р я д к а с лу чайной величины X
называе тс я математическое ожидание 5-й степени этой с л у ­
чайной величины *).
П ер ед тем к ак дать определение центрального момента, введем
н овое понятие «центрированной случайной величины».
П усть имеется случайная величина X с математическим о ж и д а­
нием тх . Ц е н т р и р о в а н н о й с лу чайной величиной , соответствую щ ей
величине X , назы вается отклонение случайной величины X от ее
м атем атического ожидания:
X = X — тх.
(5 .7 .4 )
У словимся в дальнейш ем везде обозначать центрированную сл у ­
чайную величину, соответствую щ ую данной случайной величине, той
ж е буквой со значком ° наверху.
Н етрудн о убедиться, что математическое ожидание центри рован ­
ной случайной величины равно нулю. Д ействительно, для преры вной
‘) Понятие математического ожидания функции от случайной величины
будет уточнено далее (см. главу 10).
94
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
[ГЛ.
5
величины
п
М [ X] = М [ Х — тх ] = 2
( * 1 — тх) Рь ~
1= \
П
=
П
2 х 1р 1 — т х % р 1 = тх — тх = 0;
1=1
1=1
(5 .7 .5 )
аналогично и для непреры вной величины.
Ц ентрирование случайной величины, очевидно, равносильно п ер е­
носу начала координ ат в средню ю , «центральную » точку, абсцисса
ко то р о й равна математическом у ожиданию.
. М оменты центрированной случайной величины носят название
ц е н т р ал ь ны х моментов. О ни аналогичны моментам относительно
центра тяж ести в м еханике.
Таким образом , це нтр а ль ным м ом ен то м п о р я д к а я случайной
величины X назы вается м атематическое ожидание 5-й степени с о о т­
ветствую щ ей центрированной случайной величины:
у.,[Х] = М [ Х ° \ = М [ ( Х — тх) %
(5 .7 .6 )
Д л я преры вной случайной величины 5-й центральны й момент вы ­
раж ается суммой
.
П
2 (Х1 — тхУР(<
/=»1
(5 -7 .7 )
а для непреры вной — интегралом
ОО
£ ( х — тхУ / (х) с1х.
(5 .7 .8 )
— ОО
В дальнейш ем в тех случаях, когд а не возн и кает сомнений,
к какой случайной величине относится данный момент, мы будем
для к р атк ости вм есто а5 [А ] и ц, [ Х \ писать просто а 5 и
О чевидно, для лю бой случайной величины це нтраль ный мо ме нт
п е р в о г о п о р я д к а р а в е н нулю:
Р-! == М [ X ] = М [ Х — тх\ = 0,
(5 .7 .9 )
так к ак м атем атическое ож идание центрированной случайной вел и ­
чины всегда равно нулю.
Выведем соотнош ения, связываю щ ие центральны е и начальные
моменты различны х порядков. В ы вод мы проведем то л ь к о для п р е­
ры вны х величин; легко убедиться, что точно те же соотнош ения
справедливы и для непреры вны х величин, если заменить конечны е
суммы интегралам и, а вероятности — элементами вероятности.
5.71
МОМЕНТЫ. ДИСПЕРСИЯ
95
Р а с с м о т р и м в т о р о й ц е н т р а л ь н ы й м ом ент:
П
Ъ = М [ХЦ = 2 (Xi — mxf Pi =
—
2
i=1
x]Pi — 2 m x
S
(= 1
x iPi +
m l S p t == y.2 — 2m*
i=1
4- m \ =
a 2 — m*.
А н а л о г и ч н о д л я т р е т ь е г о ц е н т р а л ь н о г о м о м е н т а получим:
ъ = м t ^ 3i = 2
(* ,— о
зP i= 2
— з м л- 2
П
+
*>, +
П
3 < Ъ х 1р1 — т?х ^ р 1 = а.з — 3ot2r a ^ - f 2m J.
В ы р а ж е н и я д л я [а4, (j-5 и т . д. м о г у т б ы т ь п о л у ч ен ы а н а л о г и ч ­
ным путем .
Т а к и м о б р а з о м , д л я ц е н т р а л ь н ы х м о м ен т о в л ю б о й сл у ч ай н о й в е ­
личи ны X с п р а в е д л и в ы ф о р м у л ы :
ц., = 0,
= а„
^2 —
а 2 — т1*з = аз — ЪтЛ
I
(5 .7 .1 0 )
+ 2т1’
X
В о о б щ е г о в о р я , м о м ен т ы м о г у т р а с с м а т р и в а т ь с я не т о л ь к о о т н о ­
с и т е л ь н о н а ч а л а к о о р д и н а т (н ач ал ь н ы е м о м ен т ы ) или м а т е м а т и ч е с к о г о
о ж и д а н и я ( ц е н т р а л ь н ы е м о м ен т ы ), но и о т н о с и т е л ь н о п р о и з в о л ь н о й
т о ч к и а:
Ъ = * М [ ( Х — аУ1
(5.7.11)
О д н а к о ц е н т р а л ь н ы е м о м е нты и м ею т п е р е д в се м и д р у г и м и п р е и м у ­
щ е с т в о : п ер в ы й ц е н т р а л ь н ы й м о м е н т , к а к мы в и д ел и , в с е гд а р ав е н
н у л ю , а с л е д у ю щ и й за ним, в т о р о й ц е н т р а л ь н ы й м ом ен т п р и эт о й
с и ст ем е о т с ч е т а и м еет м и н и м ал ьн о е зн а ч е н и е . Д о к а ж е м э т о . Д л я
п р е р ы в н о й с л у ч ай н о й вели чин ы X при 5 = 2 ф о р м у л а ( 5 . 7 . 1 1 ) и м ее т вид:
72 =
2
*-1
(XI — а ? р , .
•
( 5 . 7 .1 2 )
П р ео бр азу ем это выраж ение:
п
72 = 2 ( х1— тх - + т х — а)2 р, =
П
П
— 2 (Х{ — т х )2 р 1 — 2 ( тх — а) 2 ( * , — тх) р , 4 • ■1
/* 1
+
( ,П Х —
а )2 = » ?2 +
(т х —
а)3.
96
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РА СПРЕДЕЛЕНИ Я
ГГЛ. 5
О чевидно, эта величина дости гает своего минимума, когда тх = а,
т. е. когда момент бер ется относительно точки тх .
И з в сех моментов в качестве характеристик случайной величины
•чаще всего применяются первый начальный момент (м атематическое
ож идание) тх — aj и второй центральный момент [л2.
В тор ой центральный момент называется дисперсией случайной
величины. В виду крайней важ ности этой характеристики ср еди др у ги х
м ом ентов введем для нее специальное обозначение D [ X ] \
Ъ = 0[Х).
С огласно определению центрального момента
D \ X ] ~ М [ХЦ ,
( 5 .7 .1 3 )
т. е. дисперсией с лу чайной величины X называ етс я м а т е м а т и ­
ческое ожидание к в а д р а т а соответствующей ц е н т ри ро ва н но й
величины.
с
Заменяя в выражении (5 .7 .1 3 ) величину X
также:
D [ X ] = M [ { X — mxf \ .
Д ля
неп оср едствен н ого
вычисления
ее вы раж ением, имеем
дисперси и
( 5 .7 .1 4 )
сл уж ат формулы :
П
£>1*1= 2
(л :,—
(5 .7 .1 5 )
D \ X \ — J (x — mx)2 f (x)dj«
( 5 .7 .1 6 )
/■1
00
— СО
— соответственно для прерывных и непрерывных величин.
Дисперсия случайной величины есть характеристика р а с с е и в а ­
ния, разбросан н ости значений случайной величины ок о л о ее м ате­
матического ож идания. Само сл ово «дисперси я» означает «рассеивание».
Если обратиться к механической интерпретации распределения,
то дисперсия представляет со б о й не что иное, как моме нт инерции
заданн ого распределения масс относительно центра тяж ести (матема­
тического ожидания).
Д и спер си я случайной величины имеет р азм ерность квадрата сл у ­
чайной величины; для наглядной характеристики рассеивания у д о б н ее
пользоваться величиной, р азм ерность котор ой совпадает с р а зм ер ­
ностью случайной величины. Для этого из дисп ер си и извлекаю т ква­
дратный корень. П олученная величина называется с р е дн и м к в а д р а ­
тическим отклонением (иначе— «стандар том ») случайной величины X .
С р едн ее квадратическое отклонение будем обозначать а [ Х ) :
о \X\ = Y D [ X \ .
( 5 .7 .1 7 )
97
МОМЕНТЫ. ДИСПЕРСИЯ
87)
Д ля упрощ ения записей мы часто будем пользоваться со к р а щ ея нымн обозначениями ср ед н его квадратического отклонения и д и сп ер ­
сии: ах и О х . В случае, когда не возникает сомнения, к какой
случайной величине относятся эти хар актер истики, мы будем иногда
опускать значок х у <зх и й х и писать п р осто а и О . Слова « ср ед н ее
квадратическое откл онение» иногда будем сокр ащ енн о заменять б у к ­
вами с . к. о,
На практике часто применяется ф ор м ула, выражающ ая дисперси ю
случайной величины через ее второй начальный момент (вторая из
ф орм ул ( 5 .7 .1 0 ) ) . В новы х обознач ениях она б у д ет иметь вид:
(5 .7 .1 8 )
М атем атическое ож идани е т х и дисперсия В х (или
др ати ч еск ое отклонение ах ) — наибол ее часто
ср ед н ее ква­
применяемые х а р а к т е­
ристики случайной величины. Они хар ак тер и зую т наиболее важные
черты распределения: его п ол ож ение и степень р азб р о са н н о сти . Для
б о л ее п од р о б н о го описания
распределения применяются моменты
высш их порядков.
Третий центральный момент служ ит для характеристики а с и м ­
м е т р и и (или «ск ош ен н ости ») распределения. Если р асп р ед ел ен и е
симметрично относительно матем атического ож идания (или, в м е х а ­
нической интерпретации, масса р аспредел ена симметрично относительно
центра тяж ести), то асе моменты нечетного порядка (если они с у щ е ­
ствую т) равны нулю . Д ействител ьн о, а сум м е
11
„ри симметричном относительно т х законе распределения и нечет­
ном 5 каж дом у пол ож ител ьном у слагаем ом у со о т в ет ств у ет равное_ему
по абсолю тной величине отрицательное сл агаем ое, так что вся сумма
равна нулю . Т о ж е, оч евидна, справедливо и для интеграла
со
00
которы й равен нулю , как интеграл в симметричны х п р ед ел а х от н е­
четной функции.
Е стествен но поэтом у в качестве характеристики асимметрии р а с ­
пределения выбрать к ак ой -л и бо из нечетны х м ом ентов. П ростейш и й
из них есть третий центральный м омент. Он имеет разм ерность к уба
случайной величины; чтобы получить б е зр а зм ер н у ю хар ак тер и сти к у,
третий момент ц3 деляг на куб ср ед н его квадратического отклонения.
4 Теория вероятностей
98
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ РАСПРЕДЕЛЕНИ Я
П олученная величина носит название «коэф ф ициента
или п р осто «асимметрии»; мы обозначим ее в к :
=
На рис. 5 .7 .1
показано
[ГЛ. 5
асимметрии»
( 5 .7 .1 9 )
два асимметричных распределения; одн о
из них (кривая / ) имеет
полож ительную асиммет­
рию ( 5 / г > 0 ) ; д р у г о е (кр и­
вая 11) — отрицательную
( S k < 0 ).
Четвертый централь­
ный момент служ ит для
характеристики так назы ­
ваемой « к р у т о сти » , т. е.
островерш инн ости
или
плосковерш инности р а си
mi
пределения. Эти свойства
р ис g 7 j
распределения
описы ­
ваются с помощ ью так
назы ваемого э к с ц е с с а . Э к сц ессом случайной величины X называется
В£ ЛНЧИШ!
Е х = — — 3.
3!
Ч исло 3 вычитается из отнош ения
ного и ш ироко р асп р остр а­
ненного в при роде норм аль­
ного закона распределения
(с которым мы п одр обн о
познакомимся в дальнейш ем)
£р =
3.
Таким
IX4
п отом у, что для
( 5 .7 .2 0 )
весьма
важ -
обр азом ,
для норм ального р а сп р ед е­
ления эк сц есс равен нулю;
кривы е, б о л ее о ст р ов ер ш и н ­
ные по сравнению с н о р ­
____ ________
______________
мальной, обладаю т пол ож и тельным эксц ессом ; кривые О
б о л ее плосковерш инны е —
р ис. 5 7 2 .
отрицательным
эк сц ессом .
Н а рис. 5 .7 .2 представлены : норм альное р асп р едел ен и е (кривая /) ,
р аспредел ение с положительны м эк сц ессом (кривая I I) и р а сп р ед е­
л ение с отрицательным эксц ессом (кривая 111).
5.7)
99.
МОМЕНТЫ. ДИСПЕРСИЯ
К р ом е рассм отренны х выше начальных и центральны х м ом ентов,
на практике иногда применяются так называемые а б с о л ю т н ы е м о ­
менты (начальные и центральны е), определяем ы е формулами
и
Ъ - Л П Й 'Ь
О ч евидно, абсолю тны е моменты четны х порядков совпадаю т с
обычными моментами.
И з абсолю тны х моментов наибол ее часто применяется первый
абсолю тны й центральный момент
ь = М [ \ Х \ \ = М [ \ Х - т л \\,
(5 .7 .2 1 )
называемый с р е д н и м
арифметическим
отклонением.
Н аряду
с ди сп ерси ей и средним квадратическим отклонением ср ед н ее ар иф ­
м етическое отклонение иногда применяется как характеристика р а с ­
сеивания.
М атематическое ож идани е, м ода, м едиана, начальные и централь­
ные моменты и, в частности, дисперси я, ср ед н ее квадратическое
отк л он ен и е, асимметрия и эк сц есс представляю т со б о й наиболее у п о ­
требительны е числовые характеристики случайны х величин. В о м ногих
задачах практики полная характеристика случайной величины — закон
распределения — или не нуж на, или не м ож ет быть получена. В эти х
случаях ограничиваются приблизительны м описанием случайной вели­
чины с помощ ью числовы х характеристик, каж дая из котор ы х
вы ражает к ак ое-л и бо хар ак тер н ое свой ство распределения.
Очень часто числовыми характеристикам и пользую тся для пр и ­
бл и ж ен н ой замены о д н о г о распределения другим , причем обы чно
стремятся произвести эт у зам ену так, чтобы сохранились неизменными
н еск ол ь к о важ нейш их м ом ентов.
П р и м е р 1. Производится один опыт, в результате которого может
появиться или не появиться событие А, вероятность которого равна р. Рас­
сматривается случайная величина X — число появлений события А (харак­
теристическая случайная величина события Я). Определить ее характе­
ристики: математическое ожидание, дисперсию, среднее квадратическое
отклонение.
Р е ш е н и е . Ряд распределения величины имеет вид:
XI
0
1
Р1
Я
Р
где ц = 1 — р — вероятность непоявления события А.
По формуле (5.6.1) находим математическое ожидание величины Х\
тх = М [ Х ] = 0 д - { - 1 - р — р.
4*
100
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
И ИХ ЗАКОНЫ
РА С ПРЕДЕЛЕНИЯ
[ГЛ. 5
Дисперсию величины X определим по формуле (5.7.15):
откуда
&х ■*> Я [ * ] = (0 — р У • Ч + (1 — р ) г р ■= рч,
вх
=
У рч-
(Предлагаем читателю получить тот же результат, выразив дисперсию через
второй начальный момент.)
П р и м е р 2. Производится три независимых выстрела г,о мишени; ве­
роятность попадания при каждом выстреле равна 0,4. Случайная величина
А' — число попаданий. Определить характеристики величины X — математи­
ческое ожидание, дисперсию, с. к. о., асимметрию.
Р е ш е н и е . Ряд распределения величины X имеет вид:
0
"
1
2
1
3
1
0,216
л
0,432
0,288
0,064
Вычисляем числовые характеристики величины X:
т х = 0 • 0,216 + 1 ■0,432 + 2 • 0,288 + 3 • 0,064 = 1,2;
й х = (0 — 1,2)*. о,216 + (1 — 1,2)2 • 0,432 + (2 — 1,2)* • 0,288 +
___
_
о, = У о х = V 0.72 = 0,848;
+ (3 — 1,2)* • 0,064 = 0,72;
Из =. (0 — 1,2)3 • 0,216 + (1 — 1,2)3.0,432 + (2 — 1,2)3 • 0,288 +
+ ( 3 — 1,2)3 - 0,064 = 0,144;
5Л =
N
0,144
« 0,236.
0,72 • 0,848
Заметим, что те же характеристики могли бы быть вычислены значи­
тельно проще с помощью теорем о числовых характеристиках функций
(см. главу 10).
П р и м е р 3. Производится ряд независимых опытов до первого по­
явления события А (см. пример Зп °5.1). Вероятность события А в каждом
опыте равна р. Найти математическое ожидание, дисперсию и с. к. о. числа
опытов, которое будет произведено.
Р е ш е н и е . Ряд распределения величины X имеет вид:
XI
1
2
3
. . .
1
. . .
• • •
Ч1~ 1Р
. . .
•
Р1
Р
ЧР
<?Р
Математическое ожидание величины X выражается суммой ряда
тх = 1- Р + 2 - Ч Р + 3 - д гр +
. . .
+ 1 - Ч 1~ 1Р +
. . . =
= />( 1 + 2 9 + 3 ? * + . . . + / ? ' - +
. .. ) .
10 1
МОМЕНТЫ. ДИ СП ЕРСИЯ
8.7]
Нетрудно видеть, что ряд, стоящий в скобках, представляет собой ре­
зультат дифференцирования геометрической прогрессии:
Я + Я2 + Я3 +
• •• + ?' +
••• =
1 —у
Следовательно,
1 + 2 9 + з 92+
••• = 4 ^ 1 ^ = 7 ^ Т Г = 7 ) 2 =
... + < у -‘ +
откуда
’
.
/л =
т*
= —
р2
р '
Для определения дисперсии величины А“ вычислим сначала ее второй
начальный момент:
оо
«2 = 2
1=1
.
А р 1 — ^ • Р + ^2 -ЯР + ^ - Я 2Р +
= />(12 + 2 ^ + 3 ^ +
...
••• + ' 2 - 9 , ~ 1/ ’ +
+ ‘' ¥ ' , +
••• =
•••)■
Для вычисления ряда, стоящего в скобках, умножим на д ряд:
1 + 2-? + 3 ^ +
... + « Г > +
. . . = (Т-1 у), ■
Получим:
д + 2д* + 3 д * +
... + « У +
. . . . = -— 2 - ^ .
Дифференцируя этот ряд по д, имеем:
,. + 2 . , + 3 у +
... + / ¥ - +
...
Умножая на р — 1 — д, получим:
а —
* ^
(I-? )2 ■
По формуле (5.7.18) выразим дисперсию:
п
х
2
— шг '
* + ?_______ к __ .
(1 - Я ) 2
(1 - д ) г
Я
_ _Я_
(1-Я )2
Р2 ’
откуда
ах = )/~Щ
Р
П р и м е р 4. Непрерывная
распределения с плотностью:
случайная величина X
подчинена закону
/ (х) —: Ае~*х \
(рис. 5.7.3).
Напти коэффициент А. Определить м. о., дисперсию, с. к. о., асимме­
трию, эксцесс величины X.
Р е ш е н и е . Для определения А воспользуемся свойством плотности
распределения:
ОО
•
ОО
/ / (■*) ах = 2А f е~х йх = 2А = 1;
-ОО
102
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
И ИХ ЗАКОНЫ РА С П РЕД Е Л Е Н И Я
[ГЛ. 5
отсюда
1
т*
Так как функция хе~^*^ нечетная, то м. о. величины X равно нулю:
СО
тг
- Я
Дисперсия и с. к. о. равны,
соответственно:
= 2 / \ х Ч - * й х = 2;
о
я, =
Так
как
распределение
симметрично, то 5Л = 0.
Рис. 5,7.3.
Для
вычисления
= VI.
эксцесса
находим
ОО
!£
I х ' е ~ х Их = 24,
Ех =
— 3 = 3.
N
откуда
П р и м е р 5. Случайная величина X подчинена закону распределения,
плотность которого задана графически на рис. 5.7.4.
Написать выражение плотности распределения. Найти м. о., дисперсию,
с. к. о. и асимметрию распреде­
ления.
Р е ш е н и е . Выражение плот­
ности распределения имеет вид:
Н;
/(•* )
а х при 0 < х < 1,
0
при х < 0 или х > 1.
Пользуясь свойством плотноЬти
распределения,
находим
й ж- 2.
Математическое ожидание ве­
личины X?
1
т.
' 1 2 лЧх = Т
о
Дисперсию
найдем
через
второй
начальный
момент:
5.8)
ЗАКОН РАВНОМ ЕРНОЙ ПЛОТНОСТИ
103
отсюда
1
3у 2
ах
Третий начальный момент равен
» 2 / Пользуясь трегхьеи из формул (5.7.10), выражающей {-».3 через начальные
момеш ы1, ммеем:
з
1
и = а — 2т га 4 - 2т „ = — тт™ ,
«з
з
** 2 1 л
]^5 *
откуда
о,
5
^
5 .8 . З а к о н р а в н о м е р н о й п л о т н о с т и
В некоторы х задачах практики встречаю тся непреры вны е случай­
ный величины, о которы х заранее и зв естно, что их возм ож ны е зн а ­
чения лежат в п р едел ах н е к о т о р о го о п р ед ел ен н о го интервала; кром е
т о го , известно, что в пр едел ах этого интервала все значения с л у ­
чайной величины одинак ово вероятны (точнее, обладаю т одной и той же
плотностью вероятности). О таких случайны х величинах говорят,
что они распределяю тся п о з а к о н у р а в н о м е р н о й п л о т н о с т и .
П риведем несколько примеров п одобны х случайны х величии.
П р и м е р 1. П р ои зв ед ен о взвеш ивание тела на точных весах,
но в распоряж ении взвеш иваю щ его имеются только разновески весом
не менее 1 г; результат взвешивания п о ­
казы вает, что вес тела заклю чен м еж ду к
и (/г —}—1) граммами. В ес тела принят
равным
гРаммам- Д опущ ен ная
при этом сш ибка X , очевидно, есть
случайная
величина,
распределенная
с равном ерной плотностью на участке
Пример
2. В ертикально постаРис. 5.8.К
вленное симметричное к ол есо (рис. 5 .8 .1 )
приводится во вращ ение и затем останавливается вследствие трения.
Р ассм атривается случайная величина 0 — угол, которы й после о с т а ­
новки б у д ет составлять с гор изонтом фиксированны й р адиус к о ­
леса О А. О чевидно, величина С р асп р едел ен а с равном ерной п л о т ­
ностью на участке (0, 2 тс).
104
СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
И
ИХ ЗА К О Н Ы
РАСПРЕДЕЛЕНИЯ
[ГЛ. 5
П р и м е р 3. П о езд а м етрополитена идут с интервалом 2
с мин.
П ассаж ир вы ходит на платформ у в некоторы й момент врем ени.
В ремя Т, в течение к о т о р о го ему придется ж дать п о е зд а , п р ед ст а ­
вляет со б о й случайную величину, распр едел енную с равном ерной
плотностью
на участке (0 , 2)
минут.
Пх)
Рассм отрим случайную вел и­
чину
X,
подчиненную
закон у
равном ерной плотности на участка
от а д о р (рис. 5 .8 .2 ) , и напи­
шем для нее вы раж ение плотности
распределения / („*). П л отность
f ( х ) постоянна л равна с на от ~х р езк е (а , £5); вне эт о го отр езк а она
равна нулю:
Рис. 5.8.2.
I 0 при х < а или х > р.
Так как
единице:
площ адь,
ограниченная
кривой
с (Р — а) =
распределения,
равна
1,
то
и плотность распределения f ( x ) имеет вид:
/ ( * ) = -£“
/ (* ) = 0
а <
■ пРи
при
х < а
и,
или
х
< ft,
( 5 .8 .1 )
х > fi.
Ф ормула ( 5 .8 .1 ) и вы ражает закон равном ерной платности на
участке (а , р).
Напишем вы ражение для функции распределения F ( х) . Функция
распределения выражается площ адью кривой р аспредел ения, лежащ ей
левец точки х . С ледовател ьно,
0
I.' / '
t
{х) =
при
.v < а,
у —^
при
а
1
при
X > р.
X—а
л' <. р,
График функции F { х ) приведен на рис, 5 .8 .3 .
О пределим основны е числовые характеристики случайной в ел и ­
чины А", подчиненной закон у равном ерной плотности на участке
от а д о р.
5.8]
105
ЗАКОН РАВНОМЕРНОЙ ПЛОТНОСТИ
М атематическое ож идание величины X
тV,
В
—а
- /
равно:
( 5 .8 .2 )
2
силу симметричности равн ом ерного р аспредел ения медиана ве-
а +
Э
личины XV - такж е равна —
^—
.
М оды закон равном ерной плотности не имеет.
П о ф орм уле ( 5 .7 ,1 6 ) находим ди сп ер си ю величины X :
а
О -« )2
12
откуда ср едн ее
отклонение
(5 .8 .3 )
квадратическое
х
- 1 = 1 .
( 5 .8 .4 )
Рис. 5.8.3.
В силу симметричности р аспределения его асимметрия равна нулю:
5Л =
=
0.
(5 .8 .5 )
®г
Д ля определ ения эк сц есса находим четверты й центральный момент:
80
! 14 :
откуда
(5 .8 .6 )
О пределяем ср едн ее ариф м етическое отклонение:
« -И
(!Х ■'
- 1йх —
р—а
. (5 .8 .7 )
Н ак онец, найдем вероятность попадания случайной величины
р а с­
предел енной ио закон у равном ерной плотности , на участок ( а , 0),
106
СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
И
ИХ ЗА К О Н Ы Р А С П Р Е Д Е Л Е Н И Я
[ГЛ. 5
представляю щ ий собой часть участка (а, (5) (рис. 5 .8 .4 ) . Г еом етри­
чески эта вероятность представляет со б о й площ адь, заш трихованную
на рис. 5 .8 .4 . О чевидно, она равна;
Р (а < л: < & ) =
Ь— а
р— а
(5 .8 .8 )
т. е. отнош ению длины о тр езк а ( а , Ь) ко всей длине участка (а, В),
на котором задано равном ерное
!(>•-)
р аспр едел ение.
Б .9 . З а к о н П у а с с о н а
Во многих задачах практики
приходится иметь д ел о со сл у ­
чайными величинами, р а сп р ед е­
ленными по св оеобр азн ом у з а ­
0
ос а
г
X к о н у , к о т о р ы й н а зы в а е т с я з а ­
0
коном Пуассона.
Рис. 5.8 4.
Рассм отрим ’ преры вную сл у­
чайную величину Л', которая
м ож ет принимать только целы е, неотрицательны е значения:
0, 1, 2 , . . . , т, . . . .
причем последовательность этих значений теоретически не ограничена.
Г оворят, что случайная величина X
р аспредел ена по закону
П уассон а, если вероятность того, что она примет оп р едел ен н ое зн а ­
чение т, выражается ф орм улой
(5 . 9 . 1)
где а — некоторая положительная величина, называемая п а р а м е т р о м
закона П уассон а.
.
Ряд распределения случайной величины X , распределенной ло
зак он у П уассон а, имеет вид:
хт
0
1
2
. .
т
Рт е~а
а е -а
-—
1!
а е -а°
—
21
. . .
«а
1
!
)
!. . .
!
. .
.
Убедим ся преж де всего, что последовательн ость вероятностей,
вадаваемая ф орм улой (5 .9 .1 ) , м ож ет представлять со б о й ояд р а сп р е­
5.9]
107
ЗАКОН ПУАССОНА
деления, т. е. что сумма всех вероятностей Р т
т равна единице. И меем:
оо
со
оо
ат
£ р-~ 1 •&*— *“ 2
т= 0
=0
т =0
Но
"
оо
^
ш=О
т \ ~~
*
откуда
. е-аеа _ _ ]_
гл = 0
Н а рис. 5.9.1 показаны многоугольники распределения случайной
величины
распределенной по закон у П уассона, соответствую щ ие
различным значениям п а р а ­
м етра а. В таблице 8 приря
ложения приведены значе'
ния Р т для различных а.
О пределим основные х а - 0,5
рактеристики — м атематиче­
ское ож идание и ди сп ер ­
с и ю —случайной величины X ,
распределенной по закон у
П уассона. П о определению
м атем атического ожидания
т . = = М [ Х ] = ^ *пРт =*
т= 0
оо
1 атг е а•
— V
му ' т —
т!
т=»0
П ервы й член суммы (соответствую щ ий т — 0) равен
до вательн о, суммирование м ожно начинать с т = = 1:
та"
/и
ОТ»1
т\
V
М
т =1
нулю, сле­
а
(т — 1)1 \
О бозначим т — 1 = й; тогда
= а е ~ аеа = а .
(5 .9 .2 )
А= 0
Таким образом , парам етр а представляет собой не что иное, как
м атематическое ожидание случайной величины X .
108
СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ИХ ЗАКОНЫ
Д л я определения
м о м е н т вели чин ы X :
дисперсии
а, =- V т1— г е —
тI
н ай д ем
а V
т =0
т
т=1
РА С П РЕДЕЛЕН И Я
с н ач ал а
второй
[ГЛ.
в
н ачал ьн ы й
(от — 1)!
ии
= а
т=1
( т — 1)1
П о ранее доказан ном у
' —\
____
_ ат~
ьV I р-а*а — л.
~ 2шкЯ к I е ~ а '
к=0
( т — 1)1
//1=1
кром е того,
оо
2
т=I
( т — 1)!
= е аеа = 1.
следовательно,
а 2 = а (а -(- 1).
Д а л ее находим дисперси ю величины X :
й х = а2 — т 2х = а 2
а — а 7 — а.
(5 .9 .3 )
Таким обр азом , дисперсия случайной величины, р а с п р е д е л е н ­
ной по з а к о н у П у а с с о н а . р а в н а ее мате ма тиче ско му ожи­
данию а.
Э то с в о й с т в о распределения П уассон а часто применяется на прак­
тике для решения воп р оса, правдоподобна ли гипотеза о том , что
случайная величина X распредел ена по закону П уассон а. Д ля этого
определяю т из опыта статистические характеристики — математиче­
ское ож идание и дисперсию — случайной величины 1). Если их знач е­
ния близки, то это м ож ет служ ить д оводом в пользу гипотезы
о п уассоновском распределении; р езк о е различие этих характеристик,
напротив, свидетельствует против гипотезы .
О пределим для случайной величины X , р аспр едел енной по закону
П уа ссон а, вероятность т о го , что она примет значение не меньш е
') О способах экспериментального
см. ниже, гл. 7 и 14.
определения
этих
характеристик
6.9]
109
ЗАКОН ПУАССОНА
заданного й. Обозначим эту вероятность
/? * = /> (* > £ ).
О чевидно, вероятность /?* м ож ет быть вычислена как сумма
СО
т =к
О дн ако значительно п рощ е определить ее из вероятности п р о ти ­
вополож ного события:
А-1
К* = 1 - ( Я о + Р , +
. . . 4 - Р * _ 1) = 1 -
2 Ртт= 0
(5 .9 .4 )
В частности, вероятность то го , что величина X примет п о л о ж и ­
тельное значение, вы раж ается ф орм улой
/?, =
1 — Р 0=
1 — еа.
(5 .9 .5 )
Мы уж е упоминали о том, что многие задачи практики приводят
к распределению П уассона. Р ассм отрим одну из типичных задач
тако го рода.
П усть на оси абсцисс О х случайным образом распределяю тся
точки (рис. 5 .9 .2 ), Д опустим , что случайное распределение точек
у довлетворяет следующ им условиям:
1.
В ероятность попадания того или иного числа точек на о тр е зо к /
зависит то л ько от длины этого о тр е зк а , но не зависит о т его п о л о ­
жения на оси абсцисс. Иными словам и, точки распределены на оси
.
___
____ _____ ,___ х
Рис. 5.9.2.
абсцисс с одинаковой средней плотностью . О бозначим эту плотность
(т. е. м атематическое ожидание числа точек, приходящ ихся на ед и ­
ницу длины) через X.
2. Точки распределяю тся на оси абсцисс независимо др у г от друга,
т. е. вероятность попадания того или д р угого числа точек на задан ­
ный о тр езо к не зависит от того, ск о л ьк о их попало на любой д р у ­
гой о тр езо к, не перекры ваю щ ийся с ним.
3. В ероятность попадания на малый участок Ах двух или более
точек пренебреж им о мала по сравнению с вероятностью попадания
одной точки (это условие озн ачает практическую невозм ож ность
совпадения двух или более точек).
1 1 0 . ■ . С Л У Ч А Й Н Ы Е В Е Л И Ч И Н Ы И ИХ ЗА К О Н Ы Р А С П Р Е Д Е Л Е Н И Я
[ГЛ
П
Выделим на оси абсц и сс определенны й о т р езо к длины / и р а с ­
смотрим дискретную случайную величину X — число точек, п оп а­
даю щ их на эт о т о т р езо к . В озм ож ны е значения величины б у д у т
0 , 1, 2 ........... т, . . .
(5 .9 .6 )
Так как точки попадаю т на о т р е зо к независим о д р у г от д р уга,
то теоретически не исклю чено, что их там окаж ется сколь у г о д н о
м ного, т. е. ряд (5 .9 .6 ) пр одол ж ается неограниченно.
Д ок аж ем , что случайная величина X имеет закон распределения
П уассон а. Для этого вычислим вероятность Р т т о го , что на о т р езо к I
попадет ровн о т точек.
Сначала решим б о л ее п р остую задачу. Р ассм отрим на оси О х
малый участок А х и вычислим вероятность т о го , что на этот участок
п опадет хотя бы одна точка. Б удем р ассуж дать следую щ им о б р а зо м .
М атематическое ож идание числа точек, попадаю щ их на эт о т у ч а ст о к ,
очевидно, равно Х Д х (т. к. на единицу длины попадает в среднем
X точек). С огласно условию 3 для малого отр езк а Д * м ож но п р ен е­
бречь возм ож ностью попадания на него д в у х или бол ьш е точек.
П о этом у математическое ож идание Х А х числа точек, попадаю щ их на
участок Дл:, б у д ет приближ енно равно вероятности попадания на
него одной точки (или, что в наш их условиях равнозначно, хотя бы
одной).
Таким о б р азом , с точностью д о бесконеч но малых вы сш его
порядка, при А х —> 0 м ож но считать вероятность т о го , что на уч а­
сток А х попадет одна (хотя бы одна) точка, равной ХДя , а вер оя т­
ность т о г о , что не попадет ни о д н о й , равной 1 — к А х .
В оспол ьзуем ся этим для вычисления вероятности Р т попадания
на отр езок I ровно т точек. Р азделим о тр езок / на п равных частей
длиной А х = - ~ .
Условимся
называть
элементарны й
о тр езо к
Ах
« п у с т ы м » , е сл и в него не п о п а л о ни о дн ой т о ч к и , и « зан я т ы м » , если
в н его п о п а л а х о т я бы о д н а . С о г л а с н о в ы ш е д о к а з а н н о м у в е р о я т н о с т ь
т о г о , что о т р е з о к А х о к а ж е т с я « за н я т ы м » , п р и б л и ж е н н о р ав н а Х А х ~
и
и
я = — ; вероятность т о го , что он окаж ется «пусты м », равна 1 -------— .
Так как, согл асн о условию 2 , попадания точек в неперекры эаю щ иеся
отр езк и независимы, т о наши п отр езков м ож но рассм отреть как п
независим ы х «опы тов», в каж дом из которы х о т р езо к м ож ет быть
«занят» с вероятностью
Н айдем вероятность т о го , что среди
п отр езк ов б у д ет ровн о т «заняты х». П о теор ем е о повторении опы ­
тов эта вероятность равна
г т I X/ \"1 (
),1\п-т
-
111
З А К О Н ПУАССОНА
5.9)
или, обозначая \1 =
а,
с ’ ( т ) * ( ' - ? ) * '■ ■
( 5 -9 ' 7)
П ри достаточн о больш ом п эта вероятность пр иближ ен но равна
вероятности попадания на о т р езо к I ровно т точек, так как п о п а д а ­
ние д в ух или больш е точек на о т р езо к А х имеет п р ен ебр еж и м о малую
вероятность. Для т ого чтобы найти точн ое значение Р т, нуж но в вы­
раж ении ( 5 .9 .7 ) перейти к п р ед ел у при п - > с о :
~
Т
т-
(5 -9 -8)
П р еобр азуем вы раж ение, стоящ ее под знаком предела:
I а \т !,
а \n-tn
[Тг)
п
{'
( I — —у
п (а — 1) . . . (я — т + 1) а т \
т\ “
пт I,
I
п (п — 1) . . . (я — т
Пт
п}
а \т
«
( 1_ £ \"
л /
/и I Я
а ’•
1‘ ~ я I
1) й' М
(5 .9 .9 )
П ервая др обь и знаменатель последней др о б и в выражении (5 .9 .9 )
при п - > о о , очевидно, стремятся к единице. Вы раж ение --р от /I не
зависит. Числитель последней д р о б и м ож но преобразовать так:
(«-5Г- .(*
П ри я - оо — - > о о ,
и
выражение
(5 . 9 . 10)
( 5 .9 .1 0 )
стремится
к
е а
Таким обр азом , док азан о, что вероятность попадания р о о л э т точек
в о тр езок I выражается ф орм улой
*
Р
т
— — е~а
т\
’
где а — XI, т. е. величина X р аспредел ена по закон у П уассон а с па­
раметром а = \ 1 .
Отметим, что величина а по смы слу представляет со б о й ср ед н ее
число точек, приходящ ееся на о т р езо к I.
Величина /?, (вероятность т о го , что величина X примет п о л о ж и ­
тельное значение) в данном случае вы ражает в е р о я т н о с т ь т о г о ,
ч то н а о т р е з о к I п о п а д е т х о т я б ы о д н а точка-.
(5 .9 .1 1 )
112
СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
И
ИХ ЗА К О Н Ы
РАСПРЕДЕЛЕНИЯ
[ГЛ. 5
Таким образом , мы убедились, что распределение П у ассо н а в о з ­
никает там, где к ак и е-то точки (или другие элементы) занимаю т с л у ­
чайное полож ение независимо др у г от друга, и подсчиты вается к о л и ­
чество этих точек, попавш их в к ак у ю -т о область. В нашем случае т а ­
кой «областью » был о тр езо к I на оси абсцисс. О днако наш вы вод легко
расп ространить и на случай распределения точек на плоскости (сл у ­
чайное плоское поле точек) и в простран стве (случайное п р о стр ан ­
ственное поле точек). Н етрудно д о к азать , что если соблю дены условия:
!) точки распределены в поле статистически равном ерно со с р е д ­
ней плотностью X;
2) точки попадаю т в неперекры влю щ иеся области независимым
образом ;
3) точки появляю тся поодиночке, а не парами, тройкам и и т. д.,
то число точек X , попадаю щ их в любую область D (плоскую или
п ространственную ), распределяется по закону П уассона:
ат
<т = 0 ■ >• 2 - •••)■
где а — среднее число точек, попадаю щ их в область D.
Д ля п лоского случая
о, — 5 £}Х|
где S D — площ адь области D ;
для пространственного
a = V v -\,
где V о — объем области D.
Заметим, что для наличия п уассоновского распределения числа
точек, попадаю щ их в отрезок или область, условие постоянной п л о т­
ности (X — co n st) несущ ественно. Если выполнены два други х условия,
то закон П уассона все равно имеет место, тол ько параметр а в нем
п ри обретает д р угое вы раж ение: он получается не простым ум нож е­
нием плотности X на длину, площ адь или объем области, а и н те­
грированием переменной плотности по отр езку , площ ади или объем у.
(П одробн ее об этом см. пс 19.4.)
Н аличие случайных точек, разбросанны х на линии, на плоскости
или объ ем е — не единственное условие, при котором возникает р а с ­
пределение П уассона. М ож но, например, доказать, что закон П у ас­
сона является предельным для биномиального распределения:
Р т , п = С ” р т ( \ - р ) а- я .
(5 .9 .1 2 )
если одноврем енно устрем лять число опытов п к бесконечности,
а вероятность р — к нулю, причем их произведение п р сохраняет
постоянное значение:
пр~а.
(5 .9 .1 3 )
З А К О Н ПУА ССОНА
5.9]
Д ействительно, это п редельное
деления м ожно записать в виде:
и
lim Сп р
П->СО
113
свойство бином иального р асп р е­
«т
~\П-т = а"
>1
(1 — Р)
(5 .9 .1 4 )
Но из условия (5 .9 .1 3 ) следует, что
а
(5 .9 .1 5 )
Р ~~п'
П одставляя (5 .9 .1 5 ) в (5 .9 .1 4 ), получим равенство
..
/ а \тi ,
а \п-т
lim С т \ — i И -------
n + v0 п \ п ! \
п)
ат
„
- — ,-е~а,
т\
(5 .9 .1 6 )
ко то р о е тол ько что было доказан о нами по другом у поводу.
Это предельное свойство бином иального закона часто находит
применение на практике. Д опустим, что производится больш ое к о л и ­
чество независимых опытов п, в каж дом из к оторы х событие А имеет
очень малую вероятность р. Т огда для вычисления вероятности Р т „
того, что событие А появится ровно т раз, м ожно воспользоваться
приближ енной ф орм улой
Р„
<'пр)т е -пл,
т\
(5 .9 .1 7 )
где пр — а — параметр того закона П уассона, которы м приближ енно
заменяется биномиальное распределение.
От этого свойства- закона П уассона — вы раж ать биномиальное
распределение при больш ом числе опытов и малой вероятности со ­
б ы т и я — происходит его название, часто применяемое в учебниках
статистики: з а к о н р е д к и х явлений.
Р ассм отрим н есколько прим еров, связанны х с пуассоновским р а с ­
пределением, из различных областей практики.
П р и м е р 1. На автоматическую телефонную станцию поступают вы­
зовы со средней плотностью К вызовов в час. Считая, что число вызовов
на любом участке времени распределено по закону Пуассона, найти вероят­
ность того, что за две минуты на станцию поступит ровно три вызова.
Р е ш е н и е . Среднее число вызовов за две минуты равно:
Ж
К
60
30"
По формуле (5.9.1) вероятность поступления ровно трех вызовов равна:
/А ?
Vзо
I
к
' 30
1 .2-3
П р и м е р 2. В условиях предыдущего примера найти вероятность того,
что за две минуты придет хотя бы один вызов.
114
СЛУЧАЙНЫЕ
Решение.
ВЕЛИЧИНЫ
И ИХ ЗАКОНЫ
По формуле (5.9.4) имеем:
РА С ПРЕДЕЛЕНИЯ
[ГЛ. 5
К
я , ==1 — < г а = 1 — в " 55.
П р и м е р 3. В тех ж е условиях найти вероятность того, что за две
минуты придет не менее трех вызовов.
Р е ш е н и е . По формуле (5.9.4) имеем'.
К
Пример
4. На ткацком станке нить обрывается в среднем 0,375 раза
в течение часа работы станка. Найти вероятность того, что за смену (8 ча­
сов) число обрывав нити будет заключено в границах 2 и 4 (не менее 2 и
не более 4 обрывов).
Р е ш е н и е . Очевидно,
а = 0,375 -8 = 3;
имеем:
Р (2 < X < 4) = Р 2 + Р 3 + Р 4.
По таблице 8 приложения при а = 3
Ра =.0,224;
Я 3 = 0,224;
Р 4 = 0,168,
Р (2 < X < 4) = 0,616.
П р и м е р 5. С накаленного катода за единицу времени вылетает в сред­
нем
электронов, где t — время, протекшее с йачала опыта. Найти ве­
роятность того, что за промежуток времени длительности
начинающийся
в момент <0, с катода вылетит ровно т электронов.
Р е ш е н и е . Находим среднее число электронов а, вылетающих с ка­
тода за данный отрезок времени. Имеем:
а=
£
q(t) й1.
/о
По вычисленному а определяем искомую вероятность:
П р и м е р 6. Число осколков, попадающих в малоразмерную цель при
заданном положении точки разрыва, распределяется по закону Пуассона.
Средняя плотность осколочного поля, в котором оказывается цель при дан­
ном положении точки разрыва, равна 3 оск./лг2. Площадь цели равна 5 =
= 0,5 ж 2. Для поражения цели достаточно попадания в нее хотя бы одного
осколка. Найти вероятность поражения цели при данном положении точки
разрыва.
Р е ш е н и е . а = \ 5 = 1,5. По формуле (5.9.4) находим вероятность по­
падания хотя бы одного осколка:
/ ? , = 1 — е ~ 1,5 — 1 — 0,223 = 0,777.
(Для вычисления значения показательной функции е ~ а пользуемся таблицей 2
приложения.)
З А К О Н ПУА ССО Н А
Б.91
115
П р и м е р 7. Средняя плотность болезнетворных микробов в одном
кубическом метре воздуха равна 100. Берется на пробу 2 д м 3 ио?.луха. Нанти
вероятность того, что в нем будет обнаружен хотя бы одни микроб.
Р е ш е н и е . Принимая гипотезу о пуассоновском распределешш числа
микробов в объеме, находим:
а = 0,1;
/?, = 1 — е ~ 0-2 * 1 — 0,819 я 0,18.
П р и м е р 8. По некоторой цели производится 50 независимых выстрелов
Вероятность попадания е цель при одном выстреле равна 0,04. Пользуясь
предельным с е о й с т в о м биномиального распределения ( ф о р м у л а (5.9.17)),
найти приближенно вероятность того, что в цель попадет: ни одного с н а р я д а ,
один снаряд, два снаряда.
Р е ш е н и е . Имеем а = пр = 50 • 0,04 = 2. По таблице 8 приложения
находим вероятности:
Я0 = 0,135;
Я , = 0 ,2 7 1 ;
Я* = 0,271.
ГЛАВА б
НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ
6.1.
Нормальный закон и его параметры
Н ормальны й закон распределения (часто называемый законом
Гаусса) играет исклю чительно важную роль в теории вероятностей
и занимает среди других законов распределения особое полож ение.
Это — наиболее часто встречаю щ ийся на практике закон р асп р ед е­
ления. Главная особенность, выделяю щ ая нормальны й закон среди
других законов, состоит в том, что он является п р е д е л ь н ы м
з а к о н о м , к котором у приближ аю тся другие законы распределения
при весьма часто встречаю щ ихся типичных условиях.
М ожно доказать, что сумма достаточно больш ого числа незави­
симых (или слабо зависимых) случайных величин, подчиненных каким
угодно законам распределения (при соблюдении некоторы х весьма
неж естких ограничений), приближ енно подчиняется нормальному з а ­
кону, и это выполняется тем точнее, чем больш ее количество сл у ­
чайных величин суммируется. Больш инство встречаю щ ихся на п р а к ­
тике случайных величин, таких, например, как ош ибки измерений,
ош ибки стрельбы и т. д ., могут быть представлены как суммы-весьма
больш ого числа сравнительно малых слагаемых — элем ентарных ош и ­
бок, каж дая из которы х вы звана действием отдельной причины, не
зависящ ей от остальны х. Каким бы законам распределения ни были
подчинены отдельны е элементарные ош ибки, особенности этих р а с ­
пределений в сумме больш ого числа слагаемых нивелирую тся, и сумма
оказы вается подчиненной закону, близком у к нормальному. О сновное
ограничение, налагаемое на суммируемые ош ибки, состоит в том,
чтобы они все равномерно играли в общ ей сумме относительно малую
роль. Если это условие не выполняется и, например, одна из сл у ­
чайных ош ибок окаж ется по своему влиянию на сумму р езко п р ев а­
лирую щ ей над всеми другими, то закон распределения этой п р ев а­
лирую щ ей ош ибки налож ит свое влияние на сумму и определит
в основны х чертах ее закон распределения.
Т еорем ы , устанавливаю щ ие нормальный закон как предельный для
суммы независимых равномерно малых случайных слагаем ы х, будут
подробнее рассм отрены в главе 13.
в. 11
117
Н О Р М А Л Ь Н Ы Й З А К О Н И ЕГО П А РА М ЕТР Ы
Н ормальны й закон
вероятности вида:
распределения
характери зуется
1
/( * ) = —
о у 2«
2*'
плотностью
.
(6 .1 .1 )
К ривая распределения по норм альном у закон у имеет симметрич­
ный холм ообразны й вид (рис. 6 .1 .1 ). М аксимальная ордината кривой,
1
равная — _ . соответствует точке
х = т; по мере удаления от точки т
п лотн ость распределения падает, и
при х —> ± со кривая асим птоти­
чески приближ ается к оси абсцисс.
Выясним смысл численных п а р а ­
м етров т. и о, входящ их в вы р а ж е­
ние норм ального закон а (6 .1 .1 ); д о ­
каж ем , что величина т есть не что
иное, как математическое ожи­
дание,
а величина о — среднее '
Рис. 6.1.!.
к в адр ати ч ес ко е отклонение вели­
чины X . Д ля этого вычислим основные числовые характери сти ки ве­
личины X — м атематическое ож идание и дисперсию .
М[ Х ] = /
и - п .);
2,1 йх.
х/ ( х ) а х ^ - 1 — £ хе
П рименяя замену переменной
х—т _ (
ТуТ~*
имеем;
‘
оо
м \Х ] = - ~
§
(о / 2 / 4 - ш) * “ <’ л = в
-О О
оо
оо
-О О
—оо
Н етрудн о убедиться, что первы й из двух интервалов в ф орм уле (6 .1 .2 )
равен нулю; второй представляет собой известный интеграл Э йлера —
П уассона:
ОО
ОО
I е - ‘2сН = 2 £ е - ‘гм = \ г п.
—
оо
О
(6 .1 .3 )
118
НОРМАЛЬНЫ Й
ЗАКОН
РАСПРЕДЕЛЕНИЯ
(ГЛ
в
С ледовательно,
М [ Х ] — т,
т . е. парам етр т представляет собой математическое ожидание вел и ­
чины X . Э тот парам етр, особенно в задачах стрельбы , часто н азы ­
ваю т ц ен тр о м р а с с е и в а н и я (сокращ енно — ц. р.).
Вычислим дисперсию величины X :
0[Х\-.
(х-ту
1
1
о V 2п
т)2е
2*2 йх.
П рименив снова замену переменной
х —т
зУ~2
имеем:
И нтегрируя по частям, получим:
ОIX] .
У 7С ■/
32
Уъ.
te
<Н
—со
—со
П ер во е слагаем ое в фигурны х скоб ках равно нулю (так к ак е~р
при / - * о э убы вает бы стрее, чем возрастает любая степень /), вт о ­
рое слагаем ое по ф орм уле (6 .1 .3 ) равно
откуда
О [Лг] = о2.
С ледовательно, параметр о в форм уле (6 .1 .1 ) есть не что иное, как
среднее квадратическое отклонение величины X .
Выясним смысл парам етров т и о норм ального распределения.
Н епосредствен но из ф орм улы (6 .1 .1 ) видно, что центром симметрии
распределения является центр рассеивания т. Это ясно из то го , что
при изменении зн ака разности (* — т) на обратны й выраж ение (6 .1 .1 )
не м еняется. Если изменять центр рассеивания т , кривая р асп р ед е­
ления будет см ещ аться вдоль оси абсцисс, не изменяя своей формы
(рис. 6 .1 .2 ). Ц ентр рассеивания характери зует полож ение р асп р ед е­
ления на оси абсцисс.
Разм ерн ость центра рассеивания — та ж е, что разм ерность сл у ­
чайной величины X .
6п
н о рм альн ы й
за ко н
и
его
п арам етры
119
П арам етр а хар ак тер и зу ет не полож ени е, а самую ф орм у кривой
распределения. Это есть характери сти ка рассеивания. Н аибольш ая
ордината кривой распределения обратно пропорциональна а; при
увеличении о м аксимальная ордината ум еньш ается. Т ак как площ адь
Рис. 6.1.2.
кривой распределения всегда долж на оставаться равной единице, то
при увеличении о кривая распределения становится более плоской,
растягиваясь вдоль оси абсцисс; напротив, при уменьш ении о кривая
распределения вы тягивается вверх, одноврем енно сжимаясь с боков,
и становится более иглообразной. Н а рис. 6 .1 .3 показаны три н о р ­
мальные кривы е ( /, / / , III) при т — 0; из них кривая I соответствует
Рис. 6.1.3.
самому больш ом у, а кривая III — самому м алому значению о. И зм е­
нение парам етра о равносильно изменению масш таба кривой р ас п р е­
д е л е н и я — увеличению масш таба по одной оси и таком у ж е ум ен ь­
шению по другой.
Р азм ерность парам етра о, естественно, совпадает с разм ерностью
случайной величины X .
120
НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ
[ГЛ. 6
В некоторых курсах теории вероятностей в качестве характери­
стики рассеивания для нормального закона вместо среднего квадра­
тического отклонения применяется так называемая мера точности.
Мерой точности называется величина, обратно пропорциональная
среднему квадратическому отклонению я:
А = — 5 = -.
3 уч.
Размерность меры точности обратна размерности случайной
величины.
Термин «мера точности» заимствован из теории ошибок измере­
ний: чем точнее измерение, тем больше мера точности. Пользуясь
мерой точности /г, можно записать нормальный закон в виде:
/(*)= ~
У*
е ' ^ х- т ^.
6.2. Моменты нормального распределения
Выше мы доказали, что математическое ожидание случайной вели­
чины, подчиненной нормальному закону (6.1.1), равно т , а среднее
квадратическое отклонение равно я.
Выведем общие формулы для центральных моментов любого по­
рядка.
По определению:
.=
/* с * — т У / с*)
—
—оо
с
1
= — у=а \г2к
Делая замену переменной
—
I (х — т У е
Х
'
(х-ту
2,5 <1х.
СО
х —т
~7уТ = л
получим:
ю
^ =
(6 .2 .П
—оо
Применим к выражению (6.2.1) формулу интегрирования по частям;
6.21
МОМЕНТЫ НОРМАЛЬНОГО РАСПРЕДЕЛЕНИЯ
121
Имея в виду, что первый член внутри скобок равен нулю, получим:
00
М.
2/к
(6.2.2)
_
И з формулы (6.2.1) имеем следующее выражение для [1^_2
Л5-2
Т '
Сравнивая правые части формул (6.2.2) и (6.2.3), видим, что они
отличаются между собой только множителем ($ — 1)а2; следовательно,
|д,5 = (® — 1 ) о ^ _ 2-
(6.2.4)
Формула (6.2.4) представляет собой простое рекуррентное соот­
ношение, позволяющее выражать моменты высших порядков через
моменты низших порядков. Пользуясь этой формулой и имея в виду,
что 1* о = 1 ’) и (14= 0 , можно вычислить центральные моменты всех
порядков. Так как р., = 0, то из формулы (6.2.4) следует, что все
нечетные моменты нормального распределения равны нулю. Это,
впрочем, непосредственно следует из симметричности нормального
закона.
Для чегньи 5 из формулы (6.2.4) вытекают следующие выражения
для последовательных моментов:
(*2 = а2;
(14 =
=
За4;
15<з6
и т. д.
Общая формула для момента «-го порядка при любом четном 5
имеет вид:
^ = (® -1 )П в *.
где под символом (5 — 1)!! пэнимается произведение всех нечетных
чисел от 1 до 5 — 1.
Так как для нормального закон? ;л3 = 0, то асимметрия его также
равна нулю:
5А = -^| = 0.
а3
Из выражения четвертого момента
|
а4 = За4
имеем:
Е х = - - г — 3 = 0.
1) Нулевой момент любой случайной величины равен единице как мате­
матическое ожидание нулевой степени этой величины.
122
Н О Р М А Л ЬН Ы Й
ЗАКО Н
РА С П РЕД ЕЛ ЕН И Я
|ГЛ
в
т. е. знсйсгс нормального распределения равен нулю. Это и есте­
ственно, так как назначение эксцесса — характеризовать сравнитель­
ную крутость данного закона по сравнению с нормальным.
6.3.
Вероятность попадания случайной величины,
подчиненной нормальному закону, на заданный участок.
Нормальная функция распределения
Во многих задачах, связанных с нормально распределенными слу­
чайными величинами, приходится определять вероятность попадания
случайной величины Х г подчиненной нормальному закону с пара­
метрами т , о, на участок от а до р. Для вычисления этой вероят­
ности воспользуемся общей формулой
/ > ( < * < * < ? ) = /=■(?) — /=■(«).
(6.3.1)
где F (х) — функция распределения величины X .
Найдем функцию распределения F (х) случайной величины X ,
распределенной по нормальному закону с параметрами т , о. П ло т­
ность распределения величины X равна:
1
jx - m f
f ( x ) = —^ r e ~
о у 2к
™ .
(6.3.2)
Отсюда находим функцию распределения
Г
F(x) =
f (х) dx =
J
•—
оо
1
*
з У 2л
/»
"
—СО
< х -т?
е
™
dx.
(6.3.3)
Сделаем в интеграле (6.3.3) замену переменной
ЛИЛ = t
а
и приведем его к виду:
х —т
1
г
fw=? k i
р
(6'3-4)
-О О
Интеграл (6.3.4) не выражается через элементарные функции,
но его можно вычислить через специальную функцию, выражающую
определенный интеграл от выражения e~t% или е 2 (так называемый
интеграл вероятностей), для которого составлены таблицы. Суще­
ствует много разновидностей таких функций, например:
X
ф
( J t > =
7
г
;
/
О
х
J '
"
d
, :
ф
‘ ( J , )
т
г
J
U
р
* ‘
т
л
123
НОРМАЛЬНАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ
6.31
и т. д. Какой из этих функций пользоваться — вопрос
Мы выберем в качестве такой функции
1
Ф *(*) = у =
]
г
е * Л.
вкуса.
(6 .3 .5 );
— СО
Нетрудно видеть, что эта функция представляет собой не что
иное, как функцию распределения для нормально распределенной
случайной величины с параметрами т = 0, о = 1 .
Условимся называть функцию Ф*(д;) нормальной функцией
распределения. В приложении (табл. 1) приведены таблицы зна­
чений функции Ф* ( х ) ').
Выразим функцию распределения (6.3.3) величины X с пара­
метрами т и о через нормальную функцию распределения Ф *(х).
Очевидно,
/> (*)= : Ф *(-£ = ^ -).
(6.3.6)
Теперь найдем вероятность попадания случайной
на участок от а до р. Согласно формуле (6.3.1)
Р (а < х < Р ) = Ф * (^ = ^ )-Ф * (^ -).
величины
X
(6.3.7)
Таким образом, мы выразили вероятность попадания на участок
•случайной величины X , распределенной по нормальному закону
с любыми параметрами, через стандартную функцию распределе­
ния Ф *(х), соответствующую простейшему нормальному закону
с параметрами 0,1. Заметим, что аргументы функции Ф* в фор#
й— т
муле
от
(6 .3 .7 )
правого
имеют
очень
простой
смысл:
1— - —
есть расстояние
конца участка
р до центра рассеивания, выраженное
а— т
в средних квадратических отклонениях; — ----------такое же расстоя­
ние для левого конца участка, причем это расстояние считается
положительным, если конец расположен справа от центра рассеи­
вания, и отрицательным, если слева.
Как и всякая функция распределения, функция Ф*(л:) обладает
свойствами:
1.
Ф *(— оо) = 0. 2. Ф* (-| - оо) = 1. 3. Ф *(х) — неубывающа
функция.
Кроме того, из симметричности нормального распределения
с'параметрами т = 0, о = 1 относительно начала координат сле­
дует, что
Ф*(— х ) — 1 — Ф *(х).
(6.3.8)
‘) Для облегчения интерполяции в таблицах рядом со значениями функ­
ции приведены ее приращения за один шаг таблиц Д.
124
НОРМАЛЬНЫЙ З'АКОН РАСПРЕДЕЛЕНИЯ
1ГЛ
в
Пользуясь этим свойством, собственно говоря, можно было бы
ограничить таблицы функции Ф *(х) только положительными значе­
ниями аргумента, но, чтобы избежать лишней операции (вычитание
из единицы), в таблице 1 приложения приводятся значения Ф*(д:)
как для положительных, так и для
отрицательных аргументов.
На практике часто встречается
задача вычисления вероятности по­
падания нормально распределен­
ной случайной величины на уча­
сток, симметричный относительно
центра рассеивания т . Рассмотрим
такой участок длины 21 (рис. 6.3.1).
Вычислим вероятность попадания
на этот участок по формуле (6.3.7):
Р(Щ --- I < X < ОТ -|- /) =
Учитывая свойство (6.3.8) функции Ф *(х) и придавая левой части
формулы (6.3.9) более компактный вид, получим формулу для вероят­
ности попадания случайной вели­
чины, распределенной по нормаль­
ному закону, на участок, симме­
тричный относительно центра рас­
сеивания:
Р (1 X — т | < / ) = 2 Ф * ( ^ - 1 .
(6.3.10)
Решим следующую задачу. О т­
ложим от центра рассеивания т
последовательные отрезки дли­
ной о (рис. 6.3.2) и вычислим ве­
роятность попадания случайной величины X в каждый из них. Так как
кривая нормального закона симметрична, достаточно отложить такие
отрезки только в одну сторону.
По формуле (6.3.7) находим:
Р ( т < Х < / п + о) = Ф*(1) — Ф*(0) =
= 0,8413 — 0,5000 « 0,341;
Р (т - \ - о < X < т + 2а) = Ф*(2) — Ф * ( 1 ) »
0,136;
Р (т + 2а < X < т Н - За) = Ф’ (3) — Ф* (2) я»
0,012;
Р ( т + За < X < т + 4о) = Ф* (4) — Ф* (3)
0,001.
(6.3.11)
6.31
НОРМАЛЬНАЯ ФУНКЦИЯ
РАСПРЕДЕЛЕНИЯ
125
Как видно из этих данных, вероятности попадания на каждый
из следующих отрезков (пяты й, шестой и т . д.) с точностью до 0,001
равны нулю.
О кр угляя вероятности попадания в отрезки до 0,01 (до 1 % ).
получим три числа, которые легко запомнить:
0 ,3 4 ;
0,1 4;
0 ,0 2.
Сумма этих трех значений равна 0 ,5 . Это значит, что для нор­
мально распределенной случайной величины все рассеивание (с то ч ­
ностью до долей процента) укладывается на участке т ± За.
Это позволяет, зная среднее квадратическое отклонение и мате­
матическое ожидание случайной величины, ориентировочно указать
интервал ее практически возможных значений. Такой способ оценки
диапазона возможных значений случайной величины известен в мате­
матической статистике под названием « правило т р е х сигма». И з
правила трех сигма вытекает также ориентировочный способ опреде­
ления среднего квадратического отклонения случайной величины: берут
максимальное практически возможное отклонение от среднего и делят
его на три. Разумеется, этот грубый прием может быть рекомен­
дован, только если нет других, более то чн ы х способов определения я.
П р и м е р 1. Случайная величина X, распределенная по нормальному
закону, представляет собой ошибку измерения некоторого расстояния. При
измерении допускается систематическая ошибка в сторону завышения на
1,2 (м); среднее квадратическое отклонение ошибки измерения равно 0,8 (м).
Найти вероятность того, что отклонение измеренного значения от истинного
не превзойдет по абсолютной величине 1,6 (м),
.
Р е ш е н и е . Ошибка измерения есть случайная величина X , подчинен­
ная нормальному закону с параметрами т = 1,2 и я = 0,8. Нужно найти
вероятность попадания этой величины на участок от а = — 1,6 до р = —
{- 1,6.
По формуле (6.3.7) имеем:
Р ( - 1,6 < X < 1,6) ,
*• ( Ц д Н . ) -
^
‘
-
= Ф* (0,5) — Ф* (—3,5).
Пользуясь таблицами функции Ф* (л:) (приложение, табл. 1), найдем:,
Ф* (0,5) = 0,6915;
Ф* (—3,5) = 0,0002,
откуда
Р (— 1,6 < X < 1,6) = 0,6915 — 0,0002 = 0,6913 « 0,691.
П р и м е р 2. Найти ту же вероятность, что в предыдущем примере,
но при условии, что систематической ошибки нет.
Р е ш е н и е . По формуле (6.3.10), полагая / = 1,6, найдем:
Р ( |Х\ < 1,6) = 2Ф* ( - J I ) -
1 « 0,955.
„ П Р и м ер 3. По цели, имеющей вид полосы (автострада), ширина кото­
рой равна 20 м, ведется стрельба в направлении, перпендикулярном авто­
страде. Прицеливание ведется по средней линии автострады. Среднее
126
НОРМАЛЬНЫЙ
З'АКОН РАСПРЕДЕЛЕНИЯ
[ГЛ
6
квадратическое отклонение в направлении стрельбы равно о = 8 м. Имеется
систематическая ошибка в направлении стрельбы: недолет 3 м. Найти вероят­
ность попадания в автостраду при одном выстреле.
Р е ш е н и е . Выберем начало координат в любой точке на средней линии
автострады (рис. 6.3.3) и направим ось абсцисс перпендикулярно автостраде.
Попадание или непопадание снаряда в автостраду определяется значением
только одной координаты точки падения X (другая координата У нам без­
различна). Случайная величина X распределена по нормальному закону
Направление
стреяобы
Рис. 6.3.3.
с параметрами т
— 3, а = 8. Попадание снаряда в автостраду соответ­
ствует попаданию величины X на участок от а — — 10 до (3 = + 10. При­
меняя формулу (6.3.7), имеем:
Р (— 10 < X < 10) = Ф* ^
) — Ф*
= Ф* (1,625) — Ф *(— 0,875) я 0,757.
П р и м е р 4. Имеется случайная величина А-,'нормально распределенная,
с центром рассеивания т (рис. 6.3.4) и некоторый участок (а, Р) оси абсцисс.
Каково дрлзкно быть среднее квадратическое отклонение а случайной вели­
чины X для того, чтобы вероятность попадания р на участок (а, Р) дости­
гала максимума?
Р е ш е н и е . Имеем:
р = Р (а < А < [>) = Ф*
-
Ф* (
Продифференцируем эту функцию величины о:
110
♦ • ю - й г / ' " Т л
=
<р(а).
127
ВЕРОЯТНОЕ (СРЕДИННОЕ) ОТКЛОНЕНИЕ
Применяя правило дифференцирования интеграла по переменной, вхо­
дящей в его предел, получим:
1
- т
/
Г ‘ (Н
—оо
О- '''>*
. -
а’ У'2 п
Аналогично
а — 1П
М
— е
~ ) 1 '
_ ^ - ;п'г
до
Для нахождения экстремума положим:
(а - т ?
■т ) е
— $ — т) е
^
|.
(6.3.12)
При а - то это выражение обращается в нуль и вероятность р достигает
минимума. Максимум р получим из условия
С- «|)!
(а — и»)’
(а — т) е
">5‘
— (Э — т) е
1з‘
=0.
(6.3.13)
Уравнение (6.3.13) можно решить численно или графически.
6.4. Вероятное (срединное) отклонение
В ряде областей практических применений теории вероятностей
(в частности, в теории стрельбы) часто, наряду со средним квадратит
ческим отклонением, пользуются еще одной характеристикой рассеи­
вания, так называемым вероятным, или срединным, отклонением.
Вероятное отклонение обычно обозначается буквой Е (иногда В).
Вероятным (срединным) отклонением случайной величины X ,
распределенной по нормальному закону, называется половина длины
участка, симметричного относительно центра рассеивания, вероятность
попадания в который равна половине.
Геометрическая интерпретация вероятного отклонения показана
на рис. 6.4.1. Вероятное отклонение Е — это половина длины
участка оси абсцисс, симметричного относительно точки т., на кото­
рый опирается половина площади кривой распределения.
Поясним смысл термина «срединное отклонение» или «срединная
ошибка», которым часто пользуются в артиллерийской практике
вместо «вероятного отклонения».
128
НОРМАЛЬНЫЙ Э'АКОН РАСПРЕДЕЛЕНИЯ
1ГЛ. 6
Рассмотрим случайную величину X . распределенную по нормаль­
ному закону. Вероятность того, что она отклонится от центра рас­
сеивания т меньше чем на Е , по определению вероятного откло­
нения Е , равна -=•:
н
2
Вероятность того,
1.
тоже равна
2*
,
_
1
Р (\ Х — т \ < Е ) = ~ .
_
(6 .4 .1)1
что она отклонится от т больше чем на Е,
1
Р Ц Х -т \ > Е )= 2 -
Таким образом, при большом числе опытов 8 среднем половина
значений случайной величины X отклонится от т больше чем на Е,
я половина — меньше. Отсюда и термины «срединная ошибка»,
«срединное отклонение».
Очевидно, вероятное отклонение, как характеристика рассеивания,
должно находиться в прямой зависимости от среднего квадратиче­
ского отклонения о. Установим
эту зависимость. Вычислим ве­
роятность события |Л' — т |<
< Е в уравнении (6.4.1) по
формуле (6.3.10). Имеем:
Отсюда
Ф *^ ) = А=0,75.
(6.4.2)
По таблицам функции Ф* (*)
можно найти такое значение
аргумента х, при котором она равна 0,75. Это значение аргумента
приближенно равно 0,674; отсюда
— = 0,674;
а
Е — 0,674о.
(6.4.3)
Таким образом, зная значение о, можно сразу найти пропорцио­
нальное ему значение Е . Часто пользуются еще такой формой записи
этой зависимости:
_
£ = р у 2 о,
(6.4.4)
где р — такое значение аргумента, при котором одна из форм инте­
грала вероятностей — так называемая функция Лапласа
ВЕРОЯТНОЕ (СРЕДИННОЕ) ОТКЛОНЕНИЕ
6.4]
129
— равна половине. Численное значение величины р приближенно
равно 0,477.
В настоящее время вероятное отклонение, как характеристика
рассеивания, все больше вытесняется более универсальной, характе­
ристикой о. В ряде областей приложений теории вероятностей она
сохраняется лишь по традиции.
Если в качестве характеристики рассеивания принято вероятное
отклонение Е , то плотность нормального распределения записывается
в виде:
=
(6.4.5)
Еу,к
а вероятность попадания на участок от а до р чаще всего записы­
вается в виде:
Р (а < х < р) =
_ > [ф (Ц 5 )
(6.4.6)
где м
Ф(х) = ~
I е~‘гМ
V* о
(6.4.7)
называемая приведен­
ная функция Лапласа.
— так
Рис. 6.4.2.
Сделаем подсчет, аналогич­
ный выполненному в преды­
дущем п° для среднего квадратического отклонения о: отложим от
центра рассеивания т последовательные отрезки длиной в одно
вероятное отклонение Е (рис. 6.4.2) и подсчитаем йероятности попа­
дания в эти отрезки с точностью до 0,01. Получим:
Р (/ я < Л ” < т + £) «
Р ( т 4-
Е < X
0.25;
< т - ( - 2£) « 0 ,1 6 ;
Р ( т - \ - 2 Е < Х < , т - \ - ЪЕ) ш
0 ,0 7 ;
Р ( т 4- ЪЕ < X < т + 4Е) » 0,02.
Отсюда видно, что с точностью до 0,01 все значения нормально
распределенной случайной величины укладываются на участке т 1: 4 Е.
Пример. Самолет-штурмовик производит обстрел колонны войск
противника, ширина которой равна 8 м. Полет — вдоль колонны, прицели­
вание — по средней линии колонны; вследствие скольжения имеется систе­
матическая ошибка: 2 м вправо по направлению полета. Главные вероятные
отклонения: по направлению полета В Д= 1 5 м, в боковом направлении
5 Теория вероятностей
130
НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ
[ГЛ. в
Вв = 5 м. Не имея в своем распоряжении никаких таблиц интеграла
вероятностей, а зная только числа:
25%, 16%,
7%,
2%,
оценить грубо-приближенно вероятность попадания в колонну при одном
выстреле и вероятность хотя бы одного попадания при трех независимых
выстрелах.
Р е шен и е. Для решения задачи достаточно рассмотреть одну коорди­
нату точки попадания — абсциссу X в направлении, перпендикулярном
колонне. Эта абсцисса распределена по нормальному закону с центром
рассеивания т -» 2 и вероятным отклонением В(, = Е = 5 (ж). Отложим
мысленно от центра рассеивания в ту и другую сторону отрезки длиной
в 5 м. Вправо от центра рассеивания цель занимает участок 2 м, который
составляет 0,4 вероятного отклонения. Вероятность попадания на этот
участок приближенно равна:
0,4-25% =0,1.
Влево от центра рассеивания цель занимает участок 6 м. Это — целое
вероятное отклонение (5 м), вероятность попадания в которое равна 25%
плюс часть длиной 1 м следующего (второго от центра) вероятного откло­
нения, вероятность попадания в которое равна 16%. Вероятность попадания
в часть длиной 1 м приближенно равна:
-• 1 6 % =0,03.
5
Таким образом, вероятность попадания в колонну приближенно равна:
0,1+0,25 + 0,03 = 0,38.
Вероятность хотя бы одного попадания при трех выстрелах равна:
#1 = 1 — (1 — 0,38)3 »0,76.
ГЛ А ВА
7
О П Р Е Д Е Л Е Н И Е ЗА К О Н О В Р А С П Р Е Д Е Л Е Н И Я
С Л У Ч А Й Н Ы Х В Е Л И Ч И Н НА О С Н О ВЕ О П Ы Т Н Ы Х Д А Н Н Ы Х
7 .1.
Основные задачи математической статистики
Математические законы теории вероятностей не являются беспред*
метными абстракциями, лишенными физического содержания; они
представляют собой математическое выражение реальных закономер­
ностей, фактически существующих в массовых случайных явлениях
природы.
До сих пор, говоря о законах распределения случайных величин,
мы не затрагивали вопроса о том, откуда берутся, на каком осно­
вании устанавливаются эти законы распределения. Ответ на вопрос
вполне определенен — в основе всех этих характеристик лежит опыт;
каждое исследование случайных явлений, выполняемое методами тео­
рии вероятностей, прямо или косвенно опирается на эксперименталь­
ные данные. Оперируя такими понятиями, как события и их вероят­
ности, случайные величины, их законы распределения и числовые
характеристики, теория вероятностей дает возможность теоретиче­
ским путем определять вероятности одних событий через вероятности
других, законы распределения и числовые характеристики одних
случайных величин через законы распределения и числовые характе­
ристики', других. Такие косвенные методы позволяют значительно
экономить время и средства, затрачиваемые на эксперимент, но отнюдь
не исключают самого эксперимента. Каждое исследование в области
случайных явлений, как бы отвлеченно оно ни было, корнями своими
всегда уходит в эксперимент, в опытные данные, в систему наблюдений.
Разработка методов регистрации, описания и анализа статисти­
ческих экспериментальных данньЬс, получаемых в результате наблю­
дения массовых случайных явлений, составляет предмет специальной
науки — математической статистики.
Все задачи математической статистики касаются вопросов обра­
ботки наблюдений над массовыми случайными явлениями, но в зави­
симости от характера решаемого практического вопроса и от объема
5*
132
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 7
имеющегося экспериментального материала эти задачи могут прини­
мать ту или иную форму.
Охарактеризуем вкратце некоторые типичные задачи математи­
ческой статистики, часто встречаемые на практике.
1. З а д а ч а о п р е д е л е н и я з а к о н а р а с п р е д е л е н и я
с л у ч а й н о й в е л и ч и н ы (или с и с т е м ы с л у ч а й н - ы х
в е л и ч и н ) по с т а т и с т и ч е с к и м д а н н ы м
Мы уже указывали, что закономерности, наблюдаемые в массо­
вы х случайных явлениях, проявляются тем точнее и отчетливее, чем
больше объем статистического материала. При обработке обширных
по своему объему статистических данных часто возникает вопрос об
определении законов распределения тех или иных случайных величин.
Теоретически при достаточном количестве опытов свойственные этим
случайным величинам закономерности будут осуществляться сколь
угодно точно. На практике нам всегда приходится иметь дело с огра­
ниченным количеством экспериментальных данных; в сбязи с этим
результаты наших наблюдений и их обработки всегда содержат боль­
ший или меньший элемент случайности. Возникает вопрос о том, какие
черты наблюдаемого явления относятся к постоянным, устойчивым
и действительно присущи ему, а какие являются случайными и про­
являются в данной серии наблюдений только за счет ограниченного
объема экспериментальных данных. Естественно, к методике обра­
ботки экспериментальных данных следует предъявить такие требо­
вания, чтобы она, по возможности, сохраняла типичные, характерные
черты наблюдаемого явления и отбрасывала все несущественное,
второстепенное, связанное с недостаточным объемом опытного мате­
риала. В связи с этим возникает характерная для математической
статистики задача с г л а ж и в а н и я или в ы р а в н и в а н и я стати­
стических данных, представления их в наиболее компактном виде
с помощью простых аналитических зависимостей.
2. З а д а ч а
проверки правдоподобия гипотез
1
Эта задача тесно связана с предыдущей; при решении такого
рода задач мы обычно не располагаем настолько обширным стати­
стическим материалом, чтобы выявляющиеся в нем статистические
закономерности были в достаточной мере свободны от элементов
случайности. Статистический материал может с большим или меньшим
правдоподобием подтверждать или не подтверждать справедливость
той или иной гипотезы. Например, может возникнуть такой вопрос:
согласуются ли результаты эксперимента с гипотезой о том, что
данная случайная величина подчинена закону распределения Р (х)?
Другой подобный вопрос: указывает ли наблюденная в опыте тен­
7.2]
СТАТИСТИЧЕСКАЯ ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ
133
денция к зависимости между двумя случайными величинами на нали­
чие действительной объективной зависимости между ними или же
она объясняется случайными причинами, связанными с недостаточным
объемом наблюдений? Для решения подобных вопросов математи­
ческая статистика выработала ряд специальных приемов.
3. З а д а ч а
нахождения неизвестных
распределения
параметров
Часто при обработке статистического материала вовсе не возни­
кает вопрос об определении законов распределения исследуемых слу­
чайных величин. Обыкновенно это бывает связано с крайне ‘недоста­
точным объемом экспериментального материала. Иногда же характер
закона распределения качественно известен до опыта, из теоретических
соображений; например, часто можно утверждать заранее, что случай­
ная величина подчинена нормальному закону. Тогда возникает более
узкая задача обработки наблюдений— определить только некоторые
параметры (числовые характеристики) случайной величины или системы
случайных величин. При небольшом числе опытов задача более или
менее точного определения этих параметров не может быть решена;
в этих случаях экспериментальный материал содержит в себе неиз­
бежно значительный элемент случайности; поэтому случайными ока­
зываются и все параметры, вычисленные на основе этих данных.
В таких условиях может быть поставлена только задача об опреде­
лении так называемых «оценок» или «подходящих значений» для
искомых параметров, т. е. таких приближенных значений, которые
при массовом примёнении приводили бы в среднем к меньшим ошиб­
кам, чем всякие другие. С задачей отыскания «подходящих значений»
числовых характеристик тесно связана задача оценки их точности
и надежности. С подобными задачами мы встретимся в главе 14.
Таков далеко не полный перечень основных задач математиче­
ской статистики. Мы перечислили только те из них, которые наиболее
важны для нас по своим практическим применениям. В настоящей
главе мы вкратце познакомимся с некоторыми, наиболее элементар­
ными задачами математической статистики и с методами их решения.
7.2. Простая статистическая совокупность.
Статистическая функция распределения
*
Предположим, что изучается некоторая случайная величина X ,
закон распределения которой в точности неизвестен, и требуется
определить этот закон из опыта или проверить экспериментально
гипотезу о том, что величина X подчинена тому или иному закону.
С этой целью над случайной величиной X производится ряд незави­
симых опытов (наблюдений). В каждом из этих опытов случайная
134
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 7
величина X принимает определенное значение. Совокупность наблю­
денных значений величины и представляет собой первичный стати­
стический материал, подлежащий обработке, осмыслению и научному
анализу. Такая совокупность называется «простой статистической
совокупностью» или «простым статистическим рядом». Обычно про­
стая статистическая совокупность оформляется в виде таблицы с од­
ним входом, в первом столбце которой стоит номер опыта I , а во
втором — наблюденное значение случайной величины.
П р и ме р 1. Случайная величина Р — угол скольжения самолета в мо­
мент сбрасывания бомбы ')• Произведено 20 бомбометаний, в каждом из ко­
торых зарегистрирован угол скольжения {3 в тысячных долях радиана.
Результаты наблюдений сведены в простой статистический ряд:
1
>1
1
2
3
4
5
6
7
—20
—60
—10
30
60
70
—10
1
8
9
10
11
12
13
14
*1
—30
120
— 100
—80
20
40
-« 0
1
15
16
17
18
19
20
ь
—10
20
30
—80
60
70
Простой статистический ряд представляет собой первичную форму
записи статистического материала и может быть обработан различными
способами. Одним из способов такой обработки является построение
статистической функции распределения случайной величины.
Статистической функцией распределения случайной вели­
чины X называется частота события X < х в данном с т а т и ­
стическом материале :
Г (х) = Р * ( Х < х ) .
(7.2.1)
Для того чтобы найти значение статистической функции распре­
деления при данном х, достаточно подсчитать число опытов, в ко­
торых величина X приняла значение, меньшее чем х, и разделить
на общее число п произведенных опытов.
П р и ме р 2. Построить статистическую функцию распределения для
случайной величины {3, рассмотренной в предыдущем примере 2).
‘) Под углом скольжения подразумевается угол, составленный вектором
скорости и плоскостью симметрии самолета.
*) Здесь и во многих случаях далее, при рассмотрении конкретных прак­
тических примеров, мы не будем строго придерживаться правила — обозна­
чать случайные величины большими буквами, а их возможные значения —
соответствующими малыми буквами. Если это не может привести к недора­
зумениям, мы в ряде случаев будем обозначать случайную величину и ее
возможное значение одной и той же буквой.
7.21
С ТА ТИС ТИЧЕС КА Я Ф УНКЦИЯ РА С ПРЕД ЕЛЕНИЯ
,
135
}
Р е ш е н и е . Так как наименьшее наблюденное значение величины равна
— 100, то Р (— 100) = 0. Значение — 100 наблюдено один раз, его частота
равна
следовательно, в точке — 100 /=■*(?) имеет скачок, равный
.
В промежутке о т — 100 до — 80 функция Р*($) имеет значение- 1 ; в точке
.
— 80 происходит скачок функции Р* ф) на
2
, так как значение — 80 на­
блюдено дважды, и т. д.
График статистической функции распределения величины представлен
на рис. 7.2.1.
Статистическая функция распределения любой случайной вели­
чи н ы — прерывной или непрерывной — представляет собой прерывную
ступенчатую функцию, скачки которой соответствуют наблюденным
значениям случайной величины и по величине равны частотам этих
значений. Если каждое отдельное значение случайной величины А'
было наблюдено только один раз, скачок статистической функции
распределения в каждом наблюденном значении равен — , где п —•
число наблюдений.
При увеличении числа опытов п, согласно теореме Бернулли, при
любом х частота события X < х приближается (сходится по вероят­
ности) к вероятности этого события. Следовательно, при увеличе­
нии п статистическая функция распределения F * (х) приближается
(сходится по вероятности) к подлинной функции распределения F (х)
случайной величины X .
Если X — непрерывная случайная величина, то при увеличении
числа наблюдений п число скачков функции F * (х) увеличивается,
самые скачки уменьшаются и график функции F * (х) неограниченно
приближается к плавной кривой F (х ) — функции распределения ве­
личины X .
136
ЗАКОНЫ
РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ
7
В принципе построение статистической функции распределения
уже решает задачу описания экспериментального материала. Однако
при большом числе опытов п построение F * ( х ) описанным выше
способом весьма трудоемко. Кроме того, часто бывает удобно —
в смысле наглядности — пользоваться другими характеристиками ста­
тистических распределений, аналогичными не функции распределе­
ния F ( x ) , а плотности f (х). С такими способами описания стати­
стических данных мы познакомимся в следующем параграфе.
7.3. Статистический ряд. Гистограмма
При большом числе наблюдений (порядка сотен) простая стати­
стическая совокупность перестает быть удобной формой записи
статистического материала — она становится слишком громоздкой и
мало наглядной. Для придания ему большей компактности и на­
глядности статистический материал должен быть подвергнут до­
полнительной обработке — строится так называемый «статистиче­
ский ряд»,
Предположим, что в нашем распоряжении результаты наблюдении
над непрерывной случайной величиной К , оформленные в виде про­
стой статистической совокупности. Разделим весь диапазон наблю­
денных значений X на интервалы или «разряды» и подсчитаем ко­
личество значений т ., приходящееся на каждый /-Й разряд. Это число
разделим на общее число наблюдений п и найдем частоту, соответ­
ствующую данному разряду:
( 7 .3 .0
Сумма частот всех разрядов, очевидно, должна быть равш
единице,
Построим таблицу, в которой приведены разряды в порядке их
расположения вдоль оси абсцисс и соответствующие частоты. Эта
таблица называется статистическим рядом:
/,
1
X,) *2
й
|
й
* 2; *а
*
.
.
.
. . .
x f. -*■/+ !
р
\
. . .
. . .
k\ Xfc f ]
Рк
Здесь !, — обозначение /-го разряда; дг(, дг( + 1 — его границы; р * —
соответствующая частота; к — число разрядов.
СТАТИСТИЧЕСКИЙ
7.3]
РЯД.
137
ГИСТОГРАММА
П р и м е р 1. Пронлпедено 501) измерений боковой ошибки наводки пра
стрельбе с самолета по наземной цели. Результаты измерений (в тысячных
долях радиана) сведены в статистический ряд:
h
—4; —3
т
6
*.
Pi
0,012
—3; —2
25
0,050
— 2; —1
72
0,144
— 1; 0
133
0,266
0, 1
120
0,240
1; 2
88
0,176
2; 3
46
0,092
3; 4
10
0,020
Здесь // обозначены интервалы значений ошибки наводки; т / — число наблюдений в данном интервале, р ] = — =— соответствующие частоты.
При группировке наблюденных значений случайной величины по
разрядам возникает вопрос о том, к какому разряду отнести значе­
ние, находящееся в точности на границе двух разрядов. В этих
случаях можно рекомендовать (чисто условно) считать данное зна­
чение принадлежащим в равной мере к обоим разрядам и прибав1
лять к числам т , того и другого разряда по
•
Число разрядов, на которые следует группировать статистический
материал, не должно быть слишком большим (тогда ряд распреде­
ления становится невыразительным, и частоты в нем обнаруживают
незакономерные колебания); с другой стороны, оно не должно быть
слишком малым (при малом числе разрядов свойства распределения
описываются статистическим рядом слишком грубо). Практика пока­
зывает, что в большинстве случаев рационально выбирать число
разрядов порядка 10 — 20. Чем богаче и однороднее статистический
материал, тем большее число разрядов можно выбирать при состав­
лении статистического ряда. Длины разрядов могут быть как одина­
ковыми, так и различными. Проще, разумеется, брать их одинаковы­
ми. Однако при оформлении данных о случайных величинах, рас­
пределенных крайне неравномерно, иногда бывает удобно выбирать
в области наибольшей плотности распределения разряды более узкие,
чем в области малой плотности.
Статистический ряд часто оформляется графически в виде так
называемой гистограммы. Гистограмма строится следующим обра­
зом. По оси абсцисс откладываются разряды, и на каждом из раз­
рядов как их основании строится прямоугольник, плошадь которого
равна частоте данного разряда. Для построения гистограммы нужно
частоту каждого разряда разделить на его длину и полученное число
взять в качестве высоты прямоугольника. В случае равных по длине
138
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН
{ГЛ. 7
разрядов высоты прямоугольников пропорциональны соответствующим
частотам. И з способа построения гистограммы следует, что полная
площадь ее равна единице.
В качестве примера можно привести гистограмму для ошибки
наводки, построенную по данным статистического ряда, рассмотрен­
ного в примере 1 (рис. 7.3.1).
Очевидно, при увеличении числа опытов можно выбирать все
более и более мелкие разряды; при этом гистограмма будет все
более приближаться к некоторой кривой, ограничивающей площадь.
равную единице. Нетрудно убедиться, что эта кривая, представляет
собой график плотности распределения величины X .
Пользуясь данными статистического ряда, можно приближенно
построить и статистическую функцию распределения величины X .
Построение точной статистической функции распределения с несколь­
кими сотнями скачков во всех наблюденных значениях X слишком
трудоемко и себя не оправдывает. Для практики обычно достаточно
построить статистическую функцию распределения по нескольким
точкам. В качестве этих точек удобно взять границы х ,, х 2. . . .
разрядов, которые фигурируют в статистическом ряде. Тогда,
очевидно.
( * 1) — 0;
Г ' ( х 3) = р'й
Г ( х 3) = Р 1 + Р 2;
к- 1
/ ’• ( * * ) - * 2
1-1
к
^
Я ;
^ Р1 — 1 •
(7.3.2)
139
ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ
Соединяя полученные точки ломаной линией или плавной кривой,
получим приближенный график статистической функции распреде­
ления.
П р и м е р 2. Построить приближенно статистическую функцию распрв'
деления ошибки наводки по данным статистического ряда примера 1,
F*(x)
/
-4 -3 ~2 -/
0
t
2
3
4
X
Рис. 7.3.2.
Решение.
Применяя формулы (7.3.2), имеем:
.
F* (—4) = 0; F* (—3) == 0,012; F* (—2) = 0,012 + 0,050 = 0,062;
F* (— 1) = 0,206; F* (0) = 0,472; F* (1) = 0,712; F* (2) = 0,888;
F* (3) = 0,980; F* (4) = 1,000.
Приближенный график статистической функции распределения дан на
рис. 7.3.2.
7.4. Числовые характеристики статистического
распределения
В главе 5 мы ввели в рассмотрение различные числовые харак­
теристики случайных величин: математическое ожидание, дисперсию,
начальные и центральные моменты различных порядков. Эти число­
вые характеристики играют большую роль в теории вероятностей.
Аналогичные числовые характеристики существуют и для статисти­
ческих распределений. Каждой числовой характеристике случайной
величины X соответствует ее статистическая аналогия. Для основной
характеристики положения — математического ожидания случайной
величины — такой аналогией является среднее арифметическое наблю­
денных значений случайной величины:
П
М '\ Х ]
п
где Х[ — значение случайной величины,
П — число опытов.
(7.4.1)
наблюденное в 1-м опыте,
140
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 7
Эту характеристику мы будем в дальнейшем называть с т а т и ­
стическим средним случайной величины.
Согласно закону больших чисел, при неограниченном увеличении
числа опытов статистическое среднее приближается (сходится по ве­
роятности) к математическому ожиданию. При достаточно большом п
статистическое среднее может быть принято приближенно равным
математическому ожиданию. При ограниченном числе опытов стати­
стическое среднее является случайной величиной, которая, тем не
менее, связана с математическим ожиданием и может дать о нем
известное представление.
Подобные статистические аналогии существуют для всех число­
вы х характеристик. Условимся в дальнейшем эти статистические
аналогии обозначать теми же буквами, что и соответствующие чис­
ловые характеристики, но снабжать их значком *.
Рассмотрим, например, дисперсию случайной величины. Она пред­
ставляет
собой математическое ожидание случайной величины
Х * = ( Х - т хУ:
0 { Х ] = М [ Х 2] = М [ ( Х — т х)%
(7.4.2)
Если в этом выражении заменить математическое ожидание его
статистической аналогией — средним арифметическим, мы получим
статистическую дисперсию случайной величины X :
£ о < - о
В * IX ] =
2
----------.
(7.4.3)
где т*х = М* [X ] — статистическое среднее.
Аналогично определяются статистические начальные и централь­
ные моменты любых порядков:
П
V х*
=
(7-4.4)
2 ( ^ - 0 *
^ 1 ^ 1 = ^ — я----------•
<7-4 -5>
Все эти определения полностью аналогичны данным в главе 5
определениям числовых характеристик случайной величины, с той
разницей, что в них везде вместо математического ожидания фигу­
рирует среднее арифметическое. При увеличении числа наблюдений,
очевидно, все статистические характеристики будут сходиться по
вероятности к соответствующим математическим характеристикам
и при достаточном п могут быть приняты приближенно равными им.
ХАРАКТЕРИСТИКИ СТАТИСТИЧЕСКОГО РАСПРЕДЕЛЕНИЯ
7.41
141
Нетрудно доказать, что для статистических начальных и цен­
тральных моментов справедливы те же свойства, которые были выве­
дены в главе 5 для математических моментов. В частности, стати­
стический первый центральный мбмент всегда равен нулю:
П
П
2 (*<— »£)
2*<
;=1
г»1
т* = т* — т* = 0.
/2
П
Соотношения между центральными и начальными моментами также
сохраняются:
2
г =1
П
п
И
Т.
п
д.
При очень большом количестве опытов вычисление характеристик
по формулам (7.4.1) — (7.4.5) становится чрезмерно громоздким,
и можно применить следующий прием: воспользоваться теми же
разрядами, на которые был расклассифицирован статистический
материал для построения статистического ряда или гистограммы, и
считать приближенно значение случайной величины в каждом разряде
постоянным и равным среднему значению, которое выступает в роли
«представителя» разряда. Тогда статистические числовые характе­
ристики будут выражаться приближенными формулами:
к
(7.4.7)
гпх = М *[ Х\ — 2 х]р*,
1=1
к
Вх =
О’ [ * ]
:=
2 (#1 — О
2Р г
(7.4.8).
к
(7.4.9)
п
(7.4.10)
где х 1 — «представитель» /-го разряда, р * — частота /-го разряда.
И— число разрядов.
Как видно, формулы (7.4.7) — (7.4.10) полностью аналогичны
формулам пспэ 5.6 и 5.7, определяющим математическое ожидание,
дисперсию, начальные и центральные моменты прерывной случайной
142
ЗАКОНЫ РА С П РЕД ЕЛ ЕН И Я
СЛУЧАЙНЫХ В Е Л И Ч И Н
[ГЛ. 7
величины Л ', с той только разницей, что вместо вероятностей р1
в них стоят частоты р*, вместо математического ожидания т х — ста­
тистическое среднее т * . вместо числа возможных значений случайной
величины — число разрядов.
В большинстве руководств по теории вероятностей и математической
статистике при рассмотрении вопроса о статистических аналогиях для харак­
теристик случайных величин применяется терминология, несколько отличная
от принятой в настоящей книге, а именно, статистическое среднее именуется
«выборочным средним», статистическая дисперсия—«выборочной дисперсией»
и т. д. Происхождение этих терминов следующее. В статистике, особенно
сельскохозяйственной и биологической, часто приходится исследовать распре­
деление того или иного признака для весьма большой совокупности индиви­
дуумов, образующих статистический коллектив (таким признаком может
быть, например, содержание белка в зерне пшеницы, вес того же зерна,
длина или вес тела какого-либо из группы животных и т. д.). Данный
признак является случайной величиной, значение которой от индивидуума
к индивидууму меняется. Однако, для того, чтобы составить представление
о распределении этой случайной величины или о ее важнейших характери­
стиках, нет необходимости обследовать каждый индивидуум данной обширной
совокупности; можно обследовать некоторую в ы б о р к у достаточно боль­
шого объема для того, чтобы в ней были выявлены существенные черты
изучаемого распределения. Та обширная совокупность, из которой произво­
дится выборка, носит в статистике название генеральной совокупности.
При этом предполагается, что число членов (индивидуумов) N в генеральной
совокупности весьма велико, а число членов п в выборке ограничено.
При достаточно большом N оказывается, что свойства выборочных (статисти­
ческих) распределений и характеристик практически не зависят от Л1; отсюда
естественно вытекает математическая идеализация, состоящая в том, что
генеральная совокупность, из которой осуществляется выбор, имеет беско­
нечный объем. При этом отличают точные характеристики (закон распределе­
ния, математическое ожидание, дисперсию и т. д.), относящиеся к генераль­
ной совокупности, от аналогичных им «выборочных» характеристик. Выбо­
рочные характеристики отличаются от соответствующих характеристик
генеральной совокупности за счет ограниченности объема выборки п;
при неограниченном увеличении п, естественно, все выборочные характери­
стики приближаются (сходятся по вероятности) к соответствующим характе­
ристикам генеральной совокупности. Часто возникает вопрос о том, каков
должен быть объем выборки п для того, чтобы по выборочным характеристи­
кам можно было с достаточной точностью судить о неизвестных характерис­
тиках генеральной совокупности или о том, с какой степенью точности при
заданном объеме выборки можно судить о характеристиках генеральной сово­
купности. Такой методический прием, состоящий в параллельном рассмотрении
бесконечной генеральной совокупности, из которой осуществляется выбор,
и ограниченной по объему выборки, является совершенно естественным
в тех областях статистики, где фактически приходится осуществлять выбор
из весьма многочисленных совокупностей индивидуумов. Для практических
задач, связанных с вопросами стрельбы' и вооружения, гораздо более
характерно другое положение, когда над исследуемой случайной величиной
(или системой случайных величин) производится ограниченное число
опытов с целью определить те или иные характеристики этой величины,
на!]шер, когда с целью исследования закона рассеивания при стрельбе
производится некоторое количество выстрелов, или с целью исследования
ошибки наводки производится серия опытов, в каждом из которых ошибка
наводки регистрируется с помощью фотопулемета, и т. д. При этом ограни­
7.51
ВЫРАВНИВАНИЕ
СТАТИСТИЧЕСКИХ
РЯДОВ
143
ченное число опытов связано не с трудностью регистрации и обработки,
а со сложностью и дороговизной каждого отдельного опыта. В этом случае
с известной натяжкой можно также произведенные п опытов мысленно рас­
сматривать как «выборку» из некоторой чисто условной «генеральной сово­
купности», состоящей из бесконечного числа возможных или мыслимых
опытов, которые можно было бы произвести в данных условиях. Однако
искусственное введение такой гипотетической «генеральной совокупности»
при данной постановке вопроса не вызвано необходимостью и вносит в рас­
смотрение вопроса, по существу, излишний элемент идеализации, не выте­
кающий из непосредственной реальности задачи.
Поэтому мы в данном курсе не пользуемся терминами «выборочное
среднее», «выборочная дисперсия», «выборочные характеристики» и т. д., '
заменяя их терминами «статистическое среднее», «статистическая дисперсия»,
«статистические характеристики».
7.5. Выравнивание статистических рядов
Во всяком статистическом распределении неизбежно присутствуют
элементы случайности, связанные с тем. что число -Наблюдений
ограничено, что произведены именно те, а не другие опыты, давшие
именно те, а не другие результаты. Только при очень большом числе
наблюдений эти элементы случайности сглаживаются, и случайное
явление обнаруживает в полной мере присущую ему закономерность.
На практике мы почти никогда не имеем дела с таким большим
числом наблюдений и вынуждены считаться с тем, что любому ста­
тистическому распределению свойственны в большей или меньшей,
мере черты случайности. Поэтому при обработке статистического
материала часто приходится решать вопрос о том, как подобрать для
данного статистического ряда теоретическую кривую распределения,
выражающую лишь существенные черты статистического материала,
но не случайности, связанные с недостаточным объемом эксперимен­
тальных данных. Такая задача называется задачей выравнивания
(сглаживания) статистических рядов.
Задача выравнивания заключается в том, чтобы подобрать теоре­
тическую плавную кривую распределения, с той или иной точки
зрения наилучшим образом описывающую данное статистическое рас­
пределение (рис. 7.5.1).
Задача о наилучшем выравнивании статистических рядов, как и
вообще задача о наилучшем аналитическом представлении эмпири­
ческих функций, есть задача в значительной мере неопределенная,
и решение ее зависит от того, что условиться считать «наилучшим».
Например, при сглаживании эмпирических зависимостей очень часто ■
исходят из так называемого принципа или метода наименьших
квадратов (см. п° 14.5). считая, что наилучшим приближением к эмпи­
рической зависимости в данном классе функций является такое, при
котором сумма квадратов отклонений обращается в минимум. При этом
вопрос о том, в каком именно классе функций следует искать наи­
лучшее приближение, решается уже не из математических сообра­
144
ЗАКОНЫ
РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ
ВЕЛИЧИН
ГГЛ. 7
жений, а из соображений, связанных с физикой решаемой задачи,
с учетом характера полученной эмпирической кривой и степени то ч­
ности произведенных наблюдений. Часто принципиальный характер
функции, выражающей исследуемую зависимость, известен заранее из
теоретических соображений,- из опыта же требуется получить лишь
некоторые численные параметры, входящие в выражение функции;
именно эти параметры подбираются с помощью метода наименьших
квадратов.
Аналогично обстоит дело и с задачей выравнивания статистиче­
ских рядов. Как правило, принципиальный вид теоретической кривой
выбирается заранее из соображений, связанных с существом задачи,
а в некоторых случаях просто с внешним видом статистического
распределения. Аналитическое выражение выбранной кривой распре­
деления зависит от некоторых параметров; задача выравнивания ста­
тистического ряда переходит в задачу рационального выбора тех
значений параметров, при которых соответствие между статистиче­
ским и теоретическим распределениями оказывается наилучшим.
Предположим, например, что исследуемая величина X есть ошибка измерения, возникающая в результате суммирования воздействий
множества независимых элементарных ошибок; тогда из теоретических
соображений можно считать, что величина X подчиняется нормаль­
ному закону:
/(*) = —
я У 2я
™
.
(7.5.1)
и задача выравнивания переходит в задачу о рациональном выборе
параметров т и с в выражении (7.5.1).
Бывают случаи, когда заранее известно, что величина X распре­
деляется статистически приблизительно равномерно на некотором
7.5)
ВЫРАВНИВАНИЕ СТАТИСТИЧЕСКИХ РЯДОВ
145
интервале; тогда можно поставить задачу о рациональном выборе
параметров того закона равномерной плотности
/(*) =
О
при
а < X < р.
при
х < а
или
х > р,
Которым можно наилучшим образом заменить (выровнять) заданное
статистическое распределение.
Следует при этом иметь в виду, что любая аналитическая функ­
ция / (лг), с помощью которой выравнивается статистическое распреде­
ление, должна обладать основными свойствами плотности распределения:
/ (* ) > 0;
СО
(7.5.2)
—оо
Предположим, что, исходя из тех или иных соображений, нами
выбрана функция / ( * ) , удовлетворяющая условиям (7.5.2), с помощью
которой мы хотим выровнять данное статистическое распределение;
В выражение этой функции входит несколько параметров а, Ь,
требуется подобрать эти параметры так, чтобы функция / (х) наи­
лучшим образом описывала данный статистический материал. Один
из методов, применяемых для решения этой задачи, — это так назы­
ваемый метод моментов.
Согласно методу моментов, параметры а, Ъ, . . . выбираются с таким
расчетом, чтобы несколько важнейших числовых характеристик
(моментов) теоретического распределения были равны соответствующим
статистическим характеристикам. Например, если теоретическая кри­
вая / ( я ) зависит только от двух параметров а и Ь, эти параметры
выбираются так, чтобы математическое ожидание т х и дисперсия Ь х
теоретического распределения совпадали с соответствующими стати­
стическими характеристиками пСх и О г Если кривая / ( х) зависит от
трех параметров, можно подобрать их так, чтобы совпали первые
три момента, и т. д. При выравнивании статистических рядов может
оказаться полезной специально разработанная система кривых П и р ­
сона, каждая из которых зависит в общем случае от четырех пара­
метров. При выравнивании эти параметры выбираются с тем расче­
том, чтобы сохранить первые четыре момента статистического рас­
пределения (математическое ожидание, дисперсию, третий и четвертый
моменты) *). Оригинальный набор кривых распределения, построенных
') См., например, В. И. Р о м а н о в с к и й , Математическая статистика,
ОНТИ, 1939.
146
ЗАКОНЫ РАСПРЕДЕЛЕН ИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 7
по иному принципу, дал Н . А. БородачевJ). Принцип, на котором
строится система кривых Н . А. Бородачева, заключается в том, что
выбор типа теоретической кривой основывается не на внешних
формальных признаках, а на анализе физической сущности случай­
ного явления или процесса, приводящего к тому или иному закону
распределения.
Следует заметить, что при выравнивании статистических рядов
нерационально пользоваться моментами порядка выше четвертого,
так как точность вычисления моментов резко падает с увеличением
их порядка.
Пример. 1. В п° 7.3 (стр. 137) приведено статистическое распределе­
ние боковой ошибки наводки X при стрельбе с самолета по наземной цели.
Требуется выровнять это распределение с помощью нормального закона:
t
(х -т )*
. о у 2п
Р ешен и е. Нормальный закон зависит от двух параметров: ш и з .
Подберем эти параметры так, чтобы сохранить первые два момента — мате­
матическое ожидание и дисперсию — статистического распределения.
Вычислим приближенно статистическое среднее ошибки наводки по фор­
муле (7.4.7), причем за представителя каждого разряда примем его середину:
т * = — 3,5 •0,012 — 2,5 •0,050 — 1,5 - 0,144 — 0,5 •0,266 + 0.5 •0,240 +
+ 1 ,5 •0,176 + 2,5 •0,092 + 3,5 •0,020 = 0,168.
Для определения дисперсии вычислим сначала второй начальный момент
по формуле (7.4.9), полагая s = 2, k = 8
00
“г = 2
~
А р * = 2,126.
1=1
Пользуясь выражением дисперсии через второй начальный момент (фор­
мула (7.4.6)), получим:
£>’ =<** — (иг*)2 = 2,126 — 0,028 = 2,098.
Выберем параметры т и о нормального закона так, чтобы выполнялись
условия:
■
•
т = т х,
а2 — Dx,
то есть примем:
т = 0,168; в = 1,448.
Напишем выражение нормального закона:
,
/ ( * ) =
U - 0 ,1 6 8 ) a
-------- 2-1,448»
1,448 Y 2*
’) Н. А. Б о р о д а ч е в , Основные вопросы теории точности произ­
водства, АН СССР, М .— Л., 1950.
7.5]
147
ВЫРАВНИВАНИЕ СТАТИСТЙЧЕСКИХ РЯДОВ
Пользуясь в табл. 3 приложения, вычислим значения / (х) на границах
разрядов
X
/(■*)
—4
0,004
—3
0,025
—2
0,090
—1
0,199
0
1
2
3
4
0,274 0,234 0,124 0,041 0,008
/
Построим на одном графике (рис. 7.5.2) гистограмму и выравнивающую
ее кривую распределения.
Из графика видно, что теоретическая кривая распределения / (лс), сохра­
няя, в основном существенные особенности статистического распределения,
свободна от случайных неправильностей хода гистограммы, которые, по-види­
мому, могут быть отнесены за счет случайных причин; более серьезное
обоснование последнему суждению будет дано в следующем параграфе.
П р и м е ч а н и е . В данном примере при определении Г)х мы вос­
пользовались выражением (7.4.6) статистической дисперсии через
второй начальный момент. Этот прием можно рекомендовать только
в случае, когда математическое ожидание т.* исследуемой случайной
величины X сравнительно невелико; в противном случае фор­
мула (7.4.6) выражает дисперсию Ох как разность близких чисел
и дает весьма малую точность. В случае, когда это имеет место, ре­
комендуется либо вычислять Д г непосредственно по формуле (7.4.3),
либо перенести начало координат в какую-либо точку, близкую к тх,
и затем применить формулу (7.4.6). Пользование формулой (7.4.3)
равносильно перенесению начала координат в точку /и*; это может
148
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ
7
оказаться неудобным, так как выражение /и* может быть дробным,
и вычитание т * из каждого х { при этом излишне осложняет вычис­
ления; поэтому рекомендуется переносить начало координат в ка­
кое-либо круглое значение х. близкое к /я*.
Пр и ме р 2. С целью исследования зайона распределения ошибки из­
мерения дальности с помощью радиодальномера произведено 400 измерений
дальности. Результаты опытов представлены в виде статистического ряда:
/; {М)
щ
*
Р1
20; 30
30; 40
40; 50
50; 60
60; 70
70; 80
80; 90
90; 100
21
72
66
38
51
56
64
32
0,052
0,180
0,165
0,128
0,095
0,140
0,160
0,080
Выровнять статистический ряд с помощью закона равномерной плотности.
Р ешен и е. Закон равномерной илотиости выражается формулой
/ ( * ) = .1
;
1
Р -а
0
при а < X < Р;
при X < а или X > Р
и зависит от двух параметров аи р . Эти параметры следует выбрать так,
чтобы сохранить первые два момента статистического распределения — мате­
матическое ожидание т'х и дисперсию Ог Из примера п°5.8 имеем
выражения математического ожидания и дисперсии для закона равномерной
плотности:
»
-
7Т1 % •
“+ ? •
2 ’
(р_а)*
12
Для того чтобы упростить вычисления, связанные с определением статисти­
ческих моментов, перенесем начало отсчета в точку лс0 = 60 и примем за
представителя каждого разряда его середину. Ряд распределения примет вид:
^/
х‘
*
Р1
—35
0,052
—25
0,180
—15
0,165
-5
0,095
5
0,128
15
0,140
25
0,160
35
0,080
где х\ — среднее для разряда значение ошибки радиодальномера X ' при но­
вом начале отсчета.
149
КРИТЕРИИ СОГЛАСИЯ
7.6]
Приближенное значение статистического среднего ошибки X ' равно:
тх, = 2
(=1
~х\р \ = °-26-
Второй статистический момент величины X ' равен:
“2 = 2 (^ ')2р; = 447,8.
откуда статистическая дисперсия:
О*, = а * - ( т * , ) 2 = 447,7.
Переходя к прежнему началу отсчета, получим новое статистическое
среднее:
т *х — т х *
+ 60 =: 60,26
я ту же статистическую дисперсию:
= °*х' = 447,7.
Параметры закона равномерной плот­
ности определяются уравнениями:
2
= 60,26;
О - « ) 2 = 447,7.
12
Решая эти уравнения относительно а
и р, имеем:
а » 23,6; Р я 96,9,
откуда
Рис. 7.5.3.
На рис. 7.5.3. показаны гистограмма и выравнивающий ее закон равномерной
плотности / ( х ) .
7.6. Критерии согласия
В настоящем п° мы рассмотрим один из вопросов, связанных
с проверкой правдоподобия гипотез, а именно— вопрос о согласован­
ности теоретического и статистического распределения.
Допустим, что данное статистическое распределение выравнено
с помощью некоторой теоретической кривой / ( х ) (рис. 7.6.1). Как
бы хорошо, ни была подобрана теоретическая кривая, между нею
и статистическим распределением неизбежны некоторые расхождения.
Естественно возникает вопрос: объясняются ли эти расхождения
только случайными обстоятельствами, связанными с ограниченным
числом наблюдений, или они являются существенными и связаны
с тем, что подобранная нами кривая плохо выравнивает данное ста­
тистическое распределение. Для ответа на такой вопрос служат так
называемые «критерии согласия».
150
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 7
Идея применения критериев согласия заключается в следующем.
На основании данного статистического материала нам предстоит
проверить гипотезу Н , состоящую в том, что случайная величина X
подчиняется некоторому определенному закону распределения. Этот
закон может быть задан в той или иной форме: например, в виде
функции распределения F ( x ) или в виде плотности распределения f ( x ) ,
•или же в виде совокупности вероятностей pt, где p t — вероятность
того, что величина X попадет в пределы i -го разряда.
Та к как из этих форм функция распределения F (х) является
наиболее общей и определяет собой любую другую, будем форму­
лировать гипотезу Н , как состоящую в том, что величина X имеет
функцию распределения F {х).
Д ля того чтобы принять или опровергнуть гипотезу Н , рассмот­
рим некоторую величину U, характеризующую степень расхожде­
ния теоретического и статистического распределений. Величина U
может быть выбрана различными способами; например, в качестве U
можно взять сумму квадратов отклонений теоретических вероятно­
стей р 1 от соответствующих частот р* или же сумму тех же квад­
ратов с некоторыми коэффициентами («весами»), или же максимальное
отклонение статистической функции распределения F * ( x ) от теоре­
тической F (х) и т. д. Допустим, что величина U выбрана тем или
иным способом. Очевидно, это есть некоторая случайная величина.
Закон распределения этой случайной величины зависит от закона
распределения случайной величины X , над которой производились
опыты, и от числа опытов п. Если гипотеза Н верна, то закон рас­
пределения величины U определяется законом распределения вели­
чины А - (функцией ^ ( х ) ) и числом п.
Допустим, что этот закон распределения нам известен. В ре­
зультате данной серии опытов обнаружено, что выбранная нами мера
КРИТЕРИИ СОГЛАСИЯ
7.61
161
расхождения I I приняла некоторое значение я . Спрашивается, можно
ли объяснить это случайными причинами или же это расхождение
слишком велико и указывает на наличие существенной разницы между
теоретическим и статистическим распределениями и, следовательно,
на непригодность гипотезы Я ? Для ответа на этот вопрос предпо­
ложим, что гипотеза Н верна, и вычислим в этом предположении
вероятность того, что за счет случайных причин, связанных с недо­
статочным объемом опытного материала, мера расхождения и ока­
жется не меньше, чем наблюденное нами в опыте значение и, т , е.
вычислим вероятность события:
£/>а.
Если эта вероятность весьма мала, то гипотезу*// следует отверг­
нуть как мало правдоподобную; если же эта вероятность значительна,
следует признать, что экспериментальные данные не противоречат
гипотезе Н .
Возникает вопрос о том, каким же способом следует выбирать
меру расхождения и ? Оказывается, что при некоторых способах ее
выбора закон распределения величины и обладает весьма простыми
свойствами у при достаточно большом п практически не зависит от
функции Р (х). Именно такими мерами расхождения и Пользуются
в математической статистике в качестве критериев согласия.
Рассмотрим один из наиболее часто применяемых критериев со­
гласия— так называемый «критерий х 2» Пирсона.
Предположим, что произведено п независимых опытов, в каждом
из которых случайная величина X приняла определенное значение.
Результаты опытов сведены в /е разрядов и оформлены в .виде ста­
тистического ряда:
*
h
•
Pi
Хй х2
х2; х 3
*
Ф
Pi
Pi
. .
.
* • •
Xh» %k+ \
•
Pk
Требуется проверить, согласуются ли экспериментальные данные
с гипотезой о том, что случайная величина X имеет данный закон
распределения (заданный функцией распределения F (х) или плот­
ностью / {х)). Назовем этот .закон распределения «теоретическим».
Зная теоретический закон \ распределения, можно найти теорети­
ческие вероятности попадания случайной величины в каждый из
разрядов:
Pi> Р г ..........Pk'
Проверяя согласованность теоретического и статистического рас­
пределений, мы будем исходить из расхождений между теоретиче­
скими вероятностями p t и наблюденными частотами р *. Естественно
152
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 7
выбрать в качестве меры расхождения между теоретическим и ста­
тистическим распределениями сумму квадратов отклонений ( р* — р
взяты х с некоторыми «весами» сц
(7.6.1)
Коэффициенты с1 («веса» разрядов) вводятся потому, что в общем
случае отклонения, относящиеся к различным разрядам, нельзя счи­
тать равноправными по значимости. Действительно, одно и то же по
абсолютной величине отклонение р * — р 1 может быть мало значитель­
ным, если сама вероятность р 1 велика, и очень заметным, если она
мала. Поэтому естественно «веса» с1 взять обратно пропорциональ­
ными вероятностям разрядов р (.
Далее возникает вопрос о том, как выбрать коэффициент про­
порциональности.
К. Пирсон показал, что если положить
то при больших п закон распределения величины V обладает весьма
простыми свойствами: он практически не зависит от функции рас­
пределения Р ( х ) и от числа опытов п, а зависит только от числа
разрядов А, а именно, этот закон при увеличении п приближается
к так называемому «распределению у} » :).
При таком выборе коэффициентов с1 мера расхождения обычно
обозначается х 2:
(7.6.3)
Д ля удобства вычислений (чтобы не иметь дела с дробными ве­
личинами с большим числом нулей) можно ввести я под знак суммы
1) Распределением
с г степенями свободы называется распределение
суммы квадратов г независимых случайных величин, каждая из которых под­
чинена нормальному закону с математическим ожиданием, равным нулю,
и дисперсией, равной единице. Это распределение характеризуется плотностью
О
при
и > О,
при
и < О,
оо
где Г (а) =
I
о
— известная гамма-функция,
7.6)
КРИТЕРИИ СОГЛАСИЯ
и, учитывая, что р' =
153
где т , — число значений в /-м разряде,
привести формулу (7.6.3) к виду:
1=1
Распределение х 2 зависит от параметра г, называемого числом «сте­
пеней свободы» распределения. Число «степеней свободы» г равно
числу разрядов к минус число независимых условий («связей»), на­
ложенных на частоты р\. Примерами таких условий могут быть
к
если мы требуем только того, чтобы сумма частот была равна еди­
нице (это требование накладывается во всех случаях);
й
2 х 1р'1 — т
если мы подбираем теоретическое распределение с тем условием,
чтобы совпадали теоретическое и статистическое средние значения;
к
если мы требуем, кроме того, совпадения теоретической и стати­
стической дисперсий и т. д.
Для распределения х 2 составлены специальные таблицы (см. табл. 4
приложения), Пользуясь этими таблицами, можно для каждого зна­
чения х 2 и числа степеней свободы г найти вероятность р того, что
величина, распределенная по закону х 2> превзойдет это значение.
В табл. 4 входами являются: значение вероятности р и число степе­
ней свободы г. Числа, стоящие в таблице, представляют собой соот­
ветствующие значения х 2*
Распределение х 2 лает возможность оценить степень согласован­
ности теоретического и статистического распределений, Будем исхо­
дить из того, что величина X д е й с т в и т е л ь н о распределена по
закону F (х). Тогда вероятность р, определенная по таблице, есть
вероятность того, что за счет чисто случайных причин мера расхож­
дения теоретического и статистического распределений (7.6.4) будет
не меньше, чем фактически наблюденное в данной серии опытов
значение х 2* Если эта вероятность, р весьма мала (настолько мала, что
событие с такой вероятностью можно считать практически невозможным),
то результат опыта следует считать п р о т и в о р е ч а щ и м гипотезе Н
О том, что закон распределения величины X есть F ( x ) . Эту
154
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ
СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 7
гипотезу следует отбросить как неправдоподобную. Напротив, если
вероятность р сравнительно велика, можно признать расхождения меж­
ду теоретическим и статистическим распределениями несущественными
и отнести их за счет случайных причин. Гипотезу И о том, что
величина X распределена по закону F (х), можно считать правдо­
подобной или, по крайней мере, не п р о т и в о р е ч а щ е й опытным
данным.
Таким образом, схема применения критерия у? к оценке согласо­
ванности теоретического и статистического распределений сводится
к следующему:
1) Определяется мера расхождения у} по формуле (7.6.4).
2) Определяется число степеней свободы г как число разрядов k
минус число наложенных связей s:
г — к — 5.
3) По г и х 2 с помощью табл. 4 определяется вероятность того,
что величина, имеющая распределение -/2 с г степенями свободы, пре­
взойдет данное значение х 2- Если эта вероятность весьма мала, гипо­
теза отбрасывается как неправдоподобная. Если эта вероятность
относительно велика, гипотезу можно признать не противоречащей
опытным данным.
,
Насколько мала должна быть вероятность р для того, чтобы о т­
бросить или пересмотреть гипотезу, — вопрос неопределенный; он не
может быть решен из математических соображений, так же как и
вопрос о том, насколько мала должна быть вероятность события для
того, чтобы считать его практически невозможным. На практике,
если р оказывается меньшим чем 0,1, рекомендуется проверить экспе­
римент, если возможно — повторить его и в случае, если заметные
расхождения снова появятся, пытаться искать более подходящий для
описания статистических данных закон распределения.
Следует особо отметить, что с помощью критерия у2 (или любого
другого критерия согласия) можно только в некоторых случаях о п р о ­
в е р г н у т ь выбранную гипотезу Н и отбросить ее как явно несо­
гласную с опытными данными; если же вероятность р велика, то этот
факт сам по себе ни в коем случае не может считаться доказатель­
ством справедливости гипотезы Н , а указывает только на то, что
гипотеза не п р о т и в о р е ч и т опытным данным.
С первого взгляда может показаться, что чем больше вероят­
ность р, тем лучше согласованность теоретического и статистиче­
ского распределений и тем более обоснованным следует считать
выбор функции F (х ) в качестве закона распределения случайной
величины. В действительности это не так. Допустим, например, что,
оценивая согласие теоретического и статистического распределений
по критерию х2, мы получили /> = 0,99. Это значит, что с вероятно­
стью 0,99 за счет чисто случайных причин при данном числе опытов
К Р И ТЕ Р И И
7.6]
155
СОГЛАСИЯ
должны были получиться расхождения ббльшие, чем наблюденные.
Мы же получили относительно весьма малые расхождения, которые
слишком малы для того, чтобы признать их правдоподобными. Разум­
нее признать, что столь близкое совпадение теоретического и стати­
стического распределений не является случайным и может быть
объяснено определенными причинами, связанными с регистрацией и
обработкой опытных данных (в частности, с весьма распространенной
на практике «подчисткой» опытных данных, когда некоторые резуль­
таты произвольно отбрасываются или несколько изменяются).
Разумеется, все эти соображения применимы только в тех слу­
чаях, когда количество опытов п достаточно велико (порядка несколь­
ких сотен) и когда имеет смысл применять сам критерий, осно­
ванный на предельном распределении меры расхождения при « —►со.
Заметим, что при пользовании критерием х 2 достаточно большим должно
быть не только общее число опытов п, но и числа наблюдений
в отдельных разрядах. На практике рекомендуется иметь в каждом
разряде не менее 5 — 10 наблюдений. Если числа наблюдений в от­
дельных разрядах очень малы (порядка 1 — 2), имеет смысл объеди­
нить некоторые разряды.
П р и ме р 1. Проверить согласованность теоретического и статистического
распределений для примера 1 п° 7.5 (стр. 137, 146).
Р ешен и е. Пользуясь теоретическим нормальным законом распределе,нйя с параметрами
/я — 0,168,
а= 1,448,
находим вероятности попадания в разряды по формуле
—т
Р1 = Ф *
где XI, х 1+ 1— границы /-го разряда.
Затем составляем сравнительную таблицу чисел попаданий в разряды гп[
и соответствующих значений
(/г = 500).
//
щ
ПР1
- 4 ; - 3 —3; —2 —2; —1 —I; 0
0; 1
1; 2
2; 3
3; 4
6
25
72
133
120
88
46
10
6,2
26,2
71,2
122,2
131,8
90,5
38,2
10,5
По формуле (7.6.4) определяем значение меры расхождения
у
(^ Л Р -У =ЗМ .
пР‘
Определяем число степеней свободы как число разрядов минус число
наложенных связей 5 (в данном случае 5 = 3):
г = 8 — 3 = 5.
156
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
(ГЛ. 7
По табл. 4 приложения находим для г = 5:
при -X2 == 3,00 р •= 0,70;
при у 2 = 4,35 р — 0,50.
Следовательно, искомая вероятность р при у 2 =* 3,94 приближенно равна
0,56. Эта вероятность малой не является; поэтому гипотезу о том, что ве­
личина X распределена по нормальному закону, можно считать правдоподобной.
П р и м е р 2. Проверить согласованность теоретического и статистиче­
ского распределений для условий примера 2 п° 7.5 (стр. 149).
Р е ш е н и е . Значения р1вычисляем как вероятности попадания на участки
(20; 30), (30; 40) и т. д. для случайной величины, распределенной по закону
равномерной плотности на отрезке (23,6; 96,9). Составляем сравнительную
таблицу значений /я* и пр1 (« = 400):
и
т
пр1
20; 30
30; 40
40; 50
50; 60
60; 70
70; 80
80; 90
90; 100
21
72
66
38
51
56
64
32
34,9
54,6
54,6
54,6
54,6
54,6
54,6
38,0
По формуле (7.6.4) находим у2:
а
1г =
Число степеней свободы:
г = 8 — 3 = 5.
По табл. 4 приложения имеем:
при у2 = 20,5 и г — 5
р = 0,001,
Следовательно, наблюденное нами расхождение между теоретическим и
статистическим распределениями могло бы за счет чисто случайных причин
появиться лишь с вероятностью р х 0,001. Так как эта вероятность очень
мала, следует признать экспериментальные данные п р о т и в о р е ч а щ и м и
гипотезе о том, что величина X распределена по закону равномерной
плотности.
Кроме критерия у2, для оценки степени согласованности теорети­
ческого и статистического распределений на практике применяется
еще ряд других критериев. И з них мы вкратце остановимся на кри­
терии А. Н . Колмогорова.
В качестве меры расхождения между теоретическим и статисти­
ческим распределениями А. Н . Колмогоров рассматривает максималь­
ное значение модуля разности между статистической функцией рас­
пределения Р * (х~) и соответствующей теоретической функцией рас­
пределения:
£) = та х |Р * (х) — Т7 (х) |.
• Основанием для выбора в качестве меры расхождения величины £>
является простота ее вычисления. Вместе с тем она имеет достаточно
157
КРИТЕРИИ СОГЛАСИЯ
761
простой закон распределения. А. Н . Колмогоров доказал, что, какова
бы ни была функция распределения Р ( х ) непрерывной случайной ве­
личины X , при неограниченном возрастании числа независимых на­
блюдений п вероятность неравенства
стремится к пределу
Я (Х ) = 1—
оо
2
(— 1)ке-2к'1\
к~ -со
Значения вероятности Я (Х ),
приведены в таблице 7.6.1.
К
0,0
0,1
0,2
0,3
0,4
0,5
0,6
1,000
1,000
1,000
1,000
0,997
0,964
0,864
подсчитанные по
(7.6.5)
формуле (7.6.5),
Т а б л и ц а 7.6.1
л
РЮ
X
Я(Х)
0,7
0,8
0,9
1,0
1,1
1,2
1,3
0,711
0,544
0,393
0,270
0,178
0,112
0,068
1,4
1,5
1,6
1,7
1,8
1,9
2,0
0,040
0,022
0,012
0,006
0,003
0,002
0,001
Схема применения критерия А . Н . Колмогорова следующая: строят­
ся статистическая функция распределения Г * ( х ) и предполагаемая
теоретическая функция распределения Р (х), и определяется макси­
мум й модуля разности между ними (рис, 7.6.2).
Далее, определяется величина
Х = 0 У"п
158
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 7
и по таблице 7.6.1 находится вероятность Р(к). Это есть вероят­
ность того, что (если величина X действительно распределена по
закону F (jc)) за счет чисто случайных причин максимальное расхож­
дение между F * (х) и F (jc) будет не меньше, чем фактически наблю­
денное. Если вероятность Я (Х ) весьма мала, гипотезу следует отверг­
нуть как неправдоподобную; при сравнительно больших Р (X) ее можно
считать совместимой с опытными данными.
Критерий А. Н . Колмогорова своей простотой выгодно отличается
от описанного ранее критерия у2; поэтому его весьма охотно при­
меняют на практике. Следует, однако, оговорить, что Этот критерий
можно применять только в случае, когда гипотетическое распреде­
ление F (х) полностью известно заранее из каких-либо теоретиче­
ских соображений, т. е. когда известен не только вид функции рас­
пределения F (х), но и все входящие в нее параметры. Такой случай
сравнительно редко встречается на практике. Обычно из теоретиче­
ских соображений известен только общий вид функции F(x),a . вхо ­
дящие в нее числовые параметры определяются по данному стати­
стическому материалу. При применении критерия у? это обстоятельство
учитывается соответствующим уменьшением числа степеней свободы
распределения у2. Критерий А. Н . Колмогорова такого согласования
не предусматривает. Если все же применять этот критерий в тех
случаях, когда параметры теоретического распределения выбираются
по статистическим данным, критерий дает заведомо завышенные зна­
чения вероятности Р(Х ); поэтому мы в ряде случаев рискуем принять
как правдоподобную гипотезу, в действительности плохо согласую­
щуюся с опытными данными.
ГЛАВА 8
/
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
Ч&
8.1. Понятие о системе случайных величин
В практических применениях теории вероятностей очень часто
Приходится сталкиваться с задачами, в которых результат опыта описы­
вается не одной случайной величиной, а двумя или более случайными
величинами, образующими комплекс или систему. Например, точка
попадания снаряда определяется не одной случайной величиной, а
двумя: абсциссой и ординатой — и может быть рассмотрена как ком­
плекс двух случайных величин. Аналогично точка разрыва дистан­
ционного снаряда определяется комплексом трех случайных величин.
При стрельбе группой из п выстрелов совокупность точек попада­
ния на плоскости может рассматриваться как комплекс или система 2 п
случайных величин: п абсцисс и п ординат точек попадания. Осколок,
образовавшийся при разрыве снаряда, характеризуется рядом случай­
ных величин: весом, размерами, начальной скоростью, направлением
полета и т. д. Условимся систему нескольких случайных величин
X , У. ' . . . ,
обозначать {X, У..........
Свойства.системы нескольких случайных величин не исчерпываются
свойствами отдельных величин, ее составляющих: помимо этого, они
включают также взаимные связи (зависимости) между случайными вели­
чинами.
При рассмотрении вопросов, связа-нных с системами случайных ве­
личин, удобно пользоваться геометрической интерпретацией системы.
Например, систему двух случайных величин ( X , К) можно изобра­
жать с л у ч а й н о й т о ч к о й на плоскости с координатами X и У
(рис. 8.1.1). Аналогично система трех случайных величин может быть
изображена случайной точкой в трехмерном пространстве. Часто бы­
вает удобно говорить о системе п случайных величин как о «случай­
ной точке в пространстве п измерений». Несмотря на то, что послед­
няя интерпретация не обладает непосредственной наглядностью, поль­
зование ею дает некоторый выигрыш в смысле общности терминологии
и упрощения записей.
160
С И С ТЕМ Ы С Л У Ч А Й Н Ы Х В Е Л И Ч И Н
[ГЛ . 8
Часто вместо образа с л у ч а й н о й т о ч к и для геометрической
интерпретации системы случайных величин пользуются образом с л у ­
ч а й н о г о в е к т о р а . Систему двух случайных величин при этом
рассматривают как случайный вектор на плоскости хОу, составляющие
которого по осям представляют собой случайные величины X , У
(рис. 8.1.2). Система трех случайных величин изображается случайным
вектором в трехмерном пространстве, система п случайных величин —
случайным вектором в пространстве п измерений. При этом теория
систем случайных величин рассматривается как т е о р и я с л у ч а й н ы х
векторов.
В данном курсе мы будем в зависимости от удобства изложения
пользоваться как одной, так и другой интерпретацией.
Занимаясь системами случайных величин, мы будем рассматривать
как полные, исчерпывающие вероятностные характеристики— законы
распределения, так и неполные — числовые характеристики.
Изложение начнем с наиболее простого случая системы двух слу­
чайных величин.
.> Ч4 8.2Л^#ункция распределения системы двух
случайных величин
\У^>ункцией распределения системы двух случайных величин (Х.^У)
называется вероятность совместного выполнения двух неравенств
X < х и У < у:
Г ( х . у) = Р ( ( Х < х ) ( У < у ) ) .
(8.2.1)
Если пользоваться для геометрической интерпретации системы
образом случайной точки, то функция распределения Р ( х , у) есть
не что иное,' как вероятность попадании случайной точки (X , У)
в бесконечный квадрант с вершиной в точке (х, у), лежащий левее
8.2)
'
ФУНКЦИЯ РАСПРЕДЕЛЕНИЯ СИСТЕМЫ ДВУХ ВЕЛИЧИН
161
и ниже ее (рис. 8.2.1). В аналогичной интерпретации функция раслределения одной случайной величины X — обозначим ее
(л) —■
представляет собой вероятность попада­
ния случайной точки в полуплоскость,
ограниченную
справа абсциссой
х
(рис. 8.2.2); функция распределения од­
ной величины К — ^ (у) — вероятность
попадания в полуплоскость, ограничен­
ную сверху ординатой у (рис. 8.2.3).
В п° 5. 2мы привели основные свой­
ства функции распределения Г (х) для
одной случайной величины. Сформули­
руем аналогичные свойства для функ­
ции распределения системы случай­
ных величин и снова воспользуемся
Рис. 8.2.1.
геометрической
интерпретацией
для
наглядной иллюстрации этих свойств.
неубывающая фуикция
1.
Функция распределения Е ( х , есть
у)
обоих своих аргументов, т. е.
при х 2 > х х
/=■(*2. У ) > Р ( х 1, у);
при у 2 > у !
Р ( х . у2) > Р ( х > У д - у
В этом свойстве функции Р (х) можно наглядно убедиться, поль­
зуясь геометрической интерпретацией функции распределения как
вероятности попадания в квадрант
с вершиной (х, у) (рис. 8.2.1).
Действительно, увеличивая х (смещая
правую границу квадранта вправо) или увеличивая у (смещая верх­
нюю границу вверх), мы, очевидно, не можем уменьшить вероят­
ность попадания в этот квадрант.
Теория вероятностей
162
СИСТЕМЫ СЛУЧАЙНЫХ В Е Л И Ч И Н
1ГЛ. 8
2. Повсюду на — оо функция распределения равна нулю:
Р ( х , — оо) = Р (— оо, у) = р ( — оо, — оо) = 0.
В этом свойстве мы наглядно убеждаемся, неограниченно отодви­
гая влево правую границу квадранта (х -*■— оо) или вниз его верх­
нюю границу (у -> — оо) или делая это одновременно с обеими гра­
ницами; при этом вероятность попадания в квадрант стремится к нулю.
3. При одном из аргументов, равном -)-о о , функция распреде­
ления системы превращается в функцию распределения случайной
величины, соответствующей другому аргументу:
Р ( х , -\-сю) = Р 1(х),
Р ( + о о , у) = Р 2(у),
где Р 1(х ), 2 (у) — соответственно функции распределения случайных
величин X и У.
В этом свойстве функции распределения можно наглядно убе­
диться, смещая ту или иную из границ квадранта на -(-оо; при этом
в пределе квадрант превращается в полуплоскость, вероятность
попадания в которую есть функция распределения одной из величин,
входящих в систему.
4. Если оба аргумента равны -(-о о , функция распределения си­
стемы равна единице:
/7( + о о , 4 - оо) = 1.
{
Действительно, при л:-> -| -о о ,
у -> -( -о о
квадрант с вершиной
(х, у) в пределе обращается во всю плоскость хОу, попадание
в
которую
есть
достоверное
событие.
При рассмотрении законов распределе­
ния отдельных случайных величин (глава 5)
мы вывели выражение для вероятности по­
падания случайной
величины в пределы
заданного участка. Эту вероятность мы выра­
зили как через функцию распределения,
_ так и через плотность распределения.
0
х
Аналогичным вопросом для системы двух
Рнс. 8.2.4.
случайных величин является вопрос о ве­
роятности попадания случайной точки { X ,У)
в пределы заданной области О на плоскости хОу (рис. 8.2.4).
Условимся событие, состоящее в попадании случайной точки (X , У)
в область Э, обозначать символом (X . У) с: О.
Вероятность попадания случайной точки в заданную область вы ­
ражается наиболее просто в том случае, когда эта область пред­
ставляет собой прямоугольник со сторонами, параллельными коорди­
натным осям.
Выразим через функцию распределения системы вероятность по­
падания случайной точки ( X , У) в прямоугольник Я , ограничен­
ный абсциссами а и р и ординатами ? и 8 (рис. 8.2.5).
8.3]
ПЛОТНОСТЬ РАСП РЕДЕЛЕНИ Я
СИСТЕМЫ ДВУХ ВЕЛИЧИН
163
При этом следует условиться, куда мы будем относить границы
прямоугольника. Аналогично тому, как мы делали для одной случай­
ной величины, условимся включать в прямоугольник /? его нижнюю
и левую границы и не включать верхнюю и правую!). Тогда собы­
тие (X , У ) с Я будет равносильно произведению двух событий:
а-4 .Л '< р и " Г < ; Н < 8 . Выразим вероятность этого события через
функцию распределения системы. Для этого рассмотрим на плоскости
х О у четыре бесконечных квадранта с вершинами в точках (ß, 8); (а, 8);
(ß, т) и (а, 7 ) (рис. 8.2.6).
Очевидно, вероятность попадания в прямоугольник R равна ве­
роятности попадания в квадрант (ß, 8) минус вероятность попадания
в квадрант (а, 8) минус вероятность попадания в квадрант (ß, f)
плюс вероятность попадания в квадрант (а, -у) (так как мы дважды
вычли вероятность попадания в этот квадрант). Отсюда получаем
формулу, выражающую вероятность попадания в прямоугольник через
функцию распределения системы:
Р { ( Х . Y) c / ? ) = F (ß , b) — F (а. 8) — F (ß ,
+
?)•
(8.2.2)
В дальнейшем," когда будет введено понятие плотности распреде­
ления системы, мы выведем формулу для вероятности попадания
случайной точки в область произвольной формы.
8 .3 . Плотность распределения системы двух случайных величин
Введенная в предыдущем п° характеристика системы — функция
распределения — существует для систем любых случайных величин,
как прерывных, так и непрерывных. Основное практическое значение
') На рис. 8.2.5 границы, включенные в прямоугольник, даны жирными
линиями.
6*
164
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. в
имеют системы непрерывных случайных величин. Распределение
системы непрерывных величин обычно характеризуют не функцией
распределения, а п л о т н о с т ь ю
рас­
J’
пределения.
Вводя в рассмотрение плотность рас­
пределения
для одной случайной вели­
/Ь
чины. мы определяли ее как предел от­
ч\\\\\\^\\\WW\\^ $
У
ношения вероятности попадания на малый
участок к длине этого участка при ее
неограниченном уменьшении. Аналогично
определим плотность распределения си­
X
стемы двух величин.
X
(7
Пусть имеется система двух непре­
рывных случайных величин ( X , К), кото­
рая интерпретируется случайной точкой
Рис. 8.3.1.
на плоскости хОу. Рассмотрим на этой
плоскости малый прямоугольник
со
сторонами Ах и Ау, примыкающий к точке с координатами (дг, у)
(рис. 8.3.1). Вероятность попадания в этот прямоугольник по фор­
муле (8.2.2) равна
S
Р((Х,
К )с/?д) =
/ 7(j c - f - A j c ,
—
у-^-Ду) —
(лг- f - Длг. y) — F ( x , у -\ -А у ) + F ( x , у).
Разделим вероятность попадания в прямоугольник R A на площадь
этого прямоугольника и перейдем к пределу при А х ;-> 0 и Д у -> 0 :
Пт
=
д* АУ
&х->о
Ду-*0
..
to-ю
* у -* о
F ( x + \ x , у + Ду) — F ( x + A*. y) — F ( X, у + Ay) + F (х, у)
Д-гДу
■
(8.3.1)
Предположим, что функция F ( x , у) не только непрерывна, но и
дифференцируема; тогда правая часть формулы (8.3.1) представляет
собой вторую смешанную частную производную функции F ( x , у)
по х к у. Обозначим эту производную / ( х, у):
(8.3.2)
Функция / ( х , у) называется плотностью распределения системы.
Таким образом, плотность распределения системы представляет
собой предел отношения вероятности попадания в малый прямоуголь­
ник к площади этого прямоугольника, когда оба его размера стре­
мятся к нулю; она может быть выражена как вторая смешанная
частная производная функции распределения системы по обоим аргу­
ментам.
*.3]
ПЛОТНОСТЬ РАСПРЕДЕЛЕНИЯ
СИСТЕМЫ ДВУХ ВЕЛИЧИН
165
Если воспользоваться «механической» интерпретацией распреде­
ления системы как распределения единичной массы по плоскости хОу,
функция / (х , у) представляет собой плотность распределения массы
в точке ( я , у).
Геометрически функцию / ( х , у) можно изобразить некоторой
поверхностью (рис. 8.3.2). Эта поверхность аналогична кривой рас­
пределения для одной случайной ве­
личины и называется поверхностью
распределения.
Если пересечь поверхность рас­
пределения / ( х , у) плоскостью, па­
раллельной плоскости хОу, и спроек­
тировать
полученное сечение на
плоскость хОу, получится кривая,
в каждой точке которой плотность
распределения постоянна. Такие кри­
вые называются кривыми равной
плотности. Кривые равной плот­
ности, очевидно, представляют собой
горизонтали поверхности распределения. Часто бывает удобно
задавать распределение семейством кривых равной плотности.
Рассматривая плотность распределения / ( х ) для одной случайной
реличины, мы ввели понятие «элемента вероятности» / ( х ) й х . Это
есть вероятность попадания случайной вели­
чины X на элементарный участок йх, приле­
жащий к точке х. Аналогичное понятие
«элемента вероятности» вводится и для си­
\W\WN
стемы двух случайных величин. Элементом
вероятности в данном случае называется
выражение
/(дг, у )й х й у .
Очевидно, элемент вероятности есть не
что иное, как вероятность попадания в эле­
ментарный прямоугольник со сторонами йх,
йу, примыкающий к точке (л:, у) (рис. 8.3.3).
Рис. 8.3.3.
Эта вероятность равна объему элементарного
параллелепипеда, ограниченного сверху поверхностью / (х , у) и опи­
рающегося на элементарный прямоугольник йх йу (рис. 8.3.4).
Пользуясь понятием элемента вероятности, выведем выражение
для вероятности попадания случайной точки в произвольную область £).
Эта вероятность, очевидно, может быть получена суммированием
(интегрированием) элементов вероятности по всей области й :
"ёх
Р ( ( Х , У) с £>) = ^ ^ / (х, у )й х йу.
Ф)
(8.3.3)
166
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ. 8
Геометрически вероятность попадания в область В изображается
объемом цилиндрического тела С, ограниченного сверху поверхностью
распределения и опирающегося на область О (рис. 8.3.5).
И з общей формулы (8.3.3) вытекает формула для вероятности
попадания в прямоугольник
ограниченный абсциссами а и р и
ординатами у и 8 (рис. 8.2.5):
Р ( ( Х , У )с = Я ) = J ] * / ( * . у )й х й у .
(8.3.4)
■ т
Воспользуемся формулой (8.3.4) для того, чтобы выразить функ­
цию распределения системы Т ( х , у) через плотность распределения
/ ( х , у). Функция распределения Г ( х , у) есть вероятность попадания
в бесконечный квадрант; последний можно рассматривать как прямо­
угольник, ограниченный абсциссами — оо и х и ординатами — оо и у.
По формуле (8.3.4) имеем:
х
Р (х ,у )=
J
у
£ / {х ,у )й х й у .
(8.3.5)
—со —оо
Легко убедиться в следующих свойствах плотности распределения
системы:
1.
Плотность распределения системы есть функция неотрица
тельная:
/(*. з»>о.
Это ясно из того, что плотность распределения есть предел отно­
шения двух неотрицательных величин: вероятности попадания в пря­
моугольник и площади прямоугольника — и, следовательно, отрица­
тельной быть не может.
8 3)
ПЛОТНОСТЬ РАСПРЕДЕЛЕНИ Я
167
СИСТЕМЫ ДВУХ ВЕЛИЧИН
2. Двойной интеграл в бесконечных пределах от плотности рас­
пределения системы равен единице:
00
J J / ( х , y ) d x d y — \.
(8.3.6)
— ОО
Это видно из того, что интеграл (8.3.6) есть не что иное, как ве­
роятность попадания во всю плоскость х Оу ,
т. е. вероятность достоверного события.
Геометрически это свойство означает, что
полный объем тела, ограниченного поверхностью
распределения и плоскостью хОу , равен единице^
Пример
1. Система двух случайных величин
{X, У) подчинена закону распределения с плотностью
f (Х' у) = *2(1 + * 2)(1 + Уг) '
Найти функцию распределения F (х, у). Определить
D
ggg
вероятность попадания случайной точки (X, Y) в квад*
'
рат R (рис. 8.3.6).
Р е ш е н и е . Функцию распределения F (х, у) находим по формуле (8.3.5)
П*'У) = ^
/
/
— ОО
-О О
(1 + % У + уг) - ( i afctg * + ? ) ( ЛтafCtg > + т ) •
Вероятность попадания в прямоугольник /? находим по формуле (8.3.4):
Р((Х п с = / п - 4 г j
f IГ (1 +
0 0
‘
d x)d( y1 4
J.2
f 1 +d x x i JГ 1 +dyу 2 --
2) - „ 21 J
о
1
16*
о
П р и м е р 2. Поверхность распределения системы (X, У) представляет
собой прямой круговой конус, основанием которого служит круг радиуса R
Рис. 8.3.7*
Va:2 +y*
Рис. 8.38.
с центром в начале координат. Написать выражение плотности распределе­
ния. Определить вероятность того, что случайная точка (х, у) попадет
В круг К радиуса а (рис. 8.3.7), причем а <Н.
168
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
[ГЛ
8
Р ешен и е. Выражение плотности распределения внутри круга К на­
ходим из рис. 8.3.8:
где А — высота конуса. Величину h определяем так, чтобы объем конусэ
был равен единице: - j я/?аА = 1, откуда
i
3
яЯ* •
И
/ (*. у) = - ^ г (л - v ^ + y * ) .
Вероятность попадания в круг К определяем по формуле (8.3.4):
Р({Х , П с К ) =
Я
/ (*, у) rfx dy.
(8.3.7)
(К)
Для вычисления интеграла (8.3.7) удобно перейти к полярной системе коор­
динат г, чР ( ( Х , К ) с К) —
а
2«
а
( * - r) r d r = 3 ( ^ ) 2- 2 ( j ) 3.
f
0
0
о
8.4.
Законы распределения отдельных величин,
входящих в систему. Условные законы распределения
Зная закон распределения системы двух случайных величин,
можно всегда определить законы распределения отдельных величин,
входящих в систему. В п° 8.2 мы уже вывели выражения для функ­
ций распределения отдельных величин, входящих в систему, через
функцию распределения системы, а именно, мы показали, что
F i (x ) = * F ( x , оо);
F 2(y) = F(oo, у).
(8.4.1)
Выразим теперь плотность распределения каждой из величин,
входящих в систему, через плотность распределения системы. Поль­
зуясь формулой (8.3.5), выражающей функцию распределения через
плотность распределения, напишем:
X
F i { x ) — F ( x , оо)—
оо
J jf(x ,y )d x d y .
— ОО —00
откуда, дифференцируя по х,
распределения величины X :
получим выражение для
плотности
ОО
f i (X) = f ' i(х) =
f f i x , y)dy.
— CO
(8.4.2)
8.4]
З'АКОНЫ
РАСПРЕДЕЛЕНИ Я
Аналогично
ОТДЕЛЬНЫХ
ВЕЛИЧИН
169
тСО
/ 2(у) = / ^ ( у ) =
(8.4.3)
—оо
Таким образом, для того чтобы получить плотность распределе­
ния одной из величин, входящих в систему, нужно плотность рас­
пределения системы проинтегрировать в бесконечных пределах по
аргументу, соответствующему другой случайной величине.
Формулы (8.4.1), (8.4.2) и (8.4.3) дают возможность, зная закон
распределения системы (заданный в виде функции распределения или
плотности распределения), найти законы распределения отдельных
Ееличин, входящих в систему. Естественно, возникает вопрос об об­
ратной задаче: нельзя ли по законам распределения отдельных вели­
чин, входящих в систему, восстановить закон распределения системы?
Оказывается, что в общем случае этого сделать нельзя: зная только
законы распределения отдельных величин, входящих в систему, не
всегда можно найти закон распределения системы. Для того чтобы
исчерпывающим образом охарактеризовать систему, недостаточно
знать распределение каждой из величин, входящих в систему; нужно
еще знать зависимость между величинами, входящими в систему.
Эта зависимость может быть охарактеризована с помощью так на­
зываемых условных законов распределения.
Условным законом распределения величины X , входящей в си­
стему { X, К), называется ее закон распределения, вычисленный при
условии, что другая случайная величина У приняла определенное
значение у.
Условный закон распределения можно задавать как функцией
распределения, так и плотностью. Условная функция распределения
обозначается
(л: | у), условная плотность распределения / (х | у). Так
как системы непрерывных величин имеют основное практическое зна­
чение, мы в данном курсе ограничимся рассмотрением условных за­
конов, заданных плотностью распределения.
о
Чтобы нагляднее пояснить понятие условного закона распреде­
ления. рассмотрим пример. Система случайных величин L н Q пред­
ставляет собой длину и вес осколка снаряда. Пусть нас интересует
длина осколка £ безотносительно к его весу; это есть случайная
величина, подчиненная закону распределения с плотностью / л (/).
Этот закон распределения мы можем исследовать, рассматривая все
без исключения осколки и оценивая их только по длине; / г ( 1) есть
безусловный закон распределения длины осколка. Однако нас может
интересовать и закон распределения длины осколка вполне опреде­
ленного веса, например 10 г. Для того чтобы его определить, мы
будем исследовать не все осколки, а только определенную весовую
группу, в которой вес приблизительно равен 10 г, и получим
у с л о в н ы й закон распределения длины осколка при весе 10 г
170
СИСТЕМЫ СЛУЧАЙНЫХ В Е Л И Ч И Н
1ГЛ. 8
с плотностью f(l\ q ) при q = 10. Этот условный закон распределе­
ния вообще отличается от безусловного / 1 (Г); очевидно, более т я ­
желые осколки должны в среднем обладать и большей длиной; сле­
довательно. условный закон распре­
деления длины осколка существенно
зависит от веса q.
Зная закон распределения одной
из величин, входящ их. в систему, и
'*а
Т-Л
гг условный закон распределения вто ­
рой, можно составить закон распре­
деления системы. Выведем формулу,
выражающую это соотношение, для
непрерывных
случайных величин.
Для этого воспользуемся понятием
об элементе вероятности. Рассмотрим
прилежащий к точке ( * , у) элемен­
тарный прямоугольник R d со сто­
Рис. 8.4.1.
ронами dx, dy (рис. 8.4.1). Вероят­
ность попадания в этот прямоуголь­
н и к— элемент вероятности / (х, у) dx dy — равна вероятности одно­
временного попадания случайной точки ( X , У) в элементарную полосу /,
опирающуюся на отрезок dx, и в полосу //, опирающуюся на от­
резок dy:
f ( x , y)dx dy — P ( ( X , У) с R d) =
= Я ( ( л < Х < x-\-dx)(y < У < у -| -< / у )).
Вероятность произведения этих двух событий, по теореме умно­
жения вероятностей, равна вероятности попадания в элементарную
полосу /, умноженной на условную вероятность попадания в эле­
ментарную полосу //, вычисленную при условии, что первое событие
имело место. Это условие в пределе равносильно условию X — х;
следовательно,
/ ( х , у) dx dy = f 1 (х) dx / (у \х) dy,
откуда
/ ( * . y) — f l {x ) f{y \ x ) .
(8.4.4)
т . е. плотность распределения системы двух величин равна плот­
ности распределения одной из величин, входящих в систему, умно­
женной на условную плотность распределения другой величины, вы ­
численную при условии, что первая величина приняла заданное зна­
чение.
,
Формулу (8.4.4) часто называют теоремой умножения законов
распределения. Эта теорема в схеме случайных величин аналогична
теореме умножения вероятностей в схеме событий.
8.51
ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
171
Очевидно, формуле (8.4.4) можно придать другой вид, если за­
дать значение не величины X , а величины К:
/С * . У )= -/а (У )/(* |У )»
(8-4.5)
Разрешая формулы (8.4.4) и (8.4.5) относительно / ( i » |x ) и f ( x \ y ) ,
получим выражения условных законов распределения через без­
условные:
(8.4.6)
/ С * |у):
/
'
(* ■
/
У)
2 (У )
или, применяя формулы (8.4.2) и (8.4.3),
/О М * )
______/(-*, у)
j f ( X, у ) rfy
— ОО
(.8.4.7)
/ ( х | у ) ~ -----f- ^
-----
/ / ( * ■ у)
8 .5 . Зависимы е и независимы е случайные величины
При изучении систем случайных величин всегда следует обращать
внимание на степень и характер их зависимости. Эта зависимость
может быть более или менее ярко выраженной; более или менее
тесной. В некоторых случаях зависимость между случайными вели­
чинами может быть настолько тесной, что, зная значение одной
случайной величины, можно в точности указать значение другой.
В другом крайнем случае зависимость между случайными величинами
является настолько слабой и отдаленной, что их можно практически
считать независимыми.
Понятие о независимых случайных величинах — одно из важных
понятий теории вероятностей.
Случайная величина К называется независимой от случайной ве­
личины X , если закон распределения величины К не зависит от того,
какое значение приняла величина X .
Для непрерывных случайных величин условие независимости У
от X может быть записано в виде:
/ (У IV) = / 2 (У)
при любом у.
Напротив, в случае, если К зависит от X , то
/(У \х)ф /г(у).
172
[ГЛ. 8
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
Докажем, что зависимость или независимость случайных ве­
личин всегда взаимны: если величина Y не зависит от X , то и ве­
личина X не зависит от Y.
Действительно, пусть Y не зависит от X :
f ( y \ x ) * * f 2(y).
(8.5.1)
И з формул (8.4.4) и (8.4.5) имеем:
/ 1 ( * ) / ( У | * ) = / а(У )/ (* | У ).
откуда, принимая во внимание (8.5.1), получим:
f ( x \y) — f i (х).
что и требовалось доказать.
Та к как зависимость и независимость случайных величин всегда
взаимны, можно дать новое определение независимых случайных
величин.
Случайные величины X и Y называются независимыми, если
закон распределения каждой из них не зависит о т того, какое
значение приняла другая. В противном случае величины X и Y
называются зависимыми.
Для независимых непрерывных случайных величин теорема умно­
жения законов распределения принимает вид:
f i x . y ) ~ f A x ) f 2{y),
(8.5.2)
т. е. плотность распределения системы независимых случайных
величин равна произведению плотностей распределения о т ­
дельных величин, входящих в систему.
Условие (8.5.2) может рассматриваться как необходимое и до­
статочное условие независимости случайных величин.
Часто по самому виду функции / ( х , у) можно заключить, что
случайные величины X , Y являются независимыми, а именно, если
плотность распределения / ( х, у) распадается на произведение двух
функций, из которых одна зависит только от х, другая — только
от у, то случайные величины независимы.
Пример. Плотность распределения системы, (X , Y) имеет вид:
/ ( * ’ У)==
n » ( * > 4 - y ! - f Х гу 2 + 1 )
'
Определить, зависимы или независимы случайные величины X и Y.Р ешен и е. Разлагая знаменатель на множители, имеем:
*<
'
1
1
1
Ч 1 + л 2) « . О + У * ) '
Из того, что функция f (х, у) распалась на произведение двух функций
из которых одна зависит только от х, а другая — только от у, заключаем^
1.БТ
ЗАВИСИМЫЕ И НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
173
что величины А' и К должны быть независимы. Действительно, применяя
формулы (8.4.2) и (8.4.3), имеем:
со
аналогично
откуда убеждаемся, что
/ (■*. У) = / 1(*) f t (У)
и, следовательно, величины X и К независимы.
Вышеизложенный критерий суждения о зависимости или незави­
симости случайных величин исходит из предположения, что закон
распределения системы нам известен. На практике чаще бывает на­
оборот: закон распределения системы (X , У) не известен; известны
только законы распределения отдельных величин, входящих в систему,
и имеются основания считать, что величины X и У независимы. Тогда
можно написать плотность распределения системы как произведение
плотностей распределения отдельных величин, входящих в систему.
Остановимся несколько подробнее на важных понятиях о «зави­
симости» и «независимости» случайных величин.
Понятие «зависимости» случайных величин, которым мы пользу­
емся в теории вероятностей, несколько отличается от обычного по­
нятия «зависимости» величин, которым мы оперируем в математике.
Действительно, обычно под «зависимостью» величин подразумевают
только один тип зависимости — полную, жесткую, так называемую
функциональную зависимость. Две величины X к У называются
функционально зависимыми, если, зная значение одной из них, можно
точно указать значение другой.
В теории вероятностей мы встречаемся с другим, более общим,
типом зависимости — с вероятностной или «стохастической» зави­
симостью. Если величина У связана с величиной X вероятностной
зависимостью, то, зная значение X , нельзя указать точно значение У,
а можно указать только ее закон распределения, зависящий от того,
какое значение приняла величина X .
Вероятностная зависимость может быть более или менее тесной;
по мере увеличения тесноты вероятностной зависимости она все более
приближается к функциональной. Таким образом, функциональную
зависимость можно рассматривать как крайний, предельный случай
наиболее тесной вероятностной зависимости. Другой крайний случай —
полная независимость случайных величин. Между этими двумя край­
ними случаями лежат все градации вероятностной зависимости — от
самой сильной до самой слабой. Те физические величины, которые
на практике мы считаем функционально зависимыми, в действитель­
ности связаны весьма тесной вероятностной зависимостью: при
174
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
1ГЛ. 8
заданном значении одной из этих величин другая колеблется в столь
узких пределах, что ее практически можно считать вполне опреде­
ленной. С другой стороны, те величины, которые мы на практике
считаем независимыми, в действительности часто находятся в некоторой
взаимной зависимости, но эта зависимость настолько слаба, что ею
для практических целей можно пренебречь.
Вероятностная зависимость между случайными величинами очень
часто встречается на практике. Если случайные величины X и У
находятся в вероятностной зависимости, это не означает, что с из­
менением величины X величина У изменяется вполне определенным
образом; это лишь означает, что с изменением величины X величина У
имеет тенденцию также изменяться (например, возрастать или убывать
при возрастании X). Эта тенденция соблюдается лишь «в среднем», в об­
щих чертах, и в каждом отдельном случае от нее возможны отступления.
Рассмотрим, например, две такие случайные величины: X — рост
наугад взятого человека, У — его вес. Очевидно, величины X и У
находятся в определенной вероятностной зависимости; она выражается
в том, что в общем люди с большим ростом имеют ббльший вес.
Можно даже составить эмпирическую формулу, приближенно заменяю­
щую эту вероятностную зависимость функциональной. Такова, например,
общеизвестная формула, приближенно выражающая зависимость между
ростом и весом:
У(кг) = Х(см) — 100.
Формулы подобного типа, очевидно, не являются точными и в ы ­
ражают лишь некоторую среднюю, массовую закономерность, тенден­
цию, от которой в каждом отдельном случае возможны отступления.
В вышеприведенном примере мы имели дело со случаем явно
выраженной зависимости. Рассмотрим теперь такие две случайные
величины: X — рост наугад взятого человека; Z — его возраст.
Очевидно, для взрослого человека величины X и 2 можно считать
практически независимыми; напротив, для ребенка величины X и 2
являются зависимыми.
Приведем еще несколько примеров случайных величин, находя­
щихся в различных степенях зависимости.
1. Из камней, составляющих кучу щебня, выбирается наугад
один камень. Случайная величина
— вес камня; случайная величина
Ь — наибольшая длина камня. Величины <2 и /, находятся в явно
выраженной вероятностной зависимости.
2. Производится стрельба ракетой в заданный район океана.
Величина ДАТ — продольная ошибка точки попадания (недолет, пере­
лет); случайная величина ДV — ошибка в скорости ракеты в конце
активного участка движения. Величины А Х и ДV явно зависимы,
так как ошибка ДУ является одной из главных причин, порождаю­
щих продольную ошибку ДАТ.
lie]
ЧИСЛОВЫ Е ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН
175
V
| 3. Летательный аппарат, находясь в полете, измеряет высоту над
поверхностью Земли с помощью барометрического прибора. Рас­
сматриваются две случайные величины: ДН — ошибка измерения вы­
соты и О — вес топлива, сохранившегося в топливных баках к мо­
менту измерения. Величины ДЯ и G практически можно считать
независимыми.
В следующем п° мы познакомимся с некоторыми числовыми харак­
теристиками системы случайных величин, которые дадут нам возмож­
ность оценивать степень зависимости этих величин.
8 .6 . Числовые характеристики системы двух случайных величин.
Корреляционный м омент. Коэффициент корреляции
В главе 5 мы ввели в рассмотрение числовые характеристики
одной случайной величины X — начальные и центральные моменты
различных порядков. Из этих характеристик важнейшими являются
две: математическое ожидание тх и дисперсия D x.
Аналогичные числовые характеристики — начальные и центральные
моменты различных порядков — можно ввести и для системы двух
случайных величин.
Начальным моментом порядка k, s системы (X , К) называется
математическое ожидание произведеиия Х к на Ys:
a kiS = M [ X kYs\.
(8.6.1)
Центральным моментом псдэядка k, s системы (X , Y) назы­
вается математическое ожидание произведения Л-й и s -й степени
соответствующих центрированных величин:
ъ 1в = м [ х к? ] о.
(8.6.2)
о
где X = X — тх , Y = К — ту.
Выпишем формулы, служащие для непосредственного подсчета
моментов. Для прерывных случайных величин
=
= 2
i j
1 1
2 (*1 — mx)k (У/ — myY p tJ,
(8.6.3)
(8.6.4)
где р ц = Р ( ( Х = x i) ( Y ==У/)) — вероятность того, что система(Л\ К)
примет значения (x t , yfi, а суммирование распространяется по всем
возможным значениям случайных величин X , У.
176
СИСТЕМЫ СЛУЧАЙНЫХ В Е Л И Ч И Н
1ГЛ. 8
Д ля непрерывных случайных величин:
оо
аА,* = / / * * / / (■ * • У)<1хйу,
(8.6.5)
“ ОО
ОО
!**.* = / J ( * ~ т х)к(У — т уУ / ( х , у )й х й у ,
-со
( 8 . 6 . 6)
где / ( х , у ) — плотность распределения системы.
Помимо чисел к и 5 , характеризующих порядок момента по от­
ношению к отдельным величинам, рассматривается еще суммарный
порядок момента А - ) - 5 , равный сумме показателей степеней при.АГ и У.
Соответственно суммарному порядку моменты классифицируются на
первые, вторые и т. д. На практике обычно применяются только
первые и вторые моменты.
Первые начальные моменты представляют собой уже известные
нам м а т е м а т и ч е с к и е о ж и д а н и я величин X и У, входящих
в систему:
т х = * ио = М [ Х 1 У ° ] = : М [ Х ] .
т у = *а 0> 5 = /И [Л '0 У'] = М [У ].
Совокупность математических ожиданий т х, т у представляет собой
характеристику положения системы. Геометрически это коор­
динаты средней точки на плоскости, вокруг которой происходит рас­
сеивание точки (X . У).
Кроме первых начальных моментов, на практике широко при­
меняются еще вторые центральные моменты системы. Два из них
представляют собой уже известные нам дисперсии величин X и У:
О х
= (12, 0
=
М
[ X 2
К0] =
М
[ ^ 21=
О
[ X ] ,
Оу = р0 2 = Л Ц Х ° У 2] = М [К 2] = £>[К].
характеризующие рассеивание случайной точки в направлении осей
Ох и Оу.
Особую роль как характеристика системы играет второй сме­
шанный центральный момент:
^ ,=
М [X П .
т. е. математическое ожидание произведения центрированных величин.
Ввиду того, что, этот момент играет важную роль в теории
систем случайных величин, введем для него особое обозначение:
К ху = М [ Х У\ — М [(Л- — т х) (У — т у)1.
Характеристика К ху называется
(8.6.7)
корреляционным моментом
(иначе — «моментом связи») случайных величин X , У,
16]
ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН
177
Для прерывных случайных величин корреляционный момент вы­
ражается формулой
= 2 Ъ ( х 1 — тх) ( у ] — ту) р и ,
* )
(8.6.8)
а для н е п р е р ы в н ы х — формулой
оо
К ху = I ] (х — тх) ( у — т.у) / ( х , у)4хс1у.
(8.6.9)
—ОО
Выясним смысл и назначение этой характеристики.
Корреляционный момент есть характеристика системы случайных
величин, описывающая, помимо рассеивания величин X и К, еще и
с в я з ь м е ж д у н и ми . Для того чтобы убедиться в этом, докажем,
что для независимых случайных величин корреляционный момент,
ра вен нулю.
Доказательство проведем для непрерывных случайных величин5).
Пусть X , У — независимые непрерывные величины с плотностью
распределения / ( х , у). В п° 8.5 мы доказали, что для независимых
величин
/ ( * . У) = / Л х ) / 2 (У)(8.6.10)
где /](>:), / 2(у )— плотности распределения соответственно величин
X и К.
Подставляя выражение (8.6.10) в формулу (8.6.9), видим, что
интеграл (8.6.9) превращается в произведение двух интегралов:
ОО
К ху =
со
§ (х — тх) / г (х) йх $ (у — ту) / 2 (у) (1 у.
—оо
—со
Интеграл
оо
(х — тх)
—
(лг) йх
со
представляет собой не что иное, как первый центральный момент
величины X , и, следовательно, равен нулю; по той же причине равен
нулю и второй сомножитель; следовательно, для независимых слу­
чайных величин К ху = 0.
Таким образом, если корреляционный момент двух случайных
величин отличен от нуля, это есть п р и з н а к н а л и ч и я з а в и с и ­
м о с т и м е ж д у н и ми .
Из формулы (8.6.7) видно, что корреляционный момент характе­
ризует не только зависимость величин, но и их рассеивание. Дей­
ствительно, если, например, одна из величин (X , К) весьма мало
отклоняется от своего математического ожидания (почти не случайна),
'•) Для прерывных оно может быть выполнено аналогичным способом.
178
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
[гл. в
то корреляционный момент будет мал, какой бы тесной зависимостью
ни были связаны величины ( X , К). Поэтому для характеристики связи
между величинами ( X , К) в чистом виде переходят от момента К ху
к безразмерной характеристике
=
(8-6.11)
где ах, ау — средние квадратические отклонения величин X , У. Эта
характеристика называется коэффициентом корреляции величин
X и У. Очевидно, коэффициент корреляции обращается в нуль
одновременно с корреляционным моментом; следовательно, для не­
зависимых случайных величин коэффициент корреляции равен
нулю.
Случайные величины, для которых корреляционный момент (а зна­
чит, и коэффициент корреляции) равен нулю, называются некорре­
лированными (иногда — «несвязанными»).
Выясним, эквивалентно ли понятие н е к о р р е л и р о в а н н о с т и
случайных величин понятию н е з а в и с и м о с т и . Выше мы доказали,
что две независимые случайные величины
всегда
являются
некоррелированными.
Остается выяснить: справедливо ли обрат­
ное положение, вытекает ли из некоррели­
рованности величин их независимость?
Оказывается — нет. Можно построить при­
меры таких случайных величин, которые
являются некоррелированными, но зави­
симыми. Равенство нулю коэффициента
корреляции — необходимое, но не доста­
точное условие независимости случайных
величин. И з независимости случайных
величин вытекает их некоррелирован­
ность; напротив,
из
некоррелирован­
ности величин еще не следует их независимость. Условие неза­
висимости случайных величин— : более жесткое, чем условие некор­
релированности.
Убедимся в этом на примере. Рассмотрим систему случайных
величин (X , У), распределенную с равномерной плотностью внутри
круга С радиуса г с центром в начале координат (рис, 8.6.1).
Плотность распределения величин ( X , К) выражается формулой
/ ( * . У)
ч
при
х 2 + у 2 < г2
при
х 2+ у2 > г 2
И з условия У * $ / (х, у) (1хау = ^ У с А х й у = \ находим с — -« г
{С)
8.61
ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН
179
Нетрудно убедиться, что в данном примере величины являются
з а в и с и м ы м и . Действительно, непосредственно ясно, что если ве­
личина X приняла, например, значение 0, то величина У может
с равной вероятностью принимать все значения от — г до -)- г\
если же величина X приняла значение г , то величина У может при­
нять только одно-единственное значение, в точности равное нулю;
вообще, диапазон возможных значений У зависит от того, какое
значение приняла X .
Посмотрим, являются ли эти величины коррелированными. Вычис­
лим корреляционный момент. Имея в виду, что по соображениям сим­
метрии тх = ту — 0 , получим:
Кху=
[ /
х у / ( х , y ) d x d y = -Xг f
'(С)
У хуйхйу.
( 8 . 6 . 12 )
(С)
Для вычисления интеграла разобьем область интегрирования (круг С)
на четыре сектора С г, С2, С3, С4, соответствующие четырем коор­
динатным углам. В секторах Сг и Сэ подынтегральная функция
положительна, в секторах С2 и C^ — отрицательна; по абсолютной же
величине интегралы по этим секторам равны; следовательно, инте­
грал (8.6.12) равен нулю, и величины ( X , К) не коррелироваиы.
Таким образом, мы видим, что из некоррелированности случай­
ных величин не всегда следует их независимость.
Коэффициент корреляции характеризует не всякую зависимость,
а только так называемую линейную зависимость. Линейная вероятност­
ная зависимость случайных величин заключается в том, что при
возрастании одной случайной величины другая имеет тенденцию
возрастать (или же убывать) по линейному закону. Эта тенденция
к линейной зависимости может быть более или менее ярко выражен­
ной, более или менее приближаться к функциональной, т. е. самой
тесной линейной зависимости. Коэффициент корреляции характе­
ризует с т е п е н ь т е с н о т ы л и н е й н о й з а в и с и м о с т и между
случайными величинами. Если случайные величины Х а У связаны
точной линейной функциональной зависимостью:
У = а Х -\-Ь,
то г х у г= ± 1 , причем знак «плюс» или «минус» берется в зависимости
от того, положителен или отрицателен коэффициент а. В общем
случае, когда величины X и У связаны произвольной вероятностной
зависимостью, коэффициент корреляции может иметь значение в пре­
делах:
_______________________ - 1 < Г г у < 1 ‘).
') Доказательство этих положений будет дано ниже, в п° 10,3, после того
как мы познакомимся с некоторыми теоремами теории вероятностей, кото­
рые позволят провести его очень просто.
180
СИСТЕМЫ СЛУЧАЙНЫ Х ВЕЛ И ЧИ Н
[ГЛ. 8
В случае Гуу > 0 говорят о положительной корреляции вели­
чин X и У, в случае гху < 0 — об отрицательной корреляции.
Положительная корреляция между случайными величинами озна­
чает, что при возрастании одной из них другая имеет тенденцию
в среднем возрастать; отрицательная корреляция означает, что при
возрастании одной из случайных величин другая имеет тенденцию
в среднем убывать.
В рассмотренном примере двух случайных величин (X , К), рас­
пределенных внутри круга с равномерной плотностью, несмотря на
наличие зависимости между X и К, л и н е й н а я зависимость отсут­
ствует; при возрастании X меняется только диапазон изменения У,
У '
У
^
*
•
л
*
.
•.
•
•
•
.
•
•
‘
%
•
в •
• ■
• *
•
•
*
'•
•
•
.*
■
#
.
•• •
•.
•
•
•
*
•
0
•
•
•
X
0
X'
0
Рис. 8.6.2,
Рис. 8.6.3.
а его с р е д н е е з н а ч е н и е не меняется; естественно, вели­
чины ( X , К) оказываются некоррелированными.
Приведем несколько примеров случайных величин с положитель­
ной и отрицательной корреляцией.
1. Вес и рост человека связаны положительной корреляцией.
2. Время, потраченное на регулировку прибора при подготовке
его к работе, и время его безотказной работы связаны положитель­
ной- корреляцией (если, разумеется, время потрачено разумно).
Наоборот, время, потраченное на подготовку, и количество неисправ­
ностей, обнаруженное при работе прибора, связаны отрицательной
корреляцией.
3. При стрельбе залпом координаты точек попадания отдельных
снарядов связаны положительной корреляцией (так как имеются
общие для всех выстрелов ошибки прицеливания, одинаково откло­
няющие от цели каждый из них).
4. Производится два выстрела по цели; точка попадания первого
выстрела регистрируется, и в прицел вводится поправка, пропорцио­
нальная ошибке первого выстрела с обратным знаком. Координаты
8.6]
ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СИСТЕМЫ ДВУХ ВЕЛИЧИН
181
точек попадания первого и второго выстрелов будут связаны отри­
цательной корреляцией.
Если в нашем распоряжении имеются результаты ряда опытов
над системой двух случайных величин (Л", К), то о наличии или
отсутствии
существенной
корреляции
между ними
легко судить в первом при­
ближении по графику, на
котором изображены в виде
точек все полученные из
опыта пары значений слу­
чайных величин. Например,
если наблюденные пары зна­
чений величин расположи­
лись так, как показано на
рис. 8.6.2, то это указывает
—
на 'наличие явно выражен­
ной положительной корреля­
Рис. 8.6.4,
ции между величинами. Еще
более ярко выраженную положительную корреляцию, близкую к ли­
нейной функциональной зависимости, наблюдаем на рис. 8.6.3. На
рис. 8.6.4 показан случай сравнительно слабой отрицательной корре­
ляции. Наконец, на рис. 8.6.5 иллюстрируется случай практически
•
•
Рис. 8.6.5,
некоррелированных случайных величин. На практике, перед тем как
исследовать корреляцию случайных величин, всегда полезно предвари­
тельно построить наблюденные пары значений на графике для первого
качественного суждения о типе корреляции.
Способы определения характеристик системы случайных величин
из опыта будут освещены а гл. 14.
182
СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛ И ЧИ Н
[ГЛ. 8
8.7. Система произвольного числа случайных величин
На практике часто приходится рассматривать системы более чем
двух случайных величин. Эти системы интерпретируются как слу­
чайные точки или случайные векторы в пространстве того или иного
числа измерений.
Приведем примеры.
1. Точка разрыва дистанционного снаряда в пространстве харак^
теризуется тремя декартовыми координатами (Л", К, Z) или тремя
сферическими координатами (R, Ф, 0).
2. Совокупность п последовательных измерений изменяющейся
величины X — система п случайных величин (A'j, Х 2........Х п).
3. Производится стрельба очередью из п снарядов. Совокупность
координат п точек попадания на плоскости — система 2п случайных
величин (абсцисс и ординат точек попадания):
Yv К2.......... Кя).
*2 ........ Х п,
4. Начальная скорость осколка — случайный вектор, характери­
зуемый тремя случайными величинами: величиной скорости V0 и двумя
углами Ф и 0, определяющими направление полета осколка в сфе­
рической системе координат.
Полной характеристикой системы произвольного числа случайных
величин служит з а к о н р а с п р е д е л е н и я системы, который может
быть задан функцией распределения или плотностью распределения.
Функцией
распределения
системы
п
случайных
величин
(А'р Х 2, . . . . Х п) называется вероятность совместного выполнения п
неравенств вида X t < x t:
F (.x t, х 2........ х„) — Р ( ( Х 1 < х г) ( Х 2 < х 2) . . . ( Х „ < х „ ) ) .
(8.7.1)
Плотностью распределения системы п непрерывных случайных
величин называется п-я смешанная частная производная функции
/•’ (JCj. х2........ хп), взятая один раз по каждому аргументу:
.
11
х »......... Х«) ~
dnF (х\* Xq, .
хп)
~д х1д х ,...д х п -•
/0 7 0
( 8 7 -2>
Зная закон распределения системы, можно определить законы
распределения отдельных величин, входящих в систему. Функция
распределения каждой из величин, входящих в систему, получится,
если в функции распределения системы положить все остальные
аргументы равными оо:
F l (x l) = F ( x l, оо, . . . . оо).
(8.7.3)
Если выделить из системы величин (А 1,, Х 2, . . . . Х „) частную
систему ( Х г, Х 2........ Х к), то функция распределения эт^й системы
определяется по формуле
Fi, 2 ..... * (* !, х2......... x k) = F ( x 1, х2.......... х к, оо........... оо). (8.7.4)
8.7]
СИСТЕМА
ПРОИЗВОЛЬНОГО
ЧИСЛА
СЛУЧАЙНЫХ
ВЕЛ И ЧИ Н
183
Плотность распределения каждой из величин, входящих в систему,
получится, если плотность распределения системы проинтегрировать
в бесконечных пределах по всем остальным аргументам:
СО
ОО
/1 (^ 1) == £ •*• £
—ОО
•••• х п) йх2 . . . Лхп.
(8.7.5)
— со
Плотность распределения частной системы ( Х х, Хп, . . . . Х к),
выделенной из системы ( Х х, Х 2........ Х „), равна:
/ 1.2..... *(*»■ *2......... **)=»
ОО
ОО
= £ ...
— ОО
£ / [Ху, х2, . . . » х п)й х 11+1 . . . йхп.
(8.7.6)
— ОО
Условным законом распределения частной системы ( Х 1г Х 2, . . . . Х к)
называется ее закон распределения, вычисленный при условии, что
остальные величины X к+1, . . . . Х „ приняли значения х к+1, . . . . хп.
Условная плотность распределения может быть вычислена по
формуле
/ ( X , ........ х к | дгА+1............. Х „ ) = у
(8.7.7)
■'А+1, •••, л V А + 1’
п)
Случайные величины (Л^, Х 2. . . . . Х п) называются независимыми,
если закон распределения каждой частной системы, выделенной из
системы (Л -!, Х 2, . . . . Х п), не зависит оттого, какие значения при­
няли остальные случайные величины.
Плотность распределения системы независимых случайных вели­
чин равна произведению плотностей распределения отдельных вели­
чин, входящих в систему:
/(*!• х2........ х„) = / 1(х 1) / 2(х2) . . . / „ (* „ ) .
(8.7.8)
Вероятность попадания случайной точки (Л^, Х 2, ' . . . . Х п) в пре­
делы я-мерной области £> выражается «-кратным интегралом:
Х 2........ Х й) с О ) =
—
/ (хг х2........ х „)й х 1йх2 . . . йхп.
(8.7.9)
Ф)
Формула (8.7.9) по существу является основной формулой для
вычисления вероятностей событий, не сводящихся к схеме случаев.
Действительно, если . интересующее нас событие А не сводится
к схеме случаев, то его вероятность не может быть вычислена непо­
средственно. Если при этом нет возможности поставить достаточное
число однородных опытов и приближенно определить вероятность
события А по его частоте, то типичная схема вычисления вероятности
184
СИСТЕМЫ СЛУЧАЙНЫ Х ВЕЛ И ЧИ Н
ГГЛ. 3
события сводится к следующему. Переходят от схемы событий к схеме
случайных величин (чаще всего — непрерывных) и сводят событие А
к событию, состоящему в том, что система случайных величин
( Х г, Х 2........ Х п) окажется в пределах некоторой области £). Тогда
вероятность события А может быть вычислена по формуле (8.7.9).
П р и м е р 1. Самолет поражается дистанционным снарядом при условии,
если разрыв снаряда произошел не далее чем на расстоянии Я от самолета
(точнее, от условной точки на оси самолета, принимаемой за его центр).
Закон распределения точек разрыва дистанционного снаряда в системе коор­
динат, связанной с целью, имеет плотность / ( х , у, г). Определить вероят­
ность поражения самолета.
Р е ш е н и е . Обозначая поражение самолета буквой Л, имеем:
(С)
где интегрирование распространяется по шару С радиуса У? с центром
в начале координат.
П р и м е р 2. Метеорит, встретившийся на пути искусственного спутника
Земли, пробивает его оболочку, если: 1) угол 0, под которым метеорит
встречается с поверхностью спутника, заключен в определенных преде­
лах ( 0 (, 6 2); 2 ) метеорит имеет вес не менее да (г) и 3) относительная ско­
рость встречи метеорита со спутником не меньше
(м/сек). Скорость
встречи V , вес метеорита д и угол встречи в представляют собой систему
случайных величин с плотностью распределения / («, д, в). Найти вероят­
ность р того, что отдельный метеорит, попавший в спутник, пробьет его
оболочку.
Р е ш е н и е . Интегрируя плотность распределения / (и, д, 9) по трех­
мерной области, соответствующей пробиванию оболочки, получим:
:'m»t ^max
v0
<7о
в,
где 4W x — максимальный вес метеорита,
встречи.
vmtz — максимальная скорость
8.8. Числовые характеристики системы нескольких
случайных величин
Закон распределения системы (заданный функцией распределения
или плотностью распределения) является полной, исчерпывающей
характеристикой системы нескольких случайных величин. Однако
очень часто такая исчерпывающая характеристика не может быть
применена. Иногда ограниченность экспериментального материала не
дает возможности построить закон распределения системы. В других
случаях исследование вопроса с помощью сравнительно громоздкого
аппарата законов распределения не оправдывает себя в связи с не­
высокими требованиями к точности результата. Наконец, в ряде
8.8]
ЧИ С ЛО ВЫ Е
ХАРАКТЕРИСТИКИ
СИСТЕМЫ Н ЕСКО Л ЬКИ Х ВЕЛ И ЧИ Н
185
задач примерный тип закона распределения (нормальный закон)
известен заранее и требуется только найти его характеристики.
Во всех таких случаях вместо законов распределения применяют
неполное, приближенное описание системы случайных величин с по­
мощью минимального количества числовых характеристик.
Минимальное число характеристик, с помощью которых может
быть охарактеризована система п случайных величин X v Х 2........ Х п,
сводится к следующему:
1) п математических ожиданий
Щ . т 2........ т „ ,
характеризующих средние значения величин;
2) п дисперсий
D v D 2. . . . . D n,
характеризующих их рассеивание;
3) п ( и — 1) корреляционных моментов
K tj^ M lX tX ,]
где
о
X i —' X i *“ tti^j
характеризующих попарную
в систему. Заметим, что дисперсия
по существу, не что иное,
ц и о нн о г о момента, а
чины Х ( и той же величины
(i Ф J),
о
X у■
—t X I — tuj г
корреляцию всех
величин,
входящих
каждой из случайных величин X t есть,
как ч а с т н ы й с л у ч а й к о р р е л я ­
именно корреляционный момент вели­
Х {:
D, = К и = М [Х * ] = М l X i X t].
Все корреляционные моменты и дисперсии удобно расположить в виде
прямоугольной таблицы (так называемой матрицы ):
*
1.
*1 2
*
2.
К 22
К щ
К „2
1»
■ ■ •
*
• • •
К 2П
- ■ К пп
Эта таблица называется корреляционной матрицей системы слу­
чайных величин ( Х х, Х 2........ Х п).
Очевидно, что не все члены корреляционной матрицы различны.
Из определения корреляционного момента ясно, что К ц ~ К }1, т. е.
элементы корреляционной матрицы, расположенные симме­
трично по отношению к главной диагонали, равны. В связи
186
СИСТЕМЫ
СЛУЧАЙНЫ Х
ВЕЛ И ЧИ Н
[ГЛ. 8
с этим часто заполняется не вся корреляционная матрица, а лишь ее
половьна, считая от главной диагонали:
Кг
К 12
К 1а
К-23.
Кчп
кпп
Корреляционную матрицу, составленную из элементов Кц, часто
сокращенно обозначают символом ||/С;у||.
По главной диагонали корреляционной матрицы стоят дисперсии
случайных величин Х х, Х 2........ Х п.
В случае, когда случайные величины Х 1, Х 2, . , , , Х п не коррелированы, все элементы корреляционной матрицы, кроме диагональ­
ных, равны нулю:
О
.
О
О
.
о
А,
11М =
. о
д,
Такая матрица называется диагональной.
В целях наглядности суждения именно о к о р р е л и р о в а н ­
но с т и случайных величин безотносительно к их рассеиванию часто
вместо корреляционной матрицы \\К1^\ пользуются нормированной
корреляционной матрицей ||ггу(|, составленной не из корреляцион­
ных моментов, а из коэффициентов корреляции:
_
где
КЧ
в1=V О г о,=/ £>
у.
Все диагональные элементы этой матрицы, естественно, равны еди­
нице. Нормированная корреляционная матрица имеет вид:
I Г12 Г13 ••• Г\п
1 /"23 . . . Г2в
1Ы
1 ••*ГЪя I’
8.8]
ЧИСЛО ВЫ Е
ХА РА КТЕРИ С ТИ КИ
С И С ТЕМ Ы
Н ЕС КО Л ЬКИ Х
ВЕЛ И ЧИ Н
187
Введем понятие о некоррелированных системах случайных величин
(иначе — о некоррелированных случайных векторах). Рассмотрим
две системы случайных величин:
........ * „ ) ;
(У.1. у2.......... у„)
или два случайных вектора в /г-мерном пространстве: X с составляю­
щими ( Х х, Х 2,
Х п) и К с составляющими
(У'1( У2........
Уп).
^ Случайные векторы X и У называются некоррелированными, если
каждая из составляющих вектора X не коррелирована с каждой из
—>
■
составляющих вектора У:
К Х1У] = М [ Х ^ ^ = 0
при
/ = 1 ........ я;
] = \ .......... п.
ГЛ А ВА 9
НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ
ДЛЯ СИСТЕМЫ СЛУЧАЙНЫХ ВЕЛИЧИН
9.1. Нормальный закон на плоскости
Из законов распределения системы двух случайных величин имеет
смысл специально рассмотреть нормальный закон, как имеющий наи­
большее распространение на практике. Так как система двух слу­
чайных величин изображается случайной точкой на плоскости, нор­
мальный закон для системы двух величин часто называют «нормальным
законом на плоскости».
В общем случае плотность нормального распределения двух слу­
чайных величин выражается формулой
1
—
(х~т хУ 2т(х-т х)(*-т у) (У~т уУ
-- й-------- ——----- +---п-(9.1.1)
Этот закон зависит от пяти параметров: т х, т у, ах, <
зу и г.
Смысл этих параметров нетрудно установить. Докажем, что пара­
метры т х, т у представляют собой математические ожидания (центры
рассеивания) величин X и К; ах, ау — их средние квадратические
отклонения; г — коэффициент корреляции величин X и У.
Для того чтобы убедиться в этом, найдем прежде всего плот­
ность распределения для каждой из величин, входящих в систему.
Согласно формуле (8.4.2)
— СО
■
9.11
НО РМ АЛЬНЫЙ ЗАКОН НА
плоскости
189
Вычислим интеграл
1 Г (*-т *>2 2г^ ~ т ^)(у~'ву )|(у~т у)}
2(1-г2)
Г
/=
—
йу.
00
Положим:
х — га,
у —т у
гК2
У 2
(9.1.2)
тогда
/==оу / 2
1!и,- 2гог'+1',1
/
—со
Из интегрального исчисления известно, что
г
по
--
лс-яг
/- ----А \ *—В ‘
/
е- А х * ± 2 В х + С й х =
у
^
е
А
1).
(9.1.3)
В нашем случаг
А=
1— г* ’
Я = .
гм
С=
2*
1— Г*
Подставляя эти значения в формулу (9.1.3), имеем:
I ==ау У 2 1Лг (1 — г2) е-“\
откуда
Л (* )= —
вг К 2л
или, учитывая (9.1.2),
е
/1( * ) :
Кх
(9.1.4)
Таким образом, величина X подчинена нормальному закону
с центром рассеивания т х и средним квадратическим отклонением ах.
Аналогично покажем, что
(У - т
/ а (У )’
1
1/ 2*
2»Г.
)2
(9.1.5)
т. е. величина К подчинена нормальному закону с центром рассеи­
вания т у и средним квадратическим отклонением ау.
*) Для вычисления интеграла (9.1.3) достаточно дополнить показатель
степени до полного квадрата и после замены переменной воспользоваться
интегралом Эйлера — Пуассона (6.1.3).
190
Н О РМ А Л Ь Н Ы Й ЗАКОН РАС П РЕД ЕЛЕН И Я ДЛЯ СИСТЕМЫ ВЕЛ И ЧИ Н (ГЛ.
9
Остается доказать, что параметр г в формуле (9.1.1) предста­
вляет собой коэффициент корреляции величин X и У. Для этого
вычислим корреляционный момент:
ОО
— / / ( * — " У (У — т у) / ( * . У) dx dy,
— СО
.
где т х, т у — математические ожидания величин X и У.
Подставляя в эту формулу выражение / (х , у), получим:
ОО
1
Кху
где
=
пг
2 я о Т У г- 7 ^
*У
у1—
1
П *—
2( 1- г * ) (
'
Произведем
положив:
в
J J {х ~ Ш
х){у ~-ООт >) е~А *'■у!
двойном
2 г ( х - т х) ( у - т у) , (у —/иу)-’
^
~ .а,3у 1
интеграле
(9.1.6)
х—тх
1^2 ( 1— г») \
замену
переменных,
/у — т
1
--- 7 ч ^ а'
Г2
(9-1'6)
----- r — —
Оу
х— т х\
)= w .
(9.1.7)
Якобиан преобразования равен
V 1— г2.
следовательно,
со
~ f / (««лV2)°уV"2О—^
—С»
I
— ----— -----*
-г77у=т) e-“’"®’Af
'
ОО
I*
_____
2a^ v у 1— г2
ue~u da
— CO
^
ОО
I»
j
'
•
we~w dw -f­
— CO
CO
2a.avr
CO
/*
4 --- J
/»
u2e~u2 da
— 00
J
e~w* dw>
— CO
Учитывая, что
со
f
со
ue~uid u ~
J
со
w e-^ dw —
— OO
oo
CO
J e~w2dw
— CO
0; У и*е~а' du
-co
£=j/rc.
j
НО РМ АЛЬНЫ Й ЗАКОН НА ПЛОСКОСТИ
191
имеем:
(9.1.8)
Таким образом, доказано, что параметр г в формуле (9.1.1) пред­
ставляет собой коэффициент корреляции величин X и К.
Предположим теперь, что случайные величины X и К, подчинен­
ные нормальному закону на плоскости, не коррелированы; положим
в формуле (9.1.1) г = 0. Получим:
(*-т х)г (?-т уУ
(9.1.9)
Легко убедиться, что случайные величины ( X , К), подчиненные
вакону распределения с плотностью (9.1.9), не только не коррели­
рованы, но и н е з а в и с и м ы . Действительно,
(у-т у)2
т. е. плотность распределения системы равна произведению плотно­
стей распределения отдельных величин, входящих в систему, а это
значит, что случайные величины ( X , У) независимы.
Таким образом, для системы случайных величин, подчиненных
нормальному закону, из некоррелированности величин вытекает также
их независимость. Термины «некоррелированные» и «независимые»
величины для случая нормального распределения эквивалентны.
При г Ф О случайные величины ( X . У) зависимы. Нетрудно убе­
диться, вычисляя условные законы распределения по формулам ( 8.4.6),
что
2(1—1”)
(
Проанализируем один из этих условных законос распределение,
например / (у \ х ). Для этого преобразуем выражение плотностп f {у\х)
к виду:
192
НОРМАЛЬНЫЙ ЗАКОН РА С П РЕД ЕЛЕН И Я ДЛЯ СИСТЕМЫ ВЕЛ И ЧИ Н [ГЛ. 9
Очевидно, это есть плотность нормального закона с центром рас
сеивания
(9.1.10)
и средним квадратическим отклонением
V 1 — г2-
(9.1.11)
Формулы (9.1.10) и (9.1.11) показывают, что в условном законе
распределения величины У при фиксированном значении Х = х от
этого значения зависит т о л ь к о м а т е м а т и ч е с к о е о ж и д а н и е ,
нонедисперсия.
•
Величина т у\х называется условным м атем атическим ож и­
данием величины У при данном х. Зависимость (9.1.10) можно изо­
бразить на плоскости хОу, откладывая условное математическое ожи­
дание т у1х по оси ординат. Получится прямая, которая называется
линией регрессии У на X . Аналогично прямая
х = т х + г ^ - (у — т у)
(9.1.12)
есть линия регрессии X на У.
Линии регрессии совпадают только при наличии линейной функ­
циональной зависимости К от X . При независимых X к У линии
регрессии параллельны координатным осям.
Рассматривая выражение (9.1.1) для плотности нормального рас­
пределения на плоскости, мы видим, что нормальный закон на плоскости
полностью определяется заданием пяти параметров: двух координат
центра рассеивания т х, т у, двух средних квадратических отклоне­
ний ах, ау и одного коэффициента корреляции г. В свою очередь
последние три параметра ах, ау и г полностью определяются эле­
ментами корреляционной матрицы: дисперсиями О х, Б у и корреля­
ционным моментом К ху. Таким образом, минимальное количество
числовых характеристик системы — математические ожидания, диспер­
сии и корреляционный момент — в случае, когда система подчинена
нормальному закону, определяет собой полностью закон распределе­
ния, т. е. образует исчерпывающую систему характеристик.
Так как на практике нормальный закон весьма распространен,
то очень часто для полной характеристики закона распределения
системы оказывается достаточно задать минимальное число — всего
пять — числовых характеристик.
в.Ц
ЭЛЛИПСЫ РАССЕИВАНИЯ. П РИ ВЕД ЕН И Е НОРМАЛЬНОГО ЗАКОНА
193
9.2. Эллипсы рассеивания. Приведение нормального закона
к каноническому виду
Рассмотрим поверхность распределения, изображающую функцию
(9.1.1). Ома имеет вид холма, вершина которого находится над точком ( т х, т у) (рис. 9.2.1).
В сечении поверхности распределения плоскостями; параллельными
оси f ( x , у), получаются кривые, подобные нормальным кривым рас­
пределения. В сечении поверхности распределения плоскостями, парал*
лельными плоскости хОу, получаются эллипсы. Напишем уравнение
проекции такого эллипса на плоскость хОу:
(x — m j)1
2г(х — т х)(У — Щ') , (У — % )2
,
--- ---------------------- — -4------= const.
или, обозначая константу X2,
( х — т х¥
2г (х — т х) (у — т у)
(У-
mvy
:Х2.
(9.2.1)
Уравнение эллипса (9.2.1) можно проанализировать обычными ме­
тодами аналитической геометрии. Применяя их, убеждаемся, что центр
эллипса (9.2.1) находится в точке с координатами ( т х, т уу, что ка­
сается направления осей сим­
метрии эллипса, то они со­
ставляют с осью Ох углы,
определяемые уравнением
2ги,а„
).
(9.2.2)
tg 2а =■ .2
их '
Это уравнение дает два зна­
чения углов: а и аг, различающиеся на
2
Таким образом, ориента­
ция эллипса (9.2.1) относи­
тельно координатных осей
находится в прямой зависи­
мости от коэффициента кор­
реляции г системы (X , К); если величины не коррелироваиы (т. в.
в данном случае и независимы), то оси симметрии эллипса парал»
лельны координатным осям; в противном случае они составляют
с координатными осями некоторый угол.
*) Обоснование формулы (9.2.2) другим способом см. в п° 14.7.
194
НО РМ АЛЬНЫЙ ЗАКОН РА С П РЕД ЕЛ ЕН И Я Д ЛЯ СИСТЕМЫ В ЕЛ И Ч И Н (ГЛ. 9
Пересекая поверхность распределения плоскостями, параллельными
плоскости хОу, и проектируя сечения на плоскость хОу, мы полу­
чим целое семейство подобных и одинаково расположенных эллипсов
с общим центром ( т х, т у). Во всех точках каждого из таких эллип­
сов плотность распределения f (х, у) постоянна. Поэтому такие эл­
липсы называются эллипсами равной плотн ости или, короче,
эллипсами рассеивания. Общие оси всех эллипсов рассеивания
называются главными осями рассеивания.
Известно, что уравнение эллипса принимает наиболее простой,
так называемый «канонический» вид, если координатные оси совпа­
дают с осями симметрии эллипса. Для того чтобы привести уравне­
ние эллипса рассеивания к каноническому виду, достаточно перенести
начало координат в точку (т х, т у) и повернуть координатные оси
на угол а, определяемый уравнением (9.2.2). При этом координатные
оси совпадут с главными осями рассеивания, и нормальный закон
на плоскости преобразуется к так называемому «каноническому» виду.
Каноническая форма нормального закона на плоскости имеет вид:
/г, ^ = 4 ^ 4
<
з-2-з>
где о?,
— так называемые главные средние квадратические о т ­
клонения, т. е. средние квадратические отклонения случайных величин
(Е, Н), представляющих собой координаты случайной точки в системе
координат, определяемой главными осями рассеивания 0$, От]. Глав­
ные средние квадратические отклонения <з5 и
выражаются через
средние квадратические отклонения в прежней системе координат
формулами:
о2= о2cos2а -)- roxay sin 2а -{- о2sin2а, |
с2 =■ о2 sin2а —
гахв..
2а -■)-о2cos2а. J
(9.2.4)
Обычно, рассматривая нормальный закон на плоскости, стараются
варанее выбрать координатные оси Ох, Оу так, чтобы они совпали
с главными осями рассеивания. При этом средние квадратические
отклонения по осям ох, оу и будут главными средними квадратиче­
скими отклонениями, и нормальный закон будет иметь вид;
дг» у»
/ (* .
(9.2.5)
В некоторых случаях координатные оси выбирают параллельно
главным осям рассеивания, но начало координат с центром рассеива*> Вывод этих формуя см. в главе 14, п° 14.7.
in
ЭЛЛИПСЫ РАССЕИВАНИЯ. ПРИ ВЕДЕН И Е НОРМ АЛЬНОГО ЗАКОНА
195
ния не совмещают. При этом случайные величины ( X , Y) также окавываются независимыми, но выражение нормального закона имеет вид:
( х - т гу
( у - щ уу»
*
г°1
•
<9 -2 -6>
где тх, т у — координаты центра рассеивания.
Перейдем в канонической форме нормального закона (9 .2 .5 ) от
средних квадратических отклонений к вероятным отклонениям:
Ex=*pV2axl
£j = p f 2 ’ y
Величины Ех, Е у называются гл авными ве ро ятн ыми откл онения ми.
Подставляя выражения ах, ау через Ех, Е у в уравнение (9 .2 .5 ), п о ­
лучим другую каноническую форму нормального закона:
№
=
D*
\ F2 ' Е2 )
^
Еу ) .
(9 .2 .7 )
В такой форме нормальный закон часто применяется в теории
стрельбы.
Напишем уравнение эллипса рассеивания в каноническом виде:
или
<9-2 ' 8>
.Где k — постоянное число.
Из уравнения видно, что полуоси эллипса рассеивания пропорцио­
нальны главным средним квадратическим отклонениям (а значит, и
главным вероятным отклонениям).
Назовем «единичным» эллипсом рассеивания тот из эллипсов
равной плотности вероятности, полуоси которого равны главным
средним квадратическим отклонениям ах , <зу. (Если пользоваться
в качестве характеристик рассеивания не главными средними квадратическими, а главными вероятными отклонениями, то естественно
будет назвать «единичным» тот эллипс, полуоси которого равны Ех, Еу .)
Кроме единичного эллипса рассеивания иногда рассматривают еш е
«полный» эллипс рассеивания, под ноторым понимают тот из эллип­
сов равной плотности вероятности, в который с практической д о ст о ­
верностью укладывается все рассеивание. Размеры этого эллипса,
разумеется, зависят от того, что понимать п од «практической д о ст о ­
верностью». В частности если принять за «практическую достовер ­
ность» вероятность порядка 0 ,9 9 , то «полным эллипсом рассеива­
ния» можно считать эллипс с полуосями 3 ал, Зау.
7*
196
НОРМ АЛЬНЫ Й ЗАКОН РА С П РЕД ЕЛ ЕН И Я ДЛЯ СИСТЕМЫ ВЕЛ И ЧИ Н [ГЛ. 9
Рассмотрим специально один частный случай, когда
средние квадратические отклонения равны друг другу:
главные
Тогда все эллипсы рассеивания обращаются в круги, и рассеива­
ние называется круговым. При круговом рассеивании каждая из осей,
проходящих через центр рассеивания, может быть принята за главную
ось рассеивания, или, другими словами, направление главных осей
рассеивания неопределенно. При некругозом рассеивании случайные
величины X , У, подчиненные нормальному закону на плоскости, не­
зависимы тогда и только тогда, когда координатные оси параллельны
главным осям рассеивания; при круговом рассеивании случайные ве­
личины ( X , У) независимы при любом выборе прямоугольной системы
координат. Эта особенность кругового рассеивания приводит к тому,
что оперировать с круговым рассеиванием гораздо удобнее, чем
с эллиптическим. Поэтому на практике, где только возможно, стре­
мятся приближенно ааменять некруговое рассеивание круговым.
9.3. Вероятность попадания в прямоугольник со сторонами,
параллельными главным осям рассеивания
Пусть случайная точка (X , У) на плоскости подчинена нормаль­
ному закону
(х~ т х У
, .
,
1
(У-'пу)г
V!»2
У
(9.3.1)
При этом главные оси рассеива­
ния параллельны координатным осям
и величины X и У независимы.
Требуется вычислить вероятность
попадания случайной точки (X , У)
в прямоугольник /?, стороны кото­
рого параллельны
координатным
осям хОу, а следовательно и глав­
ным осям рассеивания (рис, 9.3.1). Согласно общей формуле (8.3.4)
имеем:
9 «
Р { ( Х , У )c z R ) = J
j
/ (х , у )й х й у =
В ЕР О Я Т Н О С Т Ь П О П А Д А Н И Я В
П РЯМ О УГО Л ЬН И К
197
откуда, применяя формулу (6.3.3) для вероятности попадания на уча­
сток, находим:
Р ( { Х . У) с Я ) = .
- [ ф<
[•*■ ( ^
) - ф- 0 " г ’ ) ] • <9-3-2>
где Ф *(л:)— нормальная функция распределения.
Если нормальный закон на плоскости дан в канонической форме,
то т х — т у = 0, и формула (9.3.2) принимает вид
Р((Л-. п = я ) = [ ф - ( А ) - ф - ( ^ ) ] [ ф - ( ^ ) - ф - ( ^ ) ] .
(9.3.3)
Если стороны прямоугольника не параллельны координатным осям,
то формулы (9.3.2) и (9.3.3) уже неприменимы. Только при круговом
рассеивании вероятность попадания
в прямоугольник любой ориентации
вычисляется по формулам (9.3.2) или
+10
(9.3.3).
.
Формулы (9.3.2) и (9.3.3) широко
применяются при вычислении вероят­
ностей попадания в цели: прямо­
угольные, близкие к прямоуголь­
ным, составленные из прямоуголь- _
ников или приближенно заменяемые
таковыми.
Г1 р и м е р. Производится стрельба -4,5
■>,5
с самолета по прямоугольному щиту
размером 9 м у (1 2 м, лежащему на
земле горизонтально. Главные вероят­
-2
ные отклонения: в продольном напра­
влении Вл = 1*) м, в боковом направле­
нии Вь = Ьм. Прицеливание — по центру
мишени, заход — вдоль мишени. Вслед­
Рис. 9.3.2.
ствие несовпадения дальности при­
стрелки и дальности фактической стрель­
бы средняя точка попадания смещается в сторону недолета на 4 м. Найти
вероятность попадания в мишень при одном выстреле.
Р е ш е н и е . На чертеже (рис. 9.3.2) наносим мишень, точку прицеливаиия (т. п.) и центр рассеивания (ц. р.). Через ц. р. проводим главные оси
рассеивания: по направлению полета и перпендикулярно к нему.
Перейдем от главных вероятных отклонений Вл и В^ к главным средшш квадратическим:
Вб
В,
— -тгтгггг ~ 7,4 м;
Ну —
~ 14,8 я .
0,674
По формуле (9.3.3) имеем:
р ((х . к )< = / г )- [у
Л98
НОРМАЛЬНЫЙ ЗАКОН РА С П РЕД ЕЛ ЕН И Я ДЛЯ СИСТЕМЫ ВЕЛ И ЧИ Н [ГЛ. 9
9.4. Вероятность попадания в эллипс рассеивания
К числу немногих плоских фигур, вероятность попадания в кото­
рые может быть вычислена в конечном виде, принадлежит эллипс
рассеивания (эллипс равной плотности).
Пусть нормальный закон на плоскости задан в канонической
форме:
(9.4.1)
Рассмотрим эллипс рассеивания В к, уравнение которого
где параметр & представляет собой отношение полуосей эллипса
рассеивания к главным средним квадратическим отклонениям. По общей
формуле (8.3.3) имеем:
(9.4.2)
Сделаем в интеграле (9.4.2) замену переменных
Этой подстановкой эллипс В к преобразуется в круг Ск радиуса к.
Следовательно,
Перейдем в интеграле (9.4.3) от декартовой системы координат
к полярной, положив
И = /, СО80;
Т>= Г 81пб.
(9.4.4)
Якобиан преобразования (9.4.4) равен г. Производя замену перемен­
ных, получим:
2
—я О
О
ВЕРОЯТНОСТЬ
ПОПАДАНИЯ
В ЭЛЛИПС
РАССЕИВАНИЯ
199
Таким образом, вероятность попадания случайной точки в эллипс
рассеивания, полуоси которого равны А средним квадратическим
отклонениям, равна:
.51
Р ( ( Х , У)<=Вк) = 1 — е ' 2 .
(9.4.5)
В качестве примера найдем вероятность попадания случайной
точки, распределенной по нормальному закону на плоскости хОу ,
в единичный эллипс рассеивания, полуоси которого равны средним
квадратическим отклонениям:
а = ах;
Ь = аг
Д л я такого эллипса к = 1. Имеем:
Р ( ( Х . К )с
й
,) =
_1
1-£'2.
Пользуясь таблицей 2 приложения, находим:
Р ( ( Х , У) с В г) я» 0,393.
Формула (9.4.5) чаще всего применяется для вычисления вероят­
ности попадания в круг при круговом рассеивании.
р и м е р. На пути быстро движущейся малоразмерной цели площади
1,2 м ставится осколочное поле в форме плоского диска радиуса Я = 30.tr.
Внутри диска плотность осколков постоянна и равна 2 оск ./мг. Если цель на­
крыта диском, то число осколков, попада­
ющих в нее, можно считать распределен­
ным по закону Пуассона. В силу малости
цели можно рассматривать ее как точечную
и считать, что она или полностью накры­
вается осколочным полем (если ее центр
попадает в круг), или совсем не накры­
вается (если ее центр не попадает в круг).
Попадание осколка гарантирует поражение
цели. При прицеливании центр круга О |
стремятся совместить в плоскости хОу
с началом координат О (центром цели),
но вследствие ошибок точка 0 ( рассеи­
вается около О (рис. 9.4.1). Закон рассеива­
ния нормальный, рассеивание круговое,
о = 20 м. Определить вероятность пораже­
ния цели Р (А).
Р е ш е н и е . Чтобы цель была пора­
жена осколками, необходимо совмещение
двух событий: 1) попадание цели (точки О) в осколочное поле (круг
радиуса Я) и 2) поражение цели при условии, что попадание произошло.
Вероятность попадания цели в круг, очевидно, равна вероятности того,
что центр круга (случайная точка О ,) попадет в круг радиуса /?, описанный
вокруг начала координат. Применим формулу (9.4.5). Имеем:
30
200
НО РМ АЛЬНЫЙ ЗАКОН РА С П РЕД ЕЛ ЕН И Я ДЛЯ СИСТЕМЫ ВЕЛ И ЧИ Н [ГЛ.
9
Вероятность попадания цели в осколочное поле равна:
1,5»
р — 1— е : 2 и 0,675.
Далее найдем вероятность поражения цели р* при условии, что она на­
крыта осколочным диском. Среднее число осколков а, попадающих в на­
крытую нолем цель, равно произведению площади цели на плотность поля
осколков: -
1,2-2 = 2,4.
Условная вероятность поражения цели р* есть не что иное, как вероят­
ность попадания в нее хотя бы одного осколка. Пользуясь формулой (5.9.5)
главы 5, имеем:
*
р* = Я , = 1— е-а « 0,909.
Вероятность поражения цели равна:
Р ( А) = 0,075 •0,909 « 0,613.
Воспользуемся
формулой
(9.4,5)
для
вероятности
попадания
в круг, чтобы вывести одно важное для практики распределение:
так называемое распределение Релея.
Рассмотрим на плоскости хОу (рис. 9.4.2) случайную точку ( X , К),
рассеивающуюся вокруг начала координат О по круговому нормаль­
ному закону со средним квадра­
тическим отклонением о. Найдем
закон распределения случайной ве­
личины Р — расстояния от точки
(X , К) до начала координат, т. е.
длины случайного вектора с соста­
вляющими X , К.
Найдем сначала функцию распре­
деления Г (г) величины К . По опре­
делению
Г (г ) = Р ( Р < г ) .
Это есть не, что иное, как ве­
роятность попадания случайной точки
(X , V) внутрь круга радиуса г (рис. 9.4.2). По формуле (9.4.5)
эта вероятность равна:
Г (г) — 1 — е
где к — —
О , т. е.
*1
2,
Г*
/Г(г) = 1— е
(9.4.6)
Данное выражение функции распределения имеет смысл только
при положительных значениях г; при отрицательных г нужно поло­
жить Г (г) = 0.
ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ЭЛЛИПС
9:41
РАССЕИВАНИЯ
201
Дифференцируя функцию распределения F (г) по г, найдем плот­
ность распределения
г»
2з*' при г > 0 ,
(9.4.7)
/0 0 = »
о
при г < 0.
Закон Релея (9.4.7) встречается в разных областях практики:
в стрельбе, радиотехнике, электротехнике и др.
График функции / ( г ) (плотности закона Релея) приведен на
рис. 9.4.3.
Найдем числовые характеристики величины Я, распределенной п;>
закону Релея, а именно: ее моду ыН, и математическое ожидание тг.
Для того чтобы найти моду —
абсциссу точки, в которой плот­
ность вероятности максимальна,
- продифференцируем
/ (г) и
приравняем производную нулю:
1 - 5 — 0;
в3 = г \
Корень этого уравнения и есть
искомая мода
оМ = я.
(9.4.8)
Таким образом, наивероятнейр нс^ д 4 3
шее значение расстояния /? случай­
ной точки (ЛГ, К) от начала координат равно среднему квадратиче- (
скому отклонению рассеивания.
Математическое ожидание тг найдем по формуле
т
mr =
f
w
rf(r)dr =
J~е
Г1
2”''d r .
Производя замену переменной
=• = и
получим:
nir = a \ / r 2 J 2t2e ~ ‘2d t = ^y~2 J t ■2te- p d t .
Интегрируя
ния R'.
по частям, найдем математическое ожидание расстоя­
ш, =
а
2 - j - — а |/
(9.4.9)
202
н о р м а л ь н ы й з а к о н р а с п р е д е л е н и я ДЛЯ СИСТЕМЫ ВЕЛ И ЧИ Н [ГЛ.
в
9.5. Вероятность попадания в область произвольной формы
При стрельбе ударными снарядами вычисление вероятности по­
падания в цель сводится к вычислению вероятности попадания слу­
чайной точки (X , К) в некоторую область О. Пусть случайная
точка (А 1, К) подчинена нормальному закону в каноническом виде. Ве­
роятность попадания точки ( X , У) в область £> выражается интегралом
. х2 уг
Р ( ( Х . У)с= 0 ) = ^ Т - / / е ^
2° у Л хау.
(9.5.1)
* у (0)
В отдельных частных случаях (например, когда область О есть
прямоугольник со сторонами, параллельными главным осям рас­
сеивания, или эллипс рассеивания, а также в некоторых других,
имеющих меньшее практическое зна­
чение) интеграл (9.5.1) может быть
выражен через известные функции;
в общем же случае этот интеграл
через известные функции не выра­
жается. На практике для вычисления
вероятности попадания в область
произвольной формы применяются
следующие приближенные способы.
1.
меняется областью, составленной из
х прямоугольников, стороны которых
параллельны главным осям рассеива­
ния (рис. 9.5.1). Вероятность по­
падания в каждый из таких прямо­
угольников вычисляется по формуле (9,3.3). Этот способ можно
рекомендовать тогда, когда число прямоугольников, на которые при­
ближенно разбивается цель О, не слишком велико.
2.
Вся плоскость хОу с помощью некоторой системы лини
(прямых или кривых) заранее разбивается на ряд ячеек, вероятности
попадания в которые могут быть выражены точно через известные
функции, и вычисляется вероятность попадания в каждую ячейку.
Такая система линий с соответствующими ей вероятностями попадания
в ячейки называется сеткой рассеивания. Работа с сеткой заклю­
чается в том, что изображение сетки накладывается на изображение
цели, после чего производится суммирование вероятностей попадания
в ячейки, накрытые, целью; если цель накрывает часть ячейки, то
берется часть вероятности попадания в ячейку, пропорциональная
накрытой площади.
Сетку рассеивания можно применять двояким образом: а) строить
цель в масштабе сетки, б) строить сетку в масштабе цели.
0.81
203
ВЕРОЯТНОСТЬ ПОПАДАНИЯ В ОБЛАСТЬ П РОИЗВОЛЬНОЙ ФОРМЫ
Если цель имеет сложные очертания и, особенно, если она срав­
нительно невелика, бывает обычно удобнее построить на изображении
цели в том же масштабе ту часть сетки, которая занята целью.
Если же цель имеет сравнительно простые очертания н довольно
велика (занимает значительную часть полного эллипса рассеивания).
У
/
0
0
1
0
0
0
0
1
0
0
0
0
0
0
1
0
1
0
1
0
0
Г
0
0
0
О
0
0
/
1
1
0
1
0
0
1
0
0
0
0
0
1
0
0
1
0
0
0
1
/
0
0
0
0
1
0
1
0
г .!
1
1
./
1
0
1
г
2
1
1
1
1
1
1
г
2
2
1
1
1
1
1
1
1
/
/
0
0
1
0
0
0
/
О
г
г
г
2
2
2
г
1
/
1
1
1
1
1
0
0
0
0
0
0
3
3
2
2
2
2
2
2
1
1
1
1
1
1
0
0
1
0
0
0
4 3
3
3
3
3
2
2
2
2
1
1
1
1
1
0_ 0
0
0
0
5 4
4
4
3
3
3
3
2
г
2
1
1
1
1
1
0
/
0
0
5
4
4
4
3
2
2
2
2
1
1
1
1
I
0
0
0
5
5 5
4
4
3
г
2
2
1
1
1
0
0
0
0
1
5 5
5
6
6
6
7
7
в
6
6
5
5
4
4
3
2
2
2
1
1
/
1
1
1
0
8
8
7
7
6
6
6
5
4
4
3
2
2
2
1
1
0
0
0
0
3
3
2
2
1
1
1
1
0
0
2
1
1
1
0
1
0
2
1
2
1 ■1
0
1
9
9
8
8
7
7 6
5
5
4
10
9
9
8
8
7
8
6
5
4
3
3
2
10 10 10 10 8
8
7
5
5 '5
4
3
2
11 и
10 10 9
&
7
6
6
5
4
3
2
2
2
1
1
0
1
0
11 II
11
10
9
9
8
7
В
5
4
3
3
2
2
2
1
1
0
0
12 11
II
10 10
9
8
7
В
5 5 4
3
2
2
2
1
1
1
2
Рис. 9.5.2.
обычно удобнее построить цель в масштабе сетки. Так как стан­
дартная сетка строится для кругового рассеивания, а на практике
рассеивание в общем случае круговым не является, при построении
цели в масштабе сетки приходится в общем случае пользоваться
двумя разными масштабами по осям Ох и Оу. При этом способе
удобно иметь в распоряжении сетку рассеивания, выполненную на
прозрачной бумаге, и накладывать ее на перестроенное изображение
цели. Прямолинейная сетка рассеивания для одного координатного
угла дана на рис. 9.5.2. Сторона ячейки равна 0 ,2 £ « 0 ,1 3 3 з .
204
НО РМ АЛЬНЫЙ ЗАКОН РА С П РЕД ЕЛ ЕН И Я ДЛЯ СИСТЕМЫ ВЕЛ И ЧИ Н [ГЛ. 9
Ч
----------- &
С
В ячейках проставлены вероятности попадания в них, выраженные
в сороковых долях процента.
3.
В случае, когда размеры области О невелики по сравнению с
средними квадратическими отклонениями (не превышают 0,5— 1с. к. о.
в направлении соответствующих осей), вероятность попадания в эту
область может быть приближенно
У
вычислена по формуле, не содер­
жащей операции интегрирования.
*
-Ш п
Рассмотрим на плоскости хО у
малую цель О произвольной формы
(рис. 9.5.3). Допустим, что размеры
этой цели невелики по сравнению
с вероятными отклонениями Е х, Е у.
По общей формуле (8.3.3) имеем:
Р ((Х , У )а О ) =
У
Рис. 9.5.3.
= / / / (х , у )й х й у ,
(9.5.2)
(О)
где /(ж , у) — плотность распределения системы ( X , У). Применим
к интегралу (9.5.2) теорему о среднем значении:
Р ( ( Х , У ) с О ) = / (х0, у0) £ § й х й у = / ( х й, у 0)5д,
<я)
где (х0, у0) — некоторая точка внутри области О; 5 0 — площадь
области Ь .
В случае, когда система ( X , У) подчинена нормальному закону
в каноническом виде, имеем:
А
Р ((Х , У )с П ) =
2
‘ пяхау
(9.5.3)
При сравнительно малых размерах области О плотность распре­
деления / (х, у) в пределах этой области изменяется мало и практи­
чески может быть принята постоянной. Тогда в качестве точки (х0, у0)
можно выбрать любую точку в пределах области И (например, при­
близительный центр цели).
Формулы типа (9.5.3) широко применяются на практике. Для
областей, наибольшие размеры которых не превышают 0,5 среднего
квадратического отклонения в соответствующем направлении, они
дают вполне приемлемые по точности результаты. В отдельных слу­
чаях их применяют и для более крупных областей (порядка одного
с. к. о.). При условии внесения некоторых поправок (а именно, за­
мены величин ох,
несколько увеличенными значениями) область
применимости этой формулы может быть расширена на области раз­
мером порядка двух с. к. о.
НОРМ АЛЬНЫ Й
ЗАКОН
205
В ПРОСТРАНСТВЕ ТРЕХ И ЗМ ЕРЕНИИ
9 .6 . Н ормальны й зак он в п р остр ан ств е т р е х и зм ер ен и й .
О бщ ая зап и сь н орм ал ьного зак он а для систем ы
п р ои зв ол ь н ого числа сл уч ай ны х величи н
При исследовании вопросов, связанных со стрельбой дистанцион­
ными снарядами, приходится иметь дело с законом распределения
точек разрыва дистанционного снаряда в пространстве. При условии
применения обычных дистанционных взрывателей этот закон распре­
деления может считаться нормальным.
В данном п° мы рассмотрим лишь каноническую форму нормаль­
ного закона в пространстве:
_ ± ( 4 +4 +4 ^
f ( x . y , z ) — — ~ ------- е 2
(2л) ,г*х3^г
(9.6.1)
где ах, оу, о2 — главные средние квадратические отклонения.
Переходя от средних квадратических отклонений к вероятным,
имеем:
№
( 9 .6 .2 ,
При решении задач, связанных со стрельбой дистанционными
снарядами, иногда приходится вычислять вероятность разрыва ди­
станционного снаряда в пределах заданной области D. В общем
случае эта вероятность выражается тройным интегралом:
Р { ( Х , Y, Z)c :D) «*= f f f / (х, у, z ) d x d y d z .
(9.6.3)
(О)
Интеграл (9.6.3) обычно не выражается через элементарные
функции. Однако существует ряд областей, вероятность попадания
в которые вычисляется сравнительно просто.
1.
Вероятность попадания в прямоугольный
п а р а л л е л е п и п е д со с т о р о н а м и , п а р а л л е л ь н ы м и
г лав ным осям р а с с е и в а н и я
Пусть область R представляет собой прямоугольный параллелепи­
пед, ограниченный абсциссами а, ß, ординатами у, 8 и аппликатами е, ч\
(рис. 9.6.1). Вероятность попадания в область R, очевидно, равна:
Р { ( Х , У, Z)<zR) =
(9.6.4)
206
НОРМ АЛЬНЫЙ ЗАКОН РА С П РЕД ЕЛ ЕН И Я ДЛЯ СИСТЕМЫ ВЕЛ И ЧИ Н [ГЛ. 9
2.
Вероятность
в эллипсоид равной
попадания
плотности
Рассмотрим эллипсоид равной плотности В к, уравнение которого
ь*2
«,2
*2
3 ’ + ‘^- + ' Т = * 2*
ах
ау
°г
Полуоси этого эллипсоида пропорциональны главным средним
квадратическим отклонениям:
а = ках;
Ь = кау-,
с = каг.
Пользуясь формулой (9.6.1) для / ( х , у, г), выразим вероятность
г
Рис, 9.6,1»
попадания в эллипсоид В к\
}_(■ .
Р ( { Х . У. г )с В „ ) >
/Я
у*
, «*Л
■2 ( " Х ' " Т + .2 )
0
\ *
у
<1х<1у(1г.
х у г (**)
Перейдем от декартовых координат к полярным (сферическим)
заменой переменных
Л
л
— = г сое бсов ср,
Г сое 0 51п Ср,
а»
г
--= Л8Ш 0.
3*
«7
(9.6.5)
•.в]
НОРМ АЛЬНЫ Й
ЗАКОН В
ПРОСТРАНСТВЕ ТРЕХ
И ЗМ ЕРЕН И И
207
Якобиан преобразования (9.6.5) равен:
/ = г2сов Ьахауаг.
Переходя к новым переменным, имеем:
р { ( Х , у, г ) ^ в к) =
тс.
* 2
== —
^
2*
.
^
к
У* у* г 2соэ Ое 2 йт й?0 йу =
^
,/*г2е 2
(271)
Интегрируя по частям, получим:
Р { { Х , У, г ) с В к) =
-Ае
2 + / Г Т А- « .
0
I
>
—
йа
= 2Ф* (&) — 1— у ^ к е " -
(9.6.6)
,3. В е р о я т н о с т ь п о п а д а н и я в ц и л и н д р и ч е с к у ю
о б л а с т ь с о б р а з у ю щ е й , п а р а л л е л ь н о й одной
из г л а в н ы х о с е й р а с с е и в а н и я
Рассмотрим цилиндрическую область С, образующая которой
параллельна одной из главных осей рассеивания (например, оси Ог),
а направляющая есть контур произвольной области Г) на пло­
скости хОу (рис. 9.6.2). Пусть область С ограничена двумя плоско­
стями г = е и г = у]. Вычислим вероятность попадания в область С;
это есть вероятность произведения
двух событий, первое из которых
состоит в попадании точки (X , К)
в область О, а второе — в попадании
величины 2 на участок (г, ч\). Так
как величины (X , У, 2), подчинен­
ные нормальному закону в канони­
ческой форме, независимы, то неза­
висимы и эти два события. Поэтому
Р { ( Х . У, г ) с С ) =
= / > ((* ,К )с£ > )Р(е < г < 70 =
= />((*, К ) С 0 ) [ Ф * ( ^ . ) - Ф * ( £ ) ] .
(9.6.7)
Рис. 9.6.2.
Вероятность Р ( ( Х , К ) с О ) в формуле (9.6.7) может быть вы­
числена любым из способов вычисления вероятности попадания.
в плоскую область.
20S
Н О РМ А Л Ь Н Ы Й ЗА КО Н
Р А С П Р Е Д Е Л Е Н И Я Д Л Я С И С ТЕМ Ы В Е Л И Ч И Н [ГЛ . 9
На формуле (9.6.7) основан следующий способ вычисления ве­
роятности попадания в пространственную область О произвольной
формы: область О приближенно разбивается на ряд цилиндрических
областей Ох, 02, . . . (рис. 9.6.3), и вероятность попадания в каждую
Рис. 9.6.3.
из них вычисляется по формуле (9.6.7). Для применения этого спо­
соба достаточно начертить ряд фигур, представляющих собой сечения
области О плоскостями, параллельными одной из координатных
плоскостей. Вероятность попадания в каждую из них вычисляется
по сетке рассеивания.
В заключение данной главы напишем общее выражение для нор­
мального закона в пространстве любого числа измерений п.
Плотность распределения такого закона имеет вид:
j
П
1
/(*!>
........ Хп) = —
П
гус \
»
2 2 ci
(9.6.8)
(2я) 2
где |С| — определитель матрицы С, С = \ \ С !}\\— матрица, обратная
корреляционной матрице К , т. е. если корреляционная матрица
*= п а д
то
г
__/__ 1y +J^ —L
Ч
ifc-i
1/СГ
где 1*1 — определитель корреляционной матрицы, а Мц — минор
этого определителя, получаемый из него вычеркиванием }-Й строки
«.«)
но рм альн ы й
за ко н
п ространстве
в
тр ех
и зм ерений
209
и j -то столбца. Заметим, что
|С|.
Из общего выражения (9.6.8) вытекают все формы нормального
вакона для любого числа измерений и для любых видов зависимости
между случайными величинами. В частности, при я = 2 (рассеивание
на плоскости) корреляционная матрица есть
W
W
где г — коэффициент корреляции. Отсюда
|/ С |= ф * < 1_ г ® );
|С|
2-5( 1- Г 2) *
1
с =
Подставляя определитель матрицы \С\ и ее члены в (9.6.8), полу­
чим формулу (9.1.1) для нормального закона на плоскости, с которой
мы начали п°9.1.
iû S
HH t ,
ГЛАВА
10
ЧИ СЛО ВЫ Е Х А РА К Т Е РИ С Т И К И ФУНКЦИЙ
СЛУЧАЙНЫХ ВЕЛИЧИН
10.1. Математическое ожидание функции.
Дисперсия функции
При решении различных задач, связанных со случайными явле­
ниями, современная теория вероятностей широко пользуется аппара­
том случайных величин. Для того чтобы пользоваться этим аппара­
том, необходимо знать законы распределения фигурирующих в задаче
случайных величин. Вообще говоря, эти законы могут быть опреде­
лены из опыта, но обычно опыт, целью, которого является определение
закона распределения случайной величины или системы случайных
величин (особенно в области военной техники), оказывается и слож­
ным и дорогостоящим. Естественно возникает задача— свести объем
эксперимента к минимуму и составлять суждение о законах распре­
деления случайных величин косвенным образом, на основании уже
известных законов распределения других случайных величин. Такие
косвенные методы исследования случайных величин играют весьма
большую роль в теории вероятностей. При этом обычно интересую­
щая нас случайная величина представляется как ф у н к ц и я д р у ­
г их с л у ч а й н ы х в е л и ч и н ; зная законы распределения аргумен­
тов, часто удается установить закон распределения функции. С рядом
задач такого типа мы встретимся в дальнейшем (см. главу 12).
Однако на практике часто встречаются случаи, когда нет особой
надобности полностью определять закон распределения функции слу­
чайных величин, а достаточно только указать его числовые харак­
теристики: математическое ожидание, дисперсию, иногда — некоторые
йз высших .моментов. К тому же очень часто самые законы распре­
деления аргументов бывают известны недостаточно хорошо. В связи
с этим часто возникает задача об определения только ч и с л о в ы х
х а р а к т е р и с т и к фу нкц ий с л у ч а й н ы х величин.
Рассмотрим такую задачу: случайная величина У есть функция
нескольких случайных величин Х 1, Х 2........ Х „ :
...........* „ ).
10.1]
МАТЕМАТИЧЕСКОЕ ОЖИДАНИЕ ФУН КЦ И И
ДИСПЕРСИЯ ФУН КЦ И И
211
Пусть нам известен закон распределения системы аргументов
(Л'1. Х 2, . . . . Х п)\ требуется найти числовые характеристики вели­
чины У, в первую очередь — математическое ожидание и дисперсию.
Представим себе, что нам удалось тем или иным способом найти
закон распределения ^ (у ) величины У. Тогда задача об определении
числовых характеристик становится тривиальной; они находятся по
формулам:
СО
М у=
/ Уё(У)^у,
-сю
со
J
О у=
(у — my)^g(y)d^f
—ОО
И
Т. д.
Однако самая задача нахождения закона распределения ^ (у ) ве­
личины У часто оказывается довольно сложной. К тому же для
решения поставленной нами задачи нахождение закона распределения
величины У как такового вовсе и не нужно: чтобы найти только
числовые характеристики величины У, нет надобности знать ее закон
распределения; достаточно знать закон распределения аргументов
( Х ^ ЛГ2. . . . . Х п). Более'того, в некоторых случаях, для того чтобы
найти числовые характеристики функции, не требуется даже знать
закона распределения ее аргументов; достаточно бывает знать лишь
некоторые числовые характеристики аргументов.
Таким образом, возникает задача определения числовых характе­
ристик функций случайных величин п о м и м о з а к о н о в р а с п р е ­
д е л е н и я этих функций.
Рассмотрим задачу об определении числовых характеристик функ­
ции при заданном законе распределения аргументов. Начнем с самого
простого случая — функции одного аргумента — и поставим следую­
щую задачу.
Имеется случайная величина X с заданным законом распределе­
ния; другая случайная величина У связана с X функциональной за­
висимостью:
у ==; (р(X )
Требуется, не находя закона распределения- величины У, опреде­
лить ее математическое ожидание:
т у = М [ ср (* )1 -
(Ю .1 .1 )
Рассмотрим сначала случай, когда X есть прерывная случайная
величина с рядом распределения:
•*/
Л Р,
...
Рг ...
X,
хп
Ра
2 12
Ч И С Л О ВЫ Е ХА РА КТЕРИ С ТИ КИ
ФУН КЦ И Й СЛУЧАЙНЫ Х ВЕЛ И Ч И Н
{ГЛ . 10
Выпишем возможные значения величины У и вероятности этих
значений:
?(-*/) ? ( * 1) ¥ (х2)
.
.
.
.
.
.
?(■*„)
( 10. 1.2 )
Л
Р\
Рз
Ра
Таблица (10.1.2) не является в строгом смысле слова рядом распре­
деления величины У, так как в общем случае некоторые из значения
? (* !). <?(х2) ........ ср(лгл)
(10.1.3)
могут совпадать между собой; к тому же эти значения в верхнем
столбце таблицы ( 10. 1.2) не обязательно идут в возрастающем порядке.
Для того чтобы от таблицы (10.1,2) перейти ^ подлинному ряду
распределения величины У, нужно было бы расположить значения
(10.1.3) в порядке возрастания, объединить столбцы, соответствую­
щие равным между собой значениям У, и сложить соответствующие
вероятности. Но в данном случае нас не интересует закон распре­
деления величины У как таковой; для наших целей — определения
математического ожидания — достаточно такой «неупорядоченной»
формы ряда распределения, как (10.1.2). Математическое ожидание
величины У можно определить по формуле
М ! ? ( * ) ] = ;£ ? (* / ) Л/
(10.1.4)
Очевидно, величина т у = Ж [<р(Л')]>определяемая по формуле (10.1.4),
не может измениться от того, что под знаком суммы некоторые
члены будут объединены заранее, а порядок членов изменен.
В формуле (10.1.4) для математического ожидания функции не
содержится в явном виде закона распределения самой функции,
а содержится только закон распределения аргумента. Таким образом,
для определения математического ожидания функции вовсе не
тр е б уе тся зн ать закон распределения этой функции, а д о ста­
точно зн ать закон распределения аргум ента.
Заменяя в формуле (10.1.4) сумму интегралом, а вероятность р(—
элементом вероятности, получим аналогичную формулу для непрерыв­
ной случайной величины:
Л 1 [?(Х )] = }< р (х )/ (х )й х .
(10.1.5)
где / ( х) — плотность распределения величины X .
Аналогично может быть определено математическое ожидание
функции у ( Х , У) от двух случайных аргументов Х а У. Для пре­
рывных величин
_ _
М [ 9 (Х , У)1 = 3 £ ? (* / • У М / .
( 10. 1.6)
* )
10.11
МАТЕМАТИЧЕСКОЕ ОЖ ИДАНИЕ ФУНКЦИИ. ДИ СПЕРСИЯ ФУНКЦИИ
213
где р ц = Р ( ( Х = ДГ() (К = у7)) — вероятность того, что система ( X , К)
примет значения (x t, yj).
Для непрерывных величин
оо
М [ <?(Х, Y) 1 = J jf <р
У) f i x , y ) d x d y ,
(10.1.7)
— ОО
где f ( x , у ) — плотность распределения системы ( X, К).
Совершенно аналогично определяется математическое ожидание
функции от произвольного числа случайных аргументов. Приведем
соответствующую формулу только для непрерывных величин:
М 1 ч ( Х х. Х г..........Х п)\ =
СО
=
ОО
. . . J ' !Р (Xji
• • • > Хп) f (Xj, Х%, • • • > х п) йх^ dX% • • • d x n,
( 10. 1. 8)
где
f ( x v х 2..........х п) ■
— плотность
распределения
системы
( * . . Х 2..........Х п).
Формулы типа (10.1.8) весьма часто встречаются в практическом
применении теории вероятностей, когда речь идет об осреднении
каких-либо величин, зависящих от ряда случайных аргументов.
Таким образом, математическое ожидание функции любого числа
случайных аргументов может быть найдено помимо закона распреде­
ления функции. Аналогично могут быть найдены и другие числовые,
характеристики функции — моменты различных порядков. Так как
каждый момент представляет собой математическое ожидание неко­
торой функции исследуемой случайной величины, то вычисление любого
момента может быть осуществлено приемами, совершенно аналогич­
ными вышеизложенным. Здесь мы приведем расчетные формулы только
для дисперсии, причем лишь для случая непрерывных случайных
аргументов.
Дисперсия функции одного случайного аргумента выражается
формулой
СО
£ > [? (* )!=
(10.1.9)
— ОО
где mf = M[' f(x)] — математическое ожидание функции
<р(^0;
/ (jc) — плотность распределения величины X.
Аналогично выражается дисперсия функции двух аргументов:
ОО
£>[?(*, y) ) = f f
— ОО
У ) - м г}2/( х. y ) d x d y , (10,1.10)
214
ЧИСЛО ВЫ Е ХАРАКТЕРИСТИКИ ФУН КЦ И Й СЛУЧАЙНЫХ ВЕЛ И ЧИ Н [ГЛ. 10
где
— математическое ожидание функции ср(Л\ К);
/(■*• У )— плотность распределения системы (X , У).
Наконец, в случае произвольного числа аргументов, в аналогичных
обозначениях:
£ > [?(*,. *2 ........ * „ ) ] =
оо
со
[? (* !. * 2....... х п) ~ т 1е]2/ ( х 1, х2......... х п)й х х<1х2. . ,йхп.
- °°
“ со
(1 0.1.11)
Заметим, что часто при вычислении дисперсии бывает удобно
пользоваться соотношением между начальным и центральным момен­
тами второго порядка (см. главу 5) и писать:
00
В [ ср(*) 1= / [? (* )]* / (* )< * * — и*;
( 10. 1. 12)
— СО
.
оо
Л1<р(*. к )1 = / / [?(*• У)]2/ (х , у)(1х{1у — т?-,
(10.1.13)
— оо
С[<р(А’1. Х 2........ Х п)] =
СО
со
= / . . . / [ ? ( * , . л:2,
* „)] 2/ ( * 1. * 2....... х „)й х 1ах 2. . . а х п— т 2.
~°°
.
(10.1.14)
Формулы (10.1.12) — (10.1.14) можно рекомендовать тогда, когда
они не приводят к разностям близких чисел,
т. е. когда т 9 сравнительно невелико.
Рассмотрим несколько примеров, иллюстри­
рующих применение изложенных выше методов
для решения практических задач.
Пр и ме р 1. На плоскости задан отрезок дли­
ны I (рис. 10.1.1), вращающийся случайным образом
так, что все направления его одинаково вероятны.
Отрезок проектируется на неподвижную ось АВ.
Определить среднее значение длины проекции от­
резка.
Ре ше н ие . Длина проекции равна:
К
Рис. 10.1.1*
11соэ а |,
где угол а — случайная величина, распределенная
с равномерной плотностью на участке 0,2п.
По формуле (10.1.5) имеем:
10.1]
МАТЕМАТИЧЕСКОЕ ОЖ ИДАНИЕ ФУНКЦИИ
ДИ СПЕРСИЯ ФУНКЦИИ
215
П р и м е р 2. Удлиненный осколок снаряда, который можно схемати­
чески изобразить отрезком длины /, летит, вращаясь вокруг центра массы
таким образом, что все его ориентации в пространстве одинаково вероятны.
На своем пути осколок встречает плоский экран, перпендикулярный к напра­
влению его движения, и оставляет в нем пробоину. Найти математическое ожидание длины этой пробоины.
Р е ш е н и е . Прежде всего дадим
математическую формулировку утвер­
ждения, заключающегося в том, что
«все ориентации осколка в простран­
стве одинаково вероятны». Направле­
ние отрезка I будем характеризовать
единичным вектором г (рис. 10. 1.2).
Направление вектора г в сферической
системе координат, связанной с плос­
костью Р, на которую производится
Рис. 10.1.2,
прогктирование, определяется двумя
углами: углом 0, лежащим в плоскости
Р, и углом <р, лежащим в плоскости, перпендикулярной к Р. При равной
вероятности всех направлений вектора г все положения его конца на поверх­
ности сферы единичного радиуса С должны обладать одинаковой плотностью
вероятности; следовательно, элемент вероятности
/ ( в , 9) ав аГ<р,
где / ( 0, <р) — плотность распределения углов 0, <р, должен быть пропорциона­
лен элементарной площадке йз на сфере С; эта элементарная площадка равна
^ 5 = ^ 0 */<р с о е <р,
откуда
/ (0, ?) Й0
= А сое 9 сШЛу,
/ (0, <р) =* А соз у,
где А — коэффициент пропорциональности.
Значение коэффициента А найдем из соотношения
2к
/
0
К
1
//(в .
—
'2
=
откуда
Л=
4я
Таким образом, плотность распределения углов 0, у выражается формулой
(10.1.15)
/Х & 9) = 4^ соз <р при
I
2 '
Спроектируем отрезок на плоскость Р; длина проекции равна:
У — I сое ч.
216
Ч И С Л О ВЫ Е ХА РА КТЕРИ С ТИ КИ
ФУН КЦ ИЯ
СЛУЧАЙНЫ Х ВЕЛ И Ч И Н
[ГЛ.
10
Рассматривая У как функцию двух аргументов 0 и 9 и применяя фор­
мулу (10.1.7), получим:
2тс
,=
М
[/ СОЭ
<р] =
У с/д
~
у * С052
^
С052 <рй?ср =
~
«
0
,'
0,785*.
Таким образом, средняя длина пробоины, оставляемой осколком в экране,
равна 0,785 длины осколка.
П р и м е р 3. Плоская фигура площади 5 беспорядочно вращается в про­
странстве так, чго все ориентации этой фигуры одинаково вероятны. Найти
среднюю площадь проекции фигуры 5 на неподвижную плоскость Р
(рис. 10.1.3).
Р е ш е н и е . Направление плоскости фигуры 5 в пространстве будем
характеризовать направлением нормали N к этой плоскости. С плоскостью Р
свяжем ту же сферическую систему координат, что в предыдущем примере.
Направление нормали N к площадке 5 характеризуется случайными углами в
и а, распределенными с плотностью (10.1.5). Пло­
N
щадь 2 проекции фигуры 5 на плоскость Р равна
1
( $ - * ) ! = 6'1 аШ у>
а средняя площадь проекции
т г = М [5 | б1п <
р|] =
_5_
4п I
49
у * с о е у ) 5|П <р \й
у ■
2
Таким образом, средняя площадь проекции
произвольно ориентированной плоской фигуры
на неподвижную плоскость равна половине
площади этой фигуры.
П р и м е р 4. В процессе слежения радиолокатором за определенным
объектом пятно, изображающее объект, все время удерживается в пределах
экрана. Экран представляет собой круг К радиуса’ Р. Пятно занимает на
экране случайное положение с постоянной плотностью вероятности. Найти
среднее расстояние от пятна до центра экрана.
Р е ш е н и е . Обозначая расстояние О, имеем И = \гХ г
У2 , где
X, У — координаты пятна; / (х, у) =
в пределах круга /( и равна нулю
за его пределами. Применяя формулу (10.1.7) и переходя в интеграле к по­
лярным координатам, имеем:
2*
=
=
(.К)
о
Д
/ г* а — | /г.
о
П р им ер 5. Надежность (вероятность безотказной работы) техниче­
ского устройства есть определенная функция р (Х , К, г ) трех параметров,
характеризующих работу регулятора. Параметры X, К, I представляют собой
случайные величины с известной плотностью распределения / (л:, у, г).
in.ll
МАТЕМАТИЧЕСКОЕ ОЖ ИДАНИИ ФУНКЦИИ. ДИ СПЕРСИЯ Ф УНКЦИИ
217
Найти среднее значение (математическое ожидание) надежности устройства
и среднее квадратическое отклонение, характеризующее ее устойчивость.
Р е ш е н » е. Надежность устройства р (X , У, 2 ) есть функция трех слу­
чайных величин (параметров) X, У, 2, Ее среднее значение (математическое
ожидание) найдется по формуле (10.1.8):
СО
>п? — М [р (X, У, 2')] = [ У f
р (х, у, г) / (х, у, г) йх <1у <
1 г. (10.1.16)
—оо
По формуле (10.1.14) имеем;
О»
Пр = ° [р (X, У, 2)}
= У У*У* [р (.ЛГ, у, г)]2/ (X, у, г) йх с1у йг —т2р,
— СО
а = |/ 15Форму ла (10.1.16), выражающая среднюю (полную) вероятность
безотказной работы устройства с учетом случайных величин, от ко­
торых зависит эта вероятность в каждом конкретном случае, пред­
ставляет собой частный случай так называемой ин те гр а ль но й ф о р ­
м у л ы п олн ой ве роятнос ти, обобщающей обычную формулу полной
вероятности на случай бесконечного (несчетного) числа гипотез.
Выведем здесь эту формулу в общем виде.
Предположим, что опыт, в котором может появиться или не по­
явиться интересующее нас событие А, протекает в случайных, за­
ранее неизвестных условиях. Пусть эти условия характеризуются
непрерывным» случайными величинами
X 2..........Х„.
(10.1.17)
плотность распределения которых
/( * ! • х 2..........х п).
Вероятность Р А появления события А есть некоторая функция
случайных величин (10.1.17):
Р А { Х 1, Х 2..........Х п).
(10.1.18)
Нам нужно найти среднее значение этой вероятности или, другими
словами, полную вероятность события А:
Р А = М [ Р А\ Х 1, Х 2..........Х„)\.
Применяя ф ор м ул у ( 1 0 . 1 . 8 ) для м атем атического ож идания ф у н к ­
ции, найдем:
= I J . . . ^ Р А ( х г, Х2 ..........Х„) / (*!, х 2............ Х„) й х х <1х2
с!х п°
(1 0 .1 .1 9 )
218
Ч И С Л О ВЫ Е ХАРАКТЕРИСТИКИ ФУН КЦ И Й СЛУЧАЙНЫХ ВЕЛ И ЧИ Н [ГЛ. 10
Формула (10.1.19) называется интегральной формулой полной
верс&пности. Нетрудно заметить, что по своей структуре она сходна
с формулой полной вероятности, если заменить дискретный ряд ги­
потез непрерывной гаммой, сумму — интегралом, вероятность гипо­
тезы — элементом вероятности:
/ ( ^ 1, «^2* •“ •• х п)
(&Х<1 . . » (1хпш
а условную вероятность события при данной гипотезе— условной
вероятностью события при фиксированных значениях случайных ве­
личин:
Р А ( Х 1> * 2 ............ Х п)-
Не менее часто, чем интегральной формулой полной вероятности,
пользуются интегральной формулой полного математического
ожидания. Эта формула выражает среднее (полное) математическое
ожидание случайной величины X, значение которой принимается в
опыте, условия которого заранее неизвестны (случайны). Если эти
условия характеризуются непрерывными случайными величинами
^ 1» -^2» •••»
с плотностью распределения
/ (Х 1' Х2........ х п)•
а математическое ожидание величины £ есть функция от величин
Х г * 2 ........
т г (А 1], ^ 2> ••■! X п),
то полное математическое ожидание величины X вычисляется по
формуле
т г=
СО
■
—£
^
0^1* Х2* •* *• Хп) / (^ 1» х2* •••» х п) ^Х^ йХ2 » •. Ахп%
( 10 . 1. 20 )
которая называется интегральной формулой полного м а т е м а тического ожидания.
П р и м е р 6. Математическое ожидание расстояния О, на котором
будет обнаружен объект с помощью четырех радиолокационных станции,
зависит от некоторых технических параметров этих станций:
* 2, Х 3, Х<,
которые представляют собой независимые случайные величины с плотностью
распределения
/ (*|. -*2, *з. ■*«) = /| ( * 1) / 2 (■**) /з (х5) / 4( * 4).
При фиксированных значениях параметров Х { — х,, Х г = хъ Х% = ла.
Х 4•=XI математическое ожидание дальности обнаружения равно
т 0 (х1, хъ х3, хЛ).
219
ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ
10.2]
Найти среднее (полное) математическое ожидание дальности обнару­
жения.
Р е ш е н и е . По формуле (10.1.20) имеем:
т0 =
СО
- П
Н
то (х г х 2' Х3' х 4> Л (х 0 / г (х г) и (х з)
ах> йх* Лхз й х <-
—оо
10.2. Теоремы о числовых характеристиках
В предыдущем п° мы привели ряд формул, позволяющих нахо­
дить числовые характеристики функций, когда известны законы рас­
пределения аргументов. Однако во многих случаях для нахождения
числовых характеристик функций не требуется знать даже законов
распределения аргументов, а достаточно знать только некоторые их
числовые характеристики; при этом мы вообще обходимся без ка­
ких бы то ни было законов распределения. Определение числовых
характеристик функций по заданным числовым характеристикам ар­
гументов широко применяется в теории вероятностей и позволяет
Значительно упрощать решение ряда задач. По преимуществу такие
упрощенные методы относятся к линейным функциям; однако неко­
торые элементарные нелинейные функции также допускают подобный
подход.
В настоящем п° мы изложим ряд теорем о числовых характери­
стиках функций, представляющих в своей совокупности весьма про­
стой аппарат вычисления этих характеристик, применимый в широком
круге условий.
1. М а т е м а т и ч е с к о е о ж и д а н и е н е с л у ч а й н о й
величины
Если с — неслучайная величина, то
М [с] = с.
Сформулированное свойство является достаточно очевидным; дока­
зать его можно, рассматривая неслучайную величину с как частный
вид случайной, при одном возможном значении с вероятностью еди­
ница; тогда по общей формуле для математического ожидания:
М[ с] = с • 1 = с .
2. Д и с п е р с и я н е с л у ч а й н о й
величины
Если с — неслучайная величина, то
£ [ с ] = 0.
Д о к а з а т е л ь с т в о . По определению дисперсии
0 [ с ] = М [с2] = М\ {с — /и£)2] = /И 1(с — с)2] = М [0] = 0.
220
ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ФУНКЦИЙ СЛУЧАЙНЫХ ВЕЛИ ЧИ Н [ГЛ. 10
3. В ы н е с е н и е н е с л у ч а й н о й в е л и ч и н ы
за з н а к м а т е м а т и ч е с к о г о о ж и д а н и я
Если с — неслучайная величина, а X — случайная, то
М 1е Х] = с М \ Х ],
т. е. неслучайную величину можно
матического ожидания.
Доказательство.
а) Для прерывных величин
(10.2.1)
выносить з а з нак мате­
М [с Х ] — 2 сх, р, = с 2 х , р , = сМ [Л'].
I
I
б) Для непрерывных величин
ОО
ОО
Л Ц с Х ] = J с х / ( х ) й х = с J х / (х)йх- = с М\ Х ] .
4.
Вынесение неслучайной величины
за з н ак д и с п е р с и и и с р е д н е г о к в а д р а т и ч е с к о г о
отклонения
Если с — неслучайная величина, а X — случайная, то
О \ с Х \ = сЮ [ЛТ],
(10.2.2)
т. е. неслучайную величину можно выносить за зна к диспер­
сии, возводя ее в квадрат.
Д о к а з а т е л ь с т в о . По определению дисперсии
£ [сХ] = М [(сХ — М [сХ] )2] =
= М [(сХ — стх?) = сгМ [ ( * — /я ,)2] = с2Б [X].
Следствие
а[ сХ] = \ с\ с[ Х] ,
т. е. неслучайную величину можно выносить за знак среднего квад­
ратического отклонения ее абсолютным значением. Доказательство
получим, извлекая корень квадратный из формулы (10.2.2) и учиты­
вая, что с.к.о. — существенно положительная величина.
10.21
221
ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ
5. М а т е м а т и ч е с к о е о ж и д а н и е
случайных величин
суммы
Докажем, что для любых двух случайных величин X и У
М [ Х + У] = М 1 Х] + ЛЦУ],
(10.2.3)
т. е. математическое ожидание суммы дв ух случайных величин
р ав но сумме их математических ожиданий.
Это свойство известно под названием теоремы сложения мате­
матических ожиданий.
Доказательство.
а) Пусть ( X , У) — система прерывных случайных величин. При­
меним к сумме случайных величин общую формулу (10.1.6) для ма­
тематического ожидания функции двух аргументов:
М [X + У\ =
=
2 Рц
У/) Рц —
2 2 * / / * / / + 2 2 У]Рц—
2I х 1 21 р ц' + 2] У) 2I р 1Г
4
=»
Но
2 2 (XI +
представляет собой не что иное, как полную вероят­
ность того, что величина X примет значение х ц
2 Лу — ** (*■ = *<) — PH
}
следовательно,
2 Х1 2 Рц = 2 х 1р 1 =
■*
]
Аналогично Докажем, что
^
2 У/2 Р ц =
М [А'].
М [У \,
и теорема доказана.
б) Пусть (X, У) — система непрерывных случайных величин. По
формуле (10.1.7)
СО
М IX
Г] = J J (х + у) / (*, у) с1 х йу =
— СО
ОО
-Я
-ОО
ОО
х / (л, у)йх<1у +
§§
у/ ( х, у)йхйу.
—оо
(10.2.4)
222
ЧИ С ЛО ВЫ Е ХАРАКТЕРИСТИКИ ФУН КЦ И И СЛУЧАЙНЫ Х ВЕЛ И Ч И Н [ГЛ. 10
Преобразуем первый из интегралов (10.2.4):
со
СО
J J х /{х , у)<1х<1у =
— СО
|
/ *1
—0 0
СО
/ /(*•
I —0 0
00
= J
х/х(х) <1х = М 1ЛГ];
— СО
аналогично
со
/ / У / (* . у)й х й у = М [У ],
—оо
и теорема доказана.
Следует специально отметить, что теорема сложения математи­
ческих ожиданий справедлива для л ю б ы х с л у ч а й н ы х в е л и ­
ч и н — как зависимых, так и независимых.
Теорема сложения математических ожиданий обобщается на про­
извольное число слагаемых:
^ [2
* / ] = 2 М [* ,],.
(10.2.5)
т. е. математическое ожидание суммы нескольких случайных
величин равно сумме их математических ожиданий.
Для доказательства
дукции.
достаточно применить метод полной ин­
6. М а т е м а т и ч е с к о е
ожидание
линейнойфункции
Рассмотрим линейную функцию нескольких случайных аргументов
^2» •••» ^ п ‘
2 а1^1 Н- ь,
где а{, Ь — неслучайные коэффициенты. Докажем, что
М |2 а.Х.^гЦ
и
= 2 а(М
1=1
(10.2.6)
т. е.т математическое ожидание линейной функции равно той же
линейной функции от математических ожиданий аргументов.
10.21
223
ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ
Д о к а з а т е л ь с т в о . Пользуясь теоремой сложения м. о. и пра­
вилом вынесения неслучайной величины за знак м. о., получим:
М
7. Д и с п е р с и я
суммы
случайных
величин
Дисперсия суммы двух случайных; величин равна сумме их диспер­
сий плюс удвоенный корреляционный момент:
В \ Х + У ] = 0 [ Х ] + 0 \ У ] + 2Кху.
Доказательство.
(10.2.7)
Обозначим
г = Х + У.
'
(10.2.8)
По теореме сложения математических ожиданий
тг — тх - \ - т у.
Перейдем от случайных величин X ,
центрированным величинам X , У,
(10.2.8) равенство (10.2.9), имеем:
(10.2.9)
У, 1. к соответствующий
Вычитая почленно из равенства
г = х + у.
По определению дисперсии
£ IX
У] = О Ц ] = М [ Ь ] =
= м [ * 2] + 2М [ ХУ\ + М [К2] = й [X] + 2к ху + 0 [П .
что и требовалось доказать.
Формула (10.2.7) для дисперсии суммы может быть обобщена на
любое число слагаемых:
Д [£*,]== 2
J
<=>1
2 кф
1< )
(10.2.10)
где К ц — корреляционный момент величин Х 1г Х/ \ знак / < / под
суммой обозначает, что суммирование распространяется на все воз­
можные попарные сочетания случайных величин ( Х и Х г..........X „).
224
ЧИ С Л О ВЫ Е ХА РА КТЕРИ С Т И КИ
Ф У Н К Ц И Й С Л У Ч А Й Н Ы Х В Е Л И Ч И Н ,[ГЛ, 10
Доказательство аналогично предыдущему и вытекает из формулы
для квадрата многочлена­
' Формула (10.2.10) может быть записана еще в другом виде:
о
2 ^ 1 = 2 2 ^ .
=1 J
»=1 ]=1 '
( ю . 2. 11)
где двойная сумма распространяется на все элементы корреляцион­
ной матрицы системы величин ( Х г Х 2........ Х „ ), содержащей как
корреляционные моменты, так и дисперсии.
Если все случайные величины (Х ^ Х 2........ Х п), входящие в си­
стему, некоррелированы (т. е. К и — 0 при 1ф/), формула ( 10.2. 10)
принимает вид:
й
2 ^ | ' = 2 Д № 1.
«=1 J
1=1
( 10.2. 12)
т. е. дисперсия суммы некоррелированных случайных величин
равна сумме дисперсий слагаемых.
Это положение известно под названием теоремы сложения
дисперсий.
8.
Дисперсия
линейной
функции
Рассмотрим линейную функцию нескольких случайных величин.
»=1
где а;, Ъ — неслучайные величины.
Докажем, что дисперсия этой
формулой
О [2
+
= 2
линейной функции выражается
а ]0 [ Х ^ + 2 £
ар/Сц.
(10.2.13)
где К ц — корреляционный момент величин X ,, X у.
Д о к а з а т е л ь с т в о . Введем обозначение:
К, = « Д ,.
Тогда
П
1=1
П
+
(10.2.14)
Применяя к правой части выражения (10.2.14) формулу (10.2.10)
для дисперсии суммы и учитывая, что 0 [£>] = 0, получим:
£>
2
2
2
2
2
а1Х 1+ ь ] =
О [У{] + 2
К?/ =
а р [* ,] + 2
кУ}.
1=1
J
/=1
1<.]
1-1
1 1
»</
(10.2.15)
10.2]
225
ТЕОРЕМЫ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ
где Л"/5/1— корреляционны й момент величин У(ш Уу.
К?] = М[ У 1 У}].
'
Вычислим этот м ом ент. Имеем:
= (1 1 X 1 — (цтХ1= а^Х^,
УI = У/ —
аналогично
УI— а}Х }.
Отсюда
КГ] = М [а1а ] Х 1Х / 1 = а ^ М
=
а (а / ( и .
П одставляя эт о вы раж ение в ( 1 0 .2 .1 5 ) , пр иходим к ф о р м у л е
( 1 0 .2 .1 3 ) .
В частном случае, когда все величины ( Х 1г Х 2............X п) н ек о р редпровапны , ф орм ула ( 1 0 .2 .1 3 ) принимает вид:
£> 2 а 1^ 1
1=1
= 2
< & > [ * ,] .
( 1 0 .2 .1 6 )
г= 1
т. е. дис пе рс ия линейной фу нкции н е к о р р е л и р о в а н н ы х с л у ч а й ­
ных величин р а в н а сумме произве де ний к в а д р а т о в ко э ффи цие н­
тов на дисперсии соответствующих а р г у м е н т о в 1).
9.
Математическое ожидание произведения
случайных величин
М атематическое ож идание произведения д в у х случайны х величин
равно произведению их м атематических ож иданий плю с к о р р ел я ц и о н ­
ный момент:
М \ Х У ] = М [ Х ] М \ У \ + К ху.
( 1 0 .2 .1 7 )
Доказательство.
ц ион ного момента:
Б удем
исходить
из опр едел ения к о р р ел я ­
К ху — М [ ХУ\ = М 1(Х — тх) (У — т у)],
где
тх ф М [ Х ) \
П р еоб р а зу ем
ск ого ожидания:
это
вы раж ение,
т у =>М[ У] .
пользуясь
свойствами м атем атиче­
К х у = > М [ ( Х — тх)(У — т у)] =
= М 1ХУ) — тхМ [К] — туМ [ Х\ + тхту = М1 Х У ] — М [ X] М [К ],
что, очевидно, равносильно ф ор м уле (1 0 .2 .1 7 ) .
') Так как независимые величины всегда являются некоррелированными,
то все свойства, доказываемые в данном а 0 для некоррелированных величин,
справедливы для независимых величин.
8 Теория вероятностей
226
ЧИ С ЛО ВЫ Е ХАРАКТЕРИСТИКИ ФУН КЦ И Й СЛУЧАЙНЫХ В ЕЛ И Ч И Н ггл.
10
Если случайные величины (X , К) некоррелированны (К ху = 0), то
формула (10.2.17) принимает вид:
М [Л Т ] = М [X ] М [К],
(10.2.18)
т. е. м атем атическое ожидание произведения двух некоррели­
рованных случайных величин равно произведению их м а т е м а ­
тических ожиданий.
Это положение известно под названием теоремы умножения
м атем атических ожиданий.
Формула (10.2.17) представляет собой не что иное, как выраже­
ние второго смешанного центрального момента системы через второй
смешанный начальный момент и математические ожидания:
= 1^11= «11—
(10.2.19)
Это выражение часто применяется на практике при вычислении
корреляционного момента аналогично тому, как для одной случайной
величины дисперсия часто вычисляется через второй начальный мо­
мент и математическое ожидание.
Теорема умножения математических ожиданий обобщается и на
произвольное число сомножителей, только в этом случае для ее при­
менения недостаточно того, чтобы величины были некоррелированны,
а требуется, чтобы обращались в нуль и некоторые высшие смешан­
ные моменты, число которых зависит от числа членов в произведении.
Эти условия заведомо выполнены при независимости случайных вели­
чии, входящих в произведение. В этом случае
м [ П * / ] = П М [Л\],
(10.2.20)
т. е. м атем атическое ожидание произведения независимых
случайных величин равно произведению их м атем атических
ожиданий.
Это положение легко доказывается методом полной индукции.
10. Д и с п е р с и я п р о и з в е д е н и я н е з а в и с и м ы х
сл учайных величин
г '
Докажем, что для независимых величин X , К
£>1ХУ] ==£ [Х\ О [К 1+ т \ 0 [К] + т \ 0 [ЛГ].
Доказательство.
дисперсии
Обозначим
Х У = X.
По
D [ Л Т ] = о [г ] = м \Ь\ = м ц г - т г?\.
(10.2.21)
определению
10-2]
ТЕО РЕМ Ы О ЧИ СЛО ВЫ Х ХАРАКТЕРИСТИКАХ
227
Так как величины X , У независимы, т г — т хт у и
D [X У ] = М [(Х У — т хт у)2] = 'М 1^ 2К2] — 2 т хт уМ [ХУ]-\- т \ т \ .
При независимых X ,
следовательно,
У величины X 2, У2 тоже независимы1);
М [ Х 2У*] = М [ Х 2] М { У %
М [ Х У \ = т хт ))
D \ X Y ] = M \ X 2\M \Y 2\— т \ т 2
у.
(10.2.22)
Но М [ Х 2] есть не что иное, как второй начальный момент вели­
чины X , и, следовательно, выражается через дисперсию:
M \ X 2\= D \ X ] + m 2
x-,
аналогично
М \У 2] = 0\У]-\-т1.
Подставляя эти выражения в формулу (10.2.22) и приводя подоб­
ные члены, приходим к формуле ( 10. 2.21).
В случае, когда перемножаются центрированные случайные вели­
чины (величины с математическими ожиданиями, равными нулю), фор­
мула ( 10.2.21) принимает вид:
D \ X Ÿ ] = D [X \ D [ Ÿ ],
(10.2.23)
т. е. дисперсия произведения независимых центрированных
случайных величин равна произведению их дисперсий.
11. В ы с ш и е
моменты суммы
величин
случайных
В некоторых случаях приходится вычислять высшие моменты
суммы независимых случайных величин. Докажем некоторые относя­
щиеся сюда соотношения.
1) Если величины X . У независимы, то
.
+ П =
+
(10.2.24)
Доказательство.
Из\Х -}- Y] = М [ ( X + У-— т х - т у )3] «
= М \{(Х - т х) + (У - /яу)Р ] =
= М [ ( Х — mxf 14- 3М 1(Х — т х)2(У — т у)] +
+ Ш [ (X - т х) (У - т у)2) + М [(У - т у?\,
') Можно доказать, что любые функции от независимых случайных
величин также независимы.
228
ЧИСЛО ВЫ Е ХАРАКТЕРИ СТИ КИ ФУН КЦ И Й СЛУЧАЙНЫХ ВЕЛ И Ч И Н [ГЛ. 10
откуда по теореме умножения математических ожиданий
Из [ * + V] = Из 1*1 -Ь Зр2I X ] р, [У] + 3Р 11У) (*2IX ) + (13[К].
Но первый центральный момент р.1. для любой величины равен
нулю; два средних члена обращаются в нуль, и формула (10.2.24)
доказана.
Соотношение (10.2.24) методом индукции легко обобщается на
произвольное число независимых слагаемых:
Из
(10.2.25)
и з№
2)
Четвертый центральный момент суммы двух независимых слу­
чайных величин выражается формулой
И4 [ X + У] = Н4[ * ] + И41П + 60 хО г
(10.2.26)
где £>ж, й у — дисперсии величин X и У.
Доказательство совершенно аналогично предыдущему.
Методом полной
ции легко доказать обобщение формулы
(10.2.26) на произво..„..^ число независимых слагаемых:
И41 2 X , ] = 2 р4[ X Л + 6 2 Ох П
и =1 J
1=1
/</
1 I
(10.2.27)
Аналогичные соотношения в случае необходимости легко вывести
и для моментов более высоких порядков.
12. С л о ж е н и е н е к о р р е л и р о в а н н ы х с л у ч а й н ы х
векторов
Рассмотрич на плоскости хО у два некоррелированных случайных
вектора: вектор К , с составляю­
щими ( Х х, К 1) и вектор
с соста­
вляющими ( Х 2, У2) (рис. 10.2.1).
Рассмотрим
их
векторную
сумму:
т. е. вектор с составляющими:
X = X , — х%,
К = К , + К2.
вые
Требуется определить число­
характеристики случайного
вектора V — математические ожидания т х, т у, дисперсии и корреля­
ционный момент составляющих: Ох,
К хг
10.2]
229
ТЕО РЕМ Ы О ЧИ С Л О ВЫ Х ХА РА КТЕРИ С Т И КА Х
По теореме сложения математических ожиданий:
* у = * у, +
По теореме сложения дисперсий
£ = 0 ДГ| 41- 0 Л-,’;
О =-0 4 - 0 .
У
У. ~
Уа
Докажем, что корреляционные моменты также складываются:
=
+
( 10-2‘28)
, А' . — корреляционные моменты составляющих каждого из
-*]У| ■
>хгУ2 •>
векторов V 1 и У 2.
Д о к а з а т е л ь с т в о . По определению корреляционного момента:
где /С
К ху = М [ Х ¥ ] = М [ ( * , 4- х 2) (К, 4- К2)1 =
= Ж (^ к ,| 4 - /И[Л'аК1]4 - /И[АГ^гН>
М
1X^1
(10.2.29)
V
Так как векторы V,, У 2 некоррелированны, то два средних члена
в формуле (10.2.29) равны нулю; два оставшихся члена представляют
собой К
и
формула (10.2.28) доказана.
Формулу (10.2.28) иногда называют «теоремой сложения корре­
ляционных моментов».
Теорема легко обобщается на произвольное число слагаемых.
Если имеется две некоррелированные системы случайных величин,
т. е. два п-мерных случайных вектора:
X с составляющими Х х, Х 2, . . . . Х п,
->
¥ с составляющими К2. У2, . . . . У„,
то их векторная сумма
2 = *Х+ У
имеет корреляционную матрицу, элементы которой получаются сум­
мированием элементов корреляционных матриц слагаемых:
К ? ) = К?,- 4-К Т ;.
(10.2.30)
где к!(}> К**}, КТ, обозначают соответственно корреляционные мо­
менты величин (2 ;, Z^); ( X
X )), (К г, У]).
Формула (10.2.30) справедлива как при i — j , так и при 1 ф ].
Действительно, составляющие вектора 2 равны:
2 2= Х 2+ У 2;
г п= х п+ у л.
230
ЧИ С Л О ВЫ Е ХА РА КТЕРИ С ТИ КИ
ФУНКЦ ИЙ
СЛУЧАЙНЫ Х ВЕЛ И Ч И Н
[ГЛ.
10
По теореме сложения дисперсий
&г1—
“Ь
или в других обозначениях
В математике суммой двух м атр и ц называется матрица, элементы
которой получены сложением соответствующих элементов этих мат­
риц. Пользуясь этой терминологией, можно сказать, что корреля­
ционная м атр и ц а суммы двух некоррелированных случайных
векторов равна сумме корреляционных м атри ц слагаемых:
(10.2.31)
Это правило по аналогии с предыдущими можно назвать «теоре­
мой сложения корреляционных матриц».
10.3. Применения теорем о числовых характеристиках
В данном п° мы продемонстрируем применение аппарата числовых
характеристик к решению ряда задач. Некоторые из этих задач
имеют самостоятельное теоретическое значение и найдут применение
в дальнейшем. Другие задачи носят характер примеров й приводятся
для иллюстрации выведенных общих формул на конкретном цифровом
материале.
З а д а ч а 1. К о э ф ф и ц и е н т к о р р е л я ц и и л ине йно, з а ­
в и си м ы х с л у ч а й н ы х величин.
Доказать, что если случайные величины X и У связаны линейной
функциональной зависимостью
У = аХ -{-Ь,
то их коэффициент корреляции равен + 1 или — 1, смотря по знаку
коэффициента а.
Р е ш е н и е . Имеем:
о о
К ху = М [Х У ] = М [ { Х — т х) (У — оту) 1=
= М [(Л' — т х) ( а Х 4 -Ь — а т х — Ь)\ = а М 1(ЛГ — т х)2] = аОх,
где Э х — дисперсия величины X .
Для коэффициента корреляции имеем выражение:
(10.3.1)
10.3}
П РИ М ЕН ЕН И Я ТЕО РЕМ О ЧИСЛО ВЫ Х ХАРАКТЕРИСТИКАХ
231
Для определения оу найдем дисперсию величины У:
— 1а\сх
о,
Подставляя в формулу (10.3.1), имеем:
а Р х __ а ~
Величина
равна
1* 1«;
1, когда а положительно, и — 1, когда а от­
Iа I
рицательно, что и требовалось доказать.
З а д а ч а 2. Г р а н и ц ы к о э ф ф и ц и е н т а
Доказать, что для любых слу­
чайных величин
к,орр.е л яц и и .
|Г*У 1< Ь
Р е ш е н и е . Рассмотрим слу­
чайную величину:
г = ауХ ± о хУ,
где ах, оу — средние квадратиче­
ские отклонения величин X , У.
Определим дисперсию величины 2.
По формуле (10.2.13) имеем:
=» оуЦ* -)- охОу ± 2вд-оуКлу>
или
_2 2
О>гг —
~ 2
" ОдОу ± Ъа^ОуКху.
Так как дисперсия любой случайной величины не может быть
отрицательна, то
или
откуда
а следовательно,
IК ХУ
сх ау
I гху 1^1*
что и требовалось доказать.
\
З а д а ч а 3. П р о е к т и р о в а н и е с л у ч а й н о й т о ч к и на
п л о с к о с т и на п р о и з в о л ь н у ю п р я м у ю .
Дана случайная точка на плоскости с координатами (X , У)
(рис. 10.3.1). Спроектируем эту точку на ось Ог, проведенную через
начало координат под углом а к оси Ох. Проекция точки ( X , К)
на ось О г также есть случайная точка; ее расстояние X от начала
координат есть случайная величина. Требуется найти математическое
ожидание и дисперсию величины X.
232
ЧИ СЛО ВЫ Е ХАРАКТЕРИСТИКИ ФУН КЦ И И СЛУЧАЙНЫХ ВЕЛ И Ч И Н [ГЛ. 10
Решение.
Имеем:
Z = X cos a -f- К sin а.
Так как Z есть линейная функция аргументов ЛГ и К, то
т г = т х cos a -j- т у sin а;
D z = D x cos2а -(- D y sin2а -(- 2Kxy sin a cos a =
= D x cos2a -f- D y sin2a -f- K xy sin 2a,
где D x,*Dy, K xy— дисперсии и корреляционный момент величин (Х> Y).
Переходя к средним квадратическим отклонениям, получим:
о] — О2cos2a - f o 2sin2а -f- гхуох<
зу sin 2a.
( 10. 3.2)
В случае некоррелированных случайных величин (при гху = 0)
о2= о2 cos2a + о2sin2а.
( 10.3.3)
З а д а ч а 4. М а т е м а т и ч е с к о е о ж и д а н и е
чи с л а по­
я в л е н и й с о б ы т и я при н е с к о л ь к и х о п ы т а х ,
, Производится п опытов, в каждом из которых может появиться
или не появиться событие А. Вероятность появления события А
Э /-м опыте равна р (. Найти математическое ожидание числа появле­
ний события.
Р е ш е н и е . Рассмотрим прерывную случайную величину X —
число появлений события во всей серии опытов. Очевидно,
#
X = Xi + X 2+
...
+ х я, ■
где Л",— число появлений события в первом опыте,
Х 2— число появлений события во втором опыте,
Х „ — число появлений события в я-м опыте,
или, короче,
{=1
где Х 1— число появлений события в /-м опыте1).
Каждая из величин Х 1 есть прерывная случайная величина с двумя
возможными значениями: 0 и 1. Ряд
имеет вид:
0
1
(10.3.4)
9i
где
Pi
=» 1 — р 1— вероятность непоявления события А в 1-и опыте.
‘) Иначе — характеристическая случайная величина события А в /-и опыте.
П РИ М ЕН ЕН И Я
10.31
ТЕО РЕМ
О ЧИСЛО ВЫ Х
ХА РА КТЕРИ С Т И КА Х
По теореме сложения математических ожиданий
П
т г= М { Х } = 2 « ,
х
1=1 I
— математическое ожидание величины X
Х1
Вычислим математическое ожидание величины X
нию математического ожидания
233
(10.3.5)
где т
По определе­
+ 1 •Р1 = Р г
Подбавляя это выражение в формулу (10.3.5), имеем
П
т х — 2 Ре
<=1
(10.3.б)
т. е. м атематическое ожидание числа появлений события при
нескольких опытах равно сумме вероятностей события в о т ­
дельных опытах.
В частности, когда условия опытов одинаковы и
Р\ = Р 2 =
•••
= Р п = Р<
формула (10.3.5) принимает вид
т х — пр.
(10.3.7)
Так как теорема сложения математических ожиданий применима
к любым случайным величинам — как зависимым, так и независимым,
формулы (10.3.6) и (10.3.7) применимы к любым опытам— зависи­
мым и независимым.
Выведенная теорема часто применяется в теории стрельбы, когда
требуется найти среднее число попаданий при нескольких выстре­
лах— зависимых или независимых. М атем атическо е ожидание
числа попаданий при нескольких вы стрелах равно сумме ве­
р о ятно стей попадания при отдельных выстрелах.
З а д а ч а 5. Д и с п е р с и я ч и с л а п о я в л е н и й с о б ы т и я
п ри н е с к о л ь к и х н е з а в и с и м ы х о п ы т а х .
Производится п независимых опытов, в каждом из которых мо­
жет появиться событие А, причем вероятность появления события А
в I -м опыте равна /?,. Найти дисперсию и среднее квадратическое
отклонение числа появлений события А.
Р е ш е н и е . Рассмотрим случайную величину X — число появле­
ний события А. Так же как в предыдущей задаче, представим вели­
чину X в виде суммы:
X = 2 X ,.
1=1
где Х 1— число появлений события в *-м опыте.
$34
ЧИ СЛО ВЫ Е ХАРАКТЕРИСТИКИ ФУНКЦ И Й СЛУЧАЙНЫХ ВЕЛ И ЧИ Н [ГЛ. 10
В силу независимости опытов случайные величины X г Х 2........ Х я
независимы и к ним применима теорема сложения дисперсий:
о, = 2 о
ы 1 *1
Найдем дисперсию случайной величины Х г Из ряда распределе­
ния (10.3.4) имеем:
° Х{ = (0 — Р $ ч1Н- (1 — Р $ Р1 = Р1чг
откуда
п
(10.3.8)
1=1
т. е. дисперсия числа появлений события при нескольких независимых
опытах равна сумме вероятностей появления и непоявления события
в каждом опыте.
Из формулы (10.3.8) находим среднее квадратическое отклонение
числа появлений события А :
= ]/
У
(10.3.9)
'liP A r
1* 1
При неизменных условиях опытов, когда р 1= р 2= . . . = р я = р,
формулы (10.3.8) и (10.3.9) упрощаются и принимают вид:
D x = npq,
(10.3.10)
ax = V пр ч •
З а д а ч а 6. Д и с п е р с и я ч и с л а п о я в л е н и й с о б ы т и я
при з а в и с и м ы х о п ы т а х .
Производится л зависимых опытов, в каждом из которых может
появиться событие А, причем вероятность события А в l -м опыте
равна P i (t = 1, 2........ п). Определить дисперсию числа появлений
события.
Р е ш е н и е . Для того чтобы решить задачу, снова представим
число появлений события X в виде суммы:
П
Х = ^ х {.
(10.3.11)
1=1
где
если в /-м опыте событие А появилось,
Н о .
если в 1-м опыте событие А не появилось.
Так как опыты зависимы, то нам недостаточно задать вероятности
Р\, />2- •••• Рп
10.31
П РИ М ЕН ЕН И Я ТЕО РЕМ
235
О ЧИСЛОВЫ Х ХАРАКТЕРИСТИКАХ
того, что событие А произойдет в первом, втором, третьем и т. д.
опытах. Нужно еще задать характеристики зависимости опытов.
Оказывается, для решения нашей задачи достаточно задать вероят­
ности Р ц совместного появления события А как в I-м, так и в у-м
опыте: Р ( ( Х г = 1)(ЛГу = 1) = Рц- Предположим, что эти вероят­
ности заданы. Применим к выражению (10.3.11) теорему о дисперсии
суммы (формулу ( 10.2. 10)):
/=1
‘
+ 2
К )
(10.3.12)
где К ц — корреляционный момент величин Х 1г Ху.
К „ = М [ Х 1Х;\.
По формуле (10.2.19)
К и = М \ Х 1Х ] ] — т х т , } = М [ Х 1Х )] - р 1рг
(10.3.13)
Рассмотрим случайную величину
Очевидно она равна нулю,
если хотя бы одна из величин X Х } равна нулю, т. е. хотя бы
в одном из опытов (1-м или У-м) событие А не появилось. Для того
чтобы величина Х 1Х } была равна единице, требуется, чтобы в обоих
опытах (*-м и У-м) событие, А появилось. Вероятность этого равна Рц .
Следовательно,
Ж
=/><,.
и
1<1]— Р и — Р 1 Р )■
Подставляя это выражение в формулу (10.3.12), получим:
£>х= 2 Р 1Ч1 + 2 2 (Л / — /';/'/)■
1=1
К ]
(10.3.14)
Формула (10.3.14) и выражает дисперсию числа появлений собы­
тия при зависимых опытах* Проанализируем структуру этой формулы.
Первый член в правой части формулы представляет собой дисперсию
числа появлений события при независимых опытах, а второй дает
«поправку на зависимость». Если вероятность Р ц равна р {р), то эта
поправка равна нулю. Если вероятность Р ц больше, чем Р [Р ]. это
значит, что условная вероятность появления события А в у-м опыте
при условии, ч т о I -м опыте оно появилось, больше, чем простая
(безусловная) вероятность появления события в У-м опыте
(между
появлениями события в Лм и У-м опытах имеется положительная кор­
реляция). Если это так для любой пары опытов, то поправочный
член в формуле (10.3.14) положителен и дисперсия числа появлений
события при зависимых опытах больше, чем при независимых.
236
Ч И СЛО ВЫ Е ХАРАКТЕРИСТИКИ ФУНКЦИ И СЛУЧАЙНЫХ ВЕЛ И ЧИ Н [ГЛ. 10
Если вероятность Р и меньше, чем р 1р) (между появлениями
события в /-м и У-м опытах существует отрицательная корреляция),
то соответствующее слагаемое отрицательно. Если это так для любой
пары опытов, то дисперсия числа появлений события при зависимых
опытах меньше, чем при независимых.
Рассмотрим частный случай, когда р х= р2~ ••• = Р „ =*р,
Р п — Р 12= . . . — Р , т. е. условия всех опытов одинаковы. Фор­
мула (10.3.14) принимает вид:
Р>х = пР ЦИ- 2 2 (Р — Р 2) = прд + п(п — 1)(Я — р 2),
к ]
(10.3.15)
где Р — вероятность появления события А сразу в паре опытов (все
равно каких).
В этом частном случае особый интерес представляют два подслучая:
]. Появление события А в любом из опытов влечет за собой
с достоверностью его появление в каждом из остальных. Тогда Р = р,
и формула (10.3.15) принимает вид:
й х = прд -(- п (п — 1) (р — р2) — прд~\- п (п — \)рд = п2рд.
2.
Появление события А в любом из опытов исключает его
появление в каждом из остальных. Тогда Р = 0, и формула (10.3.15)
принимает вид:
В х = прд — л (п — 1)р2= пр [<?— (п — 1) р] = пр (1 — пр).
З а д а ч а 7. М а т е м а т и ч е с к о е о ж и д а н и е ч и с л а о б ъ е к ­
т ов , п р и в е д е н н ы х в з а д а н н о е с о с т о я н и е .
На практике часто встречается следующая задача. Имеется не­
которая группа, состоящая из п объектов, по которым осуществляется
какое-то воздействие. Каждый из объектов в результате воздействия
может быть приведен в определенное состояние 5 (например, поражен,
исправлен, обнаружен, обезврежен и т. п.). Вероятность того, что
/-й объект будет приведен в состояние 5, равна Р [ . Найти матема­
тическое ожидание числа объектов, которые в результате воздействия
по группе будут приведены в состояние 5.
Р е ш е н и е . Свяжем с каждым из объектов случайную величину К 1Ш
которая принимает значения 0 или 1:
•
1, если /-й объект приведен в состояние 5,
0, если /-й объект не приведен в состояние 5.
Случайная величина X — число объектов, приведенных в состоя­
ние 5, — может быть представлена в виде суммы:
10.3]
237
П РИМ ЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ
Отсюда, пользуясь теоремой сложения математических ожиданий,
получим:
П
(=1
1
Математическое ожидание каждой из случайных величин Х [ известно:
т*, = />,.
Следовательно,
тх = 2 Р 1>
/=1
(ю .3 .1 6 )
т. е. математическое ожидание числа объектов, приведенных в состоя­
ние 5, равно сумме вероятностей перехода в это состояние для
каждого из объектов.
Особо подчеркнем, что для справедливости доказанной формулы
вовсе не нужно, чтобы объекты переходили в состояние 5 независимо
друг от друга. Формула справедлива для любого вида воздействия.
З а д а ч а 8. Д и с п е р с и я ч и с л а о б ъ е к т о в , п р и в е д е н ­
ных в з а д а н я о е состояние.
Если в условиях предыдущей задачи переход каждого из объектов
в состояние 5 происходит независимо от всех других, то, применяя
теорему сложения дисперсий к величине
* = 2 * „
1=1
получим дисперсию числа объектов, приведенных в состояние 5:
1=1
1
= 2 м 1 '
1=1
<7( = 1 — Р е
(10.3.17)
Если же воздействие по объектам производится так, что переходы
в состояние 5 для отдельных объектов зависимы, то дисперсия числа
объектов, переведенных в состояние 5 , выразится формулой (см.
задачу 6)
Ох = |
р д 1 + 2 Ъ ( Р и ~ РгР,)>
(Ю .3.18)
где Р 1) — вероятность того, что в результате воздействия /- Я
и /-Й объекты вместе перейдут в состояние 5 .
З а - д а ч а 9. М а т е м а т и ч е с к о е о ж и д а н и е ч и с л а о п ы т о в
д о А-го п о я в л е н и я с о б ы т и я .
Производится ряд независимых опытов, в каждом из которых
может с вероятностью р появиться событие А. Опыты проводятся
до тех пор, пока событие А не появится к раз, после чего опыты
238
ЧИСЛО ВЫ Е ХАРАКТЕРИСТИКИ ФУ Н КЦ И Я СЛУЧАЙНЫХ ВЕЛ И Ч И Н [ГЛ. 10
прекращаются. Определить математическое ожидание, дисперсию
и с. к. о. числа опытов X , которое будет произведено.
Р е ш е н и е . В примере 3 п° 5.7 были определены математическое
ожидание и дисперсия числа опытов до первого появления события А:
/я= Д ,
о =
Р
Р1
где р — вероятность появления события в одном опыте,
<
7=1 — р — вероятность непоявления.
Рассмотрим случайную величину X — число опытов до А-го по­
явления события А. Ее можно представить в виде суммы:
X = Х 1-\- Х 2-}~ . . . -\-Хк,
где Х х — число опытов до первого появления события А,
Х 2— число опытов от первого до второго появления события А
(считая второе),'
Х к — число опытов от (й — 1)-го до А-го появления события А
(считая А-е).
Очевидно, величины Х х, Х 2, . . . . Х к независимы; каждая из них
распределена по тому же закону, что и первая из них (число опытов
до первого появления события) и имеет числовые характеристики
1
п
д
т х = —, О г. = - V .
Х1 р
I
р2
Применяя теоремы сложения математических ожиданий и дисперсий,
получим:
к
к
(10.3.19)
i =i
р2
V kq
х
P
З а д а ч а 10. С р е д н и й р а с х о д с р е д с т в до д о с т и ж е н и я
заданного результата.
В предыдущей задаче был рассмотрен случай, когда предпри­
нимается ряд опытов с целью получения вполне определенного ре­
зультата— k появлений события А, которое в каждом опыте имеет
одну и ту же вероятность. Эта задача является частным случаем
другой, когда производится ряд опытов с целью достижения любого
результата В , вероятность которого с увеличением числа опытов п
возрастает по любому закону Р (п ). Предположим, что на каждый
опыт расходуется определенное количество средств а. Требуется
10.31
П РИ М ЕН ЕН И Я ТЕОРЕМ
239
О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ
найти математическое ожидание количества средств, которое будет
израсходовано.
Р е ш е н и е . Для того чтобы решить задачу, сначала предположим,
что число производимых опытов ничем не ограничено, и что они
продолжаются и после достижения результата В . Тогда некоторые
из этих рпытов будут излишними. Условимся называть опыт «не­
обходимым», если он производится при еще не достигнутом резуль­
тате В , и «излишним», если он производится при уже достигнутом
результате В.
Свяжем с каждым (/-м) опытом случайную величину X г которая
равна нулю или единице в зависимости от того, «необходимым» или
«излишним» оказался этот опыт. Положим
X, =
1, если опыт оказался «необходимым»,
О, если он оказался «излишним».
Рассмотрим случайную величину X — число опытов, которое
придется произвести для получения результата В . Очевидно, ее можно
представить в виде суммы:
Л ’ = Л ’, + Л’2+ . . . + * , + . . .
(10.3.20)
Из величин в правой части (10.3.20) первая (.Л^) является неслу­
чайной и всегда равна единице (первый опыт всегда «необходим»).
Каждая из остальных — случайная величина с возможными значе­
ниями 0 и 1. Построим ряд распределения случайной величины Х 1
(/ > 1). Он имеет вид:
0
1
р а - 1)
i-p(/-i)
(10.3.21)
где Р ( 1 — 1) — вероятность достижения результата В после I — 1
опытов.
Действительно, если результат В уже был достигнут при пре­
дыдущих i — 1 опытах, то Х { = 0 (опыт излишен), если не достигнут,
то X t = 1 (опыт необходим).
Найдем математическое ожидание величины X t. Из ряда распре­
деления (10.3.21) имеем:
mXl = 0 - P ( t — l ) + l .[ ! - / > ( / _ 1)] = ! — /> (/_ 1).
Нетрудно убедиться, что та же формула будет справедлива и
при i — 1, так как Р (0 ) = 0.
Применим к выражению (10.3.20) теорему сложения математи­
ческих ожиданий. Получим:
тх = 2 тх1 = 2 ( 1 — P ( t — 1)1
1=1
1
ы\
240
ЧИСЛО ВЫ Е ХАРАКТЕРИСТИКИ ФУН КЦ И Й СЛУЧАЙНЫХ ВЕЛ И ЧИ Н [ГЛ. 10
или, обозначая I — 1 = А ,
со
2 I 1— Р Ш fc=0
(10.3.22)
Каждый опыт требует затраты средств а. Умножая полученную
величину т х на а, определим среднюю затрату средств на достиже­
ние результата В :
СО
S s — a 2 [1 — P(k)\.
(10.3.23)
h=0
•»
Данная формула выведена в предположении, что стоимость каждого
опыта одна и та же. Если это не так, то можно применить другой
прием — представить суммарную затрату средств S B как сумму затрат
на выполнение отдельных опытов, которая принимает два значения:
flj, если I -й опыт «необходим», и нуль, если он «излишен». Средний
расход средств S B представится в виде:
оо
5 Л = 2 а* [1 _ / > (* )].
А=0
(10.3.24)
З а д а ч а 11. М а т е м а т и ч е с к о е о ж и д а н и е с у м м ы с л у ­
чайного числа сл у ча й н ы х слагаемых.
В ряде практических приложений теории вероятностей приходится
встречаться с суммами случайных величин, в которых число слагаемых
заранее неизвестно, случайно.
Поставим следующую задачу. Случайная величина Z представляет
собой сумму У случайных величин:
Y
Z = ' 2 t X l,
(10.3.25)
i =l
причем К — также случайная величина. Допустим, что нам известны
математические ожидания т х. всех слагаемых:
mXi — M \Xi),
и что величина К не зависит ни от одной из величин X t.
Требуется найти математическое ожидание величины Z.
Р е ш е н и е . Число слагаемых в сумме есть дискретная случайная
величина. Предположим, что нам известен ее ряд распределения:
Уи
Ри
1
2
.
.
.
к
.
.
.
Pi
Рг
.
.
.
Рк
.
.
.
где р к — вероятность того, что величина У приняла значение А.
Зафиксируем значение У = к и найдем при этом условии магемати-
10 .3]
ПРИ М ЕН ЕН И Я ТЕО РЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ
241
ческое ожидание величины X (условное математическое ожидание):
к
М [2 |А ] = 2 ' » - (10.3.26)
«=1 1
Теперь применим формулу полного математического ожидания,
для чего умножим каждое условное математическое ожидание на
вероятность соответствующей гипотезы р к и сложим:
к
Ж [г1= 2р*2«*,(10.3.27)
а
/=1
1
Особый интерес представляет случай, когда все случайные вели­
чины Х х, Х 2, . . . имеют одно и то же математическое ожидание:
т х, ~ т Х1— . . . — т х.
Тогда формула (10.3.26) принимает вид:
к
М \ г |Л] =
2
т х— ктх
1=1
И
М [г \ = т х 2 Ь р к.
к
(10.3.28)
Сумма в выражении (10.3.28) представляет собой не что иное, как
математическое ожидание величины У:­
'
° ТСЮДа
'я3, = 2 йр*т г = М [ г \ * = т х - т у,
(10.3.29)
т. е. математическое ожидание суммы случайного числа случайных
слагаемых с одинаковыми средними значениями (если только число
слагаемых не зависит от их значений) равно произведению среднего
значения каждого из слагаемых на среднее число слагаемых.
Снова отметим, что полученный результат справедлив как для
независимых, так и для зависимых слагаемых Х г, Х 2........ лишь бы
число слагаемых У не зависело от самих слагаемых.
Ниже мы решим ряд конкретных примеров из разных областей
практики, на которых продемонстрируем конкретное применение
общих методов оперирования с числовыми характеристиками, выте­
кающих из доказанных теорем, и специфических приемов, связанных
с решенными выше общими задачами.
Прим.ер 1. Монета бросается 10 раз. Определить математическое ожи­
дание и среднее квадратическое отклонение числа X выпавших гербов.
Р е ше ние . По формулам (10.3.7) и (10.3.10) найдем:
т х — 10-0,5 = 5;
= 10 •0,5 •0,5 = 2,5; о^=1,58.
П р и м е р 2. Производится 5 независимых выстрелов по круглой мишени
диаметром 20 см. Прицеливание — по центру мишени, систематическая
242
Ч И С Л О В Ы Е Х А РА К Т Е РИ С Т И К И
Ф У Н К Ц И Й С Л У Ч А Й Н Ы Х В Е Л И Ч И Н (Г Л .
10
ошибка отсутствует, рассеивание — круговое, среднее квадратическое откло­
нение з = 16 см. Найти математическое ожидание и с. к. о. числа попаданий.
Р е ш е н и е . Вероятность попадания в мишень при одном выстреле
вычислим по формуле (9.4.5):
.*1
р = 1 — е~ 2 = 1 — <Г0-625 « 0,465.
Пользуясь формулами (10.3.7) и (10.3.10), получим:
т , = 5 р « 2 ,3 2 ;
= 5/>(1 — р) и 1,25; а , « 1,12.
П р и м е р 3. Производится отражение воздушного налета, в котором
участвует 20 летательных аппаратов типа 1 и 30 летательных аппаратов
типа 2. Летательные аппараты типа. 1 атакуются истребительной авиацией.
Число атак, приходящееся на каждый аппарат, подчинено закону Пуассона
с параметром а , = 2,5. Каждой атакой истребителя летательный аппарат
типа1 поражается с вероятностью р1 = 0 ,6 . Летательные аппараты тшТа 2 ата­
куются зенитными управляемыми ракетами. Число ракет, направляемых на каж­
дый аппарат, подчинено закону Пуассона с параметром а2 — 1,8, каждая ракета
поражает летательный аппарат типа 2 с вероятностью р2 — 0,8. Все аппараты,
входящие в состав налета, атакуются и поражаются независимо друг от друга.
Найти:
1 ) математическое ожидание, дисперсию и с. к. о. числа пораженных
летательных аппаратов типа 1;
2 ) математическое ожидание, дисперсию и с. к. о. числа пораженных
летательных аппаратов типа 2 ;
3) математическое ожидание, дисперсию и с. к. о. числа пораженных
летательных аппаратов обоих типов.
Р е ш е н и е . Рассмотрим вместо «числа атак» на каждый аппарат типа 1
«число поражающих атак», тоже распределенное по закону Пуассона, но
с другим параметром:
о* = р 1а 1 = 0,6 • 2,5 = 1,5.
Вероятность поражения каждого из летательных аппаратов типа 1 будет
равна вероятности того, что на него придется хотя бы одна поражаю­
щая атака:
.
^ 11) = 1 _ е ' 1-5 « 0,777.
Вероятность поражения каждого из летательных аппаратов типа 2 найдем
аналогично:
/?(2>= 1 — <?- 081.8 == 1 — е “ 1-44 и 0,763.
Математическое ожидание числа пораженных аппаратов типа 1 будет:
т , = 20 • 0,777 = 15,5.
Дисперсия и с. к. о. этого числа:
А = 20 • 0,777 • 0,223 = 3,46, а, и 1,86.
Математическое ожидание, дисперсия числа и с. к. о. пораженных аппа­
ратов типа 2 :
<
т 3 = 30 . 0,763 = 22,8, 0 2 = 5,41, « , « 2,33.
Математическое ожидание, дисперсия и с. к. о. общего числа поражен­
ных аппаратов обоих типов:
/и =
= 38,3, 0 * 0 )
О2 = в,87, ^ к 2,97.
ПРИ М ЕН ЕН И Я
10.3]
ТЕ О РЕ М
О ЧИСЛО ВЫ Х
Х А РА К Т Е РИ С Т И К А Х
243
П р и м е р 4. Случайные величины X и У представляют собой элемен­
тарные ошибки, возникающие на входе прибора. Они имеют математические
ожидания т х = — 2 и
= 4, дисперсии £>* = 4 и
= 9; коэффициент
корреляции этих ошибок равен г ху = — 0,5. Ошибка на выходе прибора
связана с ошибками на входе функциональной зависимостью:
2 = . З Х 2 — 2 Х У + У 2 — 3.
Найти математическое ожидание ошибки на выходе прибора.
Решение.
тг= М
= ЗМ [*¥а] — 2М \ ХУ]-\-М [У 2] — 3.
Пользуясь связью между начальными и центральными моментами и
формулой (10.2.17), имеем:
М
[Х 2 ] =
<х2 [ * ]
=
£ > ,4 - ™ 2 =
8 ;
Л* [ К2] = <*2 [ П = 0 у + гау = 2 5 ;
М IXY] = т хт у + Кху «=
=
+ Гдгув*°У = — 11 ,
откуда
, = 3 • 8 — 2 • (—11) -)- 25 — 3 = 68 .
П р и м е р 5. Самолет производит бом­
бометание по автостраде, ширина которой
30 м (рис. 10.3.2). Направление полета со­
ставляет угол 30° с направлением авто­
страды. Прицеливание — по средней линии
автострады, систематические ошибки отсут­
ствуют. Рассеивание задано главными ве­
роятными отклонениями: по направлению
полета Вя = 50 м и в боковом направлений
В(, = 25 м. Найти вероятность попадания
в автостраду при сбрасывании одной бомбы.
Р е ш е н и е . Спроектируем случайную точку попадания на ось Ох, пер*
пендикулярную к автостраде и применим формулу (10.3.3). Она, очевидно,
остается справедливой, если в нее вместо средних квадратических подста­
вить вероятные отклонения:
Е\ = Е\ cos 60° + 4 sin 60° = 50М ),25 + 252 • 0,75 я 1093.
Отсюда
Ег я 33, аг
0,674
я 48,9.
Вероятность попадания в автостраду найдем по формуле (6.3.10):
* - » • ( :&
) - 1» «м .
П р и м е ч а н и е . Примененный здесь прием пересчета рассеивания
к другим осям пригоден только для вычисления вероятности попадания
в область, имеющую вид полосы; для прямоугольника, стороны которого
повернуты под углом к осям рассеивания, он уж е не годится. Вероятность
попадания в каждую из полос, пересечением которых образован прямоуголь­
ник, может быть вычислена с помощью этого приема, однако вероятность
244
Ч И С Л О В Ы Е Х А РА К Т Е РИ С Т И К И Ф У Н К Ц И Й С Л У Ч А Й Н Ы Х В Е Л И Ч И Н [Г Л .. 10
попадания в прямоугольник уж е не равна произведению вероятностей по­
падания в полосы, так как эти события зависимы.
П р и м е р 6 . Производится наблюдение с помощью системы радиоло­
кационных станций за группой объектов в течение некоторого времени;
группа состоит из четырех объектов; каждый из них за время * обнаружи­
вается с вероятностью, равной соответственно:
/>,=0,2, />з=0,25, />3 = 0,35( р, = 0,42.
Найти математическое ожидание числа объектов, которые будут обна­
ружены через время <.
Р е ш е н и е . По формуле (10.3.16) имеем;
4
т х = 2 ?! = 0,2 + 0,25 + °-35 + °-42 = 1 ,22 .
1= 1
П р и м е р 7. Предпринимается ряд мероприятий, каждое из которых,
если оно состоится, приносит случайный чистый доход X, распределенный
по нормальному закону со средним значением т — 2 (условных единиц).
Число мероприятий за данный период времени случайно и распределен»
по закону
У1
1
2
3
4
Pi
0,2
0,3
0,4
0,1
причем не зависит от доходов, приносимых мероприятиями. Определить
средний ожидаемый доход за весь период.
Р е ш е н и е . На основе задачи 11 данного п° находим математическое
ожидание полного дохода Z:
т 2 = т х ■т у,
где т х — средний доход от одного мероприятия, т у — среднее ожидаемое
число мероприятий.
Имеем:
т , = 1-0,2 + 2 -0 ,3 + 3 -0 ,4 + 4-0,1 = 2 ,4 ,
т х — 2,
т г = 2 ■2,4 = 4,8.
П р и м е р 8 . Ошибка прибора выражается функцией
U = 3Z + 2Х — Y — 4,
(10.3.30)
где X, Y, Z — так называемые «первичные ошибки», представляющие собой
систему случайных величин (случайный вектор).
Случайный вектор ( X , г , Z) характеризуется математическими ожида­
ниями
m r *=— 4; « у = 1; т г «= 1
и корреляционной матрицей:
Dx Кху Kxz
Dy К у г =
ог
2
1
3
—1
1
4
10.3]
ПРИМ ЕНЕНИЯ ТЕОРЕМ О ЧИСЛОВЫХ ХАРАКТЕРИСТИКАХ
245
Определить математическое ожидание, дисперсию и среднее квадратиче­
ское отклонение ошибки прибора.
Р е ш е н и е . Так как функция (10.3.30) линейна, применяя формулы (10.2.6)
и (10.2.13), находим:
та = Зт2 -)-* 2тх — ту — 4 = — 10,
в а = 3* • й г + 2 2 ■й , + I 2 ■0 , + 2 [3 • 2-Кхг + 3 ( - 1 ) к уг + 2 ( - 1 ) Кху) = 25,
оц = 5 .
П р и м е р 9. Для обнаружения источника неисправности в вычислитель­
ной машине проводятся пробы (тесты). В каждой пробе неисправность неза­
висимо от других проб локализуется с вероятностью р = 0,2. На каждую
пробу в среднем уходит 3 минуты. Найти математическое ожидание времени,
которое потребуется для локализации неисправности.
Р е ш е н и е . Пользуясь результатом задачи 9 данного п° (математическое
ожидание числа опытов до к -го появления события Л), полагая к = 1, най­
дем среднее число проб
тх==^ = Щ = 5'
На эти пять проб потребуется в среднем
5 • 3 = 15 (мннут).
П р и м е р 10. Производится стрельба по резервуару с горючим. Вероят­
ность попадания при каждом выстреле равна 0,3. Выстрелы независимы.
При первом попадании в резервуар появляется только течь горючего, при
втором попадании горючее воспламеняется. После воспламенения горючего
стрельба прекращается. Найти математическое ожидание числа произведен­
ных выстрелов.
Р е ш е н и,е. Пользуясь той ж е формулой, что и в предыдущем примере,
найдем математическое ожидание числа выстрелов до 2 -го попадания:
П р и м е р 11. Вероятность обнаружения объекта радиолокатором с ро­
стом числа циклов обзора растет по закону:
/» (я ) = 1 - 0 ,8»,
где п — число циклов, начиная с начала наблюдения.
Найти математическое ожидание числа циклов, после которого объект
будет обнаружен.
Р е ш е н и е . Пользуясь результатами задачи 10 данного параграфа
получим:
СО
СО
^ = 2 11_Я(А)1 = Е 0’8" = П Г а д = 5 к=0
й=0
П р и м е р 12. Для того чтобы выполнить определенную задачу по сбору
информации, в заданный район высылается несколько разведчиков. Каждый
посланный разведчик достигает райрна назначения с вероятностью 0,7. Для
выполнения задачи достаточно наличия в районе трех разведчиков. Один
разведчик с задачей вообще справиться не может, а два разведчика выпол­
няют ее с вероятностью 0,4. Обеспечена непрерывная связь с районом, ц до­
полнительные разведчики посылаются, только если задача еще не выполнена.
246
ЧИ С Л О В Ы Е Х А РА К Т Е РИ С Т И К И Ф У Н К Ц И Я СЛ У Ч А Й Н Ы Х В Е Л И Ч И Н [Г Л . 10
Т ребуется найти математическое ожидание числа разведчиков, которые будут
посланы.
Р е ш е н и е . Обозначим X — число прибывших в район разведчиков,
которое оказалось достаточным для выполнения задачи. В задаче 10 дан­
ного п° было найдено математическое ожидание числа опытов, которое нужно
для того, чтобы достигнуть определенного результата, вероятность которого
с увеличением числа опытов возрастает по закону Я ( п). Это математическое
ожидание равно:
ОО
% = 2
6=0
п-р(*)].
В нашем случае:
Я (0) = 0; Я (1) = 0; Р (2) = 0,4;
Я (4) = Я (5) = . . . = 1 .
Я (3 ) = 1;
М атематическое ожидание величины X равно:
ОО
т х = М [X ] = 2
I 1 ~ р ( * ) ! = 1 + 1 + 0,6 = 2,6.
к =О
Итак, для того чтобы задача была выполнена, необходимо, чтобы
в район прибыло в среднем 2 ,6 разведчика.
Теперь решим следующую задачу. Сколько разведчиков придется в сред­
нем в ы с л а т ь в район для того, чтобы их в среднем прибыло т х7
Пусть послано У разведчиков. Число прибывших разведчиков можно
представить в виде
х = г 1 + г 2+ . . . + г у,
где случайная величина 2> принимает значение 1 , если /-й разведчик при­
был, и 0, если не прибыл. Величина X есть не что иное, как сумма случай­
ного числа случайных слагаемы х (см. задачу 11 данного п°). С учетом этого
имеем:
М [X] = М [ 2 {] М [К],
откуда
М [АТ]
2,6
М[У)М [г,]
М £^(1 ’
но М [2{\ = р, где р — вероятность прибытия отправленного разведчика
(в нашем случае р — 0,7). Величина т х нами только что найдена и равна 2,6.
Имеем:
т у = М [У] =
я; 3,71.
П р и м е р 13. Радиолокационная станция просматривает область про­
странства, в которой находится N объектов. За один цикл обзора она обна­
руживает каж дый из объектов (независимо от других циклов) с вероят­
ностью р. На один цикл требуется время т. Сколько времени потребуется
на то, чтобы из N объектов обнаружить в среднем к?
Р е ш е н и е . Найдем прежде всего математическое ожидание числа
обнаруженных объектов после п циклов обзора. За я циклов один (любой)
из объектов обнаруж ивается с вероятностью
Я л = 1 — (1 — р)п,
10.31
П РИ М Е Н Е Н И Я
ТЕО РЕМ
О ЧИ СЛО ВЫ Х
247
Х А РА К Т Е РИ СТ И К А Х
а среднее число объектов, обнаруженных за а циклов, по теореме сложения
математических ожиданий (см. задачу 5 данного п°) равно:
М [X] = N [1 — (1 — р)п\.
Полагая
^ [ 1 — ( 1 _ р)п) =
к,
получим необходимое число циклов п из уравнения
реш ая которое, найдем:
|
„
"
1е ( 1 — Р)
*
откуда врем я, необходимое для обнаружения в среднем к объектов, будет
равно:
;
'г
М)
П р и м е р 14. Изменим условия примера 13. П усть радиолокационная
станция ведет наблюдение за областью только до тех пор, пока не будет
обнаружено к объектов, после чего наблюдение прекрящ автся или продол*
, ж ается в новом режиме. Найти математическое ожидание времени, которое
4 для этого понадобится.
Для того чтобы решить эту задачу, недостаточно задаться вероятностью
обнаружения одного объекта в* одном цикле, а надо еиге указать, как растет
1 с увеличением числа циклов вероятность того, что из N объектов будет
■ обнаружено не менее к. Проще всего вычислить эту вероятность, если пред­
положить, что объекты обнаруживаю тся независимо друг от друга. Сделаем
; такое допущение и решим задачу.
Р е ш е н и е . При независимых обнаружениях можно наблюдение за А'
объектами представить как N независимых опытов. После п циклов каж дый
из объектов обнаруживается с вероятностью
'
Л , = 1 - ( 1 -/>)"•
Вероятность того, что после п циклов будет обнаружено не менее к объек­
тов из N. найдем по теореме о повторении опытов:
Л ?* -
2
т *=• к
С* р п (1 - РУ ' т -
Среднее число циклов, после которых будет обнаружено не менее к
объектов, определится по формуле (10.3.22):
со
п% ]
N
Г
Лг
= 2 11- *!? *] = 2 Ь - 2
л =0
/*=0 Ь
*»•
с ” р п
т —к
(1 -
р п )"-т
“
„
•
П р и м е р 15. На плоскости хОу случайная точка М с координа­
тами (X, У) отклоняется от требуемого положения (начало координат) под
->■ ->■ ->■
влиянием трех независимых векторных ошибок
У2 и У 3. Каждый из в е к ­
торов характеризуется двум я составляющими:
У2 {Х2, >2),
У 3(Хь Уг)
248
Ч И С Л О В Ы Е Х А РА К Т Е РИ С Т И К И Ф У Н К Ц И Й С Л У Ч А Й Н Ы Х В Е Л И Ч И Н [Г Л .
10
(рис. 10.3.3). Числовые характеристики этих трех векторов равны:
тл
2
т у, = - 3. а = 2, °у. “ 3> гх1у1 — ° ’3 '
= 4, "у»“ 1’ » ■ а д -О А
■— 1 . т У2 ' - 2 ,
=,
.3 ,
т уз= ! ,
°г-Г* = 2 *, ■ у , - 2- Г^Уз = °'2'
Найти характеристики суммарной ошибки (вектора, отклоняющего
точку М от начала координат).
Р е ш е н и е . Применяя теоремы сложения математических ожиданий,
дисперсий и корреляционных моментов, получим:
т х = т г, + т х ! + т х .
: 4,
т У = т у, + т у, + ,ПУа = — 44-
= 24' «Ж=: К 24 « 4,9Э,
== 0^ .,4 -''у, + ау, = 14, оу = К 1 4 « 3,75,
Кх у
^ . у , + Кх^
*;У2 + К
где
к,
^ ,У ,^ .аУ, = - 0 , 3 - 2 - 3 = — 1,8,
0,5 • 4 • 1 == 2,0,
а:
<-1У» : г * 2у 2а-ЛГ2оУ! =
/с.-г:Уз =: г -Г3У, а-«■«аУз =
0,2 ■2 ■2 = 0 ,8 ,.
откуда
и
Кху
■1,8 + 2,0 + 0 ,8 = 1,0
1,0
су
г я 0,054.
4,90 • 3,75
П р и м е р 16. Тело, которое имеет форму прямоугольного параллелепи­
педа с размерами а, Ь, с, летит в пространстве, беспорядочно вращ аясь
вокруг центра массы так, что все его ориентации одинаково вероятны. Тело
находится в потоке частиц, и среднее число часгиц, встречающихся с телом,
пропорционально средней площади, которую тело подставляет потоку.
Найти математическое ожидание площади проекции тела на плоскость, пер­
пендикулярную направлению его движения.
Р е ш е н и е . Так как все ориентации тела в пространстве одинаково
вероятны, то направление плоскости проекций безразлично. Очевидно, пло­
щадь проекции тела равна половине суммы проекций всех граней паралле­
лепипеда (так как каж дая точка проекции представляет собой проекцию
д вух точек на поверхности тела). Применяя теорему сложения математи­
ческих ожиданий и формулу для средней площади проекции плоской фигуры
(см. пример 3 п° 1 0 . 1 ), получим:
аЬ
ас . Ьс
5П
т я ” ~2 ' 2
2. ~ 4 ’
где 5 П— полная площадь поверхности параллелепипеда.
Заметим, что выведенная формула справедлива не только для паралле­
лепипеда, но и для любого выпуклого тела: средняя площадь проекции та­
кого тела при беспорядочном вращении равна одной четверти полной его
поверхности. Рекомендуем читателю в качестве упражнения доказать это
положение.
'
■
;
^
!;
к.
I'
[
I,
|
10.31
ПРИМЕНЕНИЯ
ТЕ О РЕ М
Х А РАК Т ЕРИ СТ И К АХ
249
П р и м е р 17. На оси абсцисс Ох движ ется случайным образом точка х
по следующему закону. В начальный момент она находится в начале координат и начинает дви гаться с вероятностью
1
1
вправо и с вероятностью —
6
плево. Пройдя' единичное расстояние, точка с вероятностью р продолжает
двигаться в том ж е направлении, а с вероятностью я = 1 — р меняет его
на противоположное. Пройдя единичное расстояние, точка снова с вероягностью р продолжает движение в том направлении, в котором двигалась,
,а с вероятностью 1 — р меняет его на противоположное и т. д.
В результате такого случайного блуждания по оси абсцисс точка х
после п ш агов займет случайное положение, которое мы обозначим Х п.
Требуется найти характеристики случайной величины Хп\ математическое
ожидание и дисперсию.
Р е ш е н и е . Прежде всего, из соображений симметрии задачи ясно, что
М [Аг„] = 0. Чтобы найти £> [Х „], представим Хп в виде суммы п слагаем ы х;
I
-
* « = £Л +
I где
,
|
О ЧИСЛОВЫХ
^2
*
+ . . . + и п = ' £ и 1.
(10.3.31)
.
£//— расстояние, пройденное точкой на г’-м шаге, т. е. -(- 1 , если точка
двигалась на этом шаге вправо, и — 1 , если она двигалась влево.
По теореме о дисперсии суммы (см. формулу (10.2.10)) имеем:
Г
?
£ > [ * .,]= ;£ д [£ / л + 2 2
1=1
■
1< ]
Ким,1>
I
I;
|
Ясно, что О [£/,] = 1, так как величина 171 принимает значения + ?
и — 1 с одинаковой вероятностью (из тех ж е соображений симметрии). Найдем корреляционные моменты
’<
Начнем со случая _/= / + !> когда величины 17{ и II] стоят рядом
в сумме (10.3.31). Ясно, что £/;(/; + 1 принимает значение Ц-1 с вероятностью р
и значение —1 с вероятностью я. Имеем:
*«л + 1 =
м [и 1и1+\\ =
1 • Р+ ( - 1 )
д = р —д.
;
:
I
Рассмотрим, далее, случай ) = г + 2. В этом случае произведение [/,•£/]
равно -(- 1 , если оба перемещения — на /-м н / + 2 -м ш аге — происходят
в одном и том же направлении. Это может произойти двум я способами.
Или точка х все три ш ага — /-й, (/-■(- 1)-й и (/ + 2)-й — двигалась в одном
и том ж е направлении, или ж е она дваж ды изменила за эти три ш ага свое
направление. Найдем вероятность того, что 6 ^ £ / / +2 = 1:
!
Р (£/, и 1+2 = \) = Р ( ((/,(/,+1 = 1) {1Г1+1и 1+ж = 1 )) +
|
+
/, ( ( В Д + 1 = -
1) ( ^ + 1 ^ + 2 = - 1 ) ) =
Рг + Я'.
\
Найдем теперь вероятность того, что £ / ^ +2 = — 1. Это тоже может
; произойти двум я способами: или точка изменила свое направление при переII ходе от г'-го ш ага к (г
1 )-му, а при переходе от (< -(- 1 )-го ш ага к (/ -}- 2 )-м у
(■ сохранила его, или наоборот. Имеем:
| / > (О Д + г= 1 ) |
= ~ 1) ( ^ + , ^ +1= 1 ) ) +
+ Р ((*/,</,+, = 1) (С/|+1С/,+ !------ 1 )) - 2 р Ч.
250
Ч И С Л О В Ы Е Х А РА К Т Е РИ С Т И К И Ф У Н К Ц И Й С Л У Ч А Й Н Ы Х В Е Л И Ч И Н [Г Л . 10
Таким образом, величина
имеет два возможных значения -(-1
и —1 , которые она принимает с вероятностями соответственно р*-{-дг я 2рд.
Ее математическое ожидание равно:
* “Л +2 “ М
= Р 2 + ? 2 — 2рд = (/>— д)2.
Легко доказать по индукции, что для любого расстояния к между ша­
гами в ряду 1/х, (1 г, . . . . и п справедливы формулы:
Р < Р Р м = !) = / + с у - у + С < / - У + . .
^ №
и, следовательно.
+* = - 1) = с Х ' 1« + ^ - у +
....
Таким образом, корреляционная матрица системы случайных величин
будет иметь вид:
и 1г и г, и „
1
Р— Ч
1
( Р — Я)2 ••• ( Р
Р— Ч
(Р
я ) п~ 1
—
~ Я ) а~ 2
...(я -?)" -3
1
1
Дисперсия случайной величины Хп будет равна:
= 2
2
^,==«+2
2 о »-* )'-1.
4=1
К)
Г>
«</
или же, производя суммирование элементов, стоящих на одном расстоянии
от главной диагонали,
П- 1
0 { Х п] ~ п + 2 2 (п — к) ( р — д)к.
А=1
П р и м е р 18. Найти асимметрию биномиального распределения
Р (Х = т ) ~ С™рт дп~т
( ? = 1 — р).
(10.3.32)
Р е ш е н и е . Известно, что биномиальное распределение (10.3.32) пред­
ставляет собой распределение числа появлений в п независимых опытах не­
которого события, которое в одном опыте имеет вероятность р. Представим
случайную величину X — число появлений события в п опытах — как сумму п
случайных величин:
*= 3 *1 ,
/=1
где
( 1 , если в 1-и опыте событие появилось,
I 0 , если в |-м опыте событие не появилось.
Л1 = л
По теореме сложения третьих центральных моментов
п
14 [ * ] = 2
*=1
^ з № ].
(10.3.33)
10-31
ПРИМЕНЕНИЯ
ТЕО РЕ М
О ЧИСЛОВЫХ
Х А РА К Т Е РИ СТ И К А Х
251
Найдем третий центральный момент случайной величины X /. Она имеет
ряд распоеделения
‘
ОI 1
ЯIР
Третий центральный момент величины Х 1 равен:
(0
—
ру
ч
4 (1
.
ру р
—
=
р
—
4
-
я *р
=
р ч (д
_
р).
П одставляя в (10.3.33), получим:
П
ы х ] = 2
ря
(я — р ) = пря (я — р )-
1=1
Чтобы получить асимметрию, нужно разделить третий центральный, мо­
мент величины X на куб среднего квадратического отклонения:
сь = прд ~ р) = Ч~р
(пРЯ)
4
V прд '
П р и м е р 19. Имеется п положительных, одинаково распределенных
независимых случайных величин:
X » Х2......... х п.
Найти математическое ожидание случайной величины
7
..
*■
1
х , 4 - х 2 4 - • • • -\-хп
Р е ш е н и е . Ясно, что математическое ожидание величины
сущ е­
ствует, так как она заключена меж ду нулем и единицей. Кроме того, легко
видеть, что закон распределения системы величин (Х Р Хг, . . . , Х„), каков бы
он ни был, симметричен относительно своих переменных, т. е. не меняется
при любой их перестановке. Рассмотрим случайные величины:
2Г,
*1
+ *» + ... +Хп ’
7
• • • >- «
2
Х , + Х 2+
. . . + х„ ••••
Ха
х , + х 2+ . . . + Х п -
Очевидно, их закон распределения тоже должен обладать свойством сим­
метрии, т. е. не меняться при замене одного аргумента любым другим и
наоборот. Отсюда, в частности, вы текает, что
м ^ 1] = м 1 г 2] = . . . ^ м [ г п].
Вместе с тем нам известно, что в сумме случайные величины 2^, Х2, . . . , 2Г„
■образуют единицу, следовательно, по теореме сложения математических
ожиданий,
М [ г 1] + м [ г , ] + . . . + л ц г я] = М [ 1 ] = 1 .
откуда
м [£ ,] = м [ г 2] = . . . = м [ г „ ] = ~ .
ГЛАВА
11
ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ
11.1. М етод линеаризации функций случайных аргументов
В предыдущ ей главе мы познакомились с весьма удобным м ате­
матическим аппаратом теории вероятностей — с аппаратом числовых
хар актери сти к. Этот аппарат во многих случаях позволяет находить
числовые характеристики функций случайных величин (в первую оче­
редь — математическое ожидание и дисперсию) по числовым х а р а к ­
теристикам аргум ентов, оставляя совершенно в стороне законы р ас­
пределения. Такие методы непосредственного определения числовых
характери сти к применимы главным образом к л и н е й н ы м функциям.
На практике очень часто встречаются случаи, ко гд а исследуем ая
функция случайных величин хотя и не является строго линейной, но
практически мало отличается от линейной и при решении задачи
мож ет быть приближенно заменена линейной. Это связано с тем , что
во многих практических задачах случайные изменения фигурирующих
в них величин выступаю т к ак незначительные «погреш ности», н акл а­
дывающиеся на основную закономерность. Вследствие сравнительной
малости этих погрешностей обычно фигурирующие в задаче функции,
не будучи линейными во всем диапазоне изменения своих аргум ен тов,
оказы ваю тся п о ч т и л и н е й н ы м и в узком диапазоне их случайных
изменений.
Д ействительно, из математики известно, что любая непрерывная
дифференцируемая функция в достаточно узки х пределах изменения
аргум ентов может быть приближенно заменена линейной (линеаризо­
вана). О ш ибка, возникающая при этом, тем меньше, чем у ж е границы
изменения аргум ентов и чем ближе функция к линейной. Если область
практически возможных значений случайных аргументов настолько
мала, что в этой области функция может быть с достаточной для
практики точностью линеаризована, то, заменив нелинейную функцию
линейной, можно применить к последней тот аппарат числовых х а р а к ­
теристик, который разработан для линейных функций. Зная числовые
характеристики аргум ентов, можно будет найти числовые х ар акте­
ристики функции. Конечно, при этом мы получим лишь приближен-
11.2]
ЛИНЕАРИЗАЦИЯ
ФУНКЦИИ
О Д НО ГО
СЛУЧАЙНОГО
АРГУМЕНТА
253
ное решение задачи, но в больш инстве случаев точного реш ения и
не тр еб уется.
При решении практических задач , в ко то р ы х случайные факторы
сказы ваю тся в виде незначительных возмущ ений, налагающ ихся на
основные закономерности, линеаризация почти всегда о казы вается
возможной именно в силу малости случайных возмущ ений.
Рассмотрим, например, задач у внешней баллистики о движении
центра массы снаряда. Д альность полета снаряда X определяется к ак
некоторая функция условий стрельбы — угл а бросания 0О, начальной
скорости г»,, и баллистического коэффициента с:
А' = ср(0 0, у 0. с).
( 1 1 . 1 . 1)
Ф ункция (1 1 .1 .1 ) нелинейна, если рассм атривать ее на всем д и а­
пазоне изменения аргум ен тов. П оэтому, ко гд а речь идет о решении
основной задачи внешней баллистики, функция ( 1 1 . 1 . 1 ) вы ступ ает
к а к нелинейная и никакой линеаризации не подлежит. О днако есть
задачи, в которы х таки е функции линеаризую тся; э т о — задачи, с в я ­
занные с исследованием о ш и б о к или п о г р е ш н о с т е й . П усть
нас интересует случайная ошибка в дальности полета снаряда X ,
связанная с наличием ряда случайных ф акторов; неточностью у с т а ­
новки у гл а 0 о, колебаниями ствола при вы стреле, баллистической
неоднородностью снарядов, различными весами зарядов и т . д. Т огда
мы заф иксируем определенные номинальные условия стрельбы и будем
рассм атривать случайные отклонения от этих условий. Диапазон таки х
случайных изменений, к а к правило, невелик, и функция ср, не будучи
линейной во всей области изменения своих аргум ен тов, может быть
линеаризована в малой области их случайных изменений.
М етод линеаризации функций, зависящ их от случайных аргум ентов,
находит самое широкое применение в различных областях техники.
Очень часто, получив решение задачи обычными методами «точных
н а у к » , ж елательно оценить возможные погрешности в этом решении,
связанные с влиянием не учтенных при решении задачи случайных
ф акторов. В этом случае, к ак правило, задача оценки погрешности
успешно реш ается методом линеаризации, т ак к а к случайные изме­
нения фигурирующих в задаче величин обычно невелики. Если бы
это было не т ак, и случайные изменения аргументов выходили за
пределы области примерной линейности функций, следовало бы счи­
тать техническое решение неудовлетворительны м, та к к а к оно со дер ­
ж ало бы слишком большой элемент неопределенности.
1 1 .2 . Л и н еар и зац и я ф ун кц и и одного сл у ч а й н о го а р г у м е н т а
Н а п р акти ке необходимость в линеаризации функции одного с л у ­
чайного аргум ен та встречается сравнительно р едко ; обычно прихо­
дится учиты вать совокупное влияние нескольких случайных ф акторов.
О днако из методических соображений удобно начать с этого наиболее
254
Л И Н ЕАРИ ЗАЦ И Я ФУН КЦИЙ
[Г Л .
1Г
простого случая. П усть имеется случайная величина X и известны
ее числовые характери сти ки : математическое ожидание т х и диспер­
сия О ,.
Д опустим , что практически возможные значения случайной вели­
чины X ограничены пределами а, [3, т. е.
Р (а
X < Р) « 1.
И м еется д р у гая случайная величина У, связанная с X функцио­
нальной зависимостью:
К = с р ( ^ ) 1),
( И .2 . 1)
причем функция ср хотя не является линейной, но мало отличается
от линейной на уч астке (а , (3). Т р еб уется найти числовые характеристики величины У — м атем а­
ти ческое ожидание т у и дисперсию Ог
Рассмотрим кривую у = <р(х) на уч астке (а , Р) (рис. 1 1 .2 .1 ) и з а ­
меним ее приближенно касательной, проведенной в точке М с аб с­
циссой т х. Уравнение касательной имеет вид:
. у = ? ( « , ) 4 - т ' ( « , ) ( * — т х).
( 1 1 . 2 .2)
П редположим, что интервал практически возможных значений
ар гум ен та (а , (3) настолько у з о к , что в пределах этого интервала
кри вая и касательн ая различаются м ало,
т а к что уч асто к кривой практически
у=р(х) можно заменить участком касательн ой ;
короче, на уч астке (а, Р) функция
у = у (х ) п о ч т и л и н е й н а . Т огда
случайные величины Х а У прибли­
женно связаны линейной,зависимостью :
у = <Р(Мх) + <р' (т х) ( X — т х),
о
или, обозначая X — т х = X ,
У = Ч {тх) + <?'{тх) Х .
■
( И .2 .3 )
К линейной функции (1 1 .2 .3 ) можно
применить известные приемы определе­
ния числовых характери сти к линейных функций (см . п° 1 0 .2 ). М ате­
матическое ожидание этой линейной функции найдем, подставляя
о
в ее выраж ение ( 1 1 . 2 . 3 )
равное нулю. Получим:
м атем атическое ожидание
т у = у ( т х).
аргум ента X ,
(1 1 .2 .4 )
') Функцию <р на участке (а, р) предполагаем непрерывной и дифферен­
цируемой.
U .3 ]
Л И Н Е А РИ З А Ц И Я Ф У Н К Ц И И Н ЕС КО Л ЬК И Х С Л У Ч А Й Н Ы Х А РГУ М ЕН ТО В
255
Дисперсия величины У определится по формуле
Д у = [ ? '« > №
.
( П . 2 .5 )
П ереходя к среднему квадрати ч еско м у отклонению, имеем:
( 11-2 .6)
Ф ормулы (1 1 .2 .4 ), (1 1 .2 .5 ), (1 1 .2 .6 ), разум еется, являю тся прибли­
женными, п о скольку приближенной является и сама замена нелиней­
ной функции линейной.
Таким образом, мы решили поставленную задач у и пришли к сл е­
дующим вы водам .
Чтобы найти математическое ожидание почти линейной функции,
нужно в выраж ение функции вместо аргум ента подставить его м ате­
матическое ожидание. Чтобы- найти дисперсию почти линейной ф унк­
ции, нужно дисперсию аргум ен та умнож ить на квад р ат производ­
ной функции в точке, соответствую щ ей математическому ожиданию
арум ен та.
11.3. Линеаризация функции нескольких случайных
аргументов
И меется система п случайных величин:
( * 1. * 2 ............ Х„)
и заданы числовые характеристики системы: математические ожидания
т х.,
1 2т х ............ т х /I
и корреляционная матрица
кп
* 1 9 * .. Ки
K^i - • •
Кп
Случайная величина У есть функция аргум ен тов Х г Х 2............ Х„:
У = <?(Х1, Х 2............ Х„).
(1 1 .3 .1 )
причем функция ^ не линейна, но мало отличается от линейной
в области практически возмож ных значений всех ар гум ен то в (короче,
«почти линейная» функция). Т р ебуется приближенно найти числовые
характери сти ки величины У — математическое ожидание т у и ди с­
персию Оу.
Д л я реш ения задачи подвергнем линеаризации функцию
У = <Р(*1. * 2 ............ х„).
(1 1 .3 .2 )
256
ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ
[ГЛ. 1г,
В данном случае нет смысла пользоваться геометрической интер­
претацией, так к ак за пределами трехмерного пространства она у ж е
не обладает преимущ ествами наглядности. О днако качественная сто ­
рона вопроса остается совершенно той ж е, что и в предыдущ ем п°.
-Р ассмотрим функцию у = <р(х1, х 2........... х п) в достаточно малоЯ
окрестности точки т Х1, т Х1............ т Хп~ Т ак к ак функция в этой о к р е­
стности почти линейна, ее можно приближенно заменить линейной.
Это равносильно том у, чтобы в разложении функции в ряд Тейлора
около точки (/я*,. т Х2............сохранить только члены первого
порядка, а все высшие отбросить:
у = 1р ( * 1, х ............. * „ ) «
П
" Ц ............> » * „ ) + З'Р .гД 'И лу " Ц ...............
Значит, и зависимость (1 1 .3 .1 ) м еж ду случайными
можно приближенно заменить линейной зависимостью:
величинами
К = ¥(/»*,. т * 2............т *„) +
П
+ 2 ? ^ ( « у ,-
............ т Хп) ( Х 1 — т х^.
(1 1 .3 .3 )
Введем для краткости обозначение:
" ч ............ т *п) = { - Ц ) т о
Учитывая, что X ^
.
= Х 1г перепишем ф ормулу (1 1 .3 .3 ) в виде:
П
т , 2............+
К линейной функции (1 1 .3 .4 ) применим способы определения чи­
словы х хар актери сти к линейных функций, выведенные в п° 1 0 . 2 .
о
о
о
Имея в ви ду, что центрированные аргументы ( Х 1§ Х 2, . . Х п) имеют
математические ожидания, равные нулю, и т у ж е корреляционную
матрицу ||/С/;||. получим:
11.3] Л И Н Е А Р И З А Ц И Я Ф У Н К Ц И И Н Е С К О Л Ь К И Х С Л У Ч А Й Н Ы Х А Р Г У М Е Н Т О В
П ер е х о д я в последней ф о рм уле
тическим о ткл о н ен и ям , получим:
257
о т дисперси й к средни м к в а д р а ­
п
К]
/ Й9_\
оч оЛ)
Д дх1 )„1 V ОХ)), ' ч
( 1 1 .3 .7 )
гд е г 1} ‘— коэф ф ициент кор р ел яц и и величин X г X у
О собенно простой ви д приним ает ф орм ула ( 1 1 .3 .7 ) , к о гд а в е л и ­
X „ не ко р р ел и р о в ан ы , т. е. г 1, = 0 при I Ф у .
чины А 'р Х 2,
В этом сл уч ае
п
■-
2
/=1
^
( 0x1
\2 а2
)„
'т "I
( 1 1 .3 .8 )
Ф о р м ул ы типа ( 1 1 .3 .7 ) и ( 1 1 .3 .8 ) н ах о д ят ш и р о ко е применение
в различны х п р и кл ад н ы х во п р о сах : при исследо ван и и ош ибок р а з ­
ного ви да приборов и м ехан и зм о в, а т а к ж е при
ан али зе точн ости стр ел ьб ы и б ом бо м етан и я.
П р и м е р 1. Относ бомбы X (рис. 11.3.1) вы ра­
ж ается приближенной аналитической формулой:
Х --
■«о | / '
(1 — 1,8- Н Г 5 с Я ),
(11.3.9)
где 1’0 — скорость самолета (м/сек), Н — высота сбра­
сывания (м), с — баллистический коэффициент.
Высота Н определяется по высотомеру, скорость
самолета и0 — по указателю скорости, баллистиче­
ский коэффициент с принимается его номинальным
значением с = 1,00. Высотомер показывает 4000 м,
указател ь скорости 150 м/сек. Показания высотомера
характеризую тся систематической ошибкой+ 50 м
и средним квадратическим отклонением
= 40 м\
показания указателя скорости — систематической
ошибкой — 2 м/сек и средним квадратическим откло­
нением 1 м/сек; разброс возможных значений бал­
листического коэффициента с, обусловленный неточностью изготовления
бомбы, характеризуется средним квадратическим отклонением ос = 0,05.
Ошибки приборов независимы меж ду собой.
Найти систематическую ошибку и среднее квадратическое отклонение
точки падения бомбы вследствие неточности в определении параметров Я ,
и0 и с. Определить, какой из этих факторов оказы вает наибольшее влияние
на разброс точки падения бомбы.
Р е ш е н и е . Величины Я , и0 и с представляют собой некоррелирован­
ные случайные величины с числовыми характеристиками:
= 40 м\
т гг„ = 3950 м\
т ^ = 152 м/сек-, о0) = 1 м/сек-.
т с = 1 ,0 0 ;
а,, = 0,05.
Так как диапазон возможных изменений случайных аргументов сравни­
тельно невелик, для решения задачи можно применить метод линеаризации.
9 Теория вероятностей
258
ЛИНЕАРИЗАЦИЯ ФУНКЦИЙ
[ГЛ. 11
Подставляя в формулу (11.3.9) вместо величин Н, у0 и с их математические
ожидания, найдем математическое ожидание величины X:
т х = 4007 ( м).
Для сравнения вычислим номинальное значение:
Хти = 150
(1 - 1,8 • И Г 5 • 1 ■4000) = 3975 (м).
Разность между математическим ожиданием и номинальным значением
и представляет собой систематическую ошибку точки падения:
А * = т х — ^ н о м = 4007 — 3975 = 32 ( м ) .
Для определения дисперсии величины X вычислим частные производные;
•
§ • " Т%
_ (1 “ 1’8 ' ' ° " с т -
дх
дс ~
, Г т
1,0
у
/
у
■
g
и подставим в эти выражения вместо каждого аргумента его м атематиче­
ское ожидание:
(&).-”*
($&-»*
(¥).—
По формуле (11.3.8) вычислим среднее квадратическое отклонение вели­
чины X:
4 = 0.4292 ■402 + 26,42 • I2 + 3072 • 0.052 = 294,4 + 697,0 + 235,5 = 1126,9,
откуда
чх » 33,6 (м).
Сравнивая слагаемые, образующие а2х, приходим к заключению, что наи­
большее из них (697,0) обусловлено наличием ошибок в скорости и0; следо­
вательно, в данных условиях из рассмотренных случайных факторов, обуслов­
ливающих разброс точки падения бомбы, наиболее существенной является
ошибка указателя скорости.
П р и м е р 2. Абсцисса точки попадания (в метрах) при стрельбе по са­
молету выражается формулой
X = Хн 1,8ш£) Х&,
(11.3.10)
где Хн — ошибка наводки ( м ), <а — угловая скорость цели (рад /сек), О — далькость стрельбы (м), Х6 — ошибка, связанная с баллистикой снаряда ( м)■
Величины Хи, а, О, Xб представляют собой случайные величины с ма­
тематическими ожиданиями:
т ха — ^\ т ш= 0 , 1; т л = 1000; т х&— 0
и средними квадратическими отклонениями:
% = 4;
аш = 0,005; од = 50;
= 3.
11.4]
УТО Ч Н ЕН И Е
РЕ ЗУ Л Ь Т А Т О В
259
Нормированная корреляционная матрица системы {Хш<л, О, Х$) (т. е. матрица,
составленная из коэффициентов корреляции) имеет вид:
110/11 =
1 0,5 0,3 О
1 ОД О
1 О
1
Требуется найти математическое ожидание и среднее квадратическое
отклонение величины X.
Р е ш е н и е . Подставляя в формулу (11.3.10) математические ожидания
аргументов, имеем:
■
т х = 1,3 ■0,1 ■1000 = 180 (л).
Для определения среднего квадратического отклонения величины X най­
дем частные производные:
Применяя формулу (11.3.7), имеем:
о* = (1 • 4)2 + (1 8 0 0 • 0.005)2 + (0,18 • 50)2 + (1 • З)2 + 2 • 1 • 1800 • 0,5 • 4 •0,005 +
+ 2 -1 • 0,18 -0,3 -4 • 5 0 -)-2 ■1800 • 0,18 • 0,4 • 0,005 • 50 =
= 16-(-81-|-81 + 9 + 36 + 21,6 + 64,8 = 30 9,4,
откуда
ях » 17,6 (м).
11.4. Уточнение результатов, полученных методом
линеаризации
В некоторы х задачах практики возникает сомнение в применимости
метода линеаризации в связи с тем , что диапазон изменений случай­
ных аргументов не настолько мал, чтобы в его пределах функция
могла быть с достаточной точностью линеаризована.
В этих случаях для проверкй применимости метода линеаризации
и для уточнения полученных результатов мож ет быть применен м е­
тод, основанный на сохранении в разложении функции не только
линейных членов, но и некоторых последующих членов более вы со­
ких порядков и оценке погрешностей, связанных с этими членами.
Д ля того чтобы пояснить этот метод, рассмотрим сначала наибо­
лее простой случай функции одного случайного аргум ен та. Случай­
ная величина У есть фун 1ншя случайного аргум ента X :
К = ср(ЛТ).
(1 1 .4 .1 )
причем функция <р сравнительно мало отличается от линейной на
уч астке практически возможных значений аргум ента X , но все же
9*
260
ЛИ Н ЕАРИ ЗАЦ И Я
ФУНКЦИЯ
[Г Л .
II
отличается настолько, что возникает сомнение в применимости м е­
тода линеаризации. Д ля проверки этого о б стоятельства применим
более точный м етод, а именно: разложим функцию <р в р яд Т ей­
лора в окрестности точки т х и сохраним в разложении первые три
члена:
у = <р( * ) № <р( т х) - 1- ср' ( т х) (.х _ т ж) + 1 / ( т х) (Х — т х)2.
(1 1 .4 .2 )
Та ж е ф ормула б удет, очевидно, приближенно связы вать случайные
величины У к X :
У — 9 (т х ) +
? ' ( т х) ( X — т х) +
у <р" ( т х ) ( X — т х У =
— 9 (тх) 4 - <?' ( « ж) * +-$<?" (тх) X 2-
(П -4.3)
П ользуясь выражением (1 1 .4 .3 ), найдем матем атическое ожидание
и дисперсию величины У. Применяя теоремы о числовых х ар актер и ­
сти ках, имеем:
1
>пу — 9 (« Л + -у 9" К ) А* (А"2! = 9 ( « ,) 4 - ^ 9" (» ,) Аг*
( 1 1 -4.4)
По формуле (1 1 .4 .4 ) можно найти уточненное значение
тического ожидания и сравнить его с тем значением <р(тх),
получается методом линеаризации; поправкой, учитывающей
ность функции, является второй член формулы (1 1 .4 .4 ).
О пределяя дисперсию правой и левой части формулы
имеем:
м атем а­
которое
нелиней­
Оу = I?' (тх)]2й х + ~ [/
( т , ) ] 2 0\Х*] 4 -
^ { т х) ч " { т х)К \ Х , X 2],
о
(1 1 .4 .3 ),
о
о
(1 1 .4 .5 )
о
где К [ Х , X 2] — корреляционный момент величин X , Х'1.
Выразим входящ ие в ф ормулу (1 1 .4 .5 ) величины через централь­
ные моменты величины X :
й [Х*\ =
М ф ] — [М [ Ь \ } 2 = ^ [Х\ — о \ ,
К [ Х , Х 2] = М \ Х ф
— М ф ] ) ] = р 3 [Х1.
О кончательно имеем:
В у = I? ' ( я ,) ]*
+
~ [<р" { т х ))* 0*4 [ X ] -
й1) 4 ­
+ ? ' ( » * ) / ( « Л !*з 1*1-
(1 1 .4 .6 )
Ф ормула (1 1 .4 .6 ) дает уточненное значение дисперсии по сравн е­
нию с методом линеаризации; ее второй и третий члены п р едстав­
11.4)
УТ О Ч Н ЕН И Е
РЕ ЗУ Л Ь Т А Т О В
261
ляют собой поправку на нелинейность функции. В ф ормулу, кроме
дисперсии аргум ента Их, входят еще третий и четвертый централь­
ные моменты ц 3 [ Х ] .
1ЛТ]. Если эти моменты известны, то по­
п р авка к дисперсии мож ет быть найдена непосредственно по фор­
муле (1 1 .4 .6 ). О днако зачастую нет необходимости в ее точном
определении; достаточно лишь знать ее порядок. На практике часто
встречаются случайные величины, распределенные приблизительно по
нормальному закон у. Д ля случайной величины, подчиненной нормаль­
ному закон у,
Из [ * 1 = 0 ; Ц4 1 * ] = 3в1 = 3 0 £ .
(1 1 .4 .7 )
и формула (1 1 .4 .6 ) принимает вид:
Оу = [ ? ' ( т , ) ] 2 Ох + \ [ / ( т х) ]2
( 1 1 .4 .8 )
Формулой (1 1 .4 .8 ) можно пользоваться для приближенной оценки
погрешности метода линеаризации в случае, ко гд а аргум ент распре­
делен по закон у, близкому к нормальному.
Совершенно аналогичный метод может быть применен по отно­
шению к функции нескольких случайных аргум ентов:
У = ? ( Л X , ............ Х„).
(1 1 .4 .9 )
Р азлагая функцию
У — Ф (х 1> * а ............-«л)
в ряд Тейлора в окрестности точки /пхг
............ т Хп и сохраняя
в разложении члены не выше второго п орядка, имеем приближенно:
Г = 1 ( • « , . « ч ............ +
+Щ %) №
■- ”*У+2(а£Ы
1~ 1 V
I/ т
i< j V
*
У /ш
или, вводя центрированные величины,
п
Г « .* (■ » ,.
.........”■ «,)+ 2
/=1 \
</ т
^
\
^ ' 1 Iт
где индекс т по-прежнему обозначает, что в выражение частной
производной вместо аргум ентов Х 1 подставлены их математические
ожидания т х I.
'
262
Л И Н Е А Р И ЗА Ц И Я
ФУНКЦИЙ
1ГЛ.
II
Применяя к формуле (1 1 .4 .1 0 ) операцию математического ож ида­
ния, имеем:
•
« у = <р(«ж,. т хг............т *п) +
+ Щ/=1 Щ
\
1/т
» , + 2 ( 4 ') / ,
0 1* 11»
где АГ^у — корреляционный момент величин А"г, Л'у.
В наиболее важном для практики случае, ко гда аргументы К х,
Х 2............Х п некоррелированны, формула (1 1 .4 .1 1 ) принимает вид:
П
■
° хг
% = Ч > К • т*2.........+
/=1 \
(11,4.12)
* /т
Второй член формулы (1 1 .4 .1 2 ) представляет собой поправку на
нелинейность функции.
Перейдем к определению дисперсии величины У. Чтобы получить
выражение дисперсии в наиболее простом виде, предположим, что
величины Х х, Х 2............Х п не только некоррелированны, но и н еза­
висимы. О пределяя дисперсию правой и левой части (1 1 .4 .1 0 ) и поль­
зуясь теоремой о дисперсии произведения (см . п° 1 0 . 2 ), получим:
+
2 ( * №
/</
'Л
, +
2 ( £ )
( В )
V 1 /т \
Ь/ т
Ь№ 1.
(11.4.13)
Д ля величин, распределенных по закон у, близкому к нормальному,
можно воспользоваться формулой (1 1 .4 .7 ) и преобразовать вы р аж е­
ние (1 1 .4 .1 3 ) к виду:
1=1
/а: 1 \
* / ГП
+
< п -4 1 4 '
Последние два члена в выражении (1 1 .4 .1 4 ) представляю т собой
«поп равку на нелинейность функции» и м огут служить для оценки
точности метода линеаризации при вычислении дисперсии.
Г Л А В А 12
ЗАКОНЫ РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ СЛУЧАЙНЫХ
АРГУМЕНТОВ
12.1.
Закон распределения монотонной функции
одного случайного аргумента
В предыдущ их гл авах мы познакомились с методами определения
числовых характери сти к функций случайных величин; главное уд о б ­
ство этих методов в том, что они не требую т нахождения законов
распределения функций. О днако иногда возникает необходимость
в определении не только числовых хар актер и сти к, но и законов р ас­
пределения функций.
Начнем с рассмотрения наиболее простой задачи, относящейся
к этому кл ассу; задачи о законе распределения функции одного
случайного аргум ен та. Т ак к ак для практики наибольшее значение
имеют непрерывные случайные величины, будем реш ать задачу именно
для них.
И меется непрерывная случайная величина X с плотностью рас­
пределения / ( х ). Д р угая случайная величина У связана с нею функ­
циональной зависимостью:
Г = ? (* )* ).
Т ребуется найти плотность распределения величины У.
Рассмотрим участок оси абсцисс (а, Ь), на котором леж ат все
возможные значения величины X , т. е.
Р ( а < X < Ь ) = 1.
В частном случае, ко гда область возможных значений X ничем не
ограничена, а = — оо; £ = - | - .с о .
Способ решения поставленной задачи зависит от поведения функ­
ции ср на уч астке (а, Ь)\ во зр астает ли она на этом уч астке или убы вает,
или колеблется.
‘) Функцию
предполагаем непрерывной и дифференцируемой.
264
ЗАКО Н Ы
РА СП РЕД ЕЛ Е Н И Я
ФУНКЦИЙ
С Л УЧ А Й Н Ы Х
А РГУ М ЕН ТО В [Г Л . 12
В данном п° мы рассмотрим случай, к о гд а функция у = ср(х) на
уч астке (а, Ь) м онотонна1). При этом отдельно проанализируем два
случая: монотонного возрастания и монотонного убывания функции.
1.
Функция у = ф (х ) на уч астке (а, Ь) монотонно возрастае
(рис. 1 2 .1 .1 ). К огда величина X принимает различные значения на
уч астке (а, Ь), случайная точка
(X, У) перемещ ается только по
кривой у = ф(л:); ордината этой
случайной точки полностью опре­
деляется ее абсциссой.
Обозначим
g (у ) плотность
распределения величины У. Для
того чтобы определить (у ), най­
дем сначала функцию расп реде­
ли
ления величины У:
0 ( у ) — Р ( У < у).
Проведем прямую АВ, парал­
лельную оси абсцисс на р ассто я­
нии у от нее (рис. 1 2 .1 .1 ). Чтобы выполнялось услови е У < у , случайная
точка (X , К) долж на попасть на то т участок кривой, который лежит
ниже прямой АВ\ для этого необходимо и достаточно, чтобы с л у ­
чайная величина X попала на уч асто к оси абсцисс от а до х, где
х — абсцисса точки пересечения кривой у = ср (лг) и прямой АВ.
Следовательно,
х
0 ( у ) — Р ( У < у ) = Р ( а < : Х < х ) = ^ / (х ) йх.
а
(
Верхний предел интеграла х можно выразить через у :
х — ф (У).
где ф — функция, обратная функции «р. Т огда
ФОО
0 ( у ) = / /{Х)<1х.
(1 2 .1 .1 )
а
Дифференцируя интеграл (1 2 .1 .1 ) по переменной у , входящ ей в ве р х ­
ний предел, получим:
е(У) = О' (у ) = / (ф (у ) )ф ' (у ).
) Случай немонотонной функции будет рассмотрен в п° 12,3.
( 1 2 . 1 .2 )
(2,1]
ЗАК ОН
РАСПРЕД.
МО Н ОТ ОННО Й
ФУНКЦИИ
2. Функция у =* ср (лг) на уч астке
(рис. 1 2 .1 .2 ). В этом случае
ОДНОГО
(а, Ь)
А РГУ М Е Н Т А
монотонно
6
265
уб ы вает
ь
О (У) = Р (^ < У) = Р ( * < X < Ь) = ^ / (л:) йГл: = J / ( я ) </лг,
*
* (у)
откуда
д (у) = 0 ' ( у ) = — / (ф ( у ) ) у (У)(1 2 .1 .3 )
Сравнивая формулы (1 2 .1 .2 ) и (1 2 .1 .3 ), замечаем, что они могут
быть объединены в одну:
ЙГ(У) == / (ц» (3»)) 1Ф' (У) 1-
(1 2 .1 .4 )
Действительно, ко гда <р во зр астает, ее производная (а значит, и ф')
положительна. При убывающ ей функции ср производная ф' отрица­
тельна, но зато перед ней в формуле (1 2 .1 .3 ) стоит минус. С ледо­
вательно, ф ормула (1 2 .1 .4 ), в которой производная берется по модулю,
верна в обоих случаях. Таким
образом, задача о законе р ас ­ У
пределения монотонной функции
решена.
П р и м е р . Случайная величина Л'
ну Кошис плотностью А
подчинена закону
мления:
распределения:
-в
1
у=<р(х)
^М
я (1 + х г) ‘
Величина ¥ связана с X зависимостью
у = 1 — Х\
т
X
Рис. 12.1.2.
Найти плотность распределения ве­
личины К.
Р е ш е н и е . Так как функция у = 1 — х3 монотонна на участке
(— со, + оо), можно применить формулу (12.1.4). Решение задачи оформим
в виде двух столбцов: в левом будут помещены обозначения функций, при­
нятые в общем решении задачи, в правом — конкретные функции, соответ­
ствующие данному примеру:
/ (* )
У - Ч>(-*)
* = Ф(У)
¥ (у)
1
я (1 -\-х2)
у = 1 — х3
х = >3/1 — у
—1
ЗУ(1-у)>
1
3 ^ ( 1 - у )2
§ - ( у ) = / ( 'И у ) ) 1 Ф '(у )1
1
з*(1 + ^ 0 —»*)V[1-^У>**
266
ЗАКО Н Ы
Р А С П Р Е Д Е Л Е Н И Я Ф У Н К Ц И Я С Л У Ч А Й Н Ы Х А РГУ М Е Н ТО В [Г Л . 12
12.2.
Закон распределения линёйной функции
от аргумента, подчиненного нормальному закону
П усть случайная
с плотностью:
X
величина
'
подчинена
нормальному
закон у
(х~т хУ
2°*
/ (* ) = — 4 = «
<3Г V 2-гс
.
( 12.2 . 1)
а случайная величина У связана с нею линейной функциональной з а ­
висимостью:
У = аХ -\-Ь ,
(1 2 .2 .2 )
где а и Ь — неслучайные коэффициенты.
Требуется найти закон распределения величины У.
Оформим решение в виде д в у х столбцов, аналогично примеру
предыдущ его п°:
( х - т \
1
/ (х )
е
У = <Р(х)
у = а х -\-Ь
X = ф (у)
Ф'(У)
X = - -----а
\
а
1Ф ' 0 » 1
\а |
у —Ь
1
2« !
1
в ' (У) — / (Ф (У) ) IФ' (У) I
а \ох уг2п
П реобразуя выражение g(y), имеем:
[у - ( а т х +Ь)у
&(У) =
2 Iа |2^
1
'
Iа \ У 2п
а это есть не что иное, к ак нормальный закон с параметрами:
ау= а т х
Ь, 1
оу = \а\ог.
}
(1 2 .2 .3 )
Если перейти от средних квадратических отклонений к пропор­
циональным им вероятным отклонениям, получим:
Е
у =
1я
I
Е х-
(1 2 .2 .4 )
■
12.3]
ЗАКО Н Р А С П Р Е Д . НЕМ ОНОТОННОЙ Ф У Н К Ц И И О ДН О ГО А РГУ М ЕН ТА
207
Таким образом мы убедились, что линейная функция о т а р г у ­
м е н та , подчиненного нормальному закону, т а к ж е подчинена,
нормальному закону. Чтобы найти центр рассеивания этого закона,
1
’
У
нужно в выражение линейной функция вместо аргум ента подставить
его центр рассеивания. Чтобы найти среднее квадратическое отклонение этого закона, нужно среднее квадратическое отклонение а р гу ­
мента умножить на модуль коэффициента при аргум енте в выражении
линейной функции. То ж е правило справедливо и для вероятны х
отклонений.
•
12.3. Закон распределения немонотонной функции
одного случайного аргумента
И меется непрерывная случайная величина X с плотностью распре■ деления / (х ); др угая величина У связана с X функциональной з а ­
висимостью:
■К = * ( * ) ,
причем функция у — г-р (х) на уч астке (а, Ь) возможных
аргум ента не монотонна (рис. 1 2 .3 .1 ).
значений
Рис. 12.3.1.
Н айдем функцию распределения й (у) величины У. Д ля этого снопа
проведем прямую АВ, параллельную оси абсцисс, на расстоянии у
от нее и выделим те участки кривой у = ср(л:), на которы х выпол­
няется условие К < у. П усть этим участкам соответствую т участки
оси абсцисс: Д ^ у ), Д2 (У)> •••
Событие У < у равносильно попаданию случайной величины X
на один из участков Д 1 (у), Д2(у), • • • — безразлично, на какой именно.
П оэтому
0 ( у ) = Р ( К < у ) = Р ( ( * с Д 1( у ) Ж * « = Д 2 ( у ) ) +
= 2
I
р
( * с д д >о ) = 2
//(* )* * •
I \ (У)
...) =
268
ЗАКО Н Ы
РАСП РЕДЕЛЕНИ Я Ф УН КЦ И Я
СЛ УЧ А Й Н Ы Х
А РГУ М Е Н Т О В [Г Л . 12
Таким образом, для функции распределения величины К = <
?(Х )
имеем формулу:
[/ (х)й х.
I \(у)
<300 = У
(1 2 .3 .1 )
Границы и н тер вал о в.Д Д у) зависят от у и при заданном ко н кр ет­
ном виде функции у = ср(дг) м огут быть выраж ены к а к явные ф унк­
ции у. Дифференцируя й (у) по величине у , входящ ей в пределы
интегралов, получим плотность
распределения величины К:
ё (У) — О' (у).
(1 2 .3 .2 )
П р и м е р . Величина X подчинёна закону равномерной плотности
на участке от — у до
/(■*) =
О при I х\ > -J .
Найти закон распределения величины
Рис. 12.3.2.
^C O S*.
Р е ш е н и е . Строим график функции у = cos х (рис. 12.3.2). Очевидно,
я
— 2 .
я
~£<и в интервале (а, о) функция у = cos х немонотонна.
Применяя формулу (12.3.1), имеем:
It
Ху
2
О (у) = J f ( x ) d x + J / (х) dx.
х3
*
~2
Выразим пределы x t и х г через у:
х, = — arccos у;
Отсюда
х3 = arccos у.
%
—arccos у
G (y ) =
J
/ (ж )^ л г+
J
f( x ) d x .
(12.3.3)
arccos у
Чтобы найти плотность £ (у), не будем вычислять интегралы в фор­
муле (12.3.3), а непосредственно продифференцируем это выражение по пере­
менной у, входящей в пределы интегралов:
g (у) = О' (у) = / (— arccos у)
1
у
- / (arccos у )
/ 1-У 1
13.4]
ЗАКО Н
РАСПРЕДЕЛЕНИЯ
ФУНШ ИИ
ДВУХ
СЛУЧАЙНЫ Х
ВЕЛИЧИН
269
(12.3.4)
g (у)
Указывая для У закон распределения (12.3.4), следует оговорить, что
он действителен лишь в пределах от 0 до 1 , т. е.
В тех пределах, в которых меняется Y = cos X
" и it .
при аргументе X, заключенном м еж ду— gВне этих пределов плотность g (у) равна
нулю.
График функции g (у) дан на рис. 12.3.3.
При у »= 1 кривая g (у) имеет ветвь, уходящую
на бесконечность.
12.4. Закон распределения функции
двух случайных величин
Задача определения закона распределения
функции нескольких случайных аргументов
Рис- 12.3.3.
значительно слож нее аналогичной задачи
для функции одного аргум ен та. Здесь мы изложим общий метод
решения этой задачи для
наиболее простого случая
функции д в у х аргум ентов.
И меется система д в у х
непрерывных случайных в е ­
личин ( X , К) с плотностью
распределения / (х, у). С л у­
чайная величина X связана
с А" и К функциональной
зависимостью :
Z = cp(x, К).
Т ребуется найти закон
распределения величины Е.
Д ля решения задачи во с­
пользуемся геометрической
Рис. 12.4.1.
интерпретацией, аналогичной
•
той, которую мы примеияли
в случае одного аргум ента. Функция г = <р(х, у) изобразится у ж е
не кривой, а поверхностью (рис. 1 2 .4 .1 ).
Найдем функцию распределения величины Z•.
G (z) = P ( Z < z ) = P ( Ч(Х. Y) < z).
(1 2 .4 .1 )
270
ЗАКО Н Ы
Р А С П Р Е Д Е Л Е Н И Я Ф У Н К Ц И Й СЛ У Ч А Й Н Ы Х А РГУ М Е Н Т О В [Г Л . 1?
П роведем плоскость Q, параллельную плоскости хОу, на расстоя­
нии z от нее. Эта плоскость пересечет поверхность z = y (x , у) по
некоторой кривой К ') . Спроектируем кривую К на плоскость хОу.
Эта проекция, уравнение которой <р(*. у) = z, разделит плоскость xQy
на две области; для одной из них вы сота поверхности над пло­
скостью хОу б удет меньше, а для другой — больше z. Обозначим D
ту область, для которой эта высота меньше z. Чтобы выполнялось
неравенство (1 2 .4 .1 ), случайная точка ( X , Y), очевидно, должна по­
пасть в область D ; следовательно,
G(z) = P { ( X , Y) cz D) = Я
f ( x , y)d xd y.
(1 2 .4 .2 )
(О )
В выраж ение (1 2 .4 .2 ) величина z входит неявно, через пределы
интегрирования.
Дифференцируя G (z ) по z, получим плотность распределения
величины Z :
g (z ) — G' (z).
Зная конкретный вид функции z — ср(х, у ), можно выразить пре­
делы интегрирования через z и написать выражение g ( z ) в явном виде.
Д ля того чтобы найти закон распределения функции д в у х а р г у ­
ментов, нет необходимости каж ды й раз строить поверхность
z = <.f (x, у), подобно то м у, как
это сделано на рис. 1 2 .4 .1 , и пе­
р есекать ее плоскостью , парал­
лельной хОу. На п рактике до ста­
точно построить на плоскости
хОу кривую , уравнение которой
z — 9 ( х , у ), отдать себе отчет
в том, по какую сторону этой
кривой Z < z, а по какую Z > z,
и интегрировать по области D,
для которой Z < z.
Пр и м е р . Система величин ( X, Y)
подчинена закону распределения с
плотностью / (х, у). Величина Z есть
произведение величин X, У:
Z — XY.
Найти плотность распределения ве­
личины Z.
Р е ш е н и е . Зададимся некоторым значением г и построим на пло­
скости хОу кривую, уравнение которой ху — г (рис. 12.4.2). Это — гипербола,
асимптоты которой совпадают с осями координат. Область D на рис. 12.4.2
заштрихована.
') На нашем чертеже кривая К замкнута; вообще она может быть и не­
замкнутой, а может состоять и из нескольких ветвей.
12.5]
ЗАК ОН
РАСПРЕДЕЛЕНИЯ
СУММЫ
ДВУХ
СЛУЧАЙНЫХ
ВЕЛИЧИН
271
Функция распределения величины 2 имеет вид:
2
и
О (г) = / £ f (х, у) с1х Лу = J
(/))
-с о
со
л
со
§ / (х, у)йх й у §
г
0
j
f ( x , у) с1хйу.
— СО
Ж
Дифференцируя это выражение по г, имеем;
О
оо
»М~ ,/Ч'М)'" +/х'(Ат)'"—оо
О
<,24'3>
12.5. Закон распределения суммы двух случайных величин.
Композиция законов распределения
Воспользуемся изложенным выш е общим методом для решения
одной важной для практики частной задачи, а именно для н ахо ж де­
ния закона распределения с у м м ы
д в у х с л уча йн ы х величин.
И меется система д в ух случай­
ных величин ( X , К) с плотностью
распределения /(лт, у ). Рассм от­
рим сум м у случайных величин
X и У:
г = х -\ -у,
и найдем закон распределения
величины X. Д ля этого построим на
плоскости хОу линию, уравнение
которой х -\ - у = г (рис. 1 2 .5 .1 ).
Э т o J— прямая,
отсекаю щ ая
на
осях отрезки, равные г. П рямая
х -\ - у = г делит плоскость хОу
на две части; правее и выше ее
Рис. 12.5Д.
X + У > г; левее и ниже X -}У < г. О бласть £> в данном случае — левая нижняя часть пло­
скости х О у , заш трихованная на рис. 1 2 .5 .1 . Согласно формуле
(1 2 .4 .2 ) имеем:
272
ЗАКО Н Ы
Р А С П Р Е Д Е Л Е Н И Я Ф У Н К Ц И Й С Л У Ч А Й Н Ы Х А РГУ М Е Н ТО В [Г Л . 12
Дифференцируя это выражение по переменной г, входящ ей в в ер х ­
ний предел внутреннего интеграла, получим:
СО
g(z )= J f(x, z — x)dx.
(1 2 .5 .1 )
—OO
Это — общая формула для плотности распределения суммы д вух
случайных величин.
Из соображений симметричности задачи относительно X и Y
можно написать другой вариант той ж е формулы:
СО
J
£ (* )=
f ( * — y .y )d y .
(1 2 .5 .2 )
—со
который равносилен первому и мож ет применяться вместо него.
О собое практическое значение имеет случай, когда склады ваем ы е
случайные величины (X, Y) независимы. Тогда говорят о компози­
ции законов распределения.
П роизвести композицию д в ух законов распределения это значит
найти закон распределения суммы д в у х независимых случайных вели­
чин, подчиненных этим законам распределения.
Выведем ф ормулу для композиции д в ух законов распределения.
Имеются две независимые случайные величины X и Y, подчиненные
соответственно законам распределения f x ( х ) и / 2 (у ); тр еб уется про-:
извести композицию этих законов, т. е. найти плотность распределе­
ния величины
'
Z ~ X -\ -Y .
Так как величины X и Y независимы, то
■ fix , y) = f 1ix)f2iy),
и формулы (1 2 .5 .1 ) и (1 2 .5 .2 ) принимают вид:
СО
g iz)=
f 1ix)f2(z — x)dx,
f
(1 2 .5 .3 )
— СО
СО
g(z) =
f f i i z — y ) f 2 (y)dy.
—СО
(1 2 .5 .4 )
Д ля обозначения композиции законов распределения часто при­
меняют символическую запись:
g = fi*fi>
где * — символ композиции.
12.5]
ЗАК ОН Р А С П Р Е Д Е Л Е Н И Я
СУММЫ
ДВУХ
СЛУЧАЙНЫХ
ВЕЛИЧИН
273
Формулы (1 2 .5 .3 ) и (1 2 .5 .4 ) для композиции законов распределе­
ния удобны только то гда, ко гда законы распределения / , (х) и / 2 (у )
(или, по крайней мере, один из них) заданы одной формулой на
всем диапазоне значений аргум ен та (от — со до со ). Если ж е оба
закона заданы на различных у ч астках различными уравнениями (н а­
пример, два закона равномерной плотности), то удобнее пользоваться
непосредственно общим методом, изложенным в п° 1 2 .4 , т. е. в ы ­
числить функцию распределения й ( г ) величины 2 — X
У и про­
дифференцировать эту функцию.
П р и м е р 1. Составить композицию нормального закона:
(х- т?
1
2о3
/, (* ) =
и закона равномерной плотности:
1
Решение.
в виде (12.5.4):
При а < у < р.
Применим формулу композиции законов распределения
Р
(г-у-т)»
I
|у-(г-т)Р
/
1
"
~ Р — “ «/ оУНя*
2<
12
\
Г \
2с2 (12.5.5)
йу.
— а, а У 2 ^ е
1
У
I
Подынтегральная функция в выражении (12.5.5) есть не что иное, как нор­
мальный закон с центром рассеивания г — т и средним квадратическим
отклонением о, а интеграл в выражении (12.5.5) есть вероятность попадания
случайной величины, подчиненной этому закону, на участок от а до р; сле­
довательно,
Г рафики законов
(* ), / а (у) и § (г) при а = — 2, (3 = 2, ш — О, а = 1
приведены на рис. 12.5.2.
274
ЗА К ОН Ы
РАСПРЕДЕЛЕНИЯ ФУНКЦИЙ
С Л У Ч А Й Н Ы Х А Р Г У М Е Н Т О В [Г Л.
12
П р и м е р 2. Соста вить композицию двух законов равномерной плот­
ности, заданных на одном и том же участке (0 , 1 ):
f\ (-*) = 1 при 0 < х < 1,
/2 (У) = 1 при 0 < у < 1.
Р е ш е н и е . Так как законы / 1 (х) и А (у) заданы только на опреде­
ленных участках осей Ох и Оу, для решения этой задачи удобнее восполь­
зоваться не формулами (12.5.3) и (12.5.4), а общим методом, изложенным
в п° 12.4, и найти функцию распределения О (г) величины '2 = X
¥.
Рассмотрим случайную точку (X, У) на плоскости хОу. Область ее воз­
можных положений — квадрат Н со стороной, равной 1 (рис. 12.5.3). Имеем:
О (г) = / £ / (* , у) Лх йу =
(О )
Г ГЛх Лу,
ф )
где область £>— часть квадрата У?, лежащая левее и ниже прямой х 4 - у — г.
Очевидно,
С (*> = 5 0 .
где
— площадь области О.
Составим выражение для площади области О при различных значе­
ниях г, пользуясь рис. 12.5.3 и 12.5.4:
1) при г < О
О {г) = 0 ;
2 ) при 0 < 2 < 1 О (г) =
;
3) при 1 < г < 2 б (г ) = 1 —
4) при г > 2
С (г ) = 1.
Дифференцируя эти выражения, получим:
1) при 2 < 0
£ (*) = 0 ;
2 ) при 0 < г < 1
g(z) = z;
Рис. 12.5.5.
3) при 1 < г < 2
g(z)= 2~ г^ ,
4) при г > 2
^ (г) = 0.
График закона распределения g(z) дан на рис. 12.5.5. Такой закон носит
название «закона Симпсона» или «закона треугольника».
12.6]
275
К О М П О ЗИ Ц И Я Н О РМ А Л Ь Н Ы Х ЗАКО Н О В
12.6. Композиция нормальных законов
Рассмотрим две независимые случайные величины X к У, подчи­
ненные нормальным законам:
Д (* ) = — =
ах у 2п
е
.
( 1 2 .6 . 1 )
(У'т уУ
/2 (У)=—
°> •
Оу у^2п е 2
о2-6-2)
Т ребуется произвести композицию этих законов, т . е. найти закон
распределения величины:
г = х+у.
Применим общую ф ормулу (1 2 .5 .3 ) для композиции законов р ас­
пределения:
( х - т ху
(г-х -ту
ъ?
а«*
оо _ _ _
1
Г
-—
2лзлиу
е
*
— ----
х
у
Если р аскр ы ть скобки в п оказателе степени
функции и привести подобные члены, получим:
“у
/
е '
л * '+ 2 В х -
йх.
(1 2 .6 .3 )
подынтегральной
с < 1 х '
— 00
где
А= 1 й ± А >
2
«£<,’
'
тх
. г — ту,
Я = __ ±_ _|_______Д *
'
2 в* '
2 ау
*
■
“
2 а^ ^
(г ~ т у)2
2 оу
П одставляя эти выражения в у ж е встречавш ую ся нам формулу
(9 .1 .3 ):
.
276
ЗАКО Н Ы
РА СП РЕД ЕЛ Е Н И Я
ФУНКЦИЙ
С Л У Ч А Й Н Ы Х -А Р Г У М Е Н Т О В [Г Л . 12
после преобразований получим:
\г~(т х+т у ) ?
(1 2 .6 .5 )
а это есть
вания
не
что иное, к а к нормальный закон с центром рассеи ­
—
+
( 12.6 .6)
и средним квадратическим отклонением
(1 2 .6 .7 )
К том у ж е вы во ду можно прийти значительно проще с помощью
следую щ их качественны х рассуж дений.
Н е р аскр ы вая ско б о к и не производя преобразований в подынте­
гральной функции (1 2 .6 .3 ), ср азу приходим к вы во д у, что п оказатель
степени есть квадратны й трехчлен относительно х вида
ср(х) — — А х 2
2 В х — С,
где в коэффициент А величина г не входит совсем , в коэффициент В
входит в первой степени, а в коэффициент С — в квад р ате. Имея
это в ви ду и применяя формулу (1 2 .6 .4 ), приходим к заключению,
что g ( г ) есть показательная функция, п оказатель степени которой —
квадратны й трехчлен относительно г, а плотность распределения
тако го вида со о тветствует нормальному зако н у. Таким образом, мы
приходим к чисто качественному вы во д у: закон распределения вели­
чины г долж ен быть нормальным.
Чтобы найти параметры этого закона — т х и аг — воспользуем ся
теоремой сложения математических ожиданий и теоремой сложения
дисперсий. По теореме сложения математических ожиданий
.
т г — т х -\- т у.
( 12 . 6 . 8 )
По теореме сложения дисперсий
В г = й х + Иу,
или
(1 2 .6 .9 )
о ткуд а сл едует формула (1 2 .6 .7 ).
П ереходя от средних квадрати чески х отклонений к пропорцио­
нальным им вероятны м отклонениям, получим:
( 12. 6 . 10)
12.6]
277
К О М П О ЗИ Ц И Я Н О РМ А Л Ь Н Ы Х ЗА КО Н О В
Таким образом, мы пришли к следую щ ему правилу: при компо­
зиции нормальных законов получ ается снова нормальный з а ­
кон, причем м а тем ати ч еск и е ожидания и дисперсии (или квад­
р а т ы в ер оятны х отклонений) су нмируются.
Правило композиции нормальных законов м ож ет быть обобщено
на случай произвольного числа независимых случайных величин.
Если имеется п независимых случайных величин:
* 1- * 2 ............Х Л.
подчиненных нормальным законам с центрами рассеивания
и ■,*], т х2, . . . , т *П
х
и средними квадратическими отклонениями
O•V
jt • Of-V, ■• • i
*n ,
то величина
г = 2 х ,
^
*=
1
т акж е подчинена нормальному закон у с параметрами
п
Вместо
формулу:
формулы
т г= ^ т х ,
<=1
1
( 1 2 . 6 . 1 1)
<$==£'<£,•
■ 1=1 Х1
( 1 2 . 6 . 12 )
(1 2 .6 .1 2 )
можно
применять
П
Е] = 2 е 1.г =1
*
равносильную ей
(1 2 .6 .1 3 )
Если система случайных величин ( X , К) распределена по нор­
мальному зако н у, но величины X , У зависимы, то нетрудно до казать,
т а к ж е к а к раньш е, исходя из общей формулы (1 2 .5 .1 ), что закон
распределения величины
Х+У
есть то ж е нормальный закон. Центры рассеивания по-прежнему скл а­
ды ваю тся алгебраически, но дл я средних квадратических отклонений
правило становится более сложным:
а1 = °1 + °1 + 2гаЛ ‘
где г — коэффициент корреляции величин X й У.
(1 2 .6 .1 4 )
278
ЗА КОН Ы
РАСПРЕДЕЛЕНИЯ
ФУНКЦИЙ
С Л У Ч А Й Н Ы Х А Р Г У М Е Н Т О В [Г Л . 12
При сложении нескольких зависимых случайных величин, подчи­
ненных в своей совокупности нормальному зако н у, закон распреде­
ления суммы т акж е оказы вается нормальным с параметрами
П
т г = И т хг
(1 2 .6 .1 5 )
П
«4 = 2
1
*1, + 2 I ) гиах а
=1 г
(1 2 .6 .1 6 )
г <]
•
или в вероятных отклонениях
+ 2 ^ П } Е Х.ЕХ
£^ = 2 ^
/=1
‘
(1 2 .6 .1 7 )
К 1
где г (у — коэффициент корреляции величин X (, X ], а суммирование
распространяется на все различные попарные комбинации величин
* 2 ............
Мы убедились в весьма важном свойстве нормального закона: при
композиции нормальных законов получается снова нормальный закон.
Это — т а к называемое «свой ство устойчивости». Закон распределения
назы вается устойчивым, если при композиции д в у х законов этого
типа получается снова закон того ж е т и п а '). Выше мы показали,
что нормальный закон является устойчивым. Свойством устойчивости
обладают весьма немногие законы распределения. В предыдущ ем п°
(пример 2 ) мы убедились, что, например, закон равномерной плот­
ности неустойчив: при композиции д в ух законов равномерной плот­
ности на уч астках от 0 до 1 мы
получили закон Симпсона.
Устойчивость нормального за к о ­
н а—одно из сущ ественных условий
его широкого распространения на
практике. Однако свойством усто й ­
чивости, кроме нормального, обла­
даю т и некоторые др уги е законы
распределения. Особенностью нор­
мального закона является то, что
Рис. 12.6.1,
при композиции достаточно боль­
шого числа практически произволь­
ных законов распределения суммарный закон о казы вается сколь угодно
близок к нормальному вне зависимости от того, како вы были законы
распределения слагаем ы х. Это можно проиллюстрировать, например,
составляя композицию трех законов равномерной плотности на уч а­
стках от 0 до 1. Получающийся при этом закон распределения g (z )
изображен на рис. 1 2 .6 .1 . К ак видно из чертеж а, график функции g(z)
весьма напоминает график нормального закона.
') Под «законами одного и того же типа» мы подразумеваем законы, раз­
личающиеся только масштабами по осям и началом отсчета по оси абсцисс.
1
12.71
ФУНКЦИИ
ОТ Н О Р М А Л Ь Н О
РАСПРЕДЕЛЕННЫ Х
279
А Р ГУ М Е Н Т О З
12.7. Линейные функции от нормально распределенных
аргументов
Д ана система случайных величин (А”,, Х 2, .
Х„), подчиненная
нормальному закону распределения (или, короче, «распределенная
нормально»); случайная величина У представляет собой линейную
функцию этих величин:
п
(1 2 .7 .1 )
Т ребуется найти закон распределения величины У.
Н етрудно убедиться, что это нормальный закон. Д ействительно,
величина У представляет собой сумму линейных функций, каж д ая из
которы х зависит от одного нормально распределенного аргум ента X ,
а выше было доказан о, что такая линейная функция т акж е распре­
делена нормально. С клады вая несколько нормально распределенных
случайных величин, мы снова получим величину, распределенную
нормально.
О стается найти параметры величины У — центр рассеивания т у
и среднее квадратическое отклонение ау. Применяя теоремы о м ате­
матическом ожидании и дисперсии линейной функции, получим:
т
П
= 2
(1 2 .7 .2 )
<=1
4
л
(1 2 .7 .3 )
где Гц — коэффициент корреляции величин Х {, X у.
В случае, ко гда величины (Л ^, Х 2............Х п) некоррелированы
(а значит, при нормальном законе, и независимы), формула (1 2 .7 .3 )
принимает вид:
л
(1 2 .7 .4 )
Средние квадратические отклонения в формулах (1 2 .7 .3 ) и (1 2 .7 .4 )
м огут быть заменены пропорциональными им вероятными отклонениями.
На п рактике часто встречается случай, когда законы распределе­
ния случайных величин Х х, Х 2............X входящ их в формулу (1 2 .7 .1 ),
в точности не известны, а известны только их числовые хар актери ­
стики: математические ожидания и дисперсии. Если при этом вели­
чины Х х, Х 2, . . . . Х п независимы, а их число п достаточно велико,
то, к ак правило, можно утвер ж дать, что; безотносительно' к виду
законов распределения величин X ,, закон распределения величины К
280
ЗАКО Н Ы Р А С П Р Е Д Е Л Е Н И Я Ф У Н К Ц И Й СЛ У Ч А Й Н Ы Х А РГУ М Е Н Т О В [Г Л .
12
близок к нормальному. На практике для получения закона распре­
деления, который приближенно может быть принят за нормальный,
обычно оказы вается достаточным наличие 5 - г - 10 слагаем ы х в вы р а­
жении (1 2 .7 .1 ). С ледует оговориться, что это не относится к с л у ­
чаю, ко гда дисперсия одного из слагаем ы х в формуле (1 2 .7 .1 ) пода­
вляюще велика по сравнению со всеми другими; предполагается, что
случайные слагаемые в сумме (1 2 .7 .1 ) по своему рассеиванию имеют
примерно один и тот ж е порядок. Если эти условия соблюдены, то
для величины У может быть приближенно принят нормальный закон
с параметрами, определяемыми формулами (1 2 .7 .2 ) и (1 2 .7 .4 ).
Очевидно, все выш еприведенные соображения о законе р асп ре­
деления линейной функции справедливы (разум еется, приближенно)
и для того случая, ко гда функция не является в точности линейной,
но может быть линеаризована.
12.8. Композиция нормальных законов на плоскости
П усть в системе
координат хОу заданы два независимых с л у ­
чайных векто р а; У , с составляющими ( Х х, К,) и У 2 с составляющими
( Х 2, К2). Д опустим, что каж ды й из них распределен нормально,
причем параметры пер­
вого вектора равны
т ■чг,.
.
« у ,.
и У|,
/г.х ,у,>
а параметры второго —
т х„ mv
3>V гхгу,'
Требуется определить з а ­
кон распределения случай­
ного векто р а V —
(рис. 1 2 . 8 . 1 ), составляю ­
щие которого равны;
X ~
Xj
-}-
Х 2;
у = у}+ у2.
Не представляет трудности качественно доказать (аналогично том у,
к ак мы это сделали для случая композиции д в ух нормальных за к о ­
нов в п° 12.6), что вектор V т а к ж е распределен нормально. Мы при­
мем это положение без специального до казательства.
->
Определим параметры закона распределения вектора V.
По теореме сложения математических ожиданий
mx = mXl-\-mx., \
т у = т У1
,
’
т У1. J
( 1 2 . 8 . 1)
К О М П О ЗИ Ц И Я
1281
НОРМАЛЬНЫХ
ЗА КОН ОВ НА П ЛО С К О С Т И
281
По теореме сложения дисперсий
( 12 . 8 . 2)
°У = "V, 4 ~ '& . |
По теореме сложения корреляционных моментов
К ху = Л Х:у, Н~ КХ2уг,
или. переходя к коэффициентам корреляции,
ГХУ<3Х°У — Г Х , у , ^ у , -+ - ТХгУ -рхРуг'
о ткуда
' ху
‘
(1 2 .8 .3 )
КК+ЗК+Ф
Т аким образом, задача композиции нормальных законов на пло­
скости реш ается формулами (1 2 .8 .1 ), (1 2 .8 .2 ) и (1 2 .8 .3 ).
Эти формулы выведены для того случая, ко гда оба исходных
•>
*>
нормальных закон а (для векторов V , и К 2) заданы в одной и той ж е
координатной системе хОу. На п рактике иногда встречается случай,
ко гда нужно произвести композицию д вух нормальных законов на
плоскости, каж ды й из которы х задан в своей системе координат,
а именно в своих главны х осях рассеивания. Дадим способ ком по­
зиции нормальных законов для этого случая.
П усть на плоскости хОу (рис. 1 2 .8 .2 ) даны два нормально рас-V
пределенных некоррелированных случайных вектора
и У2. Каждый
из векторов хар актери зуется своим единичным эллипсом рассеивания:
векто р У г— эллипсом с центром в точке т Х1, т У1 с полуосями о ;,, <зП1,
из которы х первая образует с осью Ох уго л о^; аналогичные
282
ЗАК О Н Ы Р А С П Р Е Д Е Л Е Н И Я Ф У Н К Ц И И
СЛ УЧ А Й Н Ы Х А РГУ М Е Н Т О В [Г Л . 12
характеристики для векто р а Р 2 б уд ут : т Хг, т У1, а
аь , а 2. Т ребуется
найти параметры единичного эллипса рассеивания, характеризую щ его
вектор V *
т х, т у. ах,
<*•
Так к а к положение центра рассеивания, не зависит от выбора
системы координат, очевидно, по-прежнему б уд ут справедливы соот­
ношения:
т х = mXl -f- т х%,
т у = т У[
т Уг.
Д ля того чтобы найти элементы корреляционной матрицы в е к ­
тора V, спроектируем случайные точки, соответствую щ ие векторам
>
>
Vx и V2, на оси Ojc и Оу. П ользуясь формулой (1 0 .3 .3 ), получим:
о2 = о2 co s 2 а . - ) - о2 sin 2 a .,
°y, ~ °t, S^"2 a i + ^ , C0 s 2 a i-
(1 2 .8 .4 )
<d. = e? ,COs3 e 2 - | - ei S,ll* e 2 o j — 0 2 S j n 2 £ _|_<,2 COS2 a , .
y,
t,
. ■ 4j
i
T-
Коэффициенты корреляции составляющ их векторов Vx и У ,
системе координат хОу найдем из соотношения (9 .2 .2 ):
в
* g 2‘ , « - < )
2V *
_
tg 2а2 (< £ ,-« * ,)
(1 2 .8 .5 )
2о* ° У .
Д алее задача композиции нормальных законов на плоскости сво ­
дится к предыдущ ей. Зная ох, оу , гху, можно найти у гл ы , составлен­
ные осями суммарного эллипса с осью абсцисс, по формуле (9 .2 .2 ):
tg 2 a =
1гхуахзу ')
.2
"У
( 12.8.6)
и главные средние квадратические отклонения — по формулам (9 .2 .4 ):
о- = Y
cos 2 a - f r xy<3x,3y sin 2a + ay si«2 a .
о41= yf roX2 sin 2a — r Xya
(1 2 .8 .7 )
a sin 2 a - j1 aУ2 co s 2 a .
X у
‘) Так как тангенс имеет период я, то значения а, определяемые по
формуле ( 12 .8 .6 ), могут различаться на ^ , что соответствует двум главным
осям эллипса.
12.8]
КОМПОЗИЦИЯ НОРМАЛЬНЫХ ЗАКОНОВ НА
плоскости
283
Последние соотношения справедливы не только для средних
квадратических отклонений, но и для пропорциональных им вероят­
ных отклонений:
=
У Е х1 с о е 2 а
гхуЕхЕу б 1п 2 а - { - £ £ зш 2 а ,
Е^ =* У & х бш2 а — г хуЕхЕу э т 2а - |- Е 2 сое2 а.
Перейдем к композиции произвольного числа нормальных законов
на плоскости.
С наиболее простым случаем композиции произвольного числа
нормальных законов мы встречаемся тогда, когда главные оси рас­
сеивания для всех законов, подлежащих композиции, параллельны
друг другу. Тогда, выбирая координатные оси параллельно этим
главным осям рассеивания, мы будем иметь дело с системами неза­
висимых случайных величин, и композиция нормальных законов вы­
полняется по простым формулам:
П
П
(12.8.9)
где ах, аХ{, ву,
— главные средние квадратические отклонения
соответствующих законов.
В случае, когда направления главных осей не совпадают, можно
составить композицию нескольких нормальных законов тем же мето­
дом, которым мы пользовались выше для двух законов, т. е. проек­
тируя складываемые случайные векторы на оси одной и той же си­
стемы координат.
На практике часто встречаются случаи, когда в числе законов,
подлежащих композиции, встречаются так называемые «вырожденные»
законы, т. е. законы, характеризующиеся эллипсом рассеивания, имею­
щим только одну полуось (другая равна нулю). Такие «вырожден­
ные» законы дают рассеивание только в одном направлении. При
композиции таких законов нужно поступать так же, как при ком­
позиции обычных законов, полагая некоторые параметры (средние
квадратические или вероятные отклонения) равными нулю.
П р и м е р 1. Ошибка бомбометания вызвана совместным действием
следующих факторов:
1) техническое рассеивание бомб;
2) неточность прицеливания по дальности;
3) неточная наводка в боковом направлении.
Все эти факторы независимы. Техническое рассеивание бомб дает единич­
ный эллипс рассеивания в виде круга радиусом 20 м. Ошибка прицеливания
284
ЗАКОН Ы
РА СП РЕДЕЛ ЕН И Я Ф УН КЦ И Й
С Л У Ч А Й Н Ы Х А РГУ М Е Н ТО В |ГЛ. 12
по дальности действует только в направлении полета и имеет среднее квад­
ратическое отклонение 40 м ; центр рассеивания сдвинут вперед по полету
на 5 м. Ошибка боковой наводки действует только в направлении, перпен­
дикулярном к полету, и имеет среднее квадратическое отклонение 30 м;
центр рассеивания смещен вправо на 10 м. Найти параметры нормального
закона, которому подчинена суммарная ошибка бомбометания, вызванная сонместным действием всех перечисленных факторов.
Р е ш е н и е . Так как главные оси всех перечисленных в задаче эллип­
сов (из которых второй и третий вырождены) параллельны, то можно при­
менить правило композиции нормальных законов с независимыми составляю­
щими (формулы (12.8.9)). Выбирая ось Оу по направлению полета, ось Ох —
перпендикулярно к нему, имеем:
т х = 10,
т у = 5,
а2 = 202 -I- 30* = 1300,
<зх = 36,1 (м),
о2 = 202 + 402 = 2000,
ау = 44,7 (л ).
П р и м е р 2. Производится воздушная стрельба с самолета по само­
лету; рассеивание точек попадания рассматривается на вертикальной пло­
скости, перпендикулярной к направлению стрельбы. Причины рассеивания
точек попадания состоят в следующем:
1) ошибки, связанные с неоднородностью баллистики снарядов и коле­
баниями установки;
2 ) ошибки наводки;
'
>
3) ошибки, вызванные неточностью определения дальности;
4) инструментальные ошибки прицела.
Главные оси рассеивания, вызванного первой причиной, расположены гори­
зонтально и вертикально, и главные средние квадратические отклонения
рпвны соответственно 1- и 2 м; ошибка наводки дает круговое рассеивание
со средним квадратическим отклонением 3 м\ ошибка, вызванная неточно­
стью определения дальности, дает рассеивание только вдоль оси, наклонен­
ной к горизонту под углом 30°, со с. к. о. 4 м\ инструментальные ошибки при­
цела дают круговое рассеивание со с. к. о. 2 м. Систематические ошибки
равны нулю.
Требуется найти параметры закона распределения суммарной ошибки,
вызванной всеми перечисленными факторами.
Р е ш е н и е . Выбираем систему координат с горизонтальной осью Ох
и вертикальной Оу. Эти оси являются главными осями рассеивания для всех
законов, кроме третьего (ошибки вследствие неточности определения даль­
ности). Обозначим составляющие каждой ошибки в системе координат хОу
соответственно:
Уй Х2, К2; Хл У3', Х„ У,.
Параметры этих составляющих равны соответственно:
т ■*1
х = т хг2 — т ЛЛ
г = т ХА
г = т .У» = т„У2 = т.,у* = т.,у< = 09;
аг
оУ|' = 2 ;
аг = У2 = 3 ;
о_
Х1 = 1;
-*« = о„У<=
. 2.
Что касается величин
и <зуа, то их мы определяем, проектируя случай­
ную точку ( Х 3, К3) на оси Ох и Оу по формулам (12.8.4):
= 42 сое2 30° = 12;
аУ2а = 42 в1п2 30° = 4.
12.8]
К О М П О ЗИ Ц И Я Н О РМ А Л Ь Н Ы Х
ЗАКО Н О В Н А
плоскости
285
Коэффициент корреляции величин (Х3, Y3) найдем по формуле (12.8.5)
-г*у*
tg 60° (12 — 4) _
2 1/ 48
что и естественно, так как рассеивание сосредоточено на одной прямой и,
следовательно, величины X ) и У3 зависимы функционально.
Применяя теорему сложения дисперсий, имеем:
4 = 4 , + 4 , + 4 , + 4, = 26;
4 = 4,
"Ь4%"ЬаУ, ~ 21;
= 5-09 (*);
ау ~ 4’5®
Коэффициент корреляции гху найдем, применяя теорему сложения кор­
реляционных моментов:
+ К ы + KXiyt = о + 0 + i ^
= к * .,, +
i + о,
откуда
г
4^ - У
_
*У~ 2PJ • 5,09 • 4,58 — '
Определим уго л а, который составляет с осью первая главная ось рас­
сеивания:
. 2 • 0,297 • 5,09 • 4,58
. „ ,п
tg2a=~ - 5 ,0 9 » - 4 ,5 8 » --------- ll34°2aw 69°30';
a « 3 4 ° 4 5 '.
По формулам (12.8.8) имеем:
°t= V
4 cos2“+ гхуахяу sIn 2 я + 4 sln? 0 ~
°т, =* У " о 2
sin 2 я
— гх у чх ау
sin 2а -| -
о2 C 0 S 2a =
4,22 (м).
Г Л А В А
13
ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ
13.1. Закон больш их чисел и центральная предельная теорем а
В начале кур са мы у ж е говорили о том, что математические
законы теории вероятностей получены абстрагированием реальных
статистических закономерностей, свойственных массовым случайным
явлениям. Наличие этих закономерностей связано именно с м ассо­
востью явлений, то есть с большим числом выполняемых однородных
опытов или с большим числом складываю щ ихся случайных воздей­
ствий, порождающих в своей совокупности случайную величину, под­
чиненную вполне определенному закон у. Свойство устойчивости м ас­
совых случайных явлений известно человечеству еще с глубокой
древности. В какой бы области оно ни проявлялось, суть его сводится
к следую щ ему: конкретные особенности каж дого отдельного случай ­
ного явления почти не сказы ваю тся на среднем р езул ьтате массы
таки х явлений; случайные отклонения от среднего, неизбежные в к а ж ­
дом отдельном явлении, в массе взаимно погаш аю тся, нивелируются,
выравниваю тся. Именно эта у с т о й ч и в о с т ь с р е д н и х и п р ед­
ставляет собой физическое содержание «зако н а больших чисел», пони­
маемого в широком смысле слова: при очень большом числе случай­
ных явлений средний их результат практически перестает быть случай­
ным и может быть предсказан с большой степенью определенности.
В узко м смысле слова под «законом больших чисел» в теории
вероятностей понимается ряд математических теорем* в каж дой из
которых для тех или иных условий устанавливается факт приближе­
ния средних характери сти к большого числа опытов к некоторым
определенным постоянным.
В п° 2 .3 мы у ж е формулировали простейшую из этих теорем —
теорем у Я. Бернулли. Она утвер ж дает, что при большом числе опы­
тов частота события приближается (точнее — сходится по вероятно­
сти) к вероятности этого события. С другими, более общими фор­
мами закона больших чисел мы познакомимся в данной гл аве. Все
они устанавливаю т факт и условия сходимости по вероятности тех
или иных случайных величин к постоянным, не случайным величинам.
13.2]
Н Е РА В Е Н С Т В О ЧЕБЫ Ш ЕВА
287
Закон больших чисел играет важную роль в практических приме­
нениях теории вероятностей. Свойство случайных величин при опре­
деленных услови ях вести себя практически к а к не случайные позволяет
уверенно оперировать с этими величинами, предсказы вать р езул ь­
таты массовых случайных явлений почти с полной определенностью.
Возможности таки х предсказаний в области массовых случайных
явлений еще больше расширяются наличием другой группы предель­
ных теорем, касаю щ ихся уж е не предельных значений случайных
величин, а предельных законов ра сп р ед елен и я . Речь идет о группе
теорем, известных под названием «центральной предельной тео р ем ы ».
Мы у ж е говорили о том, что при суммировании достаточно большого
числа случайных величин закон распределения суммы неограниченно
приближается к нормальному при соблюдении некоторых условий.
Эти услови я, которы е математически можно формулировать различным
образом — в более или менее общем в и д е , — по сущ еству сводятся
к требованию, чтобы влияние на сум м у отдельных слагаемых было
р а в н о м ер н о м а л ы м , т. е. чтобы в состав суммы не входили члены,
явно преобладающие над совокупностью остальных по своему влия­
нию на рассеивание суммы. Различные формы центральной предельной
теоремы различаются м еж ду собой теми условиями, для которых
устан авливается это предельное свойство суммы случайных величин.
Различные формы закона больших чисел вместе с различными
формами центральной предельной теоремы образую т совокупность
т ак называемых предельных т е о р е м теории вероятностей. П редель­
ные теоремы дают возможность не только осущ ествлять научные
прогнозы в области случайных явлений, но и оценивать точность
этих прогнозов.
В данной главе мы рассмотрим только некоторые, наиболее про­
стые формы предельных теорем. Сначала б удут рассмотрены теоремы,
относящиеся к группе «зако н а больш их чисел», затем ^ т е о р е м ы ,
относящиеся к группе «центральной предельной теорем ы ».
1 3 .2 . Н е р а в е н ст в о Ч еб ы ш ева
В качестве леммы, необходимой для до казательства теорем, отно­
сящ ихся к группе «зако н а больш их чисел», мы докаж ем одно весьма
общее неравенство, известное под названием н е р ав ен ств а Чебышева.
П усть имеется случайная величина X с математическим ож ида­
нием т х и дисперсией Пх. Н еравенство Чебыш ева утвер ж дает, что,
како во бы ни было положительное число а , вероятность того, что
величина X отклонится от своего математического ожидания не меньше
чем на а, ограничена сверху величиной
:
Я ( | Л Г - т ,| > а )< ^ .
(1 3 .2 .1 )
288
П РЕДЕЛЬН Ы Е
Доказательство.
распределения
ТЕО РЕМ Ы
ТЕО РИ И
ВЕРО ЯТН О СТЕЙ
[Г Л . 13
1. П усть величина X прерывная, с рядом
х 1 \\х1 \х2 \. . . \ х п
Р1\ \Р\\ Рг \ • • • \Рп ’
Изобразим возможные значения величины X и ее математическое
ожидание т х в виде точек на числовой оси Ох (рис. 1 3 .2 .1 ).
Зададимся некоторым значением а > 0 и вычислим вероятность
того, что величина X отклонится от своего математического ож и да­
ния не меньше чем на а :
Р ( \ Х ~ т ,| > а ) .
(1 3 .2 .2 )
Д ля этого отложим от точки т х вправо и влево по о тр езку дли ­
ной а ; получим отрезок АВ. Вероятность (1 3 .2 .2 ) есть не что иное,
к а к вероятность того, что
а. т а.
случайная точка X попадет
------- 1
» - -— ;— . . . . £. не внутрь отрезка А В , а
Х ц Х„
ил X)' X2, Xз, А\
ва **'
«
вовне его:
Р (\ Х — т х | > а ) =
= Р (Х ф А В У ).
Рис. 13.2.1.
Д ля того чтобы найти эту вероятность, нужно просуммировать
вероятности всех тех значений х г которы е леж ат вне о тр езка АВ.
Это мы запишем следующим образом:
Р(\Х — т х | > а ) =
2р 1г
| * Г т * 1>а
(1 3 .2 .3 )
где запись \х{ — т х |^>а под знаком суммы означает, что суммиро­
вание распространяется на все те значения I, для которы х точки х 1
леж ат вне отрезка АВ.
С другой стороны, напишем выражение дисперсии величины X
По определению:
Ох = М [ ( Х — т х) Ц = '^ 1 {х1 — т х¥ р , = = % \х1 ~ т х \2р 1.
г=1
1=1
(1 3 .2 .4 )
Т ак к ак все члены суммы (1 3 .2 .4 ) неотрицательны-, она может
только уменьш иться, если мы распространим ее не на все значения х г,
а только на некоторые, в частности на те, которые леж ат вне
отрезка АВ:
£>х>
2
\х1 — т х \2р 1.
Iхг т х |>а
') Концы отрезка АВ мы в него не включаем.
(1 3 .2 .5 )
13.21
289
Н Е РА В Е Н С Т В О ЧЕБЫ Ш ЕВА
Заменим под знаком суммы выражение | х ,— т х\ через а . Т ак как
для всех членов суммы \хг —
т о от такой замены сумма
тож е может только уменьш иться; значит,
Ох >
2
|хГ 1Яг |>«
=
2
\ * Г т х\>*
Р*
(1 3 .2 .6 )
Но согласноф ормуле (1 3 .2 .3 ) сум м а, стоящ ая в.правой части (1 3 .2 .6 ),
есть не что иное, к а к вероятность попадания случайной точки вовне
отрезка АВ\ следовательно,
0 , > а 2/ > ( | * - т , | > а ) ,
о ткуд а непосредственно вы текает доказы ваем ое неравенство.
2. В случае, ко гда величина X непрерывна, до казательство про­
водится аналогичным образом с заменой вероятностей р , элементом
вероятности, а конечных сумм — интегралами. Д ействительно,
Р{\Х — 1Я*| > < * )=
/
/ (* )< * * » ).
(1 3 .2 .7 )
\ х - т х \>ч
где /,(х) — плотность распределения величины X . Д алее, имеем:
сО
СО
Ох ~ £ ( х — т х? / ( х ) й х = ^ |д: — т х \2 / (х )
>
—ОО
— со
>
\х — т х [2 / (х) Л х ,
где знак \ х — т х | > а под интегралом означает, что интегрирова­
ние распространяется на внешнюю часть отр езка АВ.
Заменяя \ х — т х \ под знаком интеграла через а, получим:
£ > *> а 2
J
/ ( х ) й х = з а ? Р ( \ Х — т х \ > а .),
\ х - т х \>*
о ткуд а и вы текает неравенство Чебыш ева для непрерывных величин.
П р и м е р . Д ана случайная величина X с математическим ож ида­
нием т х и дисперсией о2. Оценить свер ху вероятность то го , что
величина X отклонится от своего математического ожидания ив
меньше чем на 3 ах.
Р е ш е н и е . П олагая в неравенстве Чебыш ева а = Зах , имеем:
/ > ( | * - л М > З в, ) < - £ § - = £
') Знак >• заменен знаком >, так как для непрерывной величины вероят«
ность точного равенства равна нулю.
290
П РЕ Д Е Л Ь Н Ы Е
ТЕО РЕМ Ы
ТЕО РИ И
ВЕРО ЯТН О СТЕЙ
[ГЛ . 13
т. е. вероятность то го , что отклонение случайной величины от ее
математического ожидания вы йдет за пределы тр ех средних к в а д р а ­
тических отклонений, не мож ет быть больше
П р и м е ч а н и е . Н еравенство Чебышева дает то лько в е р х н ю ю
г р а н и ц у вероятности данного отклонения. Выше этой границы
вероятность не может быть ни дри каком законе распределения.
На практике в большинстве случаев вероятность то го , что величина X
выйдет за пределы уч астка т х ± Зо^, значительно меньше
Н апри­
мер. для нормального закона -эта вероятность приблизительно
равна 0 ,0 0 3 . На практике чаще всего мы имеем дело со случайными
величинами, значения которы х только крайне редко вы ходят за п ре­
делы т х ±Ъах. Если закон распределения случайной величины неиз­
вестен, а известны только т х и ах, на практике обычно считают
отрезок т х ± Зог участке™ практически возможных значений случайной
величины (так называемое «правило трех сигм&>).
чЛ З.З. З ако н б о л ьш и х ч и сел (т е о р е м а Ч е б ы ш е в а )
В данном п° мы до каж ем одну из простейших, но вместе с тем
наиболее важ ны х форм закона больших чисел — теорему Чебышева.
Эта теорема устан авливает связь м еж д у средним арифметическим
наблюденных значений случайной величины и ее математическим
ожиданием.
П редварительно решим следующ ую вспомогательную задач у.
И меется случайная величина X с математическим ожиданием т х
и дисперсией Ох . Л а д этой величиной производится п независимых
опытов и вычисляется среднее арифметическое всех наблюденных
значений величины X . Т ребуется найти числовые характеристики
этого среднего арифметического — математическое ожидание и диспер­
сию.— и выяснить, как они изменяются с увеличением п.
Обозначим:
Х х — значение величины X в первом опыте;
Х 2 — значение величины X во втором опыте, и т . д.
Очевидно, совокупность величин Х 1г Х 2, . . . . Х п представляет
собой п независимых случайных величин, каж д ая из которых распре­
делена по тому же зако н у, что и сама величина X . Рассмотрим
среднее арифметическое этих величин:
П
М
п
Случайная величина К есть линейная функция независимых с л у ­
чайных величин Х х, Х 2»
Х П. Найдем математическое ожидание
1Э.Э]
ЗА К О Н Б О Л ЬШ И Х Ч И С Е Л
291
(ТЕОРЕМА' Ч Е Б Ы Ш Е В А )
и дисперсию этой величины. Согласно правилам п° 10 для определения
числовых хар актери сти к линейных функций получим:
П
«, = Л 1т—
—пт, — т
1=г
п
х
*'
п
\
И так, математическое ожидание величины У не зависит от числа
опытов п и равно математическому ожиданию наблюдаемой вели­
чины Х\ что касается дисперсии величины У, то она неограниченно
уб ы вает с увеличением числа опытов и при достаточно большом п
может быть сделана сколь угодно малой. Мы уб еж даем ся, что среднее
арифметическое есть случайная величина со сколь угодно малой ди с­
персией и при большом числе опытов ведет себя п о ч т и к а к н е
случайная.
Теорема Чебыш ева и устан авливает в точной количественной
форме это свойство устойчивости среднего арифметического. Она
ф ормулируется следующим образом:
При д о с т а т о ч н о большом числе независимых опытов среднее
арифметическое наблюденных значений, случайной величины
сх о д и т ся по в ер оя тн ости к ее м а т е м а т и ч е с к о м у ожиданию.
Запишем теорему Чебыш ева в виде формулы. Д ля этого напомним
смысл термина «сходи тся по вероятности». Говорят, что случайная
величина Х п сходится по вероятности к величине а , если при увел и ­
чении п вероятность того, что Х п и а б удут сколь угодно близки,
неограниченно приближается к единице, а это значит, что при
достаточно большом п
Р {\*п~ а\ < 0 > 1 -
8,
где е, 8 — произвольно малые положительные числа.
Запишем в аналогичной форме теорем у Чебыш ева. Она утвер ж д ает.
я
что при увеличении п среднее арифметическое
— сходится по
вероятности к т х, т. е.
(13.3 . 1)
Д о каж ем это неравенство.
292
П РЕ Д Е Л Ь Н Ы Е
Т ЕО РЕМ Ы
Доказательство.
ТЕО РИ И
ВЕРО ЯТН О СТЕЙ
[Г Л .
1а
Выш е было показано, что величина
П
2 *
1*1
п
имеет числовые характеристики
О,
■тх\ £>у = - ^ - .
Применим к случайной величине У неравенство Чебыш ева, полагая
а — е:
£>у
О,
Р (\ У -ту
К ак бы мало ни было число е, можно взять п таким большим,
чтобы выполнялось неравенство
О,
где 5 — сколь угодно малое число
Тогда
/ п
I
\
2 *1
Р1
п
------------ т
■'
\
> ч
4
о ткуд а, переходя к противоположному событию, имеем:
П
2 *<
;=1
т у < е / > 1 — 8.
что и требовалось до казать.
13.4. Обобщенная теорем а Чебышева. Теорема Маркова
Теорема Чебыш ева легко может быть обобщена на более сл ож ­
ный случай, а именно ко гда закон распределения случайной вели­
чины X от опыта к опыту не остается одним и тем ж е, а изменяется.
Т огда вместо среднего арифметического наблюденных значений одной
и той же величины X с постоянными математическим ожиданием и
дисперсией мы имеем дело со средним арифметическим п различных
случайных величин, с различными математическими ожиданиями и
дисперсиями. О казы вается, что и в этом случае при соблюдении
некоторых условий среднее арифметическое является устойчивым и
сходится по вероятности к определенной неслучайной величине.
О БО БЩ Е Н Н А Я
1М ]
Т ЕО РЕМ А Ч Е Б Ы Ш Е В А .
Т ЕО РЕМ А
М АРКО ВА
293
Обобщенная теорема Чебыш ева ф ормулируется следующим образом.
Если
X
^ 2* >■* > Х „ ---
независимые случайные величины с м а тем а ти ч еск и м и ож ида­
ниями
^дг(>
............т Хп
и дисперсиями
............ О ,
и если все дисперсии ограничены сверху одним
числом и
Ох . < Ь
(Г = 1, 2,
П).
и т е м же
т о при возрастании п среднее арифметическое наблюденных
значений величин Х\, Х 2.
Х п с х о д и т с я по в ер о я тн о ст и
к среднему арифметическому их м а т е м а т и ч е с к и х о ж иданий1).
Запишем эту теорем у в виде ф ормулы. П усть е, 8 — сколь угодно
чалые положительные числа. Т огда при достаточно большом я
; =1
/=1
Доказательство.
< е / > 1 — 8.
(1 3 .4 .1 )
Рассмотрим величину
„
2 *<
<=1
Ее математическое ожидание равно:
т и
П
а дисперсия
п
<«1
*) То есть разность между тем и другим
сходится по вероятности к нулю.
средним
арифметическим
294
ПРЕДЕЛЬНЫЕ
ТЕО РЕМ Ы
ТЕ ОРИ И
ВЕРО ЯТ Н ОС ТЕЙ
[Г Л .
13
Применим к величине У неравенство Чебыш ева:
(1 3 .4 .2 )
Заменим в правой части неравенства (1 3 .4 .2 ) каж дую из вели ­
чин й Х1 большей величиной' Ь. Т огда неравенство только усилится:
К ак бы мало ни было е, можно выбрать п настолько большим,
чтобы выполнялось неравенство
тогда
о ткуда, переходя к противоположному событию, получим доказы ваем ое
неравенство (1 3 .4 .1 ).
Закон больших чисел может быть распространен и на зависимые
случайные величины. Обобщение закона больших чисел на случай
зависимых случайных величин принадлежит А. А. М аркову.
Т е о р е м а М а р к о в а . Если им ею тся зависимые случайные
величины Х х, Х 2.
X п и если при п —>оо
т о среднее ариф метическое наблюденных значений случайны х
величин Х х, Х 2, . . . , Х п с х о д и т с я по в е р о я т н о с т и к среднем у
ар и ф м ети ч еск ом у их м а т е м а т и ч е с к и х ожиданий.
Д о к а з а т е л ь с т в о . Рассмотрим величину
18.81
295
ТЕОРЕМА БЕРНУЛ ЛИ И ПУАССОНА
Очевидно,
,
Применим к величине У неравенство Чебышева:
Я ( | К - / и у| > е ) < - ^ .
Так как по условию теоремы при п —>-оо О у - > 0, то при доста­
точно большом п
Я ( | К - т у| > е ) < 8 ,
или, переходя к противоположному событию,
Р ( ( К - т уК е ) = />\
2
*= 1
а
2
/=1
л
*
что и требовалось доказать.
< е / > 1 — 8,
*
13.5. Следствия закона больш их чисел:
*0^
теоремы Бернулли и Пуассона
Известная теорема Я. Бернулли, устанавливающая связь между
частотой события и его вероятностью, может бьгоь доказана как пря­
мое следствие закона больших чисел.
Пусть производится я независимых опытов, в каждом из которых
■может появиться или не появиться некоторое событие А, вероятность
которого в каждом опыте равна р. Теорема Я. Бернулли утверждает,
что при неограниченном увеличении числа опытов п частота
события А сходится по вероятности к его вероятности р.
Обозначим частоту события А в и опытах через Р* и запишем
теорему Я. Бернулли в виде формулы
/»(!/»* — р | < « > > ! — ».
(13.5.1)
где е, 5 — сколь угодно малые положительные числа.
Требуется доказать справедливость этой формулы при достаточно
большом п.
Д о к а з а т е л ь с т в о . Рассмотрим независимые случайные ве­
личины:
Х х — число появлений события А в первом опыте;
Х г — число появлений события А во втором опыте, и т. д.
296
П РЕ Д Е Л Ь Н Ы Е
ТЕО РЕМ Ы
ТЕО РИ И
ВЕРО ЯТН О СТЕЙ
ГГЛ
13
Все эти величины прерывны и имеют один и тот ж е закон р ас­
пределения, выражаемый рядом вида:
0
1
я р
где <7 = 1 — р. М атематическое ожидание каж дой из величин Х 1
■равно р, а ее дисперсия рд (см. д° 1 0 .3 ).
Частота Р* представляет собой не что иное, к а к среднее ариф­
метическое величин Х 1г Х 2............ Х п\
и, согласно закону больших чисел, сходится по вероятности к общему
математическому ожиданию этих случайных величин. Отсюда и сл е­
дует справедливость неравенства (1 3 .5 .1 ).
Теорема Я. Бернулли утвер ж дает устойчивость частоты при
постоянных условиях опыта. Но при изменяющихся условиях опыта
аналогичная устойчивость т а к ж е сущ ествует. Т еорема, устанавливаю ­
щ ая свойство устойчивости частот при переменных условиях опыта,
назы вается теор ем ой Пуассона и ф ормулируется следующим
образом:
Если производится п независимых опытов и вероятность
появления события А в 1-м опыте равна Р[. т о при увеличе­
нии п ч а с т о т а события А сходится по вер оя тн о сти к сред­
нему арифметическому вероятностей р г
Теорема П уассона выводится из обобщенной теоремы Чебышева
точно т а к ж е, к а к теорема Бернулли была выведена из закона
больших чисел.
Теорема П уассона имеет большое принципиальное значение для
практического применения теории вероятностей. Д ело в том, что
зачастую вероятностные методы применяются для исследования явл е­
ний, которы е в одних и тех ж е условиях не имеют шансов повто­
риться достаточно много раз, но повторяются многократно при весьма
разнообразных услови ях, причем вероятности интересующих нас собы­
тий сильно зависят от этих условий. Н апример, вероятность пораж е­
ния цели в воздушном бою сущ ественно зависит от дальности
стрельбы , р акур са цели, высоты полета, скорости стреляющего
самолета и цели и т. д . Комплекс этих условий слишком многочислен
для то го , чтобы можно было рассчитывать на многократное о сущ е­
ствление воздуш ного боя именно в данных фиксированных условиях.
И все ж е, несмотря на это, в данном явлении налицо определенная
устойчивость частот, а именно частота поражения цели в реальных
воздуш ных боях, осущ ествляем ы х в самых разных услови ях, будет
М А ССО ВЫ Е С Л У Ч А Й Н Ы Е Я В Л Е Н И Я
297
приближаться к с р е д н е й в е р о я т н о с т и поражения цели, х ар ак ­
терной для данной группы условий. П оэтом у те методы организации
стрельбы, которые основаны на максимальной вероятности поражения
цели, б удут оправданы и в данном случае, несмотря на то , что
, нельзя ожидать подлинной массовости опытов в каж дом определен­
ном комплексе условий.
Аналогичным образом обстоит дело в области опытной проверки
. вероятностных расчетов. На практике очень часто встречается с л у ­
чай, ко гда требуется проверить на опыте соответствие вычисленной
вероятности какого-ли бо события А его фактической частоте. Чаще
всего это делается для то го , чтобы проверить правильность той или
иной теоретической схем ы , положенной в основу метода вычисления
вероятности события. Зачастую при такой экспериментальной про­
. верке не удается воспроизвести достаточно много раз одни и те же
условия опыта. И все же эта проверка может быть осущ ествлена,
если сравнить наблюденную в опыте частоту события не с его
вероятностью для фиксированных условий, а со с р е д н и м а р и ф ­
м е т и ч е с к и м вероятностей, вычисленных для различных условий.
13.6. Массовые случайные явления и центральная
предельная теорем а
В предыдущ их п°п° мы рассмотрели различные формы закон а
. больших чисел. Все эти формы, к а к бы они ни были различны,
утверж даю т одно: факт сходимости по вероятности тех или иных
I случайных величин к определенным постоянным. Ни в одной из форм
закона больших чисел мы не имеем дела с з а к о н а м и р а с п р е ­
, д е л е н и я случайных величин. Предельные законы распределения
| составляют предмет другой группы теорем — центральной предельной
теоремы , которую иногда называют «количественной формой закона
; больших чисел».
Все формы центральной йредельной теоремы посвящены устаног олению условий, при которых возникает нормальный закон распреде­
ления. Т ак к ак эти условия на практике весьма часто выполняются,
' нормальный закон является самым распространенным из закойов рас< пределения, наиболее часто встречающимся в ' случайных явлениях
природы. Он возникает во всех случаях, ко гда исследуемая с л у ­
чайная величина может быть представлена в виде суммы достаточ­
но большого числа независимых (или слабо зависимых) элементар| |ных слагаем ы х, каж до е из которы х в отдельности сравнительно мало
>. влияет на сум м у.
B теории стрельбы нормальный закон распределения играет особо
важную роль, т ак к ак в большинстве случаев практики координаты
' точек попадания и точек разры ва снарядов распределяю тся по но
■ мальному закон у. Объяснить это можно на следую щ ем примере.
f
298
ПРЕДЕЛЬНЫЕ
ТЕО РЕМ Ы
ТЕО РИ И
В ЕРО ЯТ Н ОС ТЕ Й
[Г Л .
13
П усть производится стрельба по некоторой плоской мишени,
с центром которой (точкой прицеливания) связано начало координат.
Точка попадания хар актер и зуется двум я случайными величинами: Л' и К.
Рассмотрим одну из них, например отклонение X точки попадания
от цели в направлении оси Ох. Это отклонение вызвано совокупным
действием очень больш ого количества сравнительно малых ф акторов,
к а к -т о : ошибка наводки, ошибка в определении дальности до цели,
вибрации орудия и устан овки при стрельбе, ошибки изготовления
снаряда, атмосферные условия и т. д. К аж дая из этих причин создает
элементарную ош ибку — отклонение снаряда от цели, и координата
снаряда X может быть представлена как сумма таки х элементарных
отклонений:
Х = Х : - { - Х 2-\- . . . -\ -Х я ~^- . . . .
(1 3 .6 .1 )
где Х х, Х 2, . . . — отклонения, вызванные отдельными факторами.
Т ак к а к этих ф акторов очень много, м еж ду собойч они являются
в основном независимыми и по влиянию на сум м у отдельные сл агае­
мые можно считать приблизительно равномерно малыми, то налицо
условия применимости центральной предельной теоремы , и вели­
чина (1 3 .6 .1 ) должна подчиняться закону распределения, близкому
к нормальному.
•
О становимся несколько подробнее иа иашем утверж дении о при­
близительно равномерно малом влиянии каж до го из слагаем ы х на
сум м у. Смысл его в том, что среди элементарных ош ибок стрельбы
нет ни одной резко превалирующей над суммой всех остальных.
Д ействительно, если бы такая ошибка была, нужно дум ать, что,
составляя правила стрельбы или конструируя прицельный прибор, мы
постарались бы ликвидировать эту ош ибку и учесть заранее самую
значительную причину, отклоняющую снаряд от цели. Неучтенные
случайные ф акторы, создающ ие рассеивание, обычно характерны
своей равномерной малостью и отсутствием среди них резко преоб­
ладающих. Именно поэтому закон распределения точек попадания
снарядов (или закон распределения точек разры ва снарядов при
дистанцнонной стрельбе) обычно принимается нормальным *).
Н ормальный закон распределения является доминирующим не
только в теории стрельбы , но и во многих други х областях, напри­
мер в теории ошибок измерения. Именно исходя из теории ошибок
измерения нормальный закон и был впервые обоснован Лапласом и
Гауссом. Д ействительно, в большинстве случаев ошибки, возникаю ­
') В некоторых случаях стрельбы фактическое распределение точек по­
падания на плоскости может сильно отличаться от нормального, например,
при стрельбе в резко переменных условиях, когда центр рассеивания и ве­
роятное отклонение в процессе стрельбы заметно меняются. Однако в таких
случаях мы фактически имеем дело не с законом распределения координат
точки попадания при одном выстреле, а со средним из таких законов-для
различных выстрелов.
ХАРАКТЕРИСТИЧЕСКИЕ
ФУНКЦИИ
299
щие при измерении тех или иных физических величин, распреде­
ляются именно по нормальному закону; причина этого в Том, что
такие ошибки, как правило, складываются из многочисленных незави­
симых элементарных ошибок, порождаемых различными причинами.
Долгое время нормальный закон считался единственным и универ­
сальным законом ошибок. В настоящее время взгляд на нормальным
закон как на единственный и универсальный должен быть пересмотрен
(опыт показывает, что в ряде процессов измерения и производства
наблюдаются законы распределения, отличные от нормального), но
все же нормальный закон остается самым распространенным и самым
важным для практики законом ошибок.
13.7. Х арактеристические функции
Одна из наиболее общих форм центральной предельной теоремы
была доказана А. М. Ляпуновым в 1900 г. Для доказательства этой
теоремы А. М. Ляпунов создал специальный метод х а р а к т е р и ­
с т и ч е с к и х ф у н к ц и й . В дальнейшем этот метод приобрел само­
стоятельное значение и оказался весьма мощным и гибким методом,
пригодным для решения самых различных вероятностных задач.
Характеристической функцией случайной величины X назы­
вается функция
g { t ) = M \ e i^x\,
(13.7.1)
где I —^мнимая единица. Функция g( t ) представляет собой математи­
ческое ожидание некоторой комплексной случайной величины
и = е“х,
функционально связанной с величиной X . При решении многих задач
теории вероятностей оказывается удобнее пользоваться характеристи­
ческими функциями, чем законами распределения.
Зная закон распределения случайной величины А", легко найти
ее характеристическую функцию.
Если X — прерывная случайная величина с рядом распределения
XI
X,
XI
...
хп
Р1
Р\
Рг
...
Рп
то ее характеристическая функция
5 4 0 = 2 «"**/>*•
(13.7.2)
300
П РЕ Д Е Л Ь Н Ы Е
Т ЕО РЕМ Ы
ТЕО РИ И
ВЕРО ЯТН О СТЕЙ
[Г Л . 13
Если X — непрерывная случайная величина с плотностью распреде*
ления / (х), то ее характери сти ческая функция
СЮ
* (0
(1 3 .7 .3 )
— СО
П р и м е р 1. Случайная величина X — число попаданий при одном
выстреле. Вероятность попадания равна р. Найти характеристическую функ­
цию случайной величины X
Р е ш е н и е . По формуле (13.7.2) имеем:
£ (*) = в11'0 (1 — р) + еи‘1р = ц 4 - е“ р,
где 9 = 1 — р.
П р и м е р 2. Случайная величина X имеет нормальное распределение:
х1
М х)— ^
в' т -
(Ш 4 >
Определить ее характеристическую функцию.
Р е ш е н и е . По формуле (13.7.3) имеем:
/•
g (0 =
2~
1
I е‘1х
./
—со
г— е
V 2 тс
,
1
Г 11х—Т"
Л х = ".г __
е
ах­
V 2 л -с•/о
(13.7.5)
Пользуясь известной формулой
оо
___
А С -В*
£ е - Ахг*™х~с й х =
~
—оо
и имея в виду, что Р = — 1 , получим:
g(t) = e ■* .
(13.7.6)
Формула (1 3 .7 .3 ) вы р аж ает характеристическую функцию g (t)
непрерывной случайной величины X через ее плотность распределе­
ния f (х). Преобразование (1 3 .7 .3 ), которому нужно подвергнуть / ( х ),
чтобы получить g(t), назы вается преобразованием Фурье. В курсах
математического анализа до казы вается, что если функция g (t) вы р а­
ж ается через f (х) с помощью преобразования Ф урье, то, в свою
очередь, функция / (х) вы раж ается через g ( t ) с помощью так назы­
ваемого об р а т н о г о преоб разования Фурье-.
ОО
f e - ‘‘* g (t)d t 1).
аз.7 .7 )
') В n°n° 1/.3, 1ТА будут выведены те же преобразования Фурье, свя­
зывающие корреляционную функцию и спектральную плотность.
13.71
ХА РА КТЕРИ С ТИ ЧЕС КИ Е
ФУНКЦ ИИ
'
301
Сформулируем и докажем основные с в о й с т в а х а р а к т е р и ­
с т и ч е с к и х фу нкций.
1. Если случайные величины X и У связаны соотношением
У = аХ,
где о — неслучайный множитель, т о их характеристические
функции связаны соотношением:
(О = *,(«*)•
(13.7.8)
Доказательство:
(<) = м [еиу\= М [е“ аХ] — М [е1<
■
<
“ )х) = £,(а02. Х ар а кте р и сти ческа я функция суммы независимых слу­
чайных величин равна произведению характеристических функ­
ций слагаемых.
Д о к а з а т е л ь с т в о . Даны Х х, Х 2....... Х п — независимые слу­
чайные величины с характеристическими функциями
и их сумма
ё Лх\ (0. В х2 (0 ....... 4. ё ЛхП (0
У = Ъ х к.
Требуется доказать, что
03.7.9)
в,< !) = П е хЛ0’
к=1 *
Имеем
[
П
н £ хк 1
е *-« ]
г «
и
|^17 е/,Л*1 .
Так как величины Х к независимы, то независимы и их функции еих*.
По теореме умножения математических ожиданий получим:
* , ( 0 = П л Ф <1Х* ]= П в г , со.
к=1
Л=1 »
что и требовалось доказать.
Аппарат характеристических функций часто применяется для ком­
позиции законов распределения. Пусть, например, имеются две не*
зависимые случайные величины X и У с плотностями распределе­
ния /! (* ) и /2(у). Требуется найти плотность распределения величины
г = х+ у.
фто можно выполнить следующим образом: найти характеристиче­
ские функции gx {t) и g y (t) случайных величин X и У и, перемножив
302
П РЕД ЕЛ ЬН Ы Е
ТЕО РЕМ Ы
ТЕО РИ И
В ЕР О Я Т Н О С Т ЕЙ
[ГЛ. 13
их, получить характеристическую функцию величины Z:
£*(*)=»£* (0 £*<0.
после чего, подвергнув g z(t) обратному преобразованию Фурье, найти
плотность распределения величины Z:
|_и
= ^
/ е-‘" е л 1)йи
П р и м е р 3. Найти с помощью характеристических функций компози­
цию двух нормальных законов:
f l( x )
с характеристиками т х — 0 ; ах\
(у)
с характеристиками т у — 0 ; оу.
/2
Р е ш е н и е . Находим характеристическую функцию величины X. Для
этого представим ее в виде
х = *ки,
где т и = 0 ; аа = 1 .
Пользуясь результатом примера 2, найдем
£а(0 = *
2.
Согласно свойству 1 характеристических функций,
(V У
ё х (0 = Ёи (а* 0 = е
Аналогично
(0 = *
Перемножая
(/) и
2 .
(У-У
2 .
(?)> имеем:
(0 = е
(°Н ) „
2
а это есть характеристическая функция нормального закона с параметрами
т г = 0; ог = V<?х + о2. Таким образом, получена композиция нормальных
законов гораздо более простыми средствами, чем в п° 1 2 .6 .
13.8. Центральная предельная теорема для одинаково
распределенных слагаемых
Различные формы центральной предельной теоремы отличаются
между собой условиями, накладываемыми на распределения образую­
щих сумму случайных слагаемых. Здесь мы сформулируем и докажем
одну из самых простых форм центральной предельной теоремы, отно­
сящуюся к случаю одинаково распределенных слагаемых.
13.8]
ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА
303
Т е о р е м а . Если Х х, Х 2, . . . . Х п, . . . — независимые случай­
ные величины, имеющие один и тот же закон распределения
с математическим ожиданием т. и дисперсией о2, то при не­
ограниченном увеличении п з акон распределения суммы
П
(13.8.1)
неограниченно приближается к нормальному.
Доказательство.
Проведем доказательство для случая непрерывных случайных ве­
личин Х х..........Х п (для прерывных оно будет аналогичным).
Согласно второму свойству характеристических функций, дока­
занному в предыдущем п°, характеристическая функция величины К„
представляет собой произведение характеристических функций слага­
емых. Случайные величины Х х,
., X „ имеют один и тот же закон
распределения с плотностью / (х) и, следовательно, одну и ту же
характеристическую функцию
00
(13.8.2)
— 00
Следовательно, характеристическая функция случайной величины Кя
будет
* , „ ( 0 = 1£х(01".
(13.8.3)
Исследуем более подробно функцию g x {t). Представим ее в окрест­
ности точки £ = 0 по формуле Маклорена с тремя членами:
где <*(*)—>• 0 при *-*•().
Найдем величины g x ^$)), £^(0), §"(0). Полагая в формуле (13.8.2)
' / = 0 , имеем:
со
(13.8.5)
— 00
Продифференцируем (13.8.2) по V.
00
£ ХУ ) =
СО
J 1хеа х / ( х) й х = / J х е и* / ( х ) й х .
—оо
—оо
( 1 3 .8 . 6 )
304
П РЕД ЕЛ ЬН Ы Е
ТЕО РЕМ Ы
ТЕО РИ И
В ЕР О Я Т Н О С Т ЕЙ
[ГЛ . 18
Полагая в (13.8.6) £= 0, получим:
СО
£ХФ ) = 1 J
—
*/(лг)Л е= = Ш [*!= = /«.
(13.8.7)
00
Очевидно, не ограничивая общности, можно положить т = 0 (для
этого достаточно перенести начало отсчета в точку т ). Тогда
^ ;(0 )= 0 .
Продифференцируем (13.8.6) еще раз:
СО
/ х Ч Нх/{х )й х ,
£■” (0 = —
— СО
отсюда
со
£< 0) = -
/ х Ч (х )й х .
(13.8.8)
-СО
При т — 0 интеграл в выражении (13.8.8) есть не что иное, как
дисперсия величины X с плотностью / (* ), следовательно
&"х (0) ~
° 2'
(13.8.9)
Подставляя в (13.8.4) ^ ( 0 ) = 1, ^ (0 ) = 0 и ^"(0) = — о2, получим:
*,(/)= » I - [ ■ £ - « ( * ) ] Л
(13.8.10)
Обратимся к случайной величине Кп. Мы хотим доказать, что ее
закон распределения при увеличении п приближается к нормальному.
Для этого перейдем от величины Уп к другой («нормированной»)
случайной величине
у
(13.8.11)
оУ
п
Эта величина удобна тем, что ее дисперсия не зависит от п и равна
единице при любом п. В этом нетрудно убедиться, рассматривая
величину 2.п как линейную функцию независимых случайных величин
Х х, Х г........ Х „ , каждая из которых имеет дисперсию а2. Если мы
докажем, что закон распределения величины
приближается к нор­
мальному, то, очевидно, это будет справедливо и для величины К„,
связанной с 2 „ линейной зависимостью (13.8.11).
Вместо того чтобы доказывать, что закон распределения величины
Х п при увеличении п приближается к нормальному, покажем, что ее
характеристическая функция приближается к характеристической функ­
ции нормального закона !).
*) Здесь мы принимаем без доказательства, что из сходимости характе­
ристических функций следует сходимость законов распределения. Доказа­
тельство см., например, Б. В. Гнеденко, Курс теории вероятностей, 1961.
13.81
305
ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА
Найдем характеристическую функцию величины 2Г„. Из соотношения (13.8.11), согласно первому свойству характеристических функций
(13.7.8), получим
е.А‘>=*у.(т$=}где
< 1 3 -8 - , 2 >
— характеристическая функция случайной величины К„.
Из формул (13.8.12) и (13.8.3) получим
( т ^ г ) ] '
< 1 3 '8 1 3 >
или, пользуясь формулой (13.8.10),
Прологарифмируем выражение (13.8.14):
Введем обозначение
[т - ( 7 7 ? ) ] £ -
Тогда
1п^ гп(0 = я1п {1 — •/}.
(13.8.16)
Будем неограниченно увеличивать п. При этом величина х, согласно
формуле (13.8.15), стремится к нулю. При значительном я ее можно
считать весьма малой. Разложим 1п{1— х} в ряд и ограничимся
одним членом разложения (остальные при » - > оо станут пренебре­
жимо малыми):
1п {1 — к) Яй — к.
Тогда получим
Нш 1п g гn (() == Нт п • (— х) —
П т> 0 0
П -> 0 0
я>00
\
2
[ а ) Г п / ' * 1
[ а У И )
По определению функция а(£) стремится к нулю при Ь—>0; следо­
вательно,
Ит
306
П РЕД ЕЛ ЬН Ы Е
ТЕО РЕМ Ы
ТЕО РИ И
В ЕР О Я Т Н О С Т ЕЙ
(ГЛ .
13
откуда
Я->оо
_'ü
= * 2*
(13.8.17)
Это есть не что иное, как характеристическая функция нормального
8акона с параметрами т = О, а = 1 (см. пример 2, п° 13.7).
Таким образом, доказано, что при увеличении п характеристиче­
ская функция случайной величины Z n неограниченно приближается
к характеристической функции нормального закона; отсюда заключаем,
что и закон распределения величины Z n (а значит и величины Yn)
неограниченно приближается к нормальному закону. Теорема доказана.
Мы доказали центральную предельную теорему для частного, но
важного случая одинаково распределенных слагаемых. Однако в до­
статочно широком классе условий она справедлива и для неодинаково
распределенных слагаемых. Например, А. М. Ляпунов доказал цен­
тральную предельную теорему для следующих условий:
им
k-
|im / П
*--1— )»
-/ ^ 0 ,
Л->оо • —
I 1
(13.8.18)
где Ьк — третий абсолютный центральный момент величины Х к\
=
=
(А = 1........ я).
И к — дисперсия величины X к.
Наиболее общим (необходимым и достаточным) условием спра­
ведливости центральной предельной теоремы является у с л о в и е
Ли нд е б е р г а : при любом х > 0
п
я-Кхз Од
(х — т к)2/ к (х )й х = О,
\ >*Вп
где т к — м атематическое ожидание, Д (х) — плотность распределения случайной величины Х ь, В п — у
.
А= 1
*
*
13.9. Формулы, выражающие центральную предельную теорему
и встречающиеся при ее практическом применении
Согласно центральной предельной теореме, закон распределения
суммы достаточно большого числа независимых случайных величин
(при соблюдении некоторых нежестких ограничений) сколь угодно
близок к нормальному.
13.91
Ф О Р М У Л Ы , В Ы Р А Ж А Ю Щ И Е Ц ЕН Т Р А Л Ь Н У Ю П Р Е Д Е Л Ь Н У Ю Т Е О Р Е М У
ЗО Л
Практически центральной предельной теоремой можно пользо­
ваться и тогда, когда речь идет о сумме сравнительно небольшого
числа случайных величин. При суммировании независимых случайных
величии, сравнимых по своему рассеиванию, с увеличением числа сла­
гаемых закон распределения суммы очень скоро становится прибли­
зительно нормальным. На практике вообще широко применяется при­
ближенная замена одних законов распределения другими; при той
сравнительно малой точности, которая требуется от вероятностных
расчетов, такая замена тоже может быть сделана крайне приближенно.
Опыт показывает, что когда число слагаемых порядка десяти (а часто
и меньше), закон распределения суммы обычно может быть заменен
нормальным.
В практических задачах часто применяют центральную предельную
теорему для вычисления вероятности того, что сумма нескольких
случайных величин окажется в заданных пределах.
Пусть Х и Х 2....... X „ — независимые случайные величины с ма­
тематическими ожиданиями
т у т 2....... т п
и дисперсиями
О], 0 2, . . . , Оп.
Предположим, что условия центральной предельной теоремы вы­
полнены (величины Х 1, X
. . . . Х п сравнимы по порядку своего
влияния на рассеивание суммы) и число слагаемых п достаточно для
того, чтобы закон распределения величины
Я
(13.9.1)
У = '£ Х 1
<=
1
можно было считать приближенно нормальным.
Тогда вероятность того, что случайная величина У попадает в пре­
делы участка (а, (3), выражается формулой
/3 — т „ \
Р (а < У < р) = Ф*
/а — т „ \
~ ф* ( —
)■
(13.9.2)
где т у, оу — математическое ожидание и среднее квадратическое от­
клонение величины У, Ф * — нормальная функция распределения.
Согласно теоремам сложения математических ожиданий и дисперсий
П
т у = 2 т ,.
(13.9.3)
°у= / О у
/ I
308
П РЕД ЕЛ ЬН Ы Е
ТЕО РЕМ Ы
ТЕО РИ И
В ЕР О Я Т Н О С Т ЕЙ
[ГЛ .
13
Таким образом, для того чтобы приближенно найти вероятность
попадания суммы большого числа случайных величин на заданный
участок, не требуется знать законы распределения этих величин; до­
статочно знать лишь их характеристики. Разумеется, это относится
только к случаю, когда выполнено основное условие центральной
предельной теоремы — равномерно малое влияние слагаемых на рас­
сеивание суммы.
Кроме формул типа (13.9.2), на практике часто применяются фор­
мулы, в которых вместо суммы случайных величин Х 1 фигурирует
их нормированная сумма
п
?,
гу
* в
2==
V
Г
Очевидно,
м\г\ = 0;
п
.2 ^ 0 — 2 л*/
I —1
/— 1
(1394)
1=1
А [ г | = в, = 1.
Если закон распределения величины К близок к нормальному
с параметрами (13.9.3), то закон распределения величины 2 близок
к нормальному с параметрами т 1 — 0, ог = 1. Отсюда
/> (а< г< р)= = ф *(р) — Ф*(а).
(13.9.5)
Заметим, что центральная предельная теорема может применяться
не только к непрерывным, но и к дискретным случайным величинам
при условии, что мы будем оперировать не плотностями, а функциями
распределения. Действительно, если величины Х х, Х 2, . . . . Х „ дис­
кретны, то их сумма X — также дискретная случайная величина
и поэтому, строго говоря, не может подчиняться нормальному закону.
Однако все формулы типа (13.9.2), (13.9.5) остаются в силе, так
как в них фигурируют не плотности, а функции распределения. Можно
джазать, что если дискретные случайные величины удовлетворяют
условиям центральной прёдельной теоремы, то функция распределе­
ния их нормированной суммы 2 (см. формулу (13.9.4)) при увеличе­
нии а неограниченно приближается к нормальной функции распреде­
ления с параметрами /яг — 0, аг = 1 .
Частным случаем центральной предельной теоремы для дискрет­
ных случайных величин является т е о р е м а Ла п л а с а .
Если производится п независимых опытов, в каждом из
которых событие А появляется с вероятностью р, т о спра­
ведливо соотношение
р ( а < - ^ = р < р | = Ф *ф ) — Ф *(а),
где К — число появлений события А в п опытах, д = 1— р.
(13.9.6)
13.9)
ФО РМ УЛ Ы . В Ы Р А Ж А Ю Щ И Е Ц ЕН ТРА Л ЬН УЮ П РЕ Д ЕЛ Ь Н У Ю ТЕО РЕМ У
309
Д о к а з а т е л ь с т в о . Пусть производится п независимых опытов,
в каждом из которых с вероятностью р может появиться событие А.
Представим случайную величину У — общее число появлений события
в п опытах — в виде суммы
г = 2 *1 .
(13.9.7)
г=1
где Х { — число появлений события А в 1-м опыте.
Согласно доказанной в п° 13.8 теореме, закон распределения
суммы одинаково распределенных слагаемых при увеличении их числа
приближается к нормальному закону. Следовательно, при достаточно
большом я справедлива формула (13.9.5), где
У— т ч
г = ... д...X .
(13.9,8)
В п° 10.3 мы доказали, что математическое ожидание и дисперсия
числа появлений события в п независимых опытах равны:
Пу = пр\
£>у = прд (д— \ — р).
Подстапляя эти выражения в (13.9.8), получим
7 — У— пр
и формула (13.9.5) примет вид:
Р (а <
< р) = Ф * (р )- Ф * (а ).
Теорема доказана.
Пример 1. По полосе укреплений противника сбрасывается 100 серий
бомб. При сбрасывании одной такой серии математическое ожидание числа
попаданий равно 2, а среднее квадратическое отклонение числа попаданий
равно 1,5. Найти приближенно вероятность того, что при сбрасывании
100 серий в полосу попадает от 180 до 220 бомб.
Решение. Представим общее число попаданий как сумму чисел по­
паданий бомб в отдельных сериях:
100
—^1 + ^2 4~ ••• + * , 0 0 = 2 ^
/=1
где XI — число попаданий /-й серии.
Условия центральной предельной теоремы соблюдены, так как величины
X,, Х г, ..., ^ 100 распределены одинаково. Будем считать число п = 100 до­
статочным для того, чтобы можно было применить предельную теорему (на
практике она обычно применима и при гораздо меньших л). Имеем:
100
=
п
=
; =1
, 100
2 ^ =
г=1
2 1,5г = 225.
( =1
310
ПРЕДЕЛЬНЫЕ
ТЕО РЕМ Ы
ТЕО РИ И
ВЕРО ЯТ Н ОСТЕЙ
[Г Л .
13
Применяя формулу (13.9.6), получим:
Р (180 < X < 220) = Ф*
_ Ф* ( 18^
° ° ) и 0,82,
т. е. с вероятностью 0,82 можно утверждать, что общее число попаданий
в полосу не выйдет за пределы, 180 ч - 2 2 0 .
П р и м е р 2. Происходит групповой воздушный бой, в котором уча­
ствуют 50 бомбардировщиков и 100 истребителей. Каждый бомбардировщик
атакуется двумя истребителями; таким образом, воздушный бой распадается
на 50 элементарных воздушных боев, в каждом из которых участвует один
бомбардировщик и два истребителя. В каждом элементарном бою вероят­
ность сбития бомбардировщика равна 0,4; вероятность того, что в элемен­
тарном бою будут сбиты оба истребителя, равна 0 ,2 ; вероятность того, что
будет сбит ровно один истребитель, равна 0,5. Требуется: 1) найти вероят­
ность того, что в воздушном бою будет сбито не менее 35% бомбардиров­
щиков; 2) оценить границы, в которых с вероятностью 0,9 будет заключено
число сбитых истребителей.
Р е ш е н и е . 1) Обозначим К — число сбитых бомбардировщиков;
50
1=1
где Х[ — число бомбардировщиков, сбитых в /-м элементарном бою.
Ряд распределения величины Л* имеет вид:
0
1
0 ,6
0,4
Отсюда
т г =0,4;
Х1
О , =0,4-0,6 = 0,24;
Х1
т х = 50 •0,4 = 20;
аг = УЪо •0, 243, 464.
Применяя формулу (13.9.6) и полагая 3 = 50 (или, что в данном случае равно­
сильно, р = оо), а = 17, находим:
Р (17
0.807.
2) Обозначим У число сбитых истребителей:
50
г - 2 к£.
где У( — число истребителей, сбитых в /-м элементарном бою.
Ряд распределения величины У1 имеет вид:
0
1
2
0,3
0,5
0 ,2
139!
Ф О Р М У Л Ы , ВЫ РА Ж А Ю Щ И Е Ц Е Н Т Р А Л Ь Н У Ю П Р Е Д Е Л Ь Н У Ю ТЕО РЕ М У
311
Отсюда находим математическое ожидание и дисперсию величины У?.
=0,9;
1
Для величины У:
£>., =0,49.
1
т у = 50 •0,9 = 45;
О у = 24,5;
ау = 4,96.
Определим границы участка, симметричного относительно т у = 45, в ко­
торый с вероятностью 0,9 попадет величина У. Обозначим половину длины
этого участка I. Тогда
, Р { \ У — т у | < 0 = 2 Ф *(- ~ - )- 1 = 0 ,9 ,
По таблицам функции
находим то значение аргумента, для ко­
торого Ф* (х) — 0,95; это значение приближенно равно
х = 1,645,
т. е.
-1- = 1,645,
откуда
вУ
/ = 8,14 » 8 .,
Следовательно, с вероятностью около 0,9 можно утверждать, что число
сбитых истребителей будет заключено в пределам т у ± I, г. е. в пределах
от 37 до 53.
ГЛ А ВА
14
ОБРАБОТКА ОПЫТОВ
14.1. Особенности обработки ограниченного числа опытов.
Оценки для неизвестных параметров закона распределения
В главе 7 мы уже рассмотрели некоторые задачи математической
статистики, относящиеся к обработке опытных данных. Это были
главным образом задачи о нахождении законов распределения случай­
ных величин по результатам опытов. Чтобы найти закон распределе­
ния, нужно располагать достаточно обширным статистическим мате­
риалом, порядка нескольких сотен опытов (наблюдений). Однако на
практике часто приходится иметь дело со статистическим материалом
весьма ограниченного объема — с двумя-тремя десятками наблюдений,
часто даже меньше. Эго обычно связано с дороговизной и сложностью
постановки каждого опыта. Такого ограниченного материала явно не­
достаточно для того, чтобы найти заранее неизвестный закон распре­
деления случайной величины; но все же этот материал может быть
обработан и использован для получения некоторых сведений о слу­
чайной величине. Например, на основе ограниченного статистического
материала можно определить— хотя бы ориентировочно — важнейшие
числовые характеристики случайной величины; математическое ожида­
ние, дисперсию, иногда — высшие моменты. На практике часто бывает,
что вид закона распределения известен заранее, а требуется найти
только некоторые парамет ры, от которых он зависит. Например,
если заранее известно, что закон распределения случайной величины
нормальный, то задача обработки сводится к определению двух его
параметров т п о. Если заранее известно, что величина распределена
по закону Пуассона, то подлежит определению только один его пара­
метр: математическое ожидание а. Наконец, в некоторых задачах вид
закона распределения вообще несуществен, а требуется знать только
его числовые характеристики.
В данной главе мы рассмотрим ряд задач об.определении неиз­
вестных параметров, от которых зависят закон распределения случай­
ной величины, но ограниченному числу опытов.
14.11
О С О БЕН Н О С ТИ
О БРА Б О Т К И
О Г Р А Н И Ч Е Н Н О ГО
ЧИСЛА
ОП Ы ТО В
313
Прежде всего нужно отметить, что любое значение искомого
параметра, вычисленное на основе ограниченного числа опытов, всегда
будет содержать элемент случайности. Такое приближенное, случай­
ное значение мы будем называть оценкой параметра. Например, оцен­
кой для математического ожидания может служить среднее арифме­
тическое наблюденных значений случайной величины в п независимых
опытах. При очень большом числе опытов среднее арифметическое
Судет с большой вероятностью весьма близко к математическому
ожиданию. Если же число опытов п невелико, то замена математиче­
ского ожидания средним арифметическим приводит к какой-то ошибке.
Эга ошибка в среднем тем больше, чем меньше число опытов. Так же
будет обстоять дело и с оценками других неизвестных параметров.
Любая из таких оценок случайна; при пользовании ею неизбежны
ошибки. Желательно выбрать такую оценку; чтобы эти ошибки были
по возможности минимальными.
Рассмотрим следующую общую задачу. Имеется случайная вели­
чина X , закон распределения которой содержит неизвестный параметр а.
Требуется найти подходящую оценку для параметра а по результа­
там п независимых опытов, в каждом из которых величина X при­
няла определенное значение.
Обозначим наблюденные значения случайной величины
Х ь Х 2, .
(14.1.1)
Х п.
Их можно рассматривать как п «экземпляров» случайной величины X ,
то есть п независимых случайных величин, каждая из которых рас­
пределена по тому же закону, что и случайная величина X .
Обозначим а оценку для параметра а. Любая оценка, вычисляемая
на основе материала (14.1.1), должна представлять собой фу н к ц и ю
величин Х г, Х 2, .
Х я:
а — а ( Х 1, Х 2, . . . . Х п)
'
(14.1.2)
и, следовательно, сама является величиной случайной. Закон распре­
деления а зависит, во-первых, от закона распределения величины X
(и, в частности, от самого неизвестного параметра а)\ во-вторых, от
числа опытов п. В принципе этот закон распределения может быть
найден известными методами теории вероятностей.
Предъявим к оценке а ряд требований, которым она должна удо­
влетворять, чтобы быть в каком-то смысле «доброкачественной»
оценкой.
Естественно потребовать от оценки а, чтобы при увеличении числа
опытов п она приближалась (сходилась по вероятности) к параметру а.
Опенка, обладающая таким свойством, называется состоятельной.
Кроме того, желательно, чтобы, пользуясь величиной а вместо а,
мы по крайней мере не делали систематической ошибки в сторону
314
О Б РА Б О Т К А О П Ы Т О В
[ГЛ . 14
завышения или занижения, т. е. чтобы выполнялось условие
М {а \ = а.
(14.1.3)
Оценка, удовлетворяющая такому условию, называется несмещенной.
Наконец, желательно, чтобы выбранная несмещенная оценка обла­
дала по сравнению с другими наименьшей дисперсией, т. е.
•
~
'Л
£>[а] = т т .
(14.1.4)
Оценка, обладающая таким свойством, называется эффективной.
На практике не всегда удается удовлетворить всем этим требо­
ваниям. Например, может оказаться, что, даже если эффективная
оценка существует, формулы для ее вычисления оказываются слишком
сложными, и приходится удовлетворяться другой оценкой, дисперсия
которой несколько больше. Иногда применяются — в интересах про­
стоты расчетов— незначительно смещенные оценки. Однако выбору
оценки всегда должно предшествовать ее критическое рассмотрение
со всех перечисленных выше точек зрения.
14.2. Оценки для математического ожидания и дисперсии
Пусть имеется случайная величина X с математическим ожида­
нием т и дисперсией О; оба параметра неизвестны. Над величиной X
произведено п независимых опытов, давших результаты Х г, Х 2....... X п.
Требуется найти состоятельные и несмещенные оценки для парамет­
ров т и £>.
В качестве оценки для математического ожидания естественно
предложить среднее арифметическое наблюденных значений (ранее мы
его обозначали т*):
2 *.
т = т ' = — ---
л
(14.2.1)
4 >
Нетрудно убедиться, что эта оценка является состоятельной:
согласно закону больших чисел, при увеличении п величина т схо­
дится по вероятности к т . Оценка ,т является также и несмещенной,
так как
П
М {т \ = ~ — = т.
(14.2.2)
Дисперсия этой оценки равна:
£>[«} = - О .
1 1 п
(14.2.3)
14.21
ОЦЕНКИ
ДЛЯ
МАТЕМАТИЧЕСКОГО ОЖ ИДАНИЯ
И ДИСПЕРСИИ
315
Эффективность или неэффективность оценки зависит от вида
вакона распределения величины X . Можно доказать, что если вели­
чина X распределена по нормальному закону, дисперсия (14.2.3) будет
минимально возможной, т. е. оценка /й является эффективной. Для
других законов распределения это может быть и не так.
Перейдем к оценке для дисперсии О. На первый взгляд наиболее
естественной оценкой представляется статистическая дисперсия:
П
£)* = — — - -------- ,
(14.2.4)
где
П
т =
•
(14.2.5)
Проверим, является ли эта оценка состоятельной. Выразим ее
через второй начальный момент (по формуле (7.4.6) гл. 7):
(14.2.6)
Первый член в правой части есть среднее арифметическое п на­
блюденных значений случайной величины X 2; он сходится по вероят­
ности к М [ X 2] — а2 [X]. Второй член сходится по вероятности к т2',
вся величина (14.2.6) сходится по вероятности к величине
а2 [ Х ] — да2 = £).
Это означает, что оценка (14.2.4) состоятельна.
Проверим, является ли оценка £>* также и несмещенной. Подста­
вим в формулу (14.2.6) вместо т его выражение (14.2.5) и произ­
ведем указанные действия:
1=1
----- •.
(14-2-7)
316
ОБРАБ ОТ КА ОПЫТОВ
[Г Л .
14
Найдем математическое ожидание величины (14.2.7):
П
(Н.2.8Х
1?
/=1
К ]
Так как дисперсия О* не зависит от того, в какой точке выбрать
начало коордийат, выберем его в точке /и. Тогда
М [ Л 1 ] = М [ * ? ] = £>;
2
1=1
М \Х1Х ]\== М \XiXj]
М
[А'/]
ки=
=
= пО,
0.
(14.2.9)
( 14 .2 . 10)
Последнее равенство следует из того, что опыты независимы.
Подставляя (14.2.9) и (14.2.10) в (14.2.8), получим:
Л1[£>'1==^=!£>.
'
(14.2.11)
Отсюда видно, что величина О* не я в л я е т с я н е с м е щ е н ­
ной о це н к о й для £): ее математическое ожидание не равно £,
а несколько меньше. Пользуясь оценкой £>* вместо дисперсии О,
мы будем совершать некоторую систематическую ошибку в меньшую
сторону. Чтобы ликвидировать это смещение, достаточно ввести по­
правку, умножив величину й* на
Получим:
2 (* ,- £ )*
П . £)*_1=1
/1— 1
2 (* / - * )*
'" 1
п— 1
П
п~1
п
Такую «исправленную» статистическую дисперсию мы и выберем
в качестве оценки для /};
2
№ - "0 2
Д = — Ч - Л Т ----1
п-
Так как множитель
п
стремится
к
(14.2.12)
единице при
и —»-оо,
а оценка й* состоятельна, то оценка Ъ -также будет состоятельной ‘)На практике часто вместо формулы (14.2.12) бывает удобнее
применять другую, равносильную ей, в которой статистическая
') Оценка Ь для дисперсии не является эффективной. Однако в случае
нормального распределения она является «асимптотически эффективной», то
есть при увеличении п отношение ее дисперсии к минимально возможной
неограниченно приближается к единице.
14.31
Д О В Е Р И Т Е Л Ь Н Ы Й И Н Т Е Р В А Л . Д О В Е Р И Т Е Л Ь Н А Я В ЕР О Я Т Н О С Т Ь
317
дисперсия выражена через второй начальный момент:
П
п
(14.2.13)
При больших значениях п, естественно, обе оценки— смещенная
£)* и несмещенная £) — будут различаться очень мало и введение
поправочного множителя теряет смысл.
Таким образом, мы пришли к следующим правилам обработки
ограниченного по объему статистического материала.
Если даны значения л'[, х7, . . . . х п, принятые в п независимых
опытах случайной величиной X с неизвестными математическим ожи­
данием т и дисперсией О, то для определения этих параметров сле­
дует пользоваться приближенными значениями (оценками):
П
т =
п
[) =
I -1
п— 1
(14.2.14)
или
14.3. Доверительный интервал. Доверительная вероятность
В предыдущих п°п° мы рассмотрели вопрос об оценке неизвест­
ного параметра а одним числом. Такая оценка называется «точечной».
В ряде задач требуется не только найти для параметра а подходя­
щее численное значение, но и оценить его точность и надежность.
Требуется знать — к каким ошибкам может привести замена пара­
метра а его точечной оценкой а и с какой степенью уверенности
можно ожидать, что эти ошибки не выйдут за известные пределы?
Такого рода задачи особенно актуальны при малом числе наблю­
дений, когда точечная оценка а в значительной мере случайна и
приближённая замена а на а может привести к серьезным ошибкам.
Чтобы дать представление о точности и надежности оценки а,
в математической статистике пользуются так называемыми д о в е ­
р и т е л ь н ы м и и н т е р в а л а м и и д о в е р и т е л ь н ы м и в е р о я т*
н о с т я м и.
318
о брабо тка
опытов
[ГЛ.
I#
Пусть для параметра а получена- из опыта- несмещенная оценка а.
Мы хотим оценить возможную при этом ошибку. Назначим некоторую
достаточно большую вероятность [3 (например, (3= 0,9, 0,95 или 0,99)
такую, что событие с вероятностью (3 можно считать практически
достоверным, и найдем такое значение е, для которого
Р ( | а — в | < е) = (3,
(14.3.1)
Тогда диапазон практически возможных значений ошибки, возникаю­
щей при замене а на а, будет ±е; большие по абсолютной величине
ошибки будут появляться только с малой вероятностью а = 1— р.
Перепишем (14.3.1) в виде:
Р { и ~ в < а < а4-в> = ф
(14.3.2)
Равенство (14.3.2) означает, что с вероятностью' ^ неизвестное зна­
чение параметра а попадает в интервал1
/р= (а — е;
а-+-е).
•
(14.3.3)
При этом необходимо отметить одно обстоятельство. Ранее мы не­
однократно рассматривали вероятность пшпадания случайной величины
в заданный неслучайный интервал. Здесь дело обстоит иначе: вели­
чина а не с л у ч а й н а , зато случаен интервал /р. Случайно его
положение на оси абсцисс, определяемое его центром а; случайна
вообще и длина интервала 2s, так как величина е вычисляется, как
правило, по опытным данным. Поэтому в данном случае лучше будет
толковать величину (3 не как вероятность «попадания» точки а в ин­
тервал /р, а как вероятность того, что случайный интервал /? на­
к р ое т точку а (рис. 14.3.1).
---- 1----------___________________________________ ,а
О
а,
I
д
I
а3
Рис. 14.3.1.
Вероятность р принято называть доверительной вероятностью,
а интервал /р— доверительным интервалом ’). Границы интервала/р:
а 1— а — е и а2— а-{-е называются доверительными границами.
Дадим еще одно истолкование понятию доверительного интервала:
его можно рассматривать как интервал значений параметра а, с о в ме ­
с т имых с опытными данными и не п р о т и в о р е ч а щ и х им.
Действительно, если условиться считать событие с вероятностью
') На рис. 14.3.1 рассматривается доверительный интервал, симметрич­
ный относительно а. Вообще, как мы увидим дальше, это не обязательно.
14.81
319
ДО ВЕРИТЕЛЬНЫ Й ИНТЕРВАЛ, ДОВЕРИТЕЛЬНАЯ ВЕРОЯТНОСТЬ
в = 1 — ^ практически невозможным, то те значения параметра о,
для которых | а — а | > е, нужно признать противоречащими опыт­
ным данным, а те, для которых | а — а | < е, — совместимыми с ними.
Перейдем к вопросу о нахождении доверительных границ а 1 и а 2.
Пусть для параметра а имеется несмещенная оценка а. Если бы
нам был известен закон распределения величины а, задача нахожде­
ния доверительного интервала была бы весьма проста: достаточно
было бы найти такое значение е, для которого
Р ( | а — о | < е ) = р.
Затруднение состоит в том, что закон распределения оценки а
зависит от закона распределения величины X и, следовательно,
от его неизвестных параметров (в частности, и от самого пара­
метра а).
Чтобы обойти это затруднение, можно применить следующий грубо
приближенный прием: заменить в выражении для е неизвестные пара­
метры их точечными оценками. При сравнительно большом числе
опытов п (порядка 2 0 н -3 0 ) этот прием обычно дает удовлетвори­
тельные по точности результаты.
В качестве примера рассмотрим задачу о доверительном интервале
для математического ожидания.
Пусть произведено п независимых опытов над случайной величи­
ной X , характеристики которой— математическое ожидание /га и дис­
персия £> — неизвестны. Для этих параметров получены оценки:
% XI
т=
п
2 № - т)г
5 = ^ -------=------ .
п— 1
(14.3.4)
1
'
Требуется построить доверительный интервал
соответствующий
доверительной вероятности
для математического ожидания т. вели­
чины X.
При решении этой задачи воспользуемся тем, что величина т
представляет собой сумму п независимых одинаково распределенных
случайных величин X (, и, согласно центральной предельной теореме,
при достаточно большом п ее закон распределения близок к нормаль­
ному. На практике даже при относительно небольшом числе слагае­
мых (порядка 10 — 20) закон распределения суммы можно прибли­
женно считать нормальным. Будем исходить из того, что величина т.
распределена по нормальному закону. Характеристики этого закона —
математическое ожидание и дисперсия — равны соответственно т и
(см. гл. 13 п°13.3). Предположим, что величина О нам известна.
320
ОБРАБОТКА
ОПЫТО В
[Г Л .
1*
и найдём такую величину ер, для которой
Р \ \ т — от|<£р) = р .
(14.3.5)
Применяя формулу (6.3.5) главы 6, выразим вероятность в левой
части (14.3.5) через нормальную функцию распределения
где
P (\ in — т \ < е 9) = 2 Ф * { ^ Л — 1.
(14.3.6)
V т/
/ D квадратическое отклонение оценки т .
= 1
1/
—--- среднее
т
У Т1
Из уравнения
2ф' ( 5 г ) - ' = е
находим значение s^:
«Р = вт аге ф* ( - Ч ^ ) -
(14.3.7)
где arg<5*(;c)— функция, обратная Ф*(х), т. е. такое значение аргу­
мента. при котором нормальная функция распределения равна х.
Дисперсия D, через которую выражена величина о~, нам в точ­
ности не известна; в качестве ее ориентировочного значения можно
воспользоваться оценкой D (14.3.4) и положить приближенно: •
вгг = / т -
(14-3-8)
Таким образом, приближенно решена задача построения доверитель­
ного интервала, который равен:
/р = ( т — е&;
« + ер),
(14.3.9)
где е„ определяется формулой (14.3.7).
Чтобы избежать при вычислении е3 обратного интерполирования
в таблицах функции Ф*(х), удобно составить специальную таблицу
(см. табл. 14.3.1), где приводя гея значения величины
в зависимости от р. Величина
определяет для нормального закона
число средних квадратических отклонений, которое нужно отложить
вправо и влево or центра рассеивания для того, чтобы вероятность
попадания в полученный участок была равна р.
Через величину
доверительный интервал выражается в виде:
/р= (m
— ti>о~; т +1 /о-А
V
? iiij
14.3]
321
Д О В Е Р И Т Е Л Ь Н Ы Й И Н Т Е Р В А Л . Д О В Е Р И Т Е Л Ь Н А Я В ЕР О Я Т Н О С Т Ь
Таблица
е
э
0,80
0,81
0,82
0,83
0,84
0,85
1,282
1,310
1,340
1,371
1,404
1,439
0 ,8 6
0,87
0 ,8 8
0,89
0,90
&
Л
1,475
1,513
1,554
1,597
1,643
1,694
1,750
1,810
1,880
1,960
2,053
0,91
0,92
0,93
0,94
0,95
0,96
14.3.1
&
ч
0,97
0,98
0,99
0,9973
0,999
2,169
2,325
2,576
3,000
3,290
П р и м е р 1. Произведено 20 опытов над величиной X; результаты
приведены в таблице 14.3.2.
Т а б л и ц а 14.3.2
1
(
1
2
3
4
5
*1
1
*1
'
ч
1
Ч
\
10,5
6
1 0 ,6
И
1 0 ,6
1 0 ,8
1 1 ,2
7
10,9
12
8
1 1 ,0
10,9
10,4
9
10,3
13
14
15
11,3
10,5
10,7
16
17
18
19
10,7
10,9
1 0 ,8
20
1 1 ,0
10
1 0 ,8
10,9
1 0 ,8
Требуется найти оценку т. для математического ожидания т величины X
и построить доверительный интервал, соответствующий доверительной ве­
роятности £ = 0 ,8 .
Р е ш е н и е . Имеем:
20
^ = ж 5 ] * г=10’78*
1~1
Выбрав за начало отсчета х = Ю ,
несмещенную оценку О:
по третьей формуле (14.2.14) находим
В = ( - ^ - 0.782] ~
= 0,064;
-г-ода*
По таблице 14.3.1 находим
= 1,282;
£а = /вт~ — 0,072.
р
р III
Доверительные границы:
и , = т — 0,072 = 10,71;
т% = т-\- 0,072 = 10,85.
Доверительный интервал:
/рЯ- (10,71; Ю,85).
Значения параметра т , лежащие в этом интервале, являются совмести­
мыми с опытными данными, приведенными в таблице 14.3.2.
11 Теория вероятностей
322
ОБРАБОТКА ОПЫТОВ
[Г Л .. 14
Аналогичным способом может быть построен доверительный
интервал и для дисперсии.
Пусть произведено п независимых опытов над случайной величи­
ной X с неизвестными параметрами т и О, и для дисперсии О по­
лучена несмещенная оценка:
|
т
—
*
(14.3.П )
где
т=
п
Требуется приближенно построить доверительнкй интервал для
дисперсии.
Из формулы (14.3.11) видно, что величина О представляет собой
сумму «
случайных величин вида
'•
Эти величины
не
являются независимыми, так как в любую из них входит величина т,
зависящая от всех остальных. Однако можно показать, что при уве­
личении п закон распределения их суммы тоже приближается к нор­
мальному. Практически при п = 20 -г- 30 он уже может считаться
нормальным.
Предположим, что это так, и найдем характеристики этого закона:
математическое ожидание и дисперсию. Так как оценка О — несме­
щенная, то
Ж [0 ] = 0 .
Вычисление дисперсии й [О] связано со сравнительно сложными
выкладками, поэтому приведем ее выражение без вывода:
<|4 -3 - ' 2>
где р.4— четвертый центральный момент величины X .
Чтобы воспользоваться этим выражением, нужно подставить
в него значения ц4 и В (хотя бы приближенные). Вместо £> можно
воспользоваться его оценкой £>. В принципе четвертый централь­
ный момент }л4 тоже можно заменить его оценкой, например вели­
чиной вида:
2 №
^ =
- » ) 4
( 1 4 .3 . 1 3 )
14 .3]
3 23
Д О В Е Р И Т Е Л Ь Н Ы Й И Н Т Е Р В А Л . Д О В Е Р И Т Е Л Ь Н А Я В ЕР О Я Т Н О С Т Ь
НО такая замена даст крайне невысокую точность, так как вообще
При ограниченном числе опытов моменты высокого порядка опреде­
ляются с большими ошибками. Однако на практике часто бывает,
что ви д закона распределения величины X известен заранее: неиз­
вестны лишь его параметры. Тогда можно попытаться выразить (а4
через Э .
Возьмем наиболее часто встречающийся случай, когда величина X ,
распределена по нормальному закону. Тогда ее четвертый централь­
ный момент выражается через дисперсию (см. гл. 6 п° 6.2):
^ = 302,
; и формула (14.3.12) дает
С[б1 = § 0 » - ^ 5-№
Или
Л [0 ] = - ~ г 0 2.
(14.3.1,4)
Заменяя в (14.3.14) неизвестное О его оценкой О , получим:
=
(14.3.15)
. откуда
03 = }
/
(14.3.16)
Момент щ можно выразить через О также и в некоторых других
случаях, когда распределение величины X не является нормальным,
но вид его известен. Например, для закона равномерной плотности
(см. главу 5) имеем:
1*4—
80
’
12
*
где (а, р) — интервал, на котором задан закон. Следовательно,
(*4=1,8£>2.
По формуле (14.3.12) получим:
откуда находим приближенно
«
И*
2
(
1
4
.
3
.
1
7)
324
О Б РА Б О Т КА О П Ы Т О В
[ГЛ . 14
В случаях, когда вид закона распределения величины X неизве­
стен, при ориентировочной оценке величины
рекомендуется все же
пользоваться формулой (14.3.16), если нет специальных оснований
считать, что этот закон сильно отличается от нормального (обладает
заметным положительным или отрицательным эксцессом).
Если ориентировочное значение
тем или ины'м способом полу­
чено, то можно построить доверительный интервал для дисперсии,
аналогично тому, как мы строили его для математического ожидания:
1 ^ ( 0 ~ ^ о в ; 5 + ^вд).
(14.3.18)
где величина ^ в зависимости от заданной вероятности р находится
по таблице 14.3.1.
Пример 2. Найти приближенно 80%-й доверительный интервал для
дисперсии случайной величины X в условиях примера 1, если известно, что
величина X распределена по закону, близкому к нормальному.
Решение. Величина Ц остается той же, что в примере 1:
1,282.
По формуле (14.3.16)
V
"0 "
Т& ' 0,064 = о,о2° 7.
По формуле (14.3.18) находим доверительный интервал:
/р = (0,043; 0,085).
Соответствующий интервал значений среднего квадратического отклонения:
(0,21; 0,29).
14.4. Точные методы построения доверительных интервалов
для параметров случайной величины, распределенной
по нормальному закону
В предыдущем п° мы рассмотрели грубо приближенные методы
построения доверительных интервалов для математического ожидания
и дисперсии. В данном п° мы дадим представление о точных мето­
дах решения той же задачи. Подчеркнем, что для точного нахожде­
ния доверительных интервалов совершенно необходимо знать заранее
вид закона распределения величины X , тогда как для применения
приближенных методов это не обязательно.
Идея точных методов построения доверительных интервалов сво­
дится к следующему. Любой доверительный интервал находится из
условия, выражающего вероятность выполнения некоторых неравенств,
в которые входит интересующая нас оценка а. Закон распределения
оценки а в общем случае зависит от самих неизвестных параметров
величины X . Однако иногда удается перейти в неравенствах от слу­
«.41
М ЕТ О Д Ы
П О С Т Р О ЕН И Я
Д О ВЕРИ Т ЕЛ ЬН Ы Х
И Н ТЕРВА Л О В
325
чайной величины а к какой-либо другой функции наблюденных зна­
чений Х х, Х 2>. . . . Х „, закон распределения которой не з а в и с и т
от н е и з в е с т н ы х п а р а м е т р о в , а зависит только от числа
опытов п и от в и да закона распределения величины X . Такого
рода случайные величины играют большую роль в математической
статистике; они наиболее подробно изучены для случая нормального'
распределения величины X.
Например, доказано, что при нормальном распределении вели­
чины X случайная величина
т —т
(14.4.1)
Уп
~ У Т '
где
/И=
г=1
О-
л— 1
подчиняется так называемому закону распределения Стьюдента
с п — 1 степенями свободы; плотность этого закона имеет вид
7(т)
/ (л ~ 1 )* Г ^ - _ 1 )
где Г(д;) — известная гамма-функция:
ОО
Г ( х ) = ^ адг'' 1е "“ </а
о
Доказано также, что случайная величина
(14.4.3)
£
имеет «распределение уЬ> с п — 1 степенями свободы (см. гл. 7.
стр. 145), плотность которого выражается формулой
1
К - 1(®) =
/1—1
>2
при
V > О,
(14.4.4)
г ( ^ )
О
при
V < 0.
Не останавливаясь на выводах распределений (14.4.2) и (14.4.4),
покажем, как их можно применить при построении доверительных
интервалов для параметров т ъ Ь .
326
ОБРАБОТКА ОПЫТОВ
[ГЛ. 14
Пусть произведено п независимых опытов над случайной вели­
чиной X , распределенной по нормальному закону с неизвестными
параметрами т а В . Для этих параметров получены оценки
т = ~
— ,
5=
1=1
п— 1
Требуется построить доверительные интервалы для обоих параметров,
соответствующие доверительной вероятности р.
Построим сначала доверительный интервал для математического
ожидания. Естественно этот интервал взять симметричным относи­
тельно т ; обозначим
половину длины интервала. Величину ер
нужно выбрать так, чтобы выполнялось условие
Р { \ т — т\ < е р) = р.
(14.4.5)
Попытаемся перейти в левой части равенства (14.4.5) от случай­
ной величины т к случайной величине Т, распределенной по закону
Стьюдента. Для этого умножим обе части неравенства |/и —
на положительную величину
-Vп
:
у ъ
р ( У п \ т — т\
I
/ 5
^
<
/
4
или, пользуясь обозначением (14.4.1),
=
(14.4.6)
Найдем такое число Ц, что
Я ( ! Г Ь с ;^ ) = {3.
Величина
(Н.4.7)
найдется из условия
'Р
/ « » _ !(/ )« = ?-
(14.4.8)
Из формулы (14.4.2) видно, что 5Л_ 1(?) — четная функция; по­
этому (14.4.8) дает
2 / 5 ж. , ( 0 Л « р .
(14.4.9)
14.41
МЕТОДЫ ПОСТРОЕНИЯ ДОВЕРИТЕЛЬНЫХ ИНТЕРВАЛОВ
327
Равенство (14.4.9) определяет величину ^ в зависимости от £5. Если
иметь в своем распоряжении таблицу значений интеграла
X
ЧГ(*) = 2 ^ Я_,(/)<И.
о
то величину ^ можно найти обратным интерполированием в этой
таблице. Однако удобнее составить заранее таблицу значений
Такая таблица дается в приложении (см. табл. 5). В этой таблице
приведены значения /р в зависимости от доверительной вероятности р
и числа степеней свободы п — 1. Определив
по таблице 5 и по­
лагая
__
Ч =
(14.4.10)
мы найдем половину ширины доверительного интервала
интервал
__
/р= (от — #„
+
и сам
(14.4.11)
Пример 1. Произведено 5 независимых опытов над случайной вели­
чиной X, распределенной нормально с неизвестными параметрами т и з .
Результаты опытов приведены в таблице 14.4.1.
Таблица
/
1
XI
-2,5
3
2
3,4
— 2 ,0
14.4.1
4
5
1 ,0
2 ,1
Найти оценку т для математического ожидания и построить для
него 90%-й доверительный интервал ! н (т. е. интервал, соответствующий
■доверительной вероятности р = 0,9).
Р е ш е н и е . Имеем
т = 0,4;
В = 6 ,6 .
По таблице 5 приложения для п — 1 = 4 и р ~ 0,9 находим
^ = 2,13,
откуда
« „= ^ / - £ - * 2 ,4 5 ..
Доверительный интервал будет
1р — ( т — Ер; т -}- е.,) = (—2,05; 2,35).
328
О Б РА Б О Т К А О П Ы Т О В
[ГЛ . 14
Пример 2. Для условий примера 1 п° 14.3, предполагая величину К
распределенной нормально, найти точный доверительный интервал.
Решение. По таблице 5 приложения находим при п — 1= 19 и р = 0,8
— 1,328; отсюда е3=
\/~— ж 0,0704.
Сравнивая с решением примера 1 п° 14.3 (е3— 0,072), убеждаемся, что
расхождение весьма незначительно. Если сохранить точность до второго
знака после запятой, то доверительные интервалы, найденные точным и при­
ближенным методами, совпадают:
/э = (10,71; 10,85).
Перейдем к построению доверительного интервала для дисперсии.
Рассмотрим несмещенную оценку дисперсии
2
1=1
О
и выразим случайную величину Ъ через величину V (14.4Л ), имеющую
распределение у? (14.4.4):
И
(14.4.12)
п- -1
Зная закон распределения
величины V, можно найти
интервал
в который она
попадает с заданной вероят­
ностью р.
Закон
распределения
Ьп-хФ) величины V име­
ет вид. изображенный на
рис. 14.4.1.
Возникает вопрос: как выбрать интервал /р? Если бы закон рас­
пределения, величины V был симметричным (как нормальный закон
или распределение Стьюдента), естественно было бы взять интервал
симметричным относительно математического ожидания. В данном
случае закон кл_х(о) несимметричен. Условимся выбирать интервал ^
так, чтобы вероятности выхода величины V за пределы интервала
вправо и влево (заштрихованные плошада на рис. 14.4.1) были оди­
наковы и равны
а
1— в
14.41
М ЕТ О Д Ы
П О С Т Р О ЕН И Я
Д О ВЕРИ ТЕЛ ЬН Ы Х
И Н ТЕРВА Л О В
329
Чтобы построить интервал
с таким свойством, воспользуемся
Таблицей 4 приложения: в ней приведены числа х2 такие, что
Р ( У > Х 2)= *Р
для величины V, имеющей х2-РаспРеДеление с т степенями свободы.
В нашем случае г = я — 1. Зафиксируем г = п — 1 и найдем в со­
ответствующей строке табл. 4 два значения у?: одно, отвечающее
Шероятности р 1= ~\ другое— .вероятности р 2 — 1—
• Обозначим
*ги значения у* и у\. Интервал
имеет х? своим левым, а ^ —
Правым концом.
Теперь найдем по интервалу 19 искомый доверительный интер­
вал /р для дисперсии с границами О, и
который накрывает
■(очку й с вероятностью
Р ( 0 , < 0 < 0 4) = р.
Построим такой интервал /? ==(0,, 0 2), который накрывает точку £>
тогда и только тогда, когда величина V попадает в интервал /?.
^Покажем, что интервал
/? = ( 0 ('7Г-1)-;
(14.4.13)
' удовлетворяет этому условию. Действительно, неравенства
(л — 1) ^ г\.
X*
<
В (п
Ц
'
1) ^ г~.
>
равносильны неравенствам
У<Х?;
У> у%
а эти неравенства выполняются с вероятностью р. Таким образом,
Доверительный интервал для дисперсии найден и выражается форму­
лой (14.4.13).
Пример 3. Найти доверительный интервал для дисперсии в условиях
Примера 2 п° 14.3, если известно, что величина X распределена нормально.
Решение. Имеем р = 0,8; а = 0,2;
находим при г = п — 1= 19
для />(=
а
~ ~ ОД
а
для р2= 1 — — = 0,9
2
= ОД. По таблице 4 приложения
-X.? = 27,2;
7,2
= 11,65.
3 30
О БРА БО ТКА ОПЫТОВ
[ГЛ , 14
По формуле (14.4.13) находим доверительный интервал для дисперсии
/э = (0,045; 0,104).
Соответствующий интервал для среднего квадратического отклонения:
(0,21; 0,32). Этот интервал лишь незначительно превосходит полученный
в примере 2 п° 14.3 приближенным методом интервал (0,21; 0,29).
14.5. Оценка вероятности по частоте
На практике часто приходится оценивать неизвестную вероят­
ность р события А по его частоте р* в п независимых опытах.
Эта задача близко примыкает к рассмотренным в предыдущих п°п°.
Действительно, частота события Л в я независимых опытах есть не
что иное, как среднее арифметическое наблюденных значений вели­
чины X , которая в каждом отдельном опыте принимает значение 1,
если событие А появилось, и 0, если не появилось:
2 *1
/>*= — — •
.
(Н.5.1)
Напомним, что математическое ожидание величины X равно р;
ее дисперсия pq, где д = 1— р. Математическое ожидание среднего
арифметического также равно р
ЛЦр*] = р,
(14.5.2)
т. е. оценка р* для р является несмещенной.
Дисперсия величины р* равна
=
(14.5.3)
Можно доказать, что эта дисперсия является минимально возмож­
ной, т. е. оценка р* для р является эффективной.
Таким образом, в качестве точечной оценки для неизвестной ве­
роятности р разумно во всех случаях принимать частоту р*. Возни­
кает вопрос о точности и надежности такой оценки, т. е. о построе­
нии доверительного интервала для вероятности р.
Хотя эта задача и представляет собой частный случай ранее
рассмотренной задачи о доверительном интервале для математического
ожидания, все же целесообразно решать ее отдельно. Специфика
здесь в том, что величина X — прерывная случайная величина только
с двумя возможными значениями: 0 и 1. Кроме того, ее математи­
ческое ожидание р и дисперсия рд = р { 1— р) связаны функцио­
нальной зависимостью. Это упрощает задачу построения доверитель­
ного интервала.
ОЦЕНКА ВЕРОЯТНОСТИ ПО ЧАСТОТЕ
^4.8)
331
Рассмотрим сначала наиболее простой случай, когда число опы­
тов п сравнительно велико, а вероятность р не слишком велика и
Не слишком мала. Тогда можно считать, что частота события р*
есть случайная величина, распределение которой близко к нормаль­
ному '). Расчеты показывают, что этим допущением можно пользо­
ваться даже при не очень больших значениях я: достаточно, чтобы
Обе величины пр и щ были больше четырех. Будем исходить из
того, что эти условия выполнены и частоту р* можно считать рас­
пределенной по нормальному закону. Параметрами этого закона будут:
тр* — р\
ср* =
.
(14.5.4)
Предположим сначала, что величина р нам известна. Назначим дове­
рительную вероятность р и найдем такой интервал (р — ер, р - \ - в ?),
Чтобы величина р* попадала в этот интервал с вероятностью {3:
Р ( \ Р * - Р \ < Н ' ) = $Так как величина р* распределена нормально, то
(14-5 -5)
Откуда, как и в п° 14.3,
ег_ 0р, а г§ ф * | ± £ £ | ,
)Где аг§Ф* — функция, обратная нормальной функции распределения Ф*.
Для определения р. как и в п° 14,3, можно обозначить
* ,= * * * • ( - Ц * ) .
Тогда
е$ = ^ар*,
Где
(14.5.6)
определяется из таблицы 14.3.1.
Таким образом, с вероятностью {3 можно утверждать, что
\ р*— р \ < Н \ ^ - 1 г -
( 14-5-7>
Фактически величина р нам неизвестна; однако неравенство (14.5.7)
будет иметь вероятность р независимо от того, известна нам или
неизвестна вероятность р. Получив из опыта конкретное значение
частоты р*. можно, пользуясь неравенством (14.5.7), найти интервал/?,
который с вероятностью р накрывает точку р. Действительно,
') Частота события при п опытах представляет собой прерывную слу­
чайную величину; говоря о близости ее закона распределения к нормаль­
ному, мы имеем в виду функцию распределения, а не плотность.
332
О Б РА Б О Т КА
О П Ы ТО В
[ГЛ . 14
преобразуем это неравенство к виду
(/>’
(14.5.8)
■Р )
и дадим ему геометрическую интерпретацию. Будем откладывать по
оси абсцисс частоту р*, а по оси ординат — вероятность р (рис. 14.5.1).
Геометрическим местом точек, координаты которых р* и р удовле­
творяют неравенству (14.5.8), будет внутренняя часть эллипса, про­
ходящего через точки (0, 0)
и (1, 1) и имеющего в этих
точках касательные, параллель­
ные оси Ор*. Так как вели­
чина р* не может быть ни
отрицательной, ни большей
единицы, то область £>, со­
ответствующую
неравенству
(14.5.8), нужно еще ограни­
чить слева и справа прямыми
р* = 0 и р* = 1. Теперь можно
для любого значения р*. полу­
Р‘
ченного из опыта, построить
доверительный интервал
ко­
торый с вероятностью (3накроет
неизвестное значение р. Для
этого проведем через точку р* прямую, параллельную оси ординат; на
этой прямой границы области О отсекут доверительный интервал
/р~ {р \ * /?г)- Действительно, точка М со случайной абсциссой р* и
неслучайной (но неизвестной) ординатой р с вероятностью р попадет
внутрь эллипса, т. е. интервал
с вероятностью
накроет точку р.
Размеры и конфигурация «доверительного эллипса» зависят от
числа опытов п. Чем больше п, тем больше вытянут эллипс и тем
Уже доверительный интервал.
Доверительные границы р х и р2 можно найти из соотношения
(14.5.8), заменив в нем знак неравенства равенством. Решая получен­
ное квадратное уравнение относительно р, получим два корня:
»
.V
Ц.51
333
О Ц Е Н К А В ЕР О Я Т Н О С Т И ПО ЧА СТ О ТЕ
Доверительный интервал для вероятности р будет
^ = (/>р Рг)Пример 1. Частота события А в серии из 100 опытов оказалась
^ = 0,78. Определить 90%-й доверительный интервал для вероятности р со­
бытия А.
Решение. Прежде всего проверяем применимость нормального закона;
для этого оценим величины пр и пд. Полагая ориентировочно />»/>*, получим
пр & пр* — 78; П0«л(1 — р*) = 22.
Обе величины значительно больше четырех; нормальный закон применим.
Из таблицы 14.3.1 для й = 0,9 находим <э = 1,643. По формулам (14.5.9)
имеем
р1=0,705; р2= 0,840; /, = (0,705; 0,840).
£2
1 №
Заметим, что при увеличении п величины — и
— в формулах
(14.5.9) стремятся к нулю; в пределе формулы принимают вид
(14.5.10)
Рг = Р ’ + Н ' /
5
Эти формулы могут быть получены и непосредственно, если
воспользоваться приближенным способом построения доверительного
интервала для математического ожидания, данным в п° 14.3. Форму­
лами (14.5.10) можно пользоваться при больших п (порядка сотен),
если только вероятность р не слишком велика и не слишком мала
(например, когда обе величины ар и щ порядка 10 или более).
Пример 2. Произведено 200 опытов; частота события А оказалась
п* = 0,34. Построить 85%-й доверительный интервал для вероятности собы­
тия приближенно (по формулам (14.5.10)). Сравнить результат с точным,
соответствующим формулам (14.5.9).
Решение. ^ —0,85; по таблице 14.3.1 находим
= 1,439. Умножая
его на
« 0,0335,
получим
Н ] / - ^ — -^-«0,048,
Откуда находим приближенно доверительный интервал
/д и (0,292; 0,388).
По формулам (14.5.9) найдем более точные значения р, — 0,294; р2— 0,389,
которые почти не отличаются от приближенных.
334
О Б РА Б О Т КА О П Ы ТО В
[ГЛ . 14
Выше мы рассмотрели вопрос о построении доверительного интер­
вала для случая достаточно большого числа опытов, когда частоту
можно считать распределенной нормально. При малом числе опытов
(а также если вероятность р очень велика или очень мала) таким
допущением пользоваться нельзя. В этом случае доверительный ин­
тервал строят, исходя не из приближенного, а из точного закона
распределения частоты. Нетрудно убедиться, что это есть биномиаль­
ное распределение, рассмотренное в главах 3 и 4. Действительно, число
появлений события Л в л опытах распределено по биномиальному
закону: вероятность того, что событие А появится ровно т раз, равна
Р т , п = С % р т дп-т ,
(14.5.11)
а частота р * есть не что иное, как число появлений события, делен­
ное на число опытов.
Исходя из этого распределения, можно построить доверительный
интервал /р аналогично тому, как мы строили его, исходя из нор­
мального закона для больших п (стр. 331).
Предположим сначала, что вероятность р нам известна, и найдем
интервал частот р *, /?*, в который с вероятностью (3= 1 — а попадет
частота события р*.
Для случая большого я мы пользовались нормальным законом рас­
пределения и брали интервал симметричным относительно математиче­
ского ожидания. Биномиальное распределение (14.5.11) не обладает
симметрией. К тому же (в связи с тем, что частота — прерывная
случайная величина) интервала, вероятность попадания в который в точ­
ности равна (3, может и не существовать. Поэтому выберем в качестве
интервала р *, р * самый малый интервал, вероятность попадания левее
которого и правее которого будет больше
Аналогично тому, как мы строили область И для нормального
закона (рис. 14.5.1), можно- будет для каждого п и заданного р по­
строить область, внутри которой значение вероятности р совместимо
с наблюденным в опыте значением частоты р*.
На рис. 14.5.2 изображены кривые, ограничивающие такие области
для различных п при доверительной вероятности (3= 0,9. По оси
абсцисс откладывается частота р *, по оси ординат— вероятность р.
Каждая пара кривых, соответствующая данному п, определяет довери­
тельный интервал вероятностей, отвечающий данному значению частоты.
Строго говоря, границы областей должны быть ступенчатыми (ввиду
прерывности частоты), но для удобства они изображены в виде
плавных кривых.
Для того чтобы, пользуясь такими кривыми, найти доверительный
интервал/р, нужно произвести следующее построение (см. рис. 14,5.2):
по оси абсцисс отложить наблюденное в опыте значение частоты р*,
14.Я
ОЦ ЕН КА ВЕРО Я Т Н О С Т И ПО ЧАС ТОТЕ
335
Провести через эту точку прямую, параллельную оси ординат, и
отметить точки пересечения прямой с парой кривых, соответствующих
данному числу опытов я; проекции этих точек на ось ординат и
дадут границы р х, р2 доверительного интервала /р.
При заданном п кривые, ограничивающие «доверительную область»,
определяются уравнениями:
5 ] сУ ( 1 - р Г * 7 ;
т-=к
V
0 ' па - р Г т = = | ’
(14.5.12)
(14.5.13)
т =0
где к — число появлений события;
й==я/>*.
Разрешая уравнение (14.5.12) относительно р, можно найти нижнюю
границу р х «доверительной области»; аналогично из (14.5.13) можно
найти р2.
Чтобы не решать эти уравнения каждый раз заново, удобно заранее
ватабулировать (или представить графически) решения для нескольких
336
О Б РА Б О Т КА
О П Ы ТО В
(ГЛ . 14
типичных значений доверительной вероятности р. Например, в
книге И. В. Дунина-Барковского и Н. В. Смирнова «Теория вероят­
ностей и математическая статистика в технике» имеются таблицы р х
и р2 для (3= 0,95 и ^ = 0,99. Из той же книги заимствован график
рис. 14.5.2.
Пример 3. Найти доверительные границы р, и рг для вероятности
события,, если в 50 опытах частота его оказалась р* = 0,4. Доверительная
вероятность Р = 0,9.
Р е щ е н и е. Построением (см. пунктир на рис. 14.5.2) для />*= 0,4 и
п = 50 находим: рх« 0,28; рг и 0,52.
Пользуясь методом доверительных интервалов, можно приближенно
решить и другой важный для практики вопрос: каково должно быть
число опытов п для того, чтобы с доверительной вероятностью (3
ожидать, что ошибка от замены вероятности частотой не превзойдет
заданного значения?
' При решении подобных задач удобнее не пользоваться непосред­
ственно графиками типа рис. 14.5.2, а перестроить их, представив
доверительные границы как функции от числа опытов п.
Пример 4. Проведено 25 опытов, в которых событие А произошло
12 раз. Найти ориентировочно число опытов п, которое понадобится для
Рис. 11.5.3.
того, чтобы с вероятностью Р = 0,9 ошибка от замены вероятности частотой
не превзошла 20%.
Р е ш е и и е. Определяем предельно допустимую ошибку:
Д= 0,2 •0,48 = 0,096 « 0,1.
Пользуясь кривыми рис. 14.5.2, построим новый график: по оси абсцисс
отложим число опытов п, по оси ординат — доверительные границы для вероят­
ности (рис. 14.5.3). Средняя прямая, параллельная оси абсцисс, соответствует
О Ц Е Н К А В ЕРО Я Т Н О С Т И ПО ЧАСТО ТЕ
337
12
наблюденной частоте события р* = ^ = 0,4^- Выше и ниже прямой р== р* =*
«=0,48 проведены кривые р1(л) и Р 2 (п), изображающие нижнюю и верхнююдоверительные границы в зависимости от п. Область между кривыми, опре­
деляющая доверительный интервал, заштрихована. В непосредственной бли­
зости от прямой р = 0,48 двойной штриховкой показана более узкая область
20%-й допустимой ошибки. Из рис. 14.5.3 видно, что ошибка падает до
допустимой величины при числе опытов п порядка 1 0 0 .
Заметим, что после выполнения потребного числа опытов может
понадобиться новая проверка точности определения вероятности по
частоте, так как будет получено в общем случае уже другое значение
частоты р*, отличное от наблюденного в ранее проведенных опытах.
При этом может оказаться, что число опытов все еще недостаточно
для обеспечения необходимой точности, и его придется несколько
увеличить. Однако первое приближение, полученное описанным выше
методом, может служить для ориентировочного предварительного пла­
нирования серии опытов с точки зрения требуемого на них времени,
денежных затрат и т. д.
На практике иногда приходится встречаться со своеобразной зада­
чей определения доверительного интервала для вероятности события,
когда полученная из опыта частота равна нулю. Такая задача обычно
связана с опытами, в которых вероятность интересующего нас события
очень мала (или, наоборот, очень велика — тогда мала вероятность
противоположного события).
Пусть, например, проводятся испытания какого-то изделия на без­
отказность работы. В результате испытаний изделие не отказало ни
разу. Требуется найти максимальную практически возможную вероят­
ность отказа.
Поставим эту задачу в общем виде. Произведено я независимых
опытов, ни в одном из которых событие А не произошло. Задана
доверительная вероятность [3; требуется построить доверительный
интервал для вероятности р события Л, точнее — найти его верхнюю
границу р2, так как нижняя рх, естественно, равна нулю.
Поставленная задача является частным случаем общей задачи
о доверительном интервале для вероятности, но ввиду своих особен­
ностей заслуживает отдельного рассмотрения. Прежде всего, прибли­
женный метод построения доверительного интервала (на основе замены
закона распределения частоты нормальным), изложенный в начале
данного п°, здесь неприменим, так как вероятность р очень мала.
Точный метод построения доверительного интервала на основе бино­
миального распределения в данном случае применим, но может быть
существенно упрощен.
Будем рассуждать следующим образом. В результате я опытов
наблюдено событие В, состоящее в том, что А не появилось ни
разу. Требуется найти максимальное значение р==р2, которое
«совместимо» с наблюденным в опыте событием В , если считать
338
О БРА БО ТКА
О П Ы ТО В
[ГЛ.
14
«несовместимыми» с В те 'значения р, для которых вероятность
события В меньше, чем а =г 1 — р.
Очевидно, для любой вероятности р события А вероятность
наблюденного события В равна
.
Р { В ) = { \ — р )п.
Полагая Р ( В ) = а, получим уравнение для р2:
(1 — Р 2)" = 1 — Р.
(14.5.14)
р 2= 1 — V 1 —
(14.5.15)
откуда
П р и м е р 5. Вероятность р самопроизвольного срабатывания взрыва­
теля при падении снаряда с высоты Л неизвестна, но предположительно
весьма мала. Произведено 100 опытов, в каждом из которых снаряд роняли
с высоты Л, но ни в одном опыте взрыватель не сработал. Определить
верхнюю границу р2 90%-го доверительного интервала для вероятности р.
Р е ш е н и е . По формуле (14.5.15)
100
100
Л = 1 — V I — 0 , 9 = 1 — /0,1,
100
1£
у
___
0 ,1
= 0,01 1^ 0,1 = 1,9900;
100 __ _
/0,1 * 0,977;
р2= 1— 0,977 = 0,023.
Рассмотрим еще одну задачу, связанную с предыдущей. Событие А
с малой вероятностью р не наблюдалось в серии из п опытов
ни разу. Задана доверительная вероятность р. Каково должно быть
число опытов п для того, чтобы верхняя доверительная граница для
вероятности события была равна заданному значению р2?
Решение сразу получается из формулы (14.5.14):
( 1 4 ' 5
' , 6 )
П р и м е р 6 . Сколько раз нужно убедиться в безотказной работе изде­
лия для того, чтобы с гарантией 95% утверждать, что в практическом при­
менении оно будет отказывать не более чем в 5% всех случаев?
Реш е'-ние. По формуле (14.5.16) При а = 0,95, р1 = 0,05 имеем:
„»■ > £^.*58,4.
1£ 0,95
Округляя в ббльшую сторону, получим:
п = 59.
Имея в . виду ориентировочный характер всех расчетов подобного
рода, можно предложить вместо формул (14.5.15) и (14.5.16) более
простые приближенные формулы. Их можно получить, предполагая,
14.в)
О Ц Е Н К И ДЛЯ Ч И С Л О В Ы Х Х А Р А К Т Е Р И С Т И К С И С Т ЕМ Ы В Е Л И Ч И Н
339
что число появлений события А при п опытах распределено по закону
Пуассона с математическим ожиданием а = пр. Это предположение
приближенно справедливо в случае, когда вероятность р очень мала
(см. гл. 5, п° 5.9). Тогда
Р ф ) ^ е ~ пр,
и вместо формулы (14.5.15) получим:
/
>2~ "
Р2
(14.5.17)
а вместо формулы (14.5.16)
— !!.■
Рг
(14.5.18)
П р и м е р 7. Найти приближенно значение р2 для условий примера 5.
Р е ш е н и е . По формуле (14.5.14) имеем:
_
— 1п 0,1
2,303 _п п0,
Л “ - 1оо~ = -Тоо-==0’023’
т. е. тот же результат, который получен по точной формуле в примере 5.
П р и м е р 8 . Найти приближенно значение п для условий примера 6 .
Р е ш е н и е . По формуле (14.5.18) имеем:
'
1п 0,05
0,05
“
2,996. ^ 5 9 9
0,05
Округляя в ббльшую сторону, находим л = 60, что мало отличается от ре­
зультата п = 59, полученного в примере 6 .
14.6. Оценки для числовых характеристик
системы случайных величин
В п °п ° 14.1— 14.4 мы рассмотрели задачи, связанные с оценками
для числовых характеристик одной случайной величины при ограни­
ченном числе опытов и построением для этих характеристик дове­
рительных интервалов.
Аналогичные вопросы возникают и при обработке ограниченного
числа наблюдений над двумя и более случайными величинами.
Здесь мы ограничимся рассмотрением только точечных оценок
для характеристик системы.
Рассмотрим сначала случай двух случайных величин.
Имеются результаты п независимых опытов над системой случай­
ных величин ( X , У), давшие результаты:
(•'"I*
(-^2 ’ Уъ)’ ••*• (-*•/!> Угг)'
Требуется найти оценки для числовых характеристик системы:
математических ожиданий т х, т у, дисперсий О х, Юу и корреляцион­
ного момента К ху.
340
О Б РА Б О Т КА
О П Ы ТО В
ГГЛ
14
Этот вопрос решается аналогично тому, как мы решили его для
одной случайной величины. Несмещенными оценками для математи­
ческих ожиданий будут средние арифметические:
п
Я
2 *,
Ы1
п
■
" у
п
(14.6.1)
а для элементов корреляционной матрицы —
2 (*/ - « *)*
1=1
п— 1
’
2 ( * - " У)г '
(14.6.2)
гГ~1
П
2 ( * / — “ х)(У/ — »»)
К XV '
<=1
п— 1
Доказательство может быть проведено аналогично п° 14.2.
При непосредственном вычислении оценок для дисперсий и кор­
реляционного момента часто бывает удобно воспользоваться связью
между центральными и начальными статистическими моментами:
0 > аМ
~ К ) 2;
я ; = < ( П - К ) 2;
(14.6.3)
где
п
п.
2 *1
/=1
2-?
п
т..
2 ^
*=1
п
2 ^
(14.6.4)
« ;т =
п
2
< ,[*. п =
Вычислив статистические моменты по формулам (14.6.3), можно
затем найти несмещенные оценки для элементов корреляционной
14 61
341
О ЦЕНКИ Д ЛЯ ЧИ СЛО ВЫ Х ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛ И ЧИ Н
матрицы по формулам;
D
D.. = Д
п
* п— 1 ’
п
у п— 1 ’
п
(14.6.5)
•1 •
П р и м е р . Произведены стрельбы с самолета по земле одиночными
выстрелами. Зарегистрированы координаты точек попадания и одновременно
записаны соответствующие значения угла скольжения самолета. Наблюден­
ные значения угла скольжения р (в тысячных радиана) и абсциссы точки
попадания X (в метрах) приведены в таблице 14.6.1.
Т а б л и ц а 14.6.1
1
h
—8
1
2
3
4
5
7
8
_О
+ 22
-)-4
+55
+ 10
— 1
+ 2
6
'
— 10
4-10
—3!)
— 15
+5
9
+ 10
10
+18
—16
—8
_ 2
+ 6
+ 8
1
•h
11
12
+з
13
14
15
16
Г7
18
19
+28
+G2
20
- 2
Х1
—1
+4
+ 12
+ 20
— 10
—8
+ 22
—И
4-3
—32
+ 6
— 12
+ 8
+1
+ 2
+14
Найти оценки для числовых характеристик системы ((3, X).
Р е ш е н и е . Для наглядности наносим все пары значений (?, X ) на
гргфик (рис. 14.6.1). Расположение точек на графике уже свидетельст­
вует о наличии определенной зависимости (положительной корреляции)
между 3 и X.
По формулам (14.6.1) вычисляем средние значения величин р и X — оценки
для математических ожиданий:
Шр = 7,15;
т к = 0,5.
Далее находим статистические вторые начальные моменты:
342
О Б РА Б О Т КА
[гл.
О П Ы ТО В
14
По формулам (14.6.3) находим статистические дисперсии:
= 581,8 — 51,0 = 530,8;
£>* = 85,4— 0,2 = 85,2.
Для нахождения несмещенных оценок умножим статистические дисп
20
; получим:
19
персии на
О,
=89,7.
Соответственно средние квадратические отклонения равны:
У Е>в = 23,6;
: 9,46.
По последней формуле (14.6.4) находим статистический начальныи момент-
20
Ю
•
•
%
'
• • *
*
I» ..... . » - •
-40
-20
0 "• • / / 7
•
•
*
“1,1
и Статистическии корреляционный
момент:
==а*,Ч
»•
-Я7
1
Ш
•
>Р
ной
•
•
40
--20
Рис. 14.6.1,
—
= 190,8 — 3,6 = 187,2.
Для определения несмещен­
оценки умножаем его на
п
20
л —1 ==Т9; пол>
”1аем:
% = 197Д
откуда оценка для коэффициента
корреляции равна:
^ . 197.0 „ л о о
Г^ " '23;6“ 9Т46 ~ 0,88-
Полученное сравнительно большое значение г$х указывает на наличие
существенной связи между р и X; на этом основании можно предполагать,
что скольжение является основной причиной боковых отклонений снарядов.
Перейдем к случаю обработки наблюдений над системой произ­
вольного числа случайных величин.
Имеется система т случайных величин
* 2 ....... -*т)Над системой произведено я независимых наблюдений; резуль­
таты этих наблюдений оформлены в виде таблицы, каждая строка
которой содержит т значений, принятых случайными величинами
Х±, Х г, . . . . Х т в одном наблюдении (табл. 14.6.2).
;Л .в )
ОЦ ЕН КИ Д Л Я Ч И С Л О В Ы Х Х А Р А К Т Е Р И С Т И К С И С Т Е М Ы В Е Л И Ч И Н
Таблица
1
*1
хг
343
14.6.2
хи
...
х к\
...
хт 1
...
Х ТП2
хт
1
1
х \\
*21
...
2
х \2
х гг
...
1
Ху
хп
...
;
...
ХЫ
...
|
•••
|
Х т1
...
!
п
Х\п
Хгп
• ••
х кп
...
хтп
Числа, стоящие в таблице и занумерованные двумя индексами,
представляют собой зарегистрированные результаты наблюдений; пер­
вый индекс обозначает номер случайной величины, второй—номер
наблюдения, так что х к1 — это значение, принятое величиной Х н
в /-м наблюдении.
Требуется найти оценки для числовых характеристик системы;
математических ожиданий т х^ т х ,
тх
и элементов корреляционной матрицы:
*11*12
*2 2
1 Ы
К ,т
По главной диагонали корреляционной матрицы, очевидно, стоят
дисперсии случайных величин Х х, Х 2, . . . . Х т :
К,
■О
Л22—
Кп
Оценки для математических ожиданий найдутся как средние ариф­
метические:
344
ОБРАБОТКА ОПЫТОВ
{ГЛ. 1«
Несмещенные оценки для дисперсий определятся по формулам
О .“
-
-
(Н .6 .7 )
а для корреляционных моментов — по формулам
П
2 ( * « - ' % ) ( % - ^ г)
^
( 14. 6. 8)
По этим данным определяются оценки для элементов нормиро­
ванной корреляционной матрицы:
? к1 = А
,
(14.6.9)
где
=
о, = / б ( .
(14.6.10)
Пример. Сброшено 10 серий бомб, по 5 бомб в каждой, и зарегистри­
рованы точки попадания. Результаты опытов сведены в таблицу 14.6.3.
В таблице буквой I обозначен номер серии; к — номер бомбы в серии.
Требуется определить подходящие значения числовых характеристик —
математических ожиданий и элементов корреляционных матриц — для системы
пяти случайных величин
(Х и Х г, Х 3, Х А, X,)
и системы пяти случайных величин
(Уи Уг, Г г, У4, Уъ).
Решение. Оценки для математических ожиданий найдутся как сред­
ние арифметические по столбцам:
т Х1= — 74,3; т х>= — 19,9;
т Хг — 27,7; т х<— 85,8; т Х/ = 147,0;
т у1= — 3,9; т у1 = — 1,6; т у<= 12,2;
= 13,3; т уъ = 9,9.
При вычислении элементов корреляционной .матрицы мы не будем, как
в прежних примерах, пользоваться соотношениями между начальными и
центральными моментами; в данном случае ввиду сильно изменяющихся ма­
тематических ожиданий пользование этим приемом не даст преимуществ.
. Будем вычислять оценки для моментов непосредственно по формулам (14.6.2).
Для этого вычтем из каждого элемента таблицы 14.6.3 среднее значение
соответствующего столбца. Результаты сведем в таблицу 14.6.4.
|4.8]
ОЦЕНКИ ДЛЯ ЧИСЛО ВЫ Х ХАРАКТЕРИСТИК СИСТЕМЫ ВЕЛ И Ч И Н
Таблица
2
1
2
3
4
5
6
7
8
9
10
—120
—108
—200
—55
5
—240
10
—40
—100
105
14.6.3
Ордината У
Абсцисса К
1
345
4
3
5
2
60 180
—20
80
20
—75 —20
10
—120 —80 —20
—2
40 120 200
60
100
165 220
— 202 —140 —88 —30
65 120 160 205
0
65
103 170
55 105
—40 —10
135 190 280 330
1
2
—20
40
—25
—100
—40
80
14
80
—70
2
3
—15
60
—30
—75
—30
30
25
75
—60
4
4
5
—8 - 6
—2
120 125 130
—20 —10
2
—35
2
2
—25 —30 —45
25
10
2
25
30
10
60
10 -4
—30 —10
0
10
12
4
■
Таблица 14.6.4
Г*п1- т „
УкГ т Ук
*к
>>. к
1\
1
2
3
4
5
6
7
8
9
10
1
2
а
4
5
1
2
3
4
5
—45,7 —0,1 —25,7 —25,8 33,0 —16,1 —13,4 —20,2 —19,3 —11,9
—33,7 —55,1 —37,7 —65,8 —«7,0 43,9 61,6 107,8 111,7 120,1
—125,7—100,1 —107,7—105,8—137,0 —21,1 —28,4 —32,2 —23,3 -7,9
19,3 17,9 12,3 34,2 53,0 —96,1 —73,4 —47,2 —11,3 —7,9
79,3 79,9 72,3 79,2 73,0 —36,1 —28,4 —37,2 —43,3 —54,9
-165,7 —182,1 —167,7—173,8—177,0 83,9 31,6 12,8 —3,3 —7,9
84,3 84,9 92,3 74,2 58,0 17,9 26,6 12,8 16,7
0,1
34,3 19,9 37,3 17,2 23,0 83,9 76,6 47,8 —3,3 —13,9
—25,7 —20,1 —37,7 —30,8 —42,0 —66,1 —58,4 —42,2 —23,3 —9,9
179,3 154,9 162,3 194,2 183,0
5,9
5,6 -2,2 -1,3 —5,9
Возводя эти числа в квадрат, суммируя по столбцам и деля на п — 1 — 9,
получим оценки для дисперсий и средних квадратических отклонений:
О'Л| = 104,2 •102; В ^г = 94,4 •10г;' В Лз
г = 94,3 •10*;
В х^— 110,2 •10а;
В Х1= 114,4.102;
^ , = Ю2; ®х, — 97; ^ = 97;
В У1= 35,5 ■102;
= 24,4 •10*;
В ^ « 19,6•10г; ^
= 20,1 •Ю2;
*л =60; «Уг-49;
— 105;
— 107.
= 23,4 ■103;
®Уа = 48; »у, -44; *У!=45.
Чтобы найти оценку для корреляционного момента, например, меж*
ду величинами
и л г, составим столбец попарных произведении чисел,
346
1Г.Т7
О БР А БО Т К А ОПЫТОВ
14
стоящих в первом и втором столбцах таблицы 14.6.4'). Сложив все аш
произведения и разделив сумму на п — 1 , получим:
К гх = 0,959-104.
■*л
Деля
на ~ах}х 1 получим:
ад
: 0,97.
Аналогично находим все остальные элементы корреляционных матриц.
Для удобства умножим все элементы обеих матриц моментов на 10-2. По­
лучим:
104,2 96,0 98,4 105,1 106,9
94,4 93,2
V ;!
=
ИЗ
107,0
101,1
102,0
99,2
1 1 0 ,2
108,2
111,4
8,3
13,0 10,2
23.4 17,4 17.2
19,6 19.3
35,5 27,8
22,9
24,4
21.4
II*
11,0
20,1
(Ввиду симметричности матриц они заполнены только наполовину.)
Нормированные корреляционные матрицы имеют вид:
1,00
0,97 0,99 0,98
0,98
0,99 0,99
0,97
1,00
1,00
0,98
1,00
0,96
0,97
1,00
1,00 0,94 0,76 0,42 0,31
1,00 0,89 0,59 0,46
1 ,0 0
0,61
0,80
1,00 0,97
1,00
Рассматривая эти матрицы, убеждаемся, что величины (X ,, Х 2, Х 3<Х ^ ,Х Ь)
находятся в весьма тесной зависимости, приближающейся к функциональной;
величины (У ь У2, К 3, К,, Г 6) связаны менее тесно, и коэффициенты корре­
ляции между ними убывают по мере удаления от главной диагонали корре­
ляционной матрицы.
!) Если вычисление производится на арифмометре или клавишной счет­
ной машине, то нет смысла выписывать отдельные произведения, а следует
непосредственно вычислять суммы произведений, не останаиливая’сь на про­
межуточных результатах.
347
О Б РА Б О Т КА С Т Р Е Л Ь Б
14.7. Обработка стрельб
Одной из важных практических задач, возникающих при изучении
Вопросов стрельбы и бомбометания, является задача обработки резуль­
татов экспериментальных стрельб (бомбометаний).
Здесь мы будем различать два случая: стрельбу ударными сна­
рядами и стрельбу дистанционными снарядами.
При стрельбе ударными снарядами рассеивание характеризуется
ваконом распределения системы двух случайных величин: абсциссы
и ординаты точки попадания на некоторой плоскости (реальной или
воображаемой). При стрельбе дистанционными снарядами рассеивание
носит пространственный характер
У
и описывается законом распреде­
ления системы трех координат
точки разрыва снаряда.
Рассмотрим сначала задачу
*
обработки стрельб ударными сна­
•
•
•
ё
»
рядами. Пусть произведено п не­
•
X
зависимых выстрелов по некото­
0
рой плоской мишени и зареги­
стрированы координаты п точек
•
*
попадания (рис. 14.7.1):
( * 1.
У г);
( * 2 > У г);
•••; (*« •
рис.
14.7. 1 .
Предполагая, что закон распределения системы ( X , К) нормаль­
ный, требуется найти оценки для его параметров: координат центра
рассеивания т х, т у, угла а, определяющего направление главных
Осей рассеивания
г}, и главных с.к.о.
су
Начнем с рассмотрения самого простого случая, когда направле­
ние главных осей рассеивания известно заранее. Этот случай часто
встречается на практике, так как обычно направление главных осей
рассеивания определяется самими условиями стрельбы (например,
при бомбометании — направление полета и перпендикулярное к нему;
при воздушной стрельбе — направление поперечной скорости цели и
перпендикулярное к нему и т. д.). В этом случае задача обработки
стрельб сильно упрощается. Зная заранее хотя бы ориентировочно
направление главных осей, можно выбрать координатныесоси парал­
лельно им; в такой системе координат абсцисса и ордината точки
попадания представляют собой независимые случайные величины, и
их закон распределения определяется всего четырьмя параметрами:
координатами центра рассеивания и главными средними квадра­
тическими отклонениями
су. Оценки для этих параметров
348
О Б РА Б О Т К А О П Ы ТО В
определяются формулами
(ГЛ . 14
п
2 л
/=1
т.
/
2 (•*<— '"Л 2
/
-1/
; , =
F
(14.7.1)
_________ •
2— 1
2 ( У г — my)s
^
г
—
Рассмотрим более сложный случай, когда направление главных
осей рассеивания заранее неизвестно и тоже должно быть опреде­
лено из опыта. В этом случае определению подлежат оценки всех
пяти параметров: координат
центра рассеивания т х, т у,
угла а и главных средних квад­
ратических отклонений а£, а
(рис. 14.7.2).
Оценки
для
координат
центра рассеивания в этом слу­
чае определяются так же, как
в предыдущем случае, по фор­
мулам
П
т,
2
*'=1
П
.
~
2 у* .
1=1
п
(14.7.2)
Перейдем к оценке угла а. Предположим, что направления глав­
ных осей рассеивания известны, и проведем через точку (т х, т у)
главные оси О Е, Or) (рис. 14.7.2). В системе EOtj координаты слу­
чайной точки ( X , У) будут:
а = (Л" — mjr)cosot-)-(K — my)sina,
|
Н = — (X — w t^sina-f (К — mucosa. |
или
S = X cos a -f- Y sin a,
1
(14.7.3)
IJss: — X sina-f- Y cos a. )
Очевидно, величины S, H будут иметь математические ожидания,
равные нулю:
М \Щ = М [И] = 0.
М.7!
ОБРАБОТКА С ТРЕЛ ЬБ
3 49
Так как оси 0%, Ок] — главные оси рассеивания, величины Е , Н
независимы. Но для величин, подчиненных нормальному закону, не­
зависимость эквивалентна некоррелированности; следовательно, нам
достаточно найти такое значение угла а, при котором величины S, Н
не коррелированы. Это значение и определит направление главных
осей рассеивания.
Вычислим корреляционный момент величин (Е, Н ). Перемножая
равенства (14.7.3) и применяя к их произведению операцию матема­
тического ожидания, получим:
/C£l) = М [ЕН ] = — М [<Y2] sin a cos а -(- М [Х У ] (cos2а — sin2а) -{-j- М IK 2] sin а cos а = — — sin 2а (D^ — D y) + K xy cos 2а.
Приравнивая это выражение нулю и деля обе части на cos 2а,
имеем:
2КХУ
«14-7-4>
Уравнение (14.7.4) даст два значения угла а: а, и а2, различаю­
щиеся на
Эти два угла и определяет направления главных осей
рассеиванияг).
Заменяя в равенстве (14.7.4) К ху, D x, D y их оценками, получим
оценку для угла а:
1
2К ху
i* — — arctg S--- 5 — .
2
* Dx- b y
Найдем оценки для главных средних квадратических отклоне­
ний
о . Для этого найдем дисперсии величин S, Н, заданных
формулами (14.7.3), по теореме о дисперсии линейной функции:
D E= Dx cos2a -f- D y sin2a -f- 2K xy sin a cos a;
Dn= Dx sin2a -(- D y cos2a — 2K xy sin a cos a,
откуда находим оценки для главных дисперсий:
D 5= D x cos2a -f- K xy sin 2a -f- D y sin2a;
D = Dx sin2a.— K xv sin 2a -\-Dv cos2a.
(14.7.5)
') Заметим, что выражение (14.7.4) совпадает с приведенным в главе 9
выражением (9.2.2) для угла а, определяющего направление осей симметрии
эллипса рассеивания.
350
О Б РА Б О Т К А О П Ы Т О В
[ГЛ.
14
Оценки для главных средних квадратических отклонений выра­
зятся формулами:
(14.7.6)
1)
11
Выпишем отдельно полную сводку формул для обработки стрельб
по плоской мишени в случае, когда направление главных осей рас­
сеивания заранее неизвестно. Оценки искомых параметров опре­
деляются формулами:
(14.7.7)
соз2а-[~Л'жу51п2а-(- £>у 31П2а;
31п2а —
2а
О усоь2а,
где
Ох=
( =
2 (у*-
^=1_________
1
и— 1
п— 1
(14.7.8)
2 (х1 — т х)(у 1— т у)
1=1
п— 1
В заключение следует заметить, что обработку стрельб по пол­
ным формулам (14.7.7) имеет смысл предпринимать только тогда,
когда число опытов достаточно велико (порядка многих десятков);
только в этом случае угол а может быть оценен с достаточной
точностью. При малом числе наблюдений значение а, полученное
обработкой, является в значительной мере случайным.
Задачу обработки стрельб дистанционными снарядами мы здесь
рассмотрим только в простейшем случае, когда направление главных
осей рассеивания (хотя бы ориентировочно) известно заранее. Как
правило, встречающиеся в практике стрельбы дистанционными сна­
рядами задачи обработки опытов относятся к этому типу. Тогда
можно выбрать координатные оси параллельно главным осям рас­
сеивания и рассматривать три координаты точки разрыва снаряда
как независимые случайные величины.
14.81
СГЛАЖИВАНИЕ
ЭКСПЕРИМЕНТАЛЬНЫХ
351
ЗАВИСИМОСТЕЙ
Пусть в результате п независимых выстрелов зарегистрированы
координаты п точек разрыва дистанционных снарядов
(XV У1 - * 1); (-*2 - У2 . * 2); *••• (**• уп, гп)
В системе координат с осями, параллельными главным осям рассеи­
вания. Оценки для параметров нормального закона определятся
формулами:
п
■
п
2
п
у-
— ;
т^ — ~ _ — ;
Т
=
(14.7.9)
На решении задачи обработки стрельб дистанционными снарядами
в случае, когда направления главных осей рассеивания заранее не­
известны, мы останавливаться не будем, так как на практике эта
задача встречается сравнительно редко.
14.8. Сглаживание экспериментальных зависимостей
по методу наименьших квадратов
К вопросам, связанным с обработкой опытов, разобранным в дан­
ной главе, близко примыкает вопрос о сглаживании эксперименталь­
ных зависимостей.
Пусть производится опыт, целью которого является исследование
вависрюсти некоторой физической величины у от физической вели­
чины х (например, зависимости пути, пройденного телом, от времени;
начальной скорости снаряда от температуры заряда; подъемной силы
от угла атаки и т. д.). Предполагается, что величины х а у связаны
функциональной зависимостью:
(14.8.1)
Вид этой зависимости и требуется определить из опыта.
352
О Б РА Б О Т К А О П Ы ТО В
[Г Л
14
Предположим, что в результате опыта мы получили ряд экспери­
ментальных точек и построили график зависимости у от л: (рис. 14.8.1).
Обычно экспериментальные точки на таком графике располагаются
не совсем правильным образом — дают некоторый «разброс», т. е.
обнаруживают случайные отклонения от видимой общей закономер­
ности. Эти уклонения связаны с неизбежными при всяком опыте
о ш и б к а м и из мерения.
Возникает вопрос, как по этим экспериментальным данным наи­
лучшим образом воспроизвести зависимость у от л:?
Известно, что через любые п точек с координатами (Х(, у
всегда можно провести кривую, выражаемую аналитически полино­
мом степени (/1 — 1), так, чтобы она в точности прошла через каж­
дую из точек (рис. 14.8.2). Однако такое решение вопроса обычно не
является удовлетворительным: как правило, нерегулярное поведение
экспериментальных точек, подобное изображенному на рис. 14.8.1
и 14.8.2, связано не с объективным характером зависимости у от х,
а исключительно с ошибкаУ
ми измерения. Это легко
обнаружить, сравнивая наблюденные уклонения (раз­
брос точек) с примерно из­
вестными ошибками изме­
рительной аппаратуры.
Тогда возникает весьма
типичная для практики зада­
ча с г л а ж и в а н и я экспе— :----- х риментальной зависимости.
Желательно
обработать
Рис. 14.8.3.
экспериментальные .данные
так, чтобы по возможности точно отразить общую тенденцию зависимости
у от х, но вместе с тем сгладить незакономерные, случайные уклоне­
ния, связанные с неизбежными погрешностями самого наблюдения.
14.8]
С ГЛ А Ж И ВА Н И Е
ЭКС П ЕРИ М ЕН ТА Л ЬН Ы Х
ЗА В И С И М О С Т Е Й
353
Для решения подобных задач обычно применяется расчетный метод,
известный под названием «метода наименьших квадратов». Этот метод
дает . возможность при заданном т ипе зависимости у = у (х ) так
выбрать ее числовые параметры, чтобы кривая у — <р( х ) в известном
смысле наилучшим образом отображала экспериментальные данные.
Скажем несколько слов о,том, из каких соображений может быть
выбран тип кривой у — <р(л). Часто этот вопрос решаете» непосред­
ственно по внешнему виду экспериментальной зависимости. Например,
экспериментальные точки, изображенные на рис. 14.8.3, явно наводят
Ъ. Зависи­
на мысль о прямолинейной зависимости вида у = ах
мость, изображенная на рис. 14.8.4, хорошо может быть предста­
влена полиномом второй сте­
пени у — ах 2-|-Ьх-\-с. Если
речь идет о периодической
функции, часто можно вы­
брать для ее изображения
несколько гармоник триго­
нометрического ряда и т. д.
/
Очень часто бывает так,
что вид зависимости (линей­
ная, квадратичная, показа­
тельная и т. д.) бывает из­
вестен из физических сооб­
Рис. 14.8.4.
ражений, связанных с существом решаемой задачи, а из опыта требуется установить только
некоторые п арам етры этой зависимости.
Задачу о рациональном выборе та­
Таблица 14.8.1
ких числовых параметров при данном
виде зависимости мы и будем решать
1
Х1
У1
в настоящем п°.
Пусть имеются результаты п неза­
1
висимых опытов, оформленные в виде
У1
х\
простой статистической таблицы (табл.
2
Хг
У1
14.8.1), где / — номер опыта; х, — зна­
чение аргумента; у 1— соответствующее
. ..
...
значение функции.
Точки (х^ У() нанесены на график
1
XI
У1
(рис. 14.8.5).
Из теоретических или иных соо­
...
. ..
...
бражений выбран принципиальный вид
п
хп
зависимости у =<р (х). Функция у=ср (х)
Уп
содержит ряд числовых параметров
а, Ь, с, . . . Требуется так выбрать эти параметры, чтобы кривая
У — <?(х) в каком-то смысле наилучшим образом изображала зави­
симость, полученную в опыте.
\
\
12 Теория вероятностей
354
ОБРАБОТКА ОПЫТОВ
(ГЛ. 14
Решение этой задачи, как и любой задачи выравнивания или
сглаживания, зависит от того, что именно мы условимся считать
«наилучшим». Можно, например, считать «наилучшим» такое взаим­
ное расположение кривой и экспериментальных точек, при котором
максимальное расстояние между ними обращается в минимум; можно
потребовать, чтобы в минимум обращалась сумма абсолютных величин
отклонений точек от кривой и т. д. При каждом из этих требований
мы получим свое решение задачи, свои значения параметров а, Ь, с, .. .
Однако общепринятым при
решении подобных задач
является так называемый ме­
тод наименьших квадра­
тов, при котором требова­
ние наилучшего согласо­
вания кривой у = <р(л;) и
экспериментальных
точек
сводится к тому, чтобы
сумма квадратов о т к л о ­
нений
эксперименталь­
ных точек о т сглаживаю­
щей кривой обращалась
в минимум. Метод наимень­
ших квадратов имеет перед
другими методами сглаживания существенные преимущества; во-первых, он приводит к сравнительно простому математическому способу
определения параметров а, Ь, с,
во-вторых, он допускает до­
вольно веское теоретическое обоснование с вероятностной точки
зрения.
Изложим это обоснование. Предположим, что истинная зависи­
мость у от х в точности выражается формулой у = ср(х); экспери­
ментальные точки уклоняются от этой зависимости вследствие неиз­
бежных о ш и б о к из мерения . Мы уже упоминали о том, что
ошибки измерения, как правило, подчиняются нормальному закону.
Допустим, что это так. Рассмотрим какое-нибудь значение аргумента х^
Результат опыта есть случайная величина Уг, распределенная по
нормальному закону с математическим ожиданием ср(лг() и со сред­
ним квадратическим отклонением ог, характеризующим ошибку из­
мерения. Предположим, что точность измерения во всех точках оди­
накова:
■
—
. . . =<зп = в.
Тогда нормальный закон, по которому распределяется величина К(,
можно записать в виде:
|Д|
С ГЛА Ж И ВАН И Е ЭКС П ЕРИ М ЕНТА Л ЬН Ы Х ЗАВИСИМОСТЕЙ
355
результате нашего опыта — ряда измерений — произошло следую,ее событие: случайные величины (Кр К2, . . . . К„) приняли сово­
купность значений (ур у2,
у„). Поставим задачу: так подобрать
«тематические ожидания <р(х^, <р(х2) ........<р(х п), чтобы в е р о я то с т ь э т о г о с о б ы т и я б ы л а м а к с и м а л ь н а 1).
Строго говоря, вероятность любого из событий К г= уг, так же
^(ак и их совмещения, равна нулю, так как величины У1 непре­
рывны; поэтому мы будем пользоваться не вероятностями событий
агвур а соответствующими э л е м е н т а м и в е р о я т н о с т е й :
1
1уг ^ ) Г
Л ( У г ) ^ = -р= -е"
2о>
^
(14.8.3)
. Найдем вероятность того, что система случайных величин
Ур У2....... У„ примет совокупность значений, лежащих в пределах
(У1>
(У==*1. 2........ п).
Так как опыты независимы, эта вероятность равна произведению
элементов вероятностей (14.8.3) для всех значений к
•
Г
,
[>1-»тг
-агЗЗЛ-'М Г
” ^ Ке
П т' т “'
1=1
< 1 4 -8 -4 )
|Где К — некоторый коэффициент, не зависящий от ср(х2).
*, Требуется так выбрать математические ожидания <?(*!)• ср(х2), . . .
!*.., <р(х„)> чтобы выражение (14.8.4) обращалось в максимум.
Величина
„
~ г г 2 1у*“ * (**>]’
V -!
е
Ы1
Асегда меньше единицы; очевидно, она имеет наибольшее значение,
'Когда показатель степени по абсолютной величине минимален:
П
i S
[y i~ tp(*<)]2==mlru
.
Отсюда, отбрасывая постоянный множитель -gjr* получаем требо­
1=1
вание метода наименьших квадратов: для того чтобы данная сово­
купность наблюденных значений
^
Уг> У2........ Уп
была наивероятнейшей, нужно выбрать функцию <р(я) так, чтобы
сумма квадратов отклонений наблюденных значений yt о т <р(х()
была минимальной :
% |Уг — ? U i ) l 2 ==min.
i=i
') Так называемый «принцип максимального правдоподобия».
J2*
356
1гл. 14-
О Б РА Б О Т К А О П Ы ТО В
Таким образом обосновывается метод наименьших квадратов,
исходя из нормального закона ошибок измерения и требования макси­
мальной вероятности данной совокупности ошибок.
Перейдем к задаче определения параметров а, Ь, с ........исходя
из принципа наименьших квадратов. Пусть имеется таблица экспери­
ментальных данных (табл. 14.8.1) и пусть из каких-то соображений
(связанных с существом явления или просто с внешним видом наблю­
денной зависимости) выбран общий вид функции у = у(х ), завися­
щей от нескольких числовых параметров а, Ь, с, . . . ; именно
эти параметры и требуется выбрать согласно методу наименьших
квадратов так, чтобы сумма квадратов отклонений уг от о (х^ была
минимальна. Запишем у как функцию не только аргумента х , но и
параметров а, Ь, с,
у = ср(л:;
а,
Ь,
с,
...)•
(14.8.5)
Требуется выбрать а, Ъ, с, . . . так, чтобы выполнялось условие:
П
2 [У/ — <
р(л7> о- Ь, с, . ..)]2= т 1п.
(14.8.6)
1=1
Найдем значения а, Ь, с,
обращающие левую часть выражения
(14.8.6) в минимум. Для этого продифференцируем ее по' а, Ь, с, . . .
и приравняем производные нулю:
1=1
ь »
— ер(иг,; а, Ь, с, • ..)] |г
1= 0,
, да )
— 9 (х^ а, Ь, с, . . . ) ] |'
\ = 0,
.дЬ ) /
1=1
’ д?\
= 0.
, дс )
— 9 {х^ а, Ь, с , •. .)] |
1=1
где
9а ( х 1' а '
с ' •••) — значение частной производной ф ун к ­
ции СР по параметру а в точке х (;
(-д]г) . . . . — аналогично.
Система уравнений (14.8.7) содержит столько же уравнений,
сколько неизвестных а, Ь, с, . . .
Решить систему (14.8.7) в общем виде нельзя; для этого необхо­
димо задаться конкретным видом функции ср.
Рассмотрим два часто встречающихся на практике случая: когда
функция ср линейна и когда она выражается полиномом второй сте­
пени (параболой).
М.81
С ГЛ А Ж И ВА Н И Е
ЭКСП ЕРИ М ЕНТАЛ ЬНЫ Х
ЗА В И С И М О С Т ЕЙ
357
1. П о д б о р п а р а м е т р о в л ин е й но й ф у н к ц и и
ме т одо м н а и м е н ь ш и х к в а д р а т о в
В опыте зарегистрирована совокупность значений (х^ у{)
(/— 1 ,2 ....... я; см. рис. 14.8.6).
Требуется подобрать по методу наименьших квадратов пара­
метры а, Ъ линейной функции
у
=
дд: +
Ъ,
изображающей данную экспери­
ментальную зависимость.
Р е ше н и е . Имеем:
у| = ср(х; а, Ь) = ах-\-Ь.
(14.8.8)
Дифференцируя
выражение
(14.8.8) по а и Ь, имеем:
Подставляя в формулы (14.8.7), получим два уравнения для определения о и Ь:
2 (у*—
+ ь)\ х 1~ °*
п
2 1Уг— (« *, + 0)1 = 0.
/*1
или, раскрывая скобки и производя суммирование,
2 хдЧ — а 2 х/ — ь 2 X, = о,
4*1
;=1
г=1
2
2
У1 ~ а
х1— Ьп = 0.
ы1
г=1
Разделим оба уравнения (14.8.9) на п:
(14.8.9)
358
ОБРАБОТКА ОПЫТОВ
[ГЛ
И
Суммы, входящие в уравнения (1 4 .8 .1 0 ), представляют собой не что
иное, как у ж е знакомые нам с т а т и с т и ч е с к и е м о м е н т ы :
2
■2 * 1
/-1
п
2
1=1
-? '
г.
■т:
*
п
■ = < [* ];
п
Подставляя эти выражения в систему (1 4 .8 .1 0 ), получим:
а*( 1I X , К] — аа* [X ]
— Ьт*х
= 0,
(1 4 .8 .1 1 )
ат * — Ь = 0 .
т ..
Выразим Ъ из второго уравнения (1 4 .8 .1 1 ) и подставим в первое:
: ту — ат х ;
а* 1 [X , К] — а а* [ X ] — (т* — а т * ) т * = 0.
Решая последнее уравнение относительно а, имеем:
«1, 11* . п — « Х
а* т - « ) 2
(14.8.12)
’
Выражение (1 4 .8 .1 2 ) можно упростить, если ввести в него не началь­
ные, а центральные моменты. Действительно,
11^> У] ~~ /ЯдТИу = Кху>
откуда
С
а = - Ху .
где
®2 [■‘^•'1
-т у
(14.8.13)
п
л
2*1
т.
==^лг»
п
2>1
т..
( 1 4 .8 .1 4 )
Ку-
П
20
г=1
;)2 .
Таким образом , поставленная задача решена, и линейная зависи­
мость, связывающая у и х , имеет вид:
К,Х М
С
14.8]
СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ
359
или, перенося ту в левую часть.
К»
■ т ..
(14.8.15)
Мы выразили коэффициенты линейной зависимости через централь­
ные, а не через начальные вторые моменты только потому, что в таком
виде формулы имеют более компактный вид. При практическом примене­
нии выведенных формул может оказаться удобнее вычислять моменты
и Д * не по формулам (14.8.14), а через вторые начальные моменты:
П
2 'х #1
■т т
к ху
у'
(14.8.16)
п
2 *;
О*
1= 1
•К )2
Для того чтобы формулы (14.8.16) не приводили к разностям
близких чисел, рекомендуется перенести начало отсчета в точку, не
слишком далекую от математи­
ческих ожиданий т*х, т*.
■
2. П о д б о р п а р а м е т р о в
параболы второго
порядка методом
наименьших квадратов
В опыте зарегистрированы зна­
чения ( х (, у г) (/ = 1, 2 .......... п;
см. рис. 14.8.7). Требуется мето­
дом наименьших квадратов подо­
брать
параметры квадратичной
функции — параболы второго по­
рядка:
у — а х 2- \ - Ь х - \ - с ,
соответствующей наблюденной экспериментальной зависимости. Имеем:
у = <р(х; а, Ь, с) = а х 2- { - Ь х - { - с ,
<3?
да
ду
дЬ — х;
ду
~дс
1;
< * ) ,■
■X,
1.
360
‘»Л.
ОБРАБОТКА ОПЫТОВ
Подставляя в уравнения (14.8.7), имеем:
2
[У/ — {а х \ + Ьх1-4- с)] х ] ~ 0,
2
[У/ — { а х ) + Ьх1 + с)] х 1 = 0,
2
[У/ ~ («■»/ + Ч
+ с)] = 0 ,
ил«, раскрывая скобки, производя суммирование и деля на я,
п
2 *‘л
Ъ А
- _..
а ых
п
п
Ч
п
с 1= 1
п
Л
<М
п
2 *?
1
1=
1
я
.1= 1
<
1=1
± А
А
п
П
^ V/
/ а?1
— а
п
2*1
.... с ‘=1
п
2
(14.8.17)
:0.
*/
■с — 0 .
Коэффициенты этоа системы также представляют собой статисти­
ческие моменты системы двух величин А', К, а именно:
2*1
/=1
да; = а*[К!;
Ы1
2
<[хц
1=1
х 01
2 *?У|
=
П;
= 4
,\х. п
Пользуясь этими выражениями для коэффициентов через началь*
ные моменты одной случайной величины и системы двух величин,
14,(1
СГЛАЖ ИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ
361
'можно придать системе уравнений (14,8.7) достаточно компактный
вкд. Действительно, учитывая, что а*[ЛГ] = 1; &*1[Л \ К] = а* 1К]
И перенося члены, не содержащие неизвестных, в правые части, при­
ведем систему (14.8.17) к виду:
а ’4 [ * ] « + «; [ X ] Ь + а* [Х \ с = а* , [ X . У],
,1 а -.
п
.
(14.8.18)
а* [ X ] я + *\ 1Х\ Ъ+ а* [ Х \ с = а* , [ X , У].
Закон образования коэффициентов в уравнениях (14.8.18) нетрудно
подметить: в левой части фигурируют только моменты величины X
в убывающем порядке; в правой части стоят моменты системы ( X , У),
причем порядок момента по X убывает от уравнения к уравнению,
а порядок по У всегда остается первым 1).
Аналогичными по структуре уравнениями будут определяться
коэффициенты параболы любого порядка.
Мы видим, что в случае, когда экспериментальная зависимость
выравнивается по методу наименьших квадратов полиномом некото­
рой степени, то коэффициенты этого полинома находятся решением
системы линейных уравнений. Коэффициенты этой системы линейных
уравнений представляют собой статистические моменты различных
порядков, характеризующие систему величин ( X , У), если ее рас­
смотреть как систему случайных величин.
Почти так же просто решается задача сглаживания эксперимен­
тальной зависимости методом наименьших квадратов в случае, когда
сглаживающая функция представляет собой не полином, а сумму про­
извольных заданных функций <рг (лг), <р2( х ) ..........¥*(■*) с коэффици­
ентами а 1, а 2.......... а к:
у * = ? ( х ; в Р а 2.......... а к) —
к
= я 1<р1( * ) + в 2<р2с * о + . . . н-я*<р*(*) = 2 «<?«(*).
1=1
( 14-8Л 9 )
и когда требуется определить коэффициенты а ,.
*) Решения системы (14.8.18) относительно неизвестных а, Ь, с в общем
виде мы не приводим, так как это решение слишком громоздко, а на прак­
тике обычно удобнее решать систему (14.8.18) не с помощью определителей,
а последовательным исключением неизвестных.
362
ОБРАБОТКА ОПЫТОВ
Например, экспериментальную
тригонометрическим полиномом
Ф(х;
av
[ГЛ. 14
зависимость
можно
сглаживать
а 2, о 3, а 4) =
= а х cos шя -•(- а 2 sin шх + а 3 cos 2шх -}- а4 sin 2шх
или линейной комбинацией показательных функций
<р(х; а ъ а 2, аг) =
а 2е*-{~ а ^ ,
и т. д.
В случае, если функция задается выражением типа (14.8.19), коэф ­
фициенты a v а 2, . . . , a k находятся решением системы k линейных
уравнений вида:
П
2 {Уг —
+
•••
<^>1} <РХ(>=^ = 0 ,
п
1 i { у i — [« 1?! (* i) ч - а 2?2 (* /) 4 - • • • + 0 *<р* (Jf/)]} Та (*,) = 0,
*=1
П
2
/= 1
\У1~ \ai^ { x l)^r a^ 2{x i) + . . . -+■
‘(-»i)]} «р* (лр*) =* 0.
Выполняя почленное суммирование, имеем:
п
п
п
«1 2 [?1(*z)]2-M 2Е
'P2(*i)tPi(*;)+ ••• +
|S=1
2 ?*(**)<Pi(*/) =
i=\
п
= 2 M i (*;)>
*=1
п
п
«1 i=l
2 'Pi(-*r;)<F2(*i)-M22ых [%(^)]2Ч-
п
-f 0*2
<р*(*/)?а(*,)=»
i=l
л
= 2 у л (•*■/).
/=2
rt
а\
2
.*= 1
<Pi (*{)
( * /) ■+" а 2 2
i=l
п
Ъ { х д Ч к (•*/) +
Н~
2
j=l
1<Р* (•*Г()]2 = г
я
= 2 w « (4
14.8]
СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ
.3 6 3
или, короче,
2
>=1
1=1
Ч
п
2
/=1
* 1^ 1)
2 У Л -(*<)•
1=1
п
а) 2 92 (*/) Ту(-Ж/) = 2 У/Та (х д'
£=1
(14.8.20)
п
2 в / 2 ?* (* /)? /•* * ) = 2 УгРаО/)/=1
г=1
У=1
Систему линейных уравнений (14.8.20) всегда можно решить
и определить таким образом коэффициенты я х, а 2.......... а к•
Сложнее решается задача о сглаживании методом наименьших
квадратов, если в выражение функции у = у ( х ; а, Ь, с, . . . ) число­
вые параметры а, Ь, с, . . . входят нелинейно. Тогда решение си­
стемы (14.8.7) может оказаться сложным и трудоемким. Однако и в
этом случае часто удается получить
решение задачи с помощью сравни­
тельно простых приемов.
Проиллюстрируем
идею
этих
приемов на самом простом примере
функции, нелинейно зависящей толь­
ко от одного параметра а ^напри­
мер, у = е~ах2 или у = 51пал:, или
V — — 1. Имеем:
*
ах)
у = у ( х , а),
• (14.8.21)
где а — параметр* подлежащий под­
бору методом наименьших квадратов
для наилучшего сглаживания задан­
ной экспериментальной зависимости
(рис. 14.8.8).
Будем решать задачу следующим образом. Зададимся рядом зна­
чений параметра а и для каждого из них найдем сумму квадратов
отклонений у 1 от ср ( х 1г а). Эта сумма квадратов есть некоторая
функция а ; обозначим ее Е (а ):
^
п
2 ( а ) = 2 [У< — ?(*/■ я )]2/=1
Нанесем значение £ ( а ) на график (рис. 14.8.9).
То значение а, для которого кривая Е (а ) имеет минимум, и вы­
бирается как подходящее значение параметра а в выражении (14.8.21).
364
ОБРАБОТКА ОПЫТОВ
ГЛ. М
Совершенно так же, в принципе, можно, не решая уравнений (14.8.7),
подобрать совокупность двух параметров (а , Ь), удовлетворяющую
принципу наименьших квадратов; работа при этом лишь незначительно
усложнится и сведется к построению не одного, а нескольких гра­
фиков (рис. 14.8.10); при
этом придется искать со­
40
вокупность значений а , Ь,
обеспечивающую
мини­
мум минимального зна­
30
Л=а8+Ь
чения суммы квадратов
отклонений Е (о , Ь).
П р и м е р 1. В опыте
исследована
зависимость
глубины проникания Л тела
Ю
в преграду от удельной энер­
гии $ (энергии, приходя­
щейся на квадратный сан­
тиметр площади соударе­
300 ния).
Экспериментальные
данные приведены в табли­
Рис. 14.8.11.
це 14.8.2 и на графике
(рис. 14.8.11).
Требуется по методу наименьших квадратов подобрать и построить пря­
мую, изображающую зависимость Л от $.
Р е ш е н и е . Имеем:
13
2137
13
I
164,4,
13
274
13
21 , 1 .
Для обработки по начальным моментам переносим начало координат
в близкую к средней точку:
и
— 150;
Ад
20.
365
СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ
14.81
Получаем новую таблицу значений величин:
^
~
Л — Л Лц
(табл. 14.8.-3).
Определяем моменты:
: 6869;
«*2ж ь1------
= 6869 — ( т * ,)2 = 6869 — (164,4 — 150)2 = 6662;
842;
< , [$', *'] =
Таблица
/ ,$1 <кгм/смУ
1
2
3
4
5
6
7
8
9
10
И
12
13
41
50
81
104
120
•139
154
180
208
241
250
269
301
Таблица
14.8.2
Л, (мм)
1
4
8
10
14
15
20
19
23
26
30
31
36
37
.
^
®
14.8.3
л ' = й .- 2 0
1
— 109
— 16
2
— 100
3
4
— 12
-1 0
—6
5
— 69
—46
— 30
6
-1 1
7
8
9
ю
11
12
13
4
30
58
91
100
119
151
—4
0
-1
3
6
10
11
16
17
К« К = < 1 [&'• Й'1 ~ % ' «Л' - 842 - (164,4 - 1 5 0 ) (21,1 - 20)
842— 16 = 826.
Уравнение прямой имеет вид:
Н
или
•
шЛ — -
/, ^6
и%
»ч
/л8),
А— 21,1 = 0,124 ( § — 164,4).
(14.8.22)
Прямая (14.8.22) показана на рис. 14.8.11.
П р и м е р 2. Произведен ряд опытов по измерению перегрузки авиа­
ционной бомбы, проникающей в грунт, при различных скоростях встречи.
Полученные значения перегрузки N в зависимости от скорости V приведены
в таблице 14.8.4.
Построить по методу наименьших квадратов квадратичную зависи­
мость вида:
N = м 2 4* 4" с,
наилучшим образом согласующуюся с экспериментальными данными.
366
ОБРАБОТКА ОПЫТОВ
1ГЛ. 14
Р е ш е н и е . В целях удобства обработки удобно изменить единицы из­
мерения так, чтобы не иметь дела с многозначными числами; для этого можно
значения о выразить в сотнях м1сек (умножить на 10-2), а N — в тысячах
единиц (умножить на 10-3) и всю обработку провести в этих условных
единицах.
Находим коэффициенты уравнений (14.8.18).
В принятых условных единицах:
IX
Таблица
14.8.4
1
V (м/сек)
N
1
2
3
4
5
6
7
8
9
10
11
12
13
14
120
131
140
161
174
180
200
214
219
241
250
268
281
300
540
590
670
760
850
970
1070
1180
1270
1390
1530
1600
1780
2030
“4
,
т
[V] = — 7 Г -
« зМ =
=
2*?
/_
148,36
: 10,60;
14 :
2*?
63,49
14
п
=4,535;
2 ^
_____28,79
'* ~ п
14
«Гм
< 11«.
362,95 окоо
Гй
=
14
' 25,92;
= “I [АП =
“
2,056;
- Т 4- =
16^23
14
■1,159;
36,81
^
= 2,629;
< 1 [V, М) =
п
88,02
14
6,287.
Система уравнений (14.8.18) имеет вид:
25,92а + 10,6 0 й 4 ,5 3 5 с = 6,287,
10,60а +• 4,535« + 2,056с = 2,629,
4,535а+ 2,0566 4 с = 1,159.
Решая эту систему, находим:
а «0,168;
Ь х 0,102;
с « 0,187.
На рис. 14.8,12 нанесены экспериментальные точки и зависимость
N — аи2
1/ис,
построенная по методу наименьших квадратов.
П р и м е ч а н и е . В некоторых случаях может потребоваться провести
кривую у = <р{х) так, чтобы она точно проходила через некоторые заданные
заранее точки. Тогда некоторые из числовых параметров а, Ь^с, . . . , входя­
щих в функцию у = ? (*), могут быть определены из этих условий,
14.8]
СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ
367
Например, в условиях примера 2 может понадобиться проэкстраполиро■ать зависимость N (г/) на малые значения V, при этом естественно провести
параболу второго порядка так, чтобы она проходила через начало координат
(т. е. нулевой скорости встречи соответствовала нулевая перегрузка). Тогда,
естественно, с = 0 и зависимость N (к) приобретает вид:
N = аь2 + Ьу,
В система уравнений для определения а и Ь будет иметь-йид:
25,92а + 10,Ш = 6,287,
10,60л+ 4,5356 = 2.629.
П р и м е р 3. Конденсатор, заряженный до напряжения £ /„ * 100 еолып.
разряжается через некоторое сопротивление. Зависимость напряжения и
между обкладками конденсатора ог времени Ь зарегистрирована на участке
времени 10 сек с интервалом 1 сек. Напряжение измеряется с точностью
до 5 вольт. Результаты измерений приведены в таблице 14.8.5.
Согласно теоретическим данным, зависимость напряжения от времени
должна иметь вид:
С/ = и ае-*1.
Основываясь на опытных данных, подобрать методом наименьших квадратов
значение параметра а.
Р е ш е н и е . По таблицам функции е ~х убеждаемся, что е~* доходит при­
близительно до 0,05 при л » 3 ; следовательно, коэффициент а должен иметь
368
1ГЛ, и
ОБРАБОТКА ОПЫТОВ
Т абли ц а
(сек)
1
1
2
' з
4
5
6
0
1
2
3
4
5
14.8.5
1/{ (в)
1
<1(сек)
и 1 (в)
100
75
55
40
30
20
7
8
9
10
11
6
7
8
9
10
15
10
10
5
5
|
порядок ОД Задаемся в районе а = 0,3 несколькими значениями «:
а = 0,28; 0,29; 0,30; 0,31; 0,32; 0,33
и вычисляем для них значения функции
и = и 0в~а‘
в точках
(табл. 14.8.6). В нижнёй строке таблицы 14.8.6 помещены значе­
ния суммы квадратов отклонений 2 (а) в зависимости от а.
Ка)
Рис. 14.8.13.
График функции 2 (а) приведен на рис. 14.8.13. Из графика видно, что
значение а, отвечающее минимуму, приближенно равно 0,307. Таким образом,
14.8]
369
СГЛАЖИВАНИЕ ЭКСПЕРИМЕНТАЛЬНЫХ ЗАВИСИМОСТЕЙ
по методу наименьших квадратов наилучшим приближением к опытным дан­
ным будет функция и — ( /0<?~°,зо7/. График этой функции вместе с экспери­
ментальными точками дан на рис. 14.8.14.
Таблица
1
и
<*=0,28
а = 0,29
а —0,31)
а = 0 ,3 1
1
2
3
4
о
6
7
8
9
10
11
0
1
2
■3
4
5
6
7
8
9
10
£(«)
100,0
75,5
57,1
43,2
32,6
24,6
18,6
14,1
10,7
8,0
6,1
83,3
100,0
74,8
56,0
41,9
31,3
23,5
17,6
13,1
9,8
7,4
5,5
40,3
100,0
74,1
54,9
40,7
30,1
22,3
16,5
12,2
9,1
6,7
5,0
17,4
100,0
73,3
53,8
39,5
28,9
21,2
15,6
11,4
8,4
6,1
4,5
13,6
.
14.8.6
а = 0,32
а = 2 0,33
100,0
72,6
52,7
38,3
27,8
20,2
14,7
10,6
7,7
5,6
4,1
25,7
100,0
71,9
51,7
37,2
26,7
19,2
13,8
9,9
7Д
5,1
3,7
51,4
ГЛ А В А
15
ОСНОВНЫ Е ПОНЯТИЯ Т Е О РИ И СЛУЧАЙНЫХ ФУНКЦИЙ
15.1. П о н яти е о случайн ой ф ункц ии
Д о сих пор в нашем курсе теории вероятностей основным пред­
метом исследования были случайные величины. Случайная величина
характерна тем, что она в результате опыта принимает некоторое
одно, заранее неизвестное, но единственное значение. Примерами
таких случайных величин могут служить: абсцисса точки попада­
ния при выстреле; ошибка радиодальномера при одном, единичном
измерении дальности; горизонтальная ошибка наводки при одном
выстреле и т. д.
Ограничиваясь рассмотрением подобных отдельных случайных ве­
личин, мы изучали случайные явления как бы «в статике», в каких-то фиксированных постоянных условиях отдельного опыта.
Однако такой элементарный подход к изучению случайных явле­
ний в ряде практических задач является явно недостаточным. На
практике часто приходится иметь дело со случайными величинами,
непрерывно изменяющимися в процессе опыта. Примерами таких слу­
чайных величин могут служить: ошибка радиодальномера при непре­
рывном измерении меняющейся дальности; угол упреждения при не­
прерывном прицеливании по движущейся цели; отклонение -траекто­
рии управляемого снаряда от теоретической в процессе управления
или самонаведения.
Такие случайные величины, изменяющиеся в процессе опыта, мы
будем в отличие от обычных случайных величин называть с л у ч а й ­
ными функц ия ми .
Изучением подобных случайных явлений, в которых случайность
проявляется в форме процесса, занимается специальная отрасль тео ­
рии вероятностей — теория случайных функций (иначе — теория слу­
чайных или стохастических процессов). Эту науку можно образно
назвать «динамикой случайных явлений».
Теория случайных функций — новейший раздел теории вероятно­
стей, развившийся, в основном, за последние два-три десятилетия.
15, 1]
ПОНЯТИЕ О СЛУЧАЙНОЙ ФУНКЦИИ
371
В настоящее время эта теория продолжает развиваться и соверш ен­
ствоваться весьма быстрыми темпами. Это связано с непосредственными
Требованиями практики, в частности с необходимостью решения ряда
технических задач. Известно, что за последнее время в технике все
большее распространение получают системы с автоматизированным
управлением. Соответственно все ббльшие требования предъявляются
к теоретической базе этого вида техники — к теории автоматиче­
ского управления. Развитие этой теории невозможно без анализа
ош ибок, неизбежно сопровождающих процессы управления, которые
всегда протекают в условиях непрерывно воздействующих случайных
возмущений (так называемых «помех»). Эти возмущения по своей
природе являются случайными функциями. Для того чтобы рацио­
нально выбрать конструктивные параметры системы управления,
необходимо изучить ее реакцию на непрерывно воздействующие слу­
чайные возмущения, а единственным аппаратом, пригодным для
такого исследования, является аппарат теории случайных функций.
В данной главе мы познакомимся с основными понятиями этой
теория и с общей постановкой ряда практических задач, требующих
применения теории случайных функций. Кроме того, здесь будут
изложены общие правила оперирования с характеристиками случайных
функций, аналогичные правилам оперирования с .числовыми характе­
ристиками обычных случайных величйн.
Первым из основных понятий, с которыми нам придется иметь
дело, является само понятие с лу ч ай н ой фу нкции. Это понятие на­
столько же шире и богаче понятия случайной величины, насколько
математические понятия переменной величины и функции шире и
богаче понятия постоянной величины.
Вспомним определение случайной величины. Случайной величиной
называется величина, которая в результате опыта может принять то
или иное значение, неизвестно заранее — какое именно. Дадим ана­
логичное определение случайной функции.
С л у ч а й н о й фу нкцие й называется функция, которая в результате
опыта может принять тот или иной конкретный вид, неизвестно за ­
ранее — какой именно.
Конкретный вид, принимаемый случайной функцией в результате
опыта, называется р е а л и з а ц и е й случайной функции. Если над слу­
чайной функцией произвести группу опытов, то мы получим группу
или «семейство» реализаций этой функции.
Приведем несколько примеров случайных функций.
П р и м е р 1. Самолет-бомбардировщик на боевом курсе имеет
теоретически постоянную воздушную скорость V . Фактически его
скорость колеблется около этого среднего номинального значения
и представляет собой случайную функцию времени. Полет на боевом
курсе можно рассматривать как опыт, в котором случайная функция
V (t) принимает определенную реализацию (рис. 15.1.1). От опьпа
372
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ
[ГЛ. 15
к опыту вид реализации меняется. Если на самолете установлен
самопишущий прибор, то он в каждом полете запишет новую, отлич' ную от других реализа­
цию случайной функции.
В результате несйолькнх
полетов можно получить
семейство реализаций слу­
чайной
функции
V (О
(рис. 15.1.2).
П р и м е р 2. При на­
ведении управляемого сна­
. Рис. 15.1.1.
ряда на цель ошибка на­
ведения R (t) представ­
ляет собой отклонение
центра мпссы снаряда от
теоретической
траекто­
рии, т. е. случайную функ­
цию времени (рис. 15.1,3).
В том же опыте слу­
чайными функциями вре­
мени являются, например,
перегрузка снаряда N ( t ) ,
угол атаки a.(t) и т. д.
Рис. 15.1.2.
Пример
3.
При
стрельбе с самолета по
самолету перекрестие прицела в течение некоторого времени должно
непрерывно совмещаться с целью — следить за ней. Операция слежения
за целью сопровождается ошибками — так называемыми ошибками на­
водки (рис, 15.1.4). Горизонтальная и вертикальная ошибки наводки
в процессе прицеливания непрерывно меняются и представляют собой
две случайные функции X (*) и У (£). Реализации этих случайных функ­
18.11
ПОНЯТИЕ О СЛУЧАЙНОЙ ФУНКЦИИ
373
ций можно получить в результате дешифровки снимков фотопулемета,
фотографирующ его цель в течение всего процесса слежения.
Число примеров случайных функций, встречающихся в технике,
можно было бы неограниченно увеличивать. Действительно, в любом
случае, когда мы имеем дело с непрерывно работающей системой
(системой измерения, управления, наведения, регулирования), при
анализе точности работы этой системы нам приходится учитывать
наличие случайных воздействий (помех). Как сами помехи, так и
вызванная ими реакция системы представляют собой случайные функ­
ции времени.
Д о сих пор мы говорили только о случайных функциях, аргу­
ментом которых является время I. В ряде задач практики встречаются
случайные функции, зависящие не от времени, а от других аргумен­
тов. Например, характеристики прочности неоднородного стержня
могут рассматриваться как случайные функции абсциссы сечения х .
Температура воздуха в различных слоях атмосферы может рассмат­
риваться как случайная функция высоты Н.
Н а практике встречаются такж е случайные функции, зависящие
не от одного аргумента, а от нескольких. Например, аэрологические
данные, характеризующие состояние атмосферы (температура, давле­
ние, ветер), представляют собой в общем случае случайные функции
четырех аргументов: трех координат х , у, г и времени t.
В данном курсе мы будем рассматривать только случайные ф унк­
ции одного аргумента. Так как этим аргументом чаще всего является
^ в р е м я , будем обозначать его буквой I. Кроме того, условимся,
как правило, обозначать случайные функции большими буквами
(X (^), К (/), . . . ) в отличие от неслучайных функций ( * ( /) , у (?), . . . ) .
Рассмотрим некоторую случайную функцию X (^). Предположим,
что над ней произведено п независимых опытов, в результате кото­
рых получено п реализаций (рис. 15.1.5). Обозначим их соответ­
ственно номеру опыта х х (/), х 2 (О .......... х„ (().
374
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЯ
[ГЛ. 15
Каждая реализация, очевидно, есть обычная (неслучайная) функ­
ция. Таким образом, в результате каждого опыта случайная функция
X (£) превращается в обычную, н еслучай ную функцию.
Зафиксируем теперь некоторое значение аргумента t и посмотрим,
во что превратится при этом случайная функция X (£). Очевидно,
она превратится в слу ча йн ую величину в обычном смысле слова.
Условимся называть эту случайную величину сечением случайной,
функции, соответствующим данному
Если провести «сечение» се­
мейства реализаций при данном £ (рис. 15.1.5), мы получим п зна­
чений, принятых случайной величиной X (£) в п опытах.
Мы видим, что случайная функция совмещает в себе черты сл у­
чайной величины и функции. Если зафиксировать значение аргумента,
она превращается в обычную случайную величину; в результате
каждого
опыта она превращается в обычную
(неслучайную)
функцию.
В ходе дальнейшего изложения мы часто будем попеременно р ас­
сматривать одну и ту же функцию X (/) то как случайную функцию,
то к а к ' случайную величину, в зависимости от того, рассматри­
вается ли она на всем диапазоне изменения £ или при его ф иксиро­
ванном значении.
1 5 .2 . П он яти е о случайной ф ун кции как р асш и р ен и е понятия
о си с т е м е сл уч ай ны х величин. З ак он р асп р ед ел ен и я
сл уч ай н ой ф ункции
Рассмотрим некоторую случайную функцию X (#) на определенном
отрезке времени (рис. 15.2.1).
Строго говоря, случайную функцию мы не можем изобра­
жать с помощью кривой на графике; начертить мы можем лишь е е
конкретные реализации. Однако в целях наглядности можно позволить
сеое условно изобразить на чертеже случайную функцию X (() в виде
кривой, понимая под этой кривой не конкретную реализацию, а всю
15.2)
ЗАКОН РА СПРЕДЕЛЕНИ Я
СЛУЧАЙНОЙ ФУНКЦИИ
375
совокупность возможных реализаций X (£). Эту условность мы будем
отмечать тем, что кривую, символически изображающую случайную
функцию, будем проводить пунктиром.
Предположим, что ход изменения случайной функции регистри­
руется с помощью некоторого прибора, который не записывает слу­
чайную функцию непрерывно, а отмечает ее значения через определен­
ные интервалы — в моменты времени
t<l , . . . . £т .
Как было указано выше, при фиксированном значении Ь случай­
ная функция превращается в обычную случайную величину. Следо­
вательно, результаты записи в данном случае представляют собой
систему т случайных величин:
* ( < ! ) . * ( < 2>.......... * ( < * > •
( 1 5 -2 Л >
Очевидно, при достаточно высоком темпе работы регистрирующей
аппаратуры запись случайной функции через такие интервалы даст
достаточно точное представление о ходе ее изменения. Таким обра­
зом, рассмотрение случайной функции можно с некоторым прибли­
жением заменить рассмотрением системы случайных величин (15.2.1).
По мере увеличения т. такая замена становится все более и более
точной. В пределе число значений аргумента — и соответственно
число случайных величин (15.2.1) — становится бесконечным. Таким
образом, понятие случайной функции можно рассматривать как
естественное обобщение понятия системы случайных величин на слу­
чай бесконечного (несчетного) множества величин, входящих в
систему.
Исходя из такого толкования случайной функции попытаемся от­
ветить на вопрос: что же должен представлять собой з а к о н р а с ­
пр е д е л е ни я случайной функции?
Мы знаем, что закон распределения одной случайной величины
есть функция одного аргумента, закон распределения системы двух
величин— функция двух аргументов и т. д. Однако практическое
пользование в качестве вероятностных характеристик функциями
многих аргументов настолько неудобно, что даже для систем трех­
четырех величин мы обычно отказываемся от пользования законами
распределения и рассматриваем только числовые характеристики.
Что касается закона распределения случайной функции, который пред­
ставляет собой функцию бесчисленного множества аргументов, то
такой закон в лучшем случае можно чисто формально записать
в какой-либо символической форме; практическое же пользование
подобной характеристикой, очевидно, совершенно исключено.
Можно, однако, для случайной функции построить некоторые
вероятностные характеристики, аналогичные законам распределения.
Идея построения этих характеристик заключается в следующем.
Рассмотрим случайную величину X (£) — сечение случайной функг
ции в момент / (рис. 15.2,2). Эта случайная величина, очевидно,
376
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ
СЛУЧАЙНЫХ ФУНКЦИЯ
[ГЛ. 1-5
обладает законом распределения, который в общем случае зависит
от t. Обозначим его / ( х , ^). Функция / ( х . () называется о д н о м е р ­
ным законом распределения случайной функции X (О*
Очевидно, функция / ( х , /) не является полной, исчерпывающей
характеристикой случайной функции X (*). Действительно, эта ф унк­
ция характеризует только закон распределения X (<) для данного,
хотя и произвольного
она не отвечает на вопрос о з а в и с и ­
м о с т и случайных величин X (/) при различных t. С этой точки зр е­
ния более полной характеристикой случайной функции X (V) является
так называемый д в у м е р ны й закон распределения:
/(х ^
х 2;
/ 2).
(15.2.2)
Это — закон распределения системы двух случайных величин X ((1),
X (*2), т. е. двух произвольных сечений случайной функции X (/).
Однако и эта характеристика в общем случае не является исчерпы­
вающей; еще более полной характеристикой был бы трехмерный закон:
,^ (х х, х 2, Хд,
(1 5 .2 .3 )
Очевидно, теоретически можно неограниченно увеличивать число
аргументов и получать при этом все более подробную, все более
исчерпывающую характеристику случайной функции, но оперировать
со столь громоздкими характеристиками, зависящими от многих аргу­
ментов, крайне неудобно. Поэтому при исследовании законов рас­
пределения случайных функций обычно ограничиваются рассмотрением
частных случаев, где для полной характеристики случайной функции
достаточно, например, знания функции (15.2.2) (так называемые «про­
цессы без последействия»).
В пределах настоящего элементарного изложения теории случайных
функций мы вовсе не будем пользоваться законами распределения, а
ограничимся рассмотрением простейших х а р а к т е р и с т и к случайных
функций, аналогичных числовым характеристикам случайных величин.
15.3]
ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИЙ
377
15.3. Х а р а к т е р и с т и к и сл учайн ы х ф ункций
Мы имели много случаев убедиться в том, какое большое значе­
ние в теории вероятностей имеют основные числовые характеристики
случайных величин: математическое ожидание и дисперсия — для
одной случайной величины, математические ожидания и корреляцион­
ная м атрица— для системы случайных величин. Искусство пользо­
ваться числовыми характеристиками, оставляя по возможности в сто­
роне законы распределения, — основа прикладной теории вероятно­
стей. Аппарат числовых характеристик представляет собой весьма
гибкий и мощный аппарат,
позволяющий сравнительно
просто решать многие прак­
тические задачи.
Совершенно аналогичным
аппаратом пользуются и в
теории случайных функций.
Для
случайных
функций
также вводятся простейшие
основные
характеристики,
аналогичные числовым х а­
рактеристикам случайных ве ­
личии, и устанавливаются
правила действий с этими
характеристиками.
Такой
аппарат оказывается доста­
точным для решения мно­
гих практических задач.
• В отличие от числовых характеристик случайных величин, пред­
ставляющих собой определенные числа, характеристики случайных
функций представляют собой в общем случае не числа, а функции.
Математическое ожидание случайной функции X (() определяется
следующим образом. Рассмотрим сечение случайной функции Х ( ? )
при фиксированном t. В этом сечении мы имеем обычную случайную
величину; определим ее математическое ожидание. Очевидно, в общем
случае оно зависит от t, т. е. представляет собой некоторую функЦИЮ *
тх ( 0 * = М ! * ( * ) ] .
(15.3.1)
Таким образом, мате ма ти че ским
ожид ание м с лу чайной
ф у н к ц и и Х ( Г ) н а зыва е тс я н е с л у ч а й н а я ф у н к ц и я тх (/), к о т о р а я
п р и к а ж д о м значении а р г у м е н т а / р а в н а ма те ма ти че с ко му
о жиданию соответствующего сечения с лу ча йн ой функции.
П о смыслу математическое ожидание случайной функции есть
некоторая с р е д н я я фу нкция , около которой различным образок
варьируются конкретные реализации случайной функции.
378
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ. 15
Н а рис. 15.3.1 тонкими линиями показаны реализации случайной
функции, жирной линией — ее математическое ожидание.
Аналогичным образом определяется дисперсия случайной функции.
Д ис пе рс ие й с л уч а йн о й ф ун кции X (£) н а зыва е тс я н е с лу ч а й ­
н а я ф у нк ци я Д г(£ ), значение к о т о р о й д л я к а ж д о г о t р а в н о
дисперсии соответствующего сечения с лу ч ай н ой ф у н к ц и и :
ЮХ Ц) = 0 [ Х Ц ) ) .
Дисперсия
случайной функции
(15.3.2)
при каждом Ь характеризует р а з­
брос возможных реали­
заций случайной функции
относительно
среднего,
иными словами, «степень
случайности» случайной
функции.
Очевидно, О г ( 0 есть
неотрицательная функция.
Извлекая из нее квадрат­
ный
корень,
получим
функцию <зх (£) — среднее
квадратическое отклоне­
ние случайной функции:
(15.3.3)
Математическое ожи­
дание и дисперсия пред­
ставляют собой весьма
важные
характеристики
случайной функции; од­
нако для описания основ­
ных особенностей слу­
чайной
функции
этих
характеристик
недоста­
точно. Чтобы убедиться
в этом, рассмотрим две
случайные функции Х х (/)
и Х 2 (0 > наглядно изо­
браженные
семействами
Рис. 15.3.3.
реализаций на рис. 15.3.2
и 15.3.3.
У случайных функций Х хф и Х 2(() примерно одинаковые мате­
матические ожидания и дисперсии; однако характер этих случайных
ХАРАКТЕРИСТИКИ
СЛУЧАЙНЫХ
ФУНКЦИЙ
379
; функций резко различен. Д ля случайной функции X 1(t) (рис. 15.3.2)
характерно плавное, постепенное изменение. Если, например, в точке t
Случайная функция X l (t) приняла значение, заметно превышающее
Среднее, то весьма вероятно, что и в точке t' она также примет
Виачение больше среднего. Для случайной функции Х х (t) характерна
ярко выраженная зависимость между ее значениями при различных t .
Напротив, случайная функция X 2{t) (рис. 15.3.3) имеет резко колеI бательный характер с неправильными, беспорядочными колебаниями.
Для такой случайной функции характерно быстрое затухание зави­
симости между ее значениями по мере увеличения расстояния по t
между ними.
Очевидно, внутренняя структура обоих случайных процессов со­
вершенно различна, но это различие не улавливается ни математи­
ческим ожиданием, ни дисперсией; для его описания необходимо
; ввести специальную характеристику. Эта характеристика называется
к о р р е л я ц и о н н о й ф у нк ци е й (иначе — а в т о к о р р е л я ц и о н н о й ф унк­
цией). Корреляционная функция характеризует степень зависимости
•между сечениями случай­
XIу
ной функции, относящи­
мися к различным t.
Пусть имеется слу­
№
-------N
чайная
функция
X (t)
x(tj\
\x(t1
\
(рис. 15.3.4); рассмотрим
l
ЩФ
два ее сечения, относя1 1
\
—ТГ-—
j
“ щихся к различным мо­ 0
\
t'
\
ментам: t и t', т. е. две
случайные величины X (t )
и X (t'). Очевидно, что
р ис 15,3.4.
при близких значениях t
и t' величины X (t) и X ( t r) связаны тесной зависимостью: если
величина X (t ) приняла какое-то значение, то и величина А' (У)
с большой вероятностью примет значение, близкое к нему. Очевидно
также, что при увеличении интервала между сечениями t, t' зависи­
мость величин X (t) и X (t ') вообще должна убывать.
Степень зависимости величин X (t) и X (t ') может быть в зна­
чительной мере охарактеризована их к о р р е л я ц и о н н ы м м о м е н т о м ;
очевидно, он является функцией двух аргументов t и t ' . Эта ф унк­
ция и называется к о р р е л я ц и о н н о й функцией.
Таким образом, к о р р е л я ц и о н н о й функцией с лу ча йн ой ф у н к ­
ции X (t) называ етс я н е с л у ч а й н а я ф у н к ц и я д в у х а р г у м е н т о в
t')< к о т о р а я пр и ка жд ой п а р е значений t, t' р а в н а
к о р р е л я ц и о н н о м у м ом е н т у соответствующих сечений с л у ч а й ­
ной функции:
K x (t, t ' ) ^ M [ X { t ) X { t %
( 1 5 .3 .4 )
380Л
ОСНОВНЫЕ
понятия
ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ. 15
где
Х Ц ) — Х (0 -
тх (/),
X (О = ' X (О -
т , (О -
Вернемся к примерам случайных функций Л-^ )
и ^ 2( 0
(рис. 15.3.2 и 15.3.3). Мы видим теперь, что при одинаковых мате­
матических ожиданиях и дисперсиях случайные функции Х х (() и
Х г ($) имеют совершенно различные корреляционные функции. К ор­
реляционная функция случайной функции Х г (() медленно убывает по
мере увеличения промежутка (/, /') ; напротив, корреляционная функ­
ция случайной функции ЛТ2(/) быстро убывает с увеличением этого
промежутка.
Выясним, во что обращается корреляционная функция К Х Ц, t'),
когда ее аргументы совпадают. Полагая
имеем:
* х ( / . 7 ) = Ж 1 (Л Г (0 )21 = О ,<#).
(15.3.5)
т. е. п р и ¥ г = / к о р р е л я ц и о н н а я ф у нкци я о б р а щ а е т с я в дис ­
персию с лу ча йн ой функции.
Таким образом, необходимость в дисперсии как отдельной харак­
теристике случайной функции отпадает: в качестве основных харак­
теристик случайной функции
достаточно
рассматривать ее
математическое
ожидание и
корреляционную функцию.
Так как корреляционный
момент двух случайных вели­
чин X (/) и X {1') не зависит
от последовательности, в кото­
рой эти величины рассматри­
ваются, то
корреляционная
функция симметрична относи­
тельно своих аргументов, т. е.
не меняется при перемене аргу­
ментов местами:
* ,( * • О =
о(15.3.6)
Если изобразить корреляционную функцию Кх ((■ (') в виде по­
верхности, то эта поверхность будет симметрична относительно вер­
тикальной плоскости ф, проходящей через биссектрису угла ЮУ
(рис. 15.3.5).
Заметим, что свойства корреляционной функции естественно
вытекают из свойств корреляционной матрицы системы случайных
величин. Действительно, заменим приближенно случайную функ­
цию X (1) системой т случайных величин X ((1), X (/2).......... X Цт).
П ри увеличении т и соответственном уменьшении промежутков между
16.31
ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ФУНКЦИЙ
381
аргументами корреляционная матрица системы, представляющая собой
таблицу о двух входах, в пределе переходит в функцию двух не­
прерывно изменяющихся аргументов, обладающую аналогичными свой­
ствами. Свойство симметричности корреляционной матрицы относи­
тельно главной диагонали переходит в свойство симметричности
корреляционной функции (15.3.6). По главной диагонали корреля­
ционной матрицы стоят дисперсии случайных величин; аналогично
при ? — Ь корреляционная функция
О обращается в диспер­
сию Д Д О Н а практике, если требуется построить корреляционную функцию
случайной функции X (/), обычно поступают следующим образом:
задаются рядом равноотстоящих значений аргумента и строят корре­
ляционную матрицу полученной системы случайных величин. Эта
матрица есть не что иное, как таблица значений корреляционной
функции для прямоугольной сетки значений аргументов на пло­
скости (#, /') . Далее, путем интерполирования или аппроксимации
можно построить функцию двух аргументов К Х Ц, О Вместо корреляционной функции К х ((, / ') можно пользоваться
н о р м и р о в а н н о й к о р р е л я ц и о н н о й функцией:
(15.3.7)
которая представляет собой коэффициент корреляции величин X ((),
X (('). Нормированная корреляционная функция аналогична норми­
рованной корреляционной матрице системы случайных величин. При
* нормированная корреляционная функция равна единице:
(25.3.8)
Выясним, как меняются основные характеристики случайной
функции при элементарных операциях над нею: при прибавлении не­
случайного слагаемого и при умножении на неслучайный множитель.
Эти неслучайные слагаемые и множители могут быть как постоян­
ными величинами, так в общем случае и функциями /.
Прибавим к случайной функции X (() неслучайное слагаемое <р(^).
Получим новую случайную функцию:
у (() — X (() + <р(*).
(15.3.9)
По теореме сложения математических ожиданий:
ту (/) = тх (/) + ? (/),
(1 5 .3 .1 0 )
т. е. п р и п р и б ав л ен и и к с лу чайной ф ункции н ес лу чай ного
с л а г а е м о г о к ее мате ма ти че ско му ожиданию п р и б а в л я е т с я
то же неслучайное с лаг ае мое .
382
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ
[ГЛ. 15
Определим корреляционную функцию случайной функции У (£);
К у Ц, Г ) * = М [ У ф У ( ? ) \ = *
= М [(К (*) = М [(X (О 4 -Т ( *
ту ( 0 ) (К ( /') -
) Ф -
т у ( О )] =*
ср( 0 ) (А Г(^)-} -<р(О — я»ж( О - ? « 0 )1 =
* Ж [ ( * ( 0 — и , ( 0 ) ( X ( О — ю* 0 0 ) ] = /г х (/. П
(15.3.11)
т. е. от п р и б а в л е н и я н ес лу ча йн ог о с л а г а е м о г о к о р р е л я ц и о н ­
н а я ф у н к ц и я случайной ф ункции не меняется.
Умножим случайную функцию X (/) на неслучайный множи­
тель <р(0 *'
К ( 0 = <р(0 Х ( 1 ) .
(15.3.12)
Вынося неслучайную величину ср(/) за знак математического ожида­
ния, имеем:
ту ф = М [ср (О X (01 = ср (О тх ф ,
(15.3.13)
т. е. п р и у мн ожен ии с лу чайной функции н а неслучайный м н о ­
житель ее математическое ожидание у м н о ж а е т с я н а то т же
множитель.
Определяем корреляционную функцию:
К у ф О = М [ У ф У (*01 = м [(У ( 0 -
ту ф ) (К ( О — Ж , ( О )1 =
= М [ср ( 0 ср ( О ( * (О _ тх ф ) ( Я ( О = Т (О <Р(^0 /Сл:
П
ж , ( О )] =
(15.3.14)
т. е. п р и у мн ожен ии с л уч айн ой ф ун кц ии на н ес лу ча й н ую ф у н к ­
цию ср(/) ее к о р р е л я ц и о н н а я ф у н к ц и я у м н о ж а е т с я н а <рф<р(У).
В частности, когда 1р ф = с (не зависит от £), корреляционная
функция умножается на с2.
Пользуясь выведенными свойствами характеристик случайных
функций, можно в ряде случаев значительно упростить операции
с ними. В частности, когда требуется исследовать корреляционную
функцию или дисперсию случайной, функции, можно заранее перейти
от нее к так называемой ц е н тр и р о в а нн о й функции'.
Х ф = Х ф — тх (<).
(15.3.15)
Математическое ожидание центрированной функции тождественно
равно нулю, а ее корреляционная функция совпадает с корреляцион-
15,41 О П РЕДЕЛ ЕН И Е ХАРАКТЕРИСТИК СЛУЧАЙНОЙ ФУНКЦИИ ИЗ ОПЫТА
383
ной функцией случайной функции X Ц):
К > У, У ) ^ М \ Х У ) Х { П ] ^ К х Ц, О -
(15.3.16)
При исследовании вопросов, связанных с корреляционными свой­
ствами случайных функций, мы в дальнейшем всегда будем перехо­
дить от случайных функций к соответствующим центрированным
функциям, отмечая это значком ° вверху знака функции.
Иногда, кроме центрирования, применяется еще нормирование
случайных функций. Н о р м и р о в а н н о й называется случайная функция
вида:
о
(15.3.17)
Корреляционная функция нормированной случайной функции Х м (()
равна
■ <15.3.18,
а ее дисперсия равна единице.
1 5 .4 . О п р едел ен и е
хар а к т ер и ст и к
случай ной ф ункции и з опы та
Пусть над случайной функцией X (() произведено п независимых
опытов (наблюдений) и в результате получено п реализаций случай­
ной функции (рис. 15.4.1).
Требуется найти оценки для характеристик случайной функции:
ее математического ожидания тх (/), дисперсии О х (Г) и корреля­
ционной функции К Х У, 1').
Для этого рассмотрим ряд сечений случайной функции для мо­
ментов времени
?2> • • •>
384
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЯ
[ГЛ. 15
и зарегистрируем значения, принятые функцией X (?) в эти моменты
времени. Каждому из моментов t l , <2, .
.
будет соответствовать п
значений случайной функции.
Значения
^2.......... 1т обычно задаются равноотстоящими; вели­
чина интервала м еж д у ' соседними значениями выбирается в зависи­
мости от вида экспериментальных кривых так, чтобы по выбранным
точкам можно было восстановить основной ход кривых. Часто бывает
так, что интервал между соседними значениями I задается независимо
от задач обработки частотой работы регистрирующего прибора (на­
пример, темпом киноаппарата).
Зарегистрированные значения X (£) заносятся в таблицу, каждая
строка которой соответствует определенной реализации, а число столб­
цов равно числу опорных значений аргумента (табл. 15.4.1).
Таблица
15.4.1
В таблице 15.4.1 в I-й строке помещены значения случайной
функции, наблюденной в I-й реализации (1-м опыте) при значениях
аргумента t v
•••> *т- Символом х 1((к) обозначено значение, соот­
ветствующее /-й реализации в момент
Полученный материал представляет собой не что иное, как р е­
зультаты п опытов над системой т случайных величин
А’ (^ ), Х У д ------- Х Ц т),
и обрабатывается совершенно аналогично (ом. а° 14.3). Прежде
всего находятся оценки для математических ожиданий по формуле
Х1 (?ь)
=
--------.
( 1 5 .4 .1 )
385
МЕТОДЫ О П РЕДЕЛ ЕН И Я ХАРАКТЕРИСТИК
16.5)
затем — для дисперсий
(15.4.2)
п— 1
И, наконец, для корреляционных моментов
У< ЕXI (1к) — т х (1к)1 [х,- ({,) — тх (/;)]
/~1
К * « » '/) =
(15.4.3)
п— 1
В ряде случаев бывает удобно при вычислении оценок для ди­
сперсий и корреляционных моментов воспользоваться связью между
начальными и центральными моментами и вычислять их по формулам;
2 I * ( ^ ) 12
± ! 1 ----------[ « ,( * * ) ) ’
2 Х1 (4 ) XI (/;)
1-1
КЛ*»
-тх ((к) т х
п—1 ’
п— 1
(15.4.4)
(15.4.6)
При пользовании последними вариантами формул, чтобы избежать
разности близких чисел, рекомендуется заранее перенести начало
отсчета по оси ординат поближе к математическому ожиданию. После того, как эти характеристики вычислены, можно, пользуясь
рядом значений тх (^ ), тх (^2), . . . , тх (^т ), построить зависимость
тх (/) (рис. 15.4.1). Аналогично строится зависимость О х У). Функция
двух аргументов К ЖЦ, У) воспроизводится по ее значениям в прямо­
угольной сетке точек. В случае надобности все эти функции аппро­
ксимируются1какими-либо аналитическими выражениями.
1 5 .5 .
М етоды о п р едел ен и я ха р а к т ер и ст и к
п р ео б р азов ан н ы х сл учайн ы х ф ункций по хар ак тер и сти к ам
и сходн ы х сл уч ай н ы х ф ункций
В предыдущем п° мы познакомились с методом непосредственного
определения характеристик случайной функции из опыта. Такой метод
применяется далеко не всегда. Во-первых, постановка специальных
опытов, предназначенных для исследования интересующих нас слу­
ч ай н ы х функций, может оказаться весьма сложной и дорогостоящей.
В о-вторых, часто нам требуется исследовать случайные функции,
характеризующие ошибки приборов, прицельных приспособлений, си­
стем управления и т. д., еще не существующих, а только проекти­
руемых или разрабатываемых. При этом обычно исследование этих
ошибок и предпринимается именно для того, чтобы рационально вы­
брать конструктивные параметры системы так, чтобы они приводили.
1У Теория вероятностей
386
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ. 15
к минимальным ошибкам. Ясно, что при этом непосредственное иссле­
дование случайных функций, характеризующих работу системы, неце­
лесообразно, а в ряде случаев вообще невозможно. В таких случаях
в качестве основных рабочих методов применяются не прямые, а к о с ­
в е н н ы е методы исследования случайных функций. Подобными кос­
венными методами мы уже пользовались при исследовании случайных
величин: ряд глав нашего курса — гл. 10, 11, 12 — был посвящен
нахождению законов распределения и числовых характеристик слу­
чайных величин косвенно, по законам распределения и числовым х а­
рактеристикам других случайных величин, с ними связанных. П оль­
зуясь совершенно аналогичными методами, можно определять харак­
теристики случайных функций косвенно, по характеристикам других
случайных функций, с ними связанных. Развитие таких косвенных
методов и составляет главное содержание прикладной теории случай­
ных функций.
Задача косвенного исследования случайных функций на практике
обычно возникает в следующей форме.
Имеется некоторая динамическая система А\ под «динамической
системой» мы понимаем любой прибор, прицел, счетно-решающий
механизм, систему автоматического управления и т. п. Эта система
может быть механической, электрической или содержать любые д р у ­
гие элементы. Работу системы будем представлять себе следующим
образом: на вход системы непрерывно поступают какие-то входные
данные; система перерабатывает их и непрерывно выдает некоторый
результат. Условимся называть поступающие на вход системы данные
«воздействием», а выдаваемый результат «реакцией» системы на это
воздействие. В качестве воздействий могут фигурировать изменяю­
щиеся напряжения, угловые и линейные координаты каких-либо об ъек­
тов, сигналы или команды, подаваемые на систему управления, и
т. п. Равным образом и реакция системы может вырабатываться в той
или иной форме: в виде напряжений, угловых перемещений и т. д.
Например, для прицела воздушной стрельбы воздействием является
угловая координата дви­
жущейся цели,
непре­
рывно измеряемая в про­
цессе слежения, реак­
ци ей— угол упреждения.
Рассмотрим
самый
простой случай: когда ца
вход системы А подается
только одно воздействие, представляющее собой функцию времени х (f);
реакция системы на это воздействие есть другая функция времени у (t ).
Схема работы системы А условно изображена на рис. 15,5.1.
Будем говорить, что система А осуществляет над входным во з­
действием некоторое п р е о б р а з о в а н и е , в результате которого
МЕТОДЫ О П РЕД ЕЛ ЕН И Я ХАРАКТЕРИСТИК
387
функция х ( 0 преобразуется в другую функцию у У). Запишем это
Преобразование символически в виде:
у « ) « * Л { * ( /) } .
(1 5 .5 .1 )
Преобразование А может быть любого вида и любой сложности.
;В наиболее простых случаях это, например, умножение на заданный
множитель (усилители, множительные механизмы), дифференцирование
или интегрирование (дифференцирующие или интегрирующие устрой; ства). Однако на практике системы, осуществляющие в чистом виде
[ *акие простейшие преобразования, почти не встречаются; как правило,
работа системы описывается дифференциальными уравнениями, и пре1образование А сводится к решению дифференциального уравнения,
связывающего воздействие х Ц ) с реакцией у (( ) .
;
При исследовании динамической системы в первую очередь решается
основная задача: по заданному воздействию х (£) определить реакцию
системы у ((). Однако для полного исследования системы и оценки ее
технических качеств такой элементарный подход является недоста­
точным. В действительности воздействие х ( 0 никогда не поступает на
вход системы в чистом виде: оно всегда искажено некоторыми слу­
чайными ошибками (возт
мущениями), в результате
которых на систему ф ак­
тически воздействует не .
ладанная функция х (t),
а случайная функция X (t);
соответственно этому си>
р ис 15.5.2.
стема вырабатывает в к а ­
честве реакции случайную функцию К (t ), также отличающуюся от
теоретической реакции y ( t ) (рис. 15.5.2).
Естественно возникает вопрос: насколько велики будут случайные
искажения реакции системы при наличии случайных возмущений на
ее входе? И далее: как следует выбрать параметры системы для того,
чтобы эти искажения были минимальными?
Решение подобных задач не может быть получено методами клас­
сической теории вероятностей; единственным подходящим математи» ческим аппаратом для этой цели является аппарат теории случайных
функций.
Из двух поставленных выше задач, естественно, более простой
является первая — прямая — задача. Сформулируем ее следующим
образом.
На вход динамической системы А поступает случайная функ­
ция X {t)\ система подвергает ее известному преобразованию, в ре­
зультате чего на выходе системы появляется случайная, функция:
Y {t)= tA [X ® ).
13*
(15.5.2)
388
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИИ
[ГЛ. 15
Известны характеристики случайной функции X ((): математиче­
ское ожидание и корреляционная функция. Требуется найти анало­
гичные характеристики случайной функции У (^). Короче: по задан­
ным характеристикам случайной функции на входе динамической си­
стемы найти характеристики случайной функции на выходе.
Поставленная задача может быть решена совершенно точно в одном
частном, но весьма важном для практики случае: когда преобразо­
вание А принадлежит к классу так называемых линейных п р е о б р а з о ­
ваний и соответственно система А принадлежит к классу линейных
систем.
Содержание этих понятий будет пояснено в следующем п°.
16 .6 . Л инейны е и нелинейны е оп ер атор ы .
О ператор дин ам ической систем ы
При изложении теории преобразования случайных функций мы
будем пользоваться ш ироко применяемым в математике и технике
понятием о п е р а т о р а .
Понятие оператора является обобщением понятия функции. Когда
мы устанавливаем функциональную связь между двумя переменными у
и х и пишем:
у = /(* ).
(15.6.1)
то под символом / мы понимаем правило, по которому заданному
значению л: приводится в соответствие вполне определенное значе­
ние у. Знак / есть символ некоторого п р е о б р а з о в а н и я , которому
нужно подвергнуть величину х , чтобы получить у. Соответственно
виду этого преобразования функции могут быть линейными и нели­
нейными, алгебраическими, трансцендентными и т. д.
Аналогичные понятия и соответствующая символика применяются
в математике и в тех случаях, когда преобразованию подвергаются
не величины, а функции.
Рассмотрим некоторую функцию х( £) и установим определенное
правило А, согласно которому функция х (^ ) преобразуется в другую
функцию у (^). Запишем это преобразование в следующем виде:
у (£) = А [х (0 ).
(15.6.2)
Примерами подобных преобразований могут быть, например, диф-^
Ферениированяе:
Лх{{}
У (0 = - з р - .
(15.6.3)
интегрирование:
1
у ( ( ) ~ £ х (т ) йх,
о
(15.6.4)
и т. д.
Правило А, согласно которому функция х ( 0 преобразуется
в функцию у ( 0 > мы будем называть оператором' , например, мы
15.6]
ЛИН ЕЙ Н Ы Е И НЕЛИ Н ЕЙ Н Ы Е ОПЕРАТОРЫ
389
будем говорить: оператор дифференцирования, оператор интегриро­
вания, оператор решения дифференциального уравнения и т. д.
Определяя оператор, мы рассматривали только преобразование
функции х ( 0 в другую функцию у того же аргумента ^. Следует
заметить, что такое сохранение аргумента при определении опера­
тора вовсе не является обязательным: оператор может преобразовы­
вать функцию х ф в функцию другого аргумента у ( 5), например:
6
у (5) =
|с р ( г , 8 ) х ( { ) < и ,
.
(15.6.5)
а
где ср(£, й) — некоторая функция, зависящая, помимо аргумента t,
еще и от параметра $.
Но так как при анализе ошибок динамических систем наиболее
естественным аргументом является время
мы здесь ограничимся рас­
смотрением операторов, преобразующих одну функцию аргумента I
в другую функцию того же аргумента.
Если динамическая система преобразует поступающую на ее вход
функцию х ф в функцию у ф :
у ф — Л {*(*)}.
то оператор А называется о п е р а т о р о м динамической системы.
В более общем случае на вход системы поступает не одна,
а несколько функций; равным образом на выходе системы могут
появляться несколько функций; в этом случае оператор системы пре­
образует одну совокупность функций в другую. Однако в целях
простоты изложения мы рассмотрим здесь лишь наиболее элементар­
ный случай преобразования одной функции в другую.
Преобразования или операторы, применяемые к функциям, могут
быть различных типов. Наиболее важным для практики является
класс так называемых линейных о п е р а т о р о в .
Оператор Ь. называется линейным о д но р о д ны м , если он обла­
дает следующими свойствами:
1) к сумме функций оператор может применяться почленно:
I {*, ф + х 2 ф } = ь [* , (*)} + 1 {х2 (/)};'
(15.6.6)
2) постоянную величину с можно выносить за знак оператора:
£ [ с х ф ] = с 1 { х (/)} .
(15.6.7)
Из второго свойства; между прочим, следует, что для линейного
однородного оператора справедливо свойство
Ц 0 } = 0,
(15.6.8)
т. е. при нулевом входном воздействии реакция системы равна нулю.
390
.
ОСНОВНЫЕ ПОНЯТИЯ ТЕО РИ И СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ.
13
Примеры линейных однородных операторов?
1) оператор дифференцирования:
2) оператор интегрирования:
t
У ( 0 = / х (*) dv,
о
3) оператор умножения на определенную функцию <?(():
у (О — срф х (0 ;
4) оператор интегрирования с заданным «весом» <р(t)\
t
/ х (т) ср (Ч) d i
о
и т. д.
Кроме линейных однородных операторов, существуют еще линей­
ные неоднородные операторы.
Оператор L называется линейным н ео дн о ро дн ым, если ом со­
стоит из линейного однородного оператора с прибавлением некото­
рой вполне определенной функции <p(f):
L {х
(0-1 = А> {* (01 + ?■«).
05.6.9)
где L0 — линейный однородный оператор.
Примеры линейных неоднородных операторов:
=
-? (0 .
t
2) У ( t ) ~ f х (t) 9 (x)
3)
i
<pj (/),
•
уф —ъУ)х У)-Ьъ(?).
где <p(t), cpj (t), <p2 (?)— вполне определенные функции, a x (t) — пре­
образуемая оператором функция.
• В математике и технике ш ироко применяется условная форма
записи операторов, аналогичная алгебраической символике. Такая
символика в ряде случаев позволяет избегать сложных преобразова­
ний и записывать формулы в простой и удобной форме.
Например, оператор дифференцирования часто обозначают буквой р;
d
p ~ ~ dt'
помещаемой в виде множителя перед выражением, подлежащим диф ­
ференцированию. При этом запись
y{t) = p x \t)
!н .6 ]
ЛИНЕЙНЫЕ И НЕЛИНЕЙНЫЕ ОПЕРАТОРЫ
391
^равносильна записи
Двойное дифференцирование обозначается множителем р г\
^ ( 0
= ^
-И т, д.
Пользуясь подобной символикой, в частности, очень удобно за­
писывать дифференциальные уравнения.
Пусть, например, работа динамической системы А описывается
линейным дифференциальным уравнением с постоянными коэффи­
циентами, связывающими реакцию системы у (() с воздействием х (()•
В обычной форме записи это дифференциальное уравнение имеет вид:
+
+
К—р - + »«-1 - ^
В символической
в виде:
( апр п-{- а п_ 1р п~л
... +
« , ^
-г- +■•■+»■
форме
это
+ « „ (0 =
^
уравнение
может
(15.6.10)
быть
записано
... + в ^ -Ь в о )У (< )в
— ФтРт- + Ьт-хРт~ 1+
где р — ~
«)•
Ь\Р + Ьй) X (0 .
— оператор дифференцирования.
Обозначая для краткости
в правую и левую части,
полиномы относительно р ,
А (Р) = а пРп 4 - а а- \ Р п~х +
входящие
• • • + а \Р + а й’
В т( , р ) ~ Ь тр т-\~Ьт_ хр т- 1-\- . . . - М ^ - М о запишем уравнение в еще более компактной форме:
А п { р ) у ф — В т{р')хЦ).
(15.6.11)
Наконец, формально разрешая уравнение (15.6.11) относи­
тельно у(()> можно символически записать оператор решения линей­
ного дифференциального уравнения в «явном» виде:
У (/) = - | § * ( 0 .
0 5 .6 .1 2 )
Пользуясь аналогичной символикой, можно записать в оператор­
ной форме и линейное дифференциальное уравнение с переменными
392
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ. 15
коэффициентами. В обычной форме это уравнение имеет вид:
(15.6.13)
Обозначая многочлены относительно р ,
зависят от
коэффициенты которых
А п (р, 1) = а „ { 1 ) р п + я „ _ 1( 0 Р я ~' 4 - ••• 4 - й ,( /) /7 + а 0 (/),
вт(р, /)===М0 /»т - М « - 1 (*)/>т -*-+- ••• + М 0 р 4 Л ( 0 .
можно записать оператор дифференциального уравнения в виде:
(15.6.14)
В дальнейшем мы по мере надобности будем пользоваться такой
символической формой записи операторов.
Встречающиеся в технике динамические системы часто описываются
линейными дифференциальными уравнениями. В этом случае, как
нетрудно убедиться, оператор системы является линейным.
Динамическая система, оператор которой является линейным, назы­
вается линейной динамической системой.
В противоположность линейным операторам и системам рассматри­
ваются системы и операторы нелинейные. Примерами нелинейных
операторов могут служить
о
а также решение нелинейного дифференциального уравнения, хотя бы
У' ( 0 + а со б у (/) = лг (().
Динамическая система, оператор которой не нздяется линейным,
называется нелинейной системой.
На практике линейные системы встречаются очень часто. В связи
с линейностью этих систем к анализу их ошибок может быть
с большой эффективностью применен аппарат теории случайных
функций. Подобно тому как числовые характеристики линейных ф унк­
ций обычных случайных величин могут быть получены по числовым
характеристикам аргументов, характеристики случайной функции на
выходе линейной динамической системы могут быть определены, если
известны оператор системы и характеристики случайной функции на
ее входе.
15.7)
ЛИ Н ЕЙ Н Ы Е
ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ Ф УНКЦИЯ
393
Еще чаще, чем линейные системы, на практике встречаются системы
не строго линейные, но в известных пределах допускающие линеари­
зацию. Если случайные возмущения на входе системы достаточно
малы, то практически любая система может рассматриваться — в пре­
делах этих малых возмущений — как приближенно линейная, подобно
тому как при достаточно малых случайных изменениях аргументов
практически любая функция может быть линеаризована.
>
Прием приближенной линеаризации дифференциальных уравнений
ш ироко применяется в теории ошибок динамических систем.
В дальнейшем мы будем рассматривать только линейные (или
линеаризуемые) динамические системы и соответствующие им линей­
ные операторы.
1 5 .7 . Л инейны е п р еобр азов ан и я сл уч ай н ы х ф ункций
Пусть на вход линейной системы с оператором £ воздействует
случайная функция X ((), причем известны ее характеристики: мате­
матическое ожидание тх (() и корреляционная функция К х ((. У).
Реакция системы представляет собой случайную функцию
К (0 = М * ( 0 ] .
( 15.7 .0
Требуется найти характеристики случайной функции У Ц) на,
выходе системы: ту (?) и К у {?, У). Короче: по характеристикам слу­
чайной функции на входе линейной системы найти характеристики
случайной функции на выходе.
Покажем сначала, что можно ограничиться решением этой задачи
только для однородного оператора Ь. Действительно, пусть опера­
тор Ь неоднороден и выражается формулой
I {*(*)} = М * ( * ) } + < р ( 0 .
<15-7-2)
где Ь0— линейный однородный оператор, 9 « ) — определенная неслу­
чайная функция. Тогда
ту ( 0 = М Ид { X (()} ] + ? (/).
(15.7.3)
т. е. функция <р(() просто . прибавляется к математическому ожида­
нию случайной функции на выходе линейной системы. Что же касается
корреляционной функции, то, как известно, она не меняется от при­
бавления к случайной функции неслучайного слагаемого.
Поэтому в дальнейшем изложении под «линейными операторами»
будем разуметь только линейные о дн о р о д ны е о пе ра то ры .
Решим задачу об определении характеристик на выходе линей­
ной системы сначала для некоторых частных видов линейных
операторов.
394
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
1. И н т е г р а л
отслучайной
[ГЛ. 15
функции
Дана случайная функция X (t) с математическим ожиданием тх (t )
и корреляционной функцией К х (t , t'). Случайная функция V (t ) свя­
зана с X (/) линейным однородным оператором интегрирования;
t
J А' (т) dx.
(15.7.4)
о
Требуется найти характеристики случайной функции У (i): m v (t)
и K x (t, t');
Представим интеграл (15.7.4) как предел суммы:
t
Y (/) =
Y (t)~
f X (x)d-=
"
lim У А Г(^)Д т
(15.7.5)
Дт-»-0
и применим к равенству (15.7.5) операцию математического ожида­
ния. По теореме сложения математических ожиданий имеем;
[К (£)]= lim V М[ЛГ(т;)]Дт =
Д г-* 0
i
t
— Нгп V тх (*,.) Дт = Г тх ( х ) й х х). (15.7.6)
Дт*0 "
£
И т а к ,'
I
т у ф — ^ тх (х)йх,
(15.7.7)
о
т . е. мате матиче ское ожидание и н т е г р а л а от с лу чайной ф у н к ­
ции р а в н о и н т е г р а л у от ее м ате ма тиче ског о ожидания. Иными
словами: операцию интегрирования и операцию математического ожи­
дания можно менять местами. Это и естественно, так как операция
интегрирования по своей природе не отличается от операции сум­
мирования, которую, как мы раньше убедились, можно менять местами
с операцией математического ожидания.
Найдем корреляционную функцию К у ((, *')■ Д ля этого перейдем
к центрированным случайным функциям:
X (() = X (^) — тх (()-,
К ( 0 = К (/) — т у (0-
Нетрудно убедиться, что
У ( ( ) = : / Х ( т)й?х.
(15.7.8)
') При этом мы предполагаем, что матем атическое ож идание предела
равно пр еделу .от матем атического ожидания. На практике мы, как правило,
им еем д ел о С функциями, для которы х такая перестановка возможна.
15.7J
ЛИН ЕЙ Н Ы Е
ПРЕОБРАЗОВАНИЯ
СЛУЧАЙНЫХ ФУНКЦИЯ
395
По определению корреляционной функции,
где
/
t'
Y( ( ) = f x (х) dx; Y ( О = f X («tO dxr »).
о
а
Перемножим выражения (15.7.9):
t
t’
Y ( t ) Y (t) = f X ( x ) d x f
о
(15.7.9)
ßC(x')dx\ ^ (15.7.10)
0
Нетрудно убедиться, что произведение двух интегралов в правой
части формулы (15.7.10) равно двойному интегралу
i г
f f X(x)X(x')dvdx'.
о о
(15.7.11)
Действительно, в связи с тем, что подынтегральная функция в инте­
грале (15.7.11) распадается на два множителя, из которых первый
зависит только от т, второй — только от х', двойной интеграл (15.7.11)
распадается на произведение двух однократных интегралов (15.7.10).
Следовательно,
t t’
Y(t) Y(t') = f f X (x )X (x ')d x d x '.
(15.7.12)
0
0
Применяя к равенству (15.7.12) операцию математического ожи­
дания и меняя ее в правой части местами с операцией интегрирова­
ния, получим:
^
К у (t, t') — M [К (/) У (t')\ = f f М [ Х ( х ) Х (х')1 dx dx',
0 0
или окончательно:
t г
K y {t,
К х (*‘ *')dxdx'.
(15.7.13)
о о
Таким образом, для того чтобы найти корреляционную функцию
интеграла от случайной функции, нужно д в а ж д ы п р о и н т е г р и ­
р о в а т ь корреляционную функцию исходной случайной функции:
сначала по одному аргументу,_затем — по другому.
1)
Как известно, в определенном интеграле переменная интегрировани
мож ет быть обозначена лю бой буквой; в данном случае удобн о обозначить
е е х и х' соответственно.
396
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
2. П р о и з в о д н а я
[ГЛ. 18
от с л у ч а й н о й ф у н к ц и и
Дана случайная функция X (t) с математическим ожиданием тх (t)
и корреляционной функцией К х (t , t'). Случайная функция У (t ) свя­
зана со случайной функцией X (t ) линейным однородным оператором
дифференцирования:
X (* )= * * £ > .
(15.7.14)
Требуется найти m y (t) и K y (t, t').
Представим производную в виде предела:
у \ , ) = |, га Л ! £ + _ ‘й г ^ & ;
0 5 .7 . |5 )
Применяя к равенству (15.7.15) операцию математического ожи­
дания, получим:
да {() == М [ Y ( t ) ] = lim
yW
w->o
_
At
dmxÿ. 1 i).
dt
,
Итак,
=
(15.7.16)
т. e. математическое ожидание п рои з во дн ой от случайной
функции р а в н о пр ои зв о дн ой от ее ма тематическог о ожидания.
Следовательно, операцию дифференцирования, как и операцию инте­
грирования, тоже можно менять местами с операцией математического
ожидания.
Для определения K y (t, ¥ ) перейдем к центрированным случайным
функциям Y (t) и X (/); очевидно,
У ( ;) = = ^ Ш .
(15.7.17)
По определению
К у ((. /О = Ж IK (0
о
о
Подставим вместо К (t) и У (t ')■ их выражения:
Представим выражение под знаком математического
в виде второй смешанной частной производной:
dX( i) d X( t' )
dt ~ Ж ~ —
дШ
•
ожидания
„
(10.7.18)
Мы доказали, что математическое ожидание производной случай­
ной функции равно производной от математического ожидания, т. е.
‘) См. сноску ') на стр. 394.
15.71
ЛИН ЕЙН Ы Е
ПРЕОБРАЗОВАНИЯ
СЛУЧАЙНЫХ ФУНКЦИЙ
397
знаки дифференцирования и математического ожидания можно менять
местами. Следовательно,
<') = А1
= Л
1ГМ [ Х Ю Х ( П 1 = ,
-Т & гК * « ' Ъ
Таким образом,
КуУ. п =
дЦ п Г -1 '
(,5-7-,9)
(15.7.20)
Итак, чтобы найти корреляционную функцию производной, нужно
д в а ж д ы п р о д и ф ф е р е н ц и р о в а т ь корреляционную функцию
исходной случайной функции: сначала по одному аргументу, затем —
по другому.
Сравнивая правила нахождения математического ожидания и кор­
реляционной функции для двух рассмотренных нами линейных одно­
родных операторов, мы видим, что они совершенно аналогичны,
а именно: для нахождения математического ожидания преобразованной
случайной функции тот же линейный оператор применяется к мате­
матическому ожиданию исходной случайной функции; для нахождения
корреляционной функции тот же линейный оператор применяется
д в а ж д ы к корреляционной функции исходной случайной функции.
В первом частном случае это было двойное интегрирование, во вто­
р о м — двойное дифференцирование.
Можно доказать, что такое правило является общим для всех
линейных однородных операторов1). Мы здесь сформулируем это
общее правило без доказательства.
Если случайная функция X ( 0 с математическим ожиданием /гсх ( 0
' и корреляционной функцией К х ((, У) преобразуется линейным одно­
родным оператором I в случайную функцию
К (0 = М * ( 0 Ь
то для нахождения математического ожидания случайной функции К (О
нужно применить тот же оператор к математическому ожиданию
случайной функции X (1:)-.
/иу ( 0 = М т , ( 0 } .
(15.7.21)
а для нахождения корреляционной функции нужно дважды применить
тот же оператор к корреляционной функции случайной функции X (0 ,
^сн ачал а по одному аргументу, затем — по другому:
К У0 , / ) = Ь(П1 ( П { К Л ^ О } -
(15.7.22)
В формуле (15.7.22) значки ((), (У) у знака оператора £ указы ­
вают, по какому аргументу он применяется.
‘) См., например, В. С. П у г а ч е в , Теория случайных функций и ев
применение к задачам автоматического управления, Физматгиз, 1960.
398
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ. 15
Во многих задачах практики нас, в конечном счете, интересует
не корреляционная функция К УЦ. У) на выходе линейной системы,
а дисперсия О у ((), характеризующая точность работы системы в усло­
виях наличия случайных возмущений. Дислерсию й у (() можно найти,
зная корреляционную функцию:
0 ,( 0 =
О-
(15.7.23)
При этом нужно подчеркнуть, что, как правило, для определения
дисперсии на выходе линейной системы недостаточно знать дисперсию
на ее входе, а существенно важно знать корреляционную функцию.
Действительно, линейная система может совершенно по-разному
реагировать на случайные возмущения, поступающие на ее вход,
в зависимости от того, какова внутренняя структура этих случайных
возмущений;, состоят ли они, например, по преимуществу из вы соко­
частотных или низкочастотных колебаний. Внутренняя же структура
случайного процесса описывается не его дисперсией, а корреляцион­
ной фукцией.
П р и м е р . На вход дифференцирующего механизма поступает случайная
функция X {() с математическим ожиданием тхЦ) = 8т / и корреляционной
функцией
где Их — постоянная дисперсия случайной функции ДГ(<).
Определить математическое ожидание и дисперсию на выходе системы.
Р е ш е н и е . Случайная функция У (<) на выходе системы (реакция)
связана с воздействием X (() оператором дифференцирования:
П О Применяя общие правила, имеем:
=
Ку
-тх Ц)=*со&Ь
*'> в - Щ Г К* <'• П = 2 0 * * * -" « ’- * 11 — 2а (<' - о*]-
Полагая ? =
или, замечая, что
имеем:
Оу (0 = 20^0,
(<) не зависит от t,
= 2£>^а.
Итак, дисперсия на выходе дифференцирующего механизма зависит не
только от дисперсии £>* на входе, но также и от коэффициента о, характе­
ризующего быстроту затухания корреляционной связи между сечениями
случайной функции X (<) при возрастании промежутка между ними. Если
коэффициент а мал, корреляционная связь затухает медленно, случайная
функция изменяется со временем сравнительно плавно, и, естественно, диф­
ференцирование такой функции приводит к сравнительно малым ошибкам.
Напротив, если коэффициент а велик, корреляционная функция убывает
быстро; в составе случайной функции преобладают резкие, беспорядочные
СЛОЖ ЕНИЕ СЛУЧАЙНЫХ ФУНКЦИЙ
399
вы сокочастотны е колебания; естествен но, диф ф еренцирование такой функции
приводит к больш им случайным ош ибкам. В таких случаях обы чно прибе­
гают к с г л а ж и в а н и ю диф ф еренцируем ой функции, т. е. так меняют
оператор системы, чтобы он давал меньш ие случайные ош ибки на вы ходе.
15.8. С лож ен и е слу чай н ы х ф ункций
Во многих задачах практики мы встречаемся с тем, что на вход
динамической системы поступает не одна случайная функция X (*),
а две или более случайные функции, каждая из которых связана
С действием отдельного возмущающего ф актора. Возникает задача
сложения случайных функций, точнее — задача определения характе­
ристик суммы по характеристикам слагаемых.
Эта задача решается элементарно просто, если две складываемые
случайные функции независимы (точнее, некоррелированны) между
собой. В общем же случае для ее решения необходимо знание еще
однсй характеристики — так называемой в заимной к о р р е л я ц и о н н о й
функции (иначе — к о р р е л я ц и о н н о й функции связи).
Взаимной корреляционной функцией двух случайных функций X (I)
и К(£) называется неслучайная функция двух аргументов t и У,
которая при каждой паре значений t, У равна корреляционному
моменту соответствующих сечений случайной функции X (£) и слу­
чайной функции У (())
Я , ,( * , У) = М [ Х Ц ) У ( ? ) \ .
(15.8.1)
Взаимная корреляционная функция, так же как и обычная кор­
реляционная функция, не изменяется при прибавлении к случайным
функциям любых неслучайных слагаемых, а следовательно, и при
центрировании случайных функций.
И з определения взаимной корреляционной функции вытекает сле­
дующее ее свойство:
Ях у Ц, <') = # , , ( * '. О(15.8.2)
Вместо функции /?х у (/, / ') часто
взаимной корреляционной функцией:
пользуются
нормированной
Если взаимная корреляционная функция равна нулю при всех.значе­
ниях /, У, то случайные функции X (() и У (£) называются некорре­
лированными (несвязанными).
На практике обычно суждение о некоррелированности случайных
функций составляют не на основании равенства нулю взаимной кор­
реляционной функции, а, наоборот, взаимную корреляционную функцию
полагают равной нулю на основании физических соображений, свиде­
тельствующих о независимости случайных функций.
400
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ. ш
Пусть, например, два самолета обстреливают наземную цель;
обозначим X (t), Y (t) углы пикирования первого и второго самолетов
в процессе выполнения боевой олераЦии. Если самолеты заходят на
цель поодиночке, естественно считать случайные функции X (t) и У (t)
некоррелированными; если же маневр выполняется самолетами сов­
местно, причем один из них. является ведущим, а другой — ведомым,
очевидно наличие корреляционной связи между функциями X (t) и У (t ).
Вообще, если из физических соображений, связанных с существом
решаемой задачи, вытекает наличие зависимости между фигурирую­
щими в задаче случайными функциями, то их взаимные корреляционные
функции должны быть обследованы.
Зная математические ожидания и корреляционные функции двух
случайных функций X (t) и У (/), а также их взаимную корреляцион­
ную функцию, можно найти характеристики суммы этих двух слу­
чайных функций:
Z { t ) = X { t ) - \ - Y (t).
(15.8.4)
По теореме сложения математических ожиданий:
mz (t) = тк (t) + т у (t),
(15.8.5)
т. е. при сложении д в у х с лу ч ай н ы х фу нкций и х м а т е м а т и ­
ческие о жидания складываются.
Для определения корреляционной функции K z (t, t') перейдем
о
о
.
о
к центрированным случайным функциям Z (tj, X (t), У (t). Очевидно,
Z ( t ) = X ( t ) + Y (t).
(15.8.6)
По определению корреляционной функции
K 2 (t, t') ^ M l Z ( t ) Z ( t ' ) \ =
М [ Х (t) X ( O l 4 - м [ Y (t ) У ( O l - \ - М [ Х (О У (/')] + М [ X ((') К (01.
или
K z {t, t') = K x (t. t') + K y ( t .
R xy (t, t ’) + Rx, { t ’, t).
(15.8.7)
Формула (15.8.7) аналогична формуле (10.2.7) для дисперсии
суммы случайных величин.
В случае, когда случайные функции X (t) и У (t) некоррелиро­
ванны, R x y (t, t') === 0, и формула (15.8.7) принимает вид:
K z (t, *') = * ,( * • n + K y (t, t'),
(15.8.8)
т. e. п р и сложении н е к о р р е л и р о в а н н ы х с лу ч ай н ых функций
а х к о р р е л я ц и о н н ы е функции складываются.
Выведенные формулы могут быть обобщены на случай произволь­
ного числа слагаемых. Если случайная функция X (?) есть сумма а
• 15.8]
СЛОЖ ЕНИ Е СЛУЧАЙНЫХ ФУНКЦИЙ
случайных функций:
401
П
(15.8.9)
то ее математическое ожидание выражается формулой
П
тх ^ ) ~ 2 гпх Ж
1 = 1
(15.8.10)
1
а ее корреляционная функция-— формулой
п
где суммирование распространяется на все возможные размещения
индексов I и У попарно.
В случае, когда все случайные функции
(/) некоррелированны,
формула (15.8.11) превращается в т е о р е м у с ложения к о р р е л я ц и о н ­
ных функций'.
п
К ХУ, *0 = 23 *>.(*■ *0.
1=1
*
(15.8.12)
т. е. к о р р е л я ц и о н н а я ф у н к ц и я с уммы в з а им но н е к о рр е лир ов ая ~
ны х с лу ча йн ых фу нкций р а в н а сумме к о р р е л я ц и о н н ы х функций
с л аг а ем ых .
Формула (15.8.12) аналогична теореме сложения дисперсий для
обычных случайных величин.
Частным случаем сложения случайных функций является сложение
случайной функции со случайной величиной.
Рассмотрим случайную функцию X (<) с характеристиками тх ({}
и К Х У, I') и случайную величину У с математическим ожиданием т у
и дисперсией С у. Предположим, что случайная функция X (() и слу­
чайная величина У некоррелированны, т. е. при любом t
М { Х (О К] — 0.
Сложим случайную функцию X (/) со случайной величиной У;
получим случайную функцию
(15.8.13)
тг ( 0 = тх У )' - \- ту.
(15.8.14)
Чтобы найти К г Ц, У), пользуясь теоремой сложения корреляцион­
ных функций (15.8.8), рассмотрим случайную величину У как частный
случай случайной функции, не меняющейся во времени, и найдем ее
корреляционную функцию:
/Су (/,
Г) «= м [ У (О У (/01 =
М [К 2] = £ > у.
(15.8.15)
402
ОСНОВНЫЕ
п он яти я
ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ.
15
Применяя формулу (15.8.8), получим!
К г ((,
П +
т. е. при пр иб авле нии к с лу ч ай н ой ф ункции н е к о р р е л и р о в а н н о й
с нею случайной величины к к о р р е л я ц и о н н о й функции п р и ­
б ав ляе тс я постоянное с ла г ае мо е , р а в н о е дисперсии этой с л у ­
чайной величины.
1^.9. К ом плексны е случай н ы е ф ункции
П ри практическом применении математического аппарата теории
случайных функций часто оказывается удобным записывать как сами
случайные функции, так и их характеристики не в действительной,
а в комплексной форме. В свя­
зи с этим необходимо дать
определение ко мпле кс ной с л у ­
чайной величины, и к о м п ле кс ­
ной с лу чайной функции.
Комплексной случайной ве­
личиной называется случайная
величина вида:
г = Х’ -\~1У,
(15.9.1)
где X , У — действительные слу— чайные величины; г =
— 1—
мнимая единица.
Рис. 15.9.1,
Комплексную случайную ве­
личину можно геометрически
интерпретировать как случайную точку Е на плоскости х О у
(рис, 15.9.1).
Для того чтобы аппарат числовых характеристик был применим
и к комплексным случайным величинам, необходимо обобщить основ­
ные понятия математического ожидания, дисперсии и корреляционного
момента на случай комплексных случайных величин. Очевидно, эти
обобщения должны быть сделаны так, чтобы в частном случае, когда
У = 0 и величина Z действительна, они сводились к обычным оп ре^
делениям характеристик действительных случайных величин.
Ма те ма тиче ским ожиданием компле кс ной с л уч айн ой вели­
чины Е = Х - \ - 1 У называется комплексное число
тг = тх - {-1ту.
(15.9.2)
Это есть некоторое среднее значение величины Е или, геометрически,
средняя точка т,, вокруг которой происходит рассеивание случайной
точки 2 (рис. 15,9.1),
КОМПЛЕКСНЫЕ
15.9]
СЛУЧАЙНЫЕ ФУНКЦИИ
403
Дисперсией, комплексной случайной величины называется
математическое ожидание ква д р а т а м одуля соответствующей
центрированной величины:
Da = *M \\Z \%
(1 5 .9 .3 )
где
Z = Z — mz.
Геометрически дисперсия комплексной случайной величины есть
не что иное, как среднее значение квадрата расстояния от случайной
точки Z до ее математического ожидания тг (рис. 1 5 .9 .1 ). Эта вели­
чина характеризует разброс случайной точки Z около ее среднего
положения.
Выразим дисперсию комплексной случайной величины через ди с­
персии ее действительной и мнимой частей. Очевидно,
Z = Z — тг — Х -j-i'K — тх — lmy — X -\~ lY \
отсюда
D z = М { IZ |21 = М [ Х 2+ Y2] = М [ X 2] - f М [К2]
или
D Z= D X+ D r
(1 5 .9 .4 )
т. е. дисперсия комплексной случайной величины р а в н а сумме
дисперсий ее действительной и мнимой частей.
Из самого определения дисперсии следует, что дисперсия ком­
плексной случайной величины всегда действительна и сущ ественно
положительна. Обращаться в нуль она может только в случае, если
величина Z не случайна.
Данные выше определения математического ожидания и дисперсии,
очевидно, удовлетворяют поставленному требованию: при К = 0
и Z — X они превращаются в обычные определения математического
ожидания и дисперсии действительной случайной величины.
Попытаемся построить аналогичное определение корреляционного
момента двух комплексных случайных величин Z x и Z 2:
Z ^ X ^ + lY ^
Z2 = X 2- i - t Y 2.
(1 5 .9 .5 )
Это определение, очевидно, должно быть построено так, чтобы
при Z 1 = Z 2 — Z корреляционный момент обращался в дисперсию
величины Z . Оказывается, этому требованию нельзя было бы у д о ­
влетворить, если бы мы, как в случае действительных величин,
назвали корреляционным моментом математическое ожидание произо
о
ведения Z jZ 2. Н етрудно убедиться, что при Zj = Z2 = Z математиче­
ское »ожидание такого произведения будет не действительным,
а комплексным, т. е. уж е не дает дисперсии, которая, согласно
определению, действительна и существенно положительна. Этого
не убудет, если назвать корреляционным моментом математическое
404
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ФУНКЦИЙ
о
{ГЛ. 15
о
ожидание произведения 2 , не на самую величину Л2, а на соответ­
ствующую ей компле кс ну ю с опр яже нн ую величину:
2 2 = ЛГ2— гК2.
(15.9.6)
Тогда при 2 , = 2 3 = 2 корреляционный момент, очевидно, обратится
в дисперсию величины 2 :
К гг = м КА' -Ъ 1У) ( X — /К)1 = М \ Ь ] - \ - М [ К2] = £ > ,.( 15.9.7)
Таким образом, целесообразно дать следующее определение ко р ­
реляционного момента двух комплексных случайных величин
и Д:
^
= Ж [а д I.
(15.9.8)
где чертой наверху обозначается комплексная сопряженная величина.
Выразим корреляционный момент двух комплексных случайных
величин через корреляционные моменты их действительных и мнимых
частей. Имеем:
К гЛ — М \Z\Z2] = М [ ( Х 1 + 1Уг) ( Х 2 -
1У2)] =
== К Х1Х, + Ку, у2 + { (КУЛ — ^,У а).
(15.9.9)
где К х ,х,< К у , у г> К у 1Х2, К х ,у, — соответственно корреляционные мо­
менты величин (А 'р Х 2), (К ^ К2); (К ^ Х 2), { Х г, К2).
Очевидно, в случае, когда все эти величины между собой не коррелированы, корреляционный момент величин 2 }, 2 2 также равен
нулю.
Таким образом, определения основных характеристик комплексных
случайных величин отличаются от обычных определений аналогичных
характеристик для действительных величин только тем, что:
1) в качестве дисперсии рассматривается не математическое ожи­
дание квадрата центрированной случайной величины, а математи­
ческое ожидание к в а д р а т а ее модуля-,
2) в качестве корреляционного момента рассматривается не мате­
матическое ожидание произведения центрированных величин, а мате­
матическое ожидание произведения одной центрированной величины
на к ом пле кс ну ю с оп р я же н ну ю другой.
Перейдем к определению комплексной случайной функции и ее
характеристик.
Комплексной случайной функцией называется функция вида:
2 (г?) « А Ч О - И У Ч О .
(15.9.10)
где X У), У (£)— действительные случайные функции.
Математическое ожидание комплексной случайной функции (15.9.10)
равно:
тг у ) = тх У)-$-1ту (().
(15.9.11)
15 .9]
КОМПЛЕКСНЫЕ
СЛУЧАЙНЫЕ ФУНКЦИИ
405
Дисперсия комплексной случайной функции Z (t) определяется как
математическое ожидание квадрата модуля соответствующей центри­
рованной функции:
D z {t) = M \ \ Z { t ) W
(15.9.12)
где
Z ( t ) = Z ( t ) — m2 (t) = X
(15.9.13)
И з определения (15.9.12) видно, что дисперсия комплексной случай­
ной функции действительна и неотрицательна.
Из формулы (15.9.4) следует, что Дисперсия комплексной слу­
чайной функции равна сумме дисперсий ее действительной и мнимой
частей:
D z (t) = D x (t) + D y (t).
(15.9.14)
Корреляционная функция комплексной случайной функции опре­
деляется как корреляционный момент ее сечений t и t'\
K z (t, t') = M [ Z { t ) Z ( t %
где
(15.9.15)
_
/
Z ( /') = X ( / ) — i Y ((')
о
— комплексная величина, сопряженная величине Z ( t ' ) .
При t' — t корреляционная функция, очевидно, обращается в дис­
персию:
K s (t. t) = D z {t).
(15.9.16)
Пользуясь формулой (15.9.9), можно выразить корреляционную
функцию комплексной случайной функции через характеристики ее
действительной и мнимой частей. Рассматривая в качестве случайных
величин Z , и Z 2, фигурирующих в этой формуле, сечения случайной
функции Z ( t ) и Z i t ' ) , получим:
К г Ц, t') = K x {t, t') + K y (t, t') + l { R x y (t', t) — R x y (t, O b (15.9.17)
где R x y (t, t') — взаимная корреляционная функция случайных функ­
ций X (t) и Y (t) (действительной и мнимой частей случайной функ­
ции Z ( t ) ) .
В сл у ч ае,, когда действительная и мнимая части случайной функ­
ции не коррелированы (R x y ( t , t ' ) = =0 ) , формула (15.9.17) имеет вид:
K z (t, t ’) = K x {t. t') + K y {t, t').
(15.9.18)
В дальнейшем изложении мы будем пользоваться как действи­
тельной, так и комплексной формой записи случайных функций.
В последнем случае мы будем всегда оговаривать это.
ГЛАВА Щ
КАНОНИЧЕСКИЕ РА ЗЛ О Ж ЕН И Я СЛУЧАЙНЫХ ФУНКЦИЙ
16 .1 . И дея м етода канони ческих р азл ож ен и й .
П р едстав лен и е случайной ф ункции в виде
сум м ы эл ем ен тар ны х случайны х ф ункций
В п° 15.7 мы познакомились с общими правилами линейных пре­
образований случайных функций. Эти правила сводятся к тому, что
при линейном преобразовании случайной функции ее математическое
ожидание подвергается тому же линейному преобразованию, а ко р ­
реляционная функция подвергается этому преобразованию дважды:
по одному и другому аргументу.
Правило преобразования математического ожидания очень просто
и при практическом применении затруднений не вызывает. Что ка­
сается двойного преобразования корреляционной функции, то оно
в ряде случаев приводит к чрезвычайно сложным и громоздким опе­
рациям, что затрудняет практическое применение изложенных общих
методов.
Действительно, рассмотрим, например, простейший интегральный
оператор:
(
У ( 0 = / Х(х)с1х.
о
(16.1.1)
Согласно общему правилу корреляционная функция преобразуется
тем же оператором дважды:
/
V
К у Ц, *0 = / / К я (т, г') Л
о о
(16.1.2)
Очень часто бывает, что полученная из опыта корреляционная
функция К х ^ , I') не имеет аналитического выражения и задана
таблично; тогда интеграл (16.1.2) приходится вычислять численно,
определяя его как функцию обоих пределов. Это — задача очень
16.1}
ПРЕДСТАВЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ В БИ Д Е СУММЫ
407
Громоздкая и трудоемкая. Если даже аппроксимировать подынте­
гральную функцию каким-либо аналитическим выражением, то и в этом
случае чаще всего интеграл (16.1.2) через известные функции не
выражается. Так обстоит дело даже при простейшей форме опера­
тора преобразования. Если же, как часто бывает, работа динами­
ческой системы описывается дифференциальными уравнениями, реш е­
ние которых не выражается в явной форме, задача об определении
корреляционной функции на вы­
ходе еще более осложняется:
она требует интегрирования диф ­
ференциальных уравнений с част­
ными производными.
В связи с этим на практике
применение изложенных общих
методов линейных преобразова­
ний случайных функций,
как
правило, оказывается слишком
сложным и себя не оправдывает.
При решении практических задач
значительно чаще применяются
другие методы, приводящие к бо­
лее простым преобразованиям.
Один из них — так называемый метод канониче ских р а з л о ж е ­
ний, разработанный В. С. Пугачевым, и составляет содержание
данной главы.
Идея метода канонических разложений состоит в том, что слу­
чайная функция, над которой нужно произвести те или иные преоб­
разования, предварительно представляется в виде суммы так назы­
ваемых э л е м е н т а р н ы х с лу ча йн ых функций.
Элементарной случайной функцией называется функция вида:
X (*) =
(0 ,
(16.1. 3)
где К — обычная случайная величина, ср (/) — обычная (неслучайная)
функция.
Элементарная случайная функция является наиболее простым ти­
пом случайной функции. Действительно, в выражении (16.1.3) слу­
чайным является только множитель V, стоящий перед функцией <?(/);
сама же зависимость от времени случайной не является.
Все возможные реализации элементарной случайной функции X (?)
могут быть получены из графика функции х ~ ч ( ( ) простым изме­
нением масштаба по оси ординат (рис. 16.1.1). При этом ось абсцосс
( х = : 0) также представляет собой одну из возможных реализаций
случайной функции X (/), осуществляющуюся, когда случайная вели­
чина V принимает значение 0 (если это значение принадлежит к числу
возможных значений величины К).
408
КАНОНИЧЕСКИЕ РАЗЛОЖ ЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ
[ГЛ. 1в
В качестве примеров элементарных случайных функций приведем
функции •A'(/) = Ks i n £ (рис. 16.1.2) и Ar (f) = Vf2 (рис. 16.1.3).
Элементарная случайная функция характерна тем, что в ней р аз­
делены две особенности случайной функции: случайность вся сосре­
доточена в коэффициенте V, а зависимость от времени — в обычной
функции у (t).
Определим характеристики элементарной случайной
(16.1.3). Имеем:
тх ( 0 = М [У > (0 ] — я у Р ((),
функции
где т1/ — математическое ожидание случайной величины V.
Если ту — 0, математическое ожидание случайной функции X (С)
также равно нулю, причем тождественно:
тх (Г)== 0 .
Мы знаем, что любую случайную функцию можно центрировать,
т. е. привести к такому виду, когда ее математическое ожидание
равно нулю. Поэтому в дальнейшем мы будем рассматривать т о л ь к о
центрированны е элементарны е случайные функции,
для которых тг! — 0; V
гпх ( ( ) вев 0.
Определим корреляционную функцию
функции X (^). Имеем:
элементарной
случайной
кх<*. п —А1 [Х(()Х (О !— ? (о с?((') м т = ? (# )? с о о,
где £>— дисперсия величины V.
Над элементарными случайными функциями весьма просто вы­
полняются всевозможные линейные преобразования.
Например, продифференцируем случайную функцию (16.1.3). Слу­
чайная величина V, не зависящая от t, выйдет за знак производной,
и мы получим:
* '( * ) = У ? '(')•
te.Il
'
ПРЕДСТАВЛЕНИЕ СЛУЧАЙНОЙ ФУНКЦИИ В ВИДЕ СУММЫ
Аналогично
<
<
£ X (х)
0
409
= V £ ср (т) йх.
0
Вообще, если элементарная случайная ф у н кц и я'(16.1.3) преобра­
зуется линейным оператором
то при этом случайный множитель V,
как не зависящий от £, выходит за знак оператора, а неслучайная
функция <р(^) преобразуется тем же оператором Ь\
£ { * ( # ) } = У М ? (*)}•
(16.1.4)
Значит, если элементарная случайная функция поступает на вход
линейной системы, то задача ее преобразования сводится к простой
задаче преобразования одной неслучайной функции ер(*). Отсюда
возникает идея: если на вход динамической системы поступает неко­
торая случайная функция общего вида, то можно ее представить —
точно или приближенно — в виде суммы элементарных случайных
функций и только затем подвергать преобразованию. Такая идея
разложения случайной функции на сумму элементарных случайных
функций и лежит в основе метода канонических разложений.
Пусть имеется случайная функция:
Х У ) = тх Ц) + Х Ц ) .
(16.1.5)
Допустим, что нам удалось — точно или приближ енно— предста­
вить ее в виде суммы
т
Х ( 0 = тх ( 0 + Ц У 1ср, (О.
(16.1.6)
/ =1
где У 1 — случайные величины с математическими ожиданиями, рав­
ными нулю, <рД0 — неслучайные функции, т ^ (/) — математическое
ожидание функции X (().
Условимся называть представление случайной функции в форме
(16.1.6) р а з л о же н и е м случайной функции. Случайные величины
V], У2, . . . , У т будем называть к оэ ффицие нтами разложения, а не­
случайные функции ср|(/), ср2 (0 * • • • • Ущ ( 0 — ко о рд и на тн ым и ф у н к ­
циями.
Определим реакцию линейной системы с оператором £ на слу­
чайную функцию X ((), заданную в виде разложения (16.1.6). Известно,
что линейная система обладает так называемым свойством с у п е р ­
позиц ии, состоящим в том, что реакция системы на сумму несколь­
ких воздействий равна сумме реакций системы на каждое отдельное
воздействие. Действительно, оператор системы Л, будучи линейным,
может, по определению,’ применяться к сумме почленно.
Обозначая У (() реакцию системы на случайное воздействие X ((),
имеем:
т
У (0 = М ^ ( 0 } = ^ К ( 0 } + 2 ^ { ? ; ( 0 } '
г=1
(16.1.7)
410
КАНОНИЧЕСКИЕ РАЗЛОЖ ЕНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ. 16
Придадим выражению (16.1.7) несколько иную форму. Учитывая
общее правило линейного преобразования математического ожидания,
убеждаемся, что
Ч т * ( 0 ] = "*у (0 Обозначая
1 { < р , ( 9 } = ^ (0 .
имеем:
т
К (/) = т у (0 +
(^).
(16.1.8)
Выражение (16.1.8) представляет собой не что иное, как р а з ­
ложение случайной функции К (?) по элементарным функциям. К оэф ­
фициентами этого разложения являются те же случайные величины
У 1, У2, . . . , У т, а математическое ожидание и координатные функ­
ции получены из математического ожидания и координатных функций
исходной случайной функции тем ж е линейным преобразованием £,
какому подвергается случайная функция X (£).
Резюмируя, получаем следующее правило преобразования случай­
ной функции, заданной разложением.
Если с л у ч а й н а я ф ун кц ия X (£), з а д а н н а я р а з л о ж е н и е м по
э л е м е нт а рн ы м ф у н к ц и я м , п од в ер га е тс я лине йно му п р е о б р а ­
з ованию Ь, то коэффициенты р а з л о ж е н и я остаются неизмен­
ными, а математическое ожидание и к о о р д ин а тн ые функции
п о д в е рг а ю тс я т о м у же л ин ейн ом у п р е о б р а з о в а н и ю Ь.
Таким образом, смысл представления случайной функции в виде
разложения сводится к тому, чтобы свести линейное преобразование
случайной функции к таким же линейным преобразованиям несколь­
ких неслучайных функций-— математического ожидания и коорди­
натных функций- Это позволяет значительно упростить решение
задачи нахождения характеристик случайной функции К (?) по срав­
нению с общим решением, данным в п° 15.7. Действительно, каждая
из неслучайных функций тх (/), ср] (/). ?2 (?)> - • •.
( 0 в данном
случае преобразуется только о д и н р а з в отличие от корреляцион­
ной функции К х ({, ('), которая, согласно общим правилам, преоб­
разуется д в а ж д ы .
1 6 .2 . К ан он и ч еск ое р а зл о ж е н и е случайн ой ф ункции
Рассмотрим случайную функцию X (Г), заданную разложением
т
Л -(/) = « , ( / ) + 2 ^ ( 0 .
(16.2.1)
где коэффициенты V ,, У2, . . . , Ут представляют собой систему
случайных величин с математическими ожиданиями, равными нулю и
с корреляционной матрицей \\Кц\\:
16.2)
каноническое
ра зл о ж ен и е
случайной
Ф УНКЦИИ
411
Найдем корреляционную функцию и дисперсию случайной ф унк­
ции X (().
По определению
К Х У,
= М [ Х У) X (Г)],
(16.2.2)
где
т
* ( 0 = 2 у 1Ью ,
(16.2.3)
т
А Г ( 0 = * 2 ^ / р у (<0.
у =1
0 6 .2 .4 )
В формуле (16.2.4) индекс суммирования обозначен буквой / ,
чтобы подчеркнуть его независимость от индекса суммирования I
в формуле (16.2.3).
■ Перемножая выражения (16.2.3) и (16.2.4) и применяя к произ«
ведению операцию математического ожидания, получим:
к х (Л Г) = м [ 2 У у ]Ь (О Ь ( О ] = 2
М I V у / I ь (/) ь (/'). (1 6 .2 .5 )
где суммирование распространяется на все пары значений /, } — как
равные, так и неравные. В случае, когда i = j ,
М\У.У;\ = м Щ = Ки = 01,
где й 1 — дисперсия случайной величины 1/г. В случае, когда I Ф ] ,
М\УУ;] = Ки,
где К ц — корреляционный момент случайных величин V;, Уу.
Подставляя эти значения в формулу (16.2.5), получим выражение
для корреляционной функции случайной функции X (*). заданной
разложением (16.2.1):
т.
к х {и р = 2
ь ( 0 ? | ( О я* 4 - 2 <?г ( о ? / ( О к г/.
о 6 .2 .6)
Полагая в выражении (16.2.6) *' = £, получим дисперсию случай­
ной функции А" (?):
т
^
=
2 м о ] * о , + 2 < р < ( о ? д о * //.
<=1
Ч*)
0 6 .2 .7 )
412
КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИИ
[ГЛ. 16
Очевидно, выражения (16.2.6) и (16.2.7) приобретают особенно
простой вид, когда все коэффициенты У г разложения (16.2.1) некоррелйрованны, т. е. К ц — 0 при I ф / . В этом случае разложение
случайной функции называется «каноническим».
Таким образом, каноническим р а з л о ж е н и е м случайной функ­
ции X (() называется ее представление в виде:
ТП
* ( * ) = « , <0 + 5
0.
(16.2.8)
где тх (() — математическое ожидание случайной функции; ^ (I),
ср.,( 0 .......... 9т ( О — координатные функции, а
У2, . . . . У т — не­
коррелированные случайные величины с математическими ожиданиями,
равными нулю.
Если задано каноническое разложение случайной функции, то ее
корреляционная функция К х ((. С) выражается весьма просто. П ола­
гая в формуле (16.2.6) К 1] ~ 0 при г ф у, получим:
т
а д о = (=1
2 ?,(*)?/(О
(16-2.9)
Выражение (16.2.9) называется каноническим р а з л о ж е н и е м к о р ­
р ел я ц и о н н о й функции.
Полагая в формуле (16.2.9) t ' — t, получим дисперсию случайной
функции
т
А г(0 = 2 ы * №
.
(16.2.Ю )
Таким образом, зная каноническое разложение случайной функ­
ции X ((), можно сразу найти каноническое разложение ее к о р р е ­
ляционной функции. Можно доказать, что обратное положение тоже
справедливо, а именно: если задано каноническое разложение к о р ­
реляционной функции (16.2.9), то для случайной функции X (*) спра­
ведливо каноническое разложение вида (16.2.8) с координатными
функциями <рг (£) и коэффициентами V 1 с дисперсиями £)г. Мы при­
мем это положение без специального доказательства *).
Число членов канонического разложения случайной функции может
быть не только конечным, но и бесконечным. Примеры канонических
разложений с бесконечным числом членов встретятся нам в главе 17.
Кроме того, в ряде случаев применяются так называемые инте­
г ра л ьн ы е канонические п р е дс та в ле ни я случайных функций, в кото­
рых сумма заменяется интегралом.
Доказательство см.: В. С. П у г а ч е в , Теория случайных функций и
ее применение в задачах автоматического управления, Физматгиз, 1962.
16.2]
каноническое
РАЗЛОЖ ЕНИЕ
СЛУЧАЙНОЙ ФУНКЦИИ
413
Канонические разложения применяются не только для действи­
тельных, но и для комплексных случайных функций. Рассмотрим
обобщение понятия канонического разложения на случай комплексной
случайной функции.
Элементарной комплексной случайной функцией называется функ­
ция вида:
Л Ч О — У<Р(0 .
(16.2.11)
где как случайная величина V, так и функция ср(£) комплексны.
Определим корреляционную функцию элементарной случайной
функции (16.2.11). Пользуясь общим определением корреляционной
функции комплексной случайной функции, имеем:
К х $ . V) — М [1Л? ( 0 ^ ( 0 1 .
(16.2.12)
где чертой вверху, как и ранее, обозначена комплексная сопряжен­
ная величина. Имея в виду, что
1Лр(/) = У<р(/),
и вынося неслучайные величины
ского ожидания, получим:
<р(/) и <р(/') за знак математиче­
к х ((. о = ? ( о 7 ( о л 1 [ | у | 2].
Н о, согласно п° 15.9, М [ |У |2] есть не что иное, как дисперсия
комплексной случайной величины V:
Л Ц |У |2] = 0 .
следовательно,
К Х У, / О « = ? ( 0 ? ^ 0 О.
(16.2.13)
Каноническим разложением комплексной случайной функции назы­
вается ее представление в виде:
т
=
(16.2.14)
1=I
где У р У2, . . . . Ут — некоррелированные комплексные случайные
величины с математическими ожиданиями, равными нулю, а т х ((),
<?](£), <р2(0 * • • • . ^ ( 0 — комплексные неслучайные функции.
Если комплексная случайная функция представлена каноническим
разложением /(16.2.14), то ее корреляционная функция выражается
формулой
т
____
К Л * ’ О = 2 ? / (О <?/(*')£>,.
(16.2.15)
где й 1 — дисперсия величины V,:
( 1 6 .2 .1 6 )
414
КАНОНИЧЕСКИЕ РАЗЛОЖ ЕНИЯ СЛУЧАЙНЫХ Ф УНКЦИЙ
[ГЛ. 16
Формула (16.2.15) непосредственно следует из выражения (16.2.13)
для корреляционной функции элементарной комплексной случайной
функции.
Выражение (16.2.15) называется каноническим разложением к о р ­
реляционной функции комплексной случайной функции.
Полагая в (16.2.15) ^ = 1, получим выражение для дисперсии
комплексной случайной функции, заданной разложением (16.2.14):
т
А , ( 0 = 2 !?,<*)!2^ .
(16.2.17)
ЫХ
1 6 .3 . Линейны е п р еобр азов ан и я сл уч ай н ы х ф ункций,
задан ны х канони ческим и р азл ож ен и я м и
Пусть на вход некоторой линейной системы /, поступает случай­
ная функция X (/) (рис. 16.3.1).
Рис. 16.3.1,
Система преобразует функцию X (() посредством линейного опе­
ратора Ь, и на выходе мы получаем случайную функцию
К (/) = /, {*(/?)}.
(16.3.1)
Предположим, что случайная функция X (/) задана ее канониче­
ским разложением:
*
. ^ ( о = «ж (0 + 2 ^ , ( 0 .
(16.3.2)
/=1
Определим реакцию системы на это воздействие. Так как опера­
тор системы является линейным, то
К(*) = £ {*(<)}
К
(^} +
2 ^
/=1
М 0Ь
(16.3.3)
Рассматривая выражение (16.3.3), легко убедиться, что оно пред­
ставляет собой не что иное, как каноническое р а з л о ж е н и е с л у ­
чайной фу нкц ии У (/) с математическим ожиданием
т у (( ) = 1 [ т х {( ) }
( 1 6 .3 .4 )
и.31
ЛИНЕЙНЫЕ ПРЕОБРАЗОВАНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ
415
И координатными функциями
Ф,(*) = М ? * (О Ь
.
(16.3.5)
Таким образом, п р и линейном п р е о б р а з о в а н и и ка но ниче ск ого
р а з л о ж е н и я случайной ф ункции X (() п о л у ч ае т ся каноническое
р а з л о ж е н и е с лу чайной фу нкци и У Ц), пр иче м мате матиче ское
ожидание и к оо р д и н а т н ые функции п од в е р г а ю т с я т о м у же
л ин ей н ом у п р е о б р а з о в а н и ю .
Если случайная функция У ( 0 на выходе линейной системы пол/*
чена в виде канонического разложения
к ю = «
,
(
*
* )
1=1
+
(
1
6
.
3
.
6
)
то ее корреляционная функция и диспарсия находятся весьма просто!
й
к у ((,
=
( О ф |( о я ,.
1= 1
к
^ ( 0 = Е [ ^ ( 012^ .
1=1
(1б .з.7)
(16.3.8)
Это делает особенно удобными именно к а н о н и ч е с к и е разло*
жения по сравнению с любыми другими разложениями по элементар­
ным функциям.
Рассмотрим несколько подробнее применение метода канонических
разложений к определению реакции динамической системы на слу­
чайное входное воздействие, когда работа системы описывается линей­
ным дифференциальным уравнением, в общем случае — с перемен­
ными коэффициентами. Запишем это уравнение в операторной форме:
А (р. 0 У ( 0 = в т (р. 0 Х ( 0 -
(16.3.9)
Согласно вышеизложенным правилам линейных преобразований
случайных функций математические ожидания воздействия и реакции
должны удовлетвррять тому же уравнению:
А Л р , V) т у (() = В т (р, 1)тх Ц).
(16.3.10)
Аналогично каждая из координатных функций должна удовлет­
ворять тому же дифференциальному уравнению:
А я (р, о <^Ц) = В т (р, 0 < р ,(0 .
(16.3.11)
(/ = 1, 2 .......... к).
Таким образом, задача определения реакции линейной динамиче­
ской системы на случайное воздействие свелась к обычной математи­
ческой задаче интегрирования й -{- 1 обыкновенных дифференциальных
416
КАНОНИЧЕСКИЕ РАЗЛОЖЕНИЯ СЛУЧАЙНЫХ ФУНКЦИЙ
[ГЛ. 16
уравнений, содержащих обычные, не случайные'функции. Так как
при решении основной задачи анализа динамической системы — оп ре­
деления ее реакции на заданное воздействие — задача интегриро­
вания дифференциального уравнения, описывающего работу системы,
тем или другим способом решается, то при решении уравнений (16.3.10)
и (16.3.11) новых математических трудностей не возникает. В част­
ности, для решения этих уравнений могут быть с успехом применены
те же интегрирующие системы или моделирующие устройства, которые
применяются для анализа работы системы без случайных возмущений.
Остается осветить вопрос о начальных условиях, при которых
следует интегрировать уравнения (16.3.10) и (16.3.11).
Сначала рассмотрим наиболее простой случай, когда начальные
условия для данной динамической системы являются неслучайными.
В этом случае при £ = 0 должны выполняться условия:
у (0) = Уо*.
Г (0) = У1.
(16.3.12)
К(г)(0) = Угк ?,_1) (0) = У«-V
где у0, у,, . . . , у я_ , — неслучайные числа.
Условия (16.3.12) можно записать более компактно:
К(г)( 0 ) ,= у г
(г=0.
1.......... п — 1),
(16.3.13)
понимая при этом под «производной нулевого порядка» Н(0)(О саму
функцию У (().
Выясним, при каких начальных условиях должны интегрироваться
уравнения (16.3.10) и (16.3.11). Для этого найдем г-ю производную
функции У ( 0 и положим в ней ^ = 0:
(0) == т^р (0) +
2 V
1=\
(0).
Учитывая (16.3.12), имеем:
■ к
'
т £ Ч 0 > + 2 у , ф ^ ( 0 ) = у ,.
<=1
Так как величина у г не случайна, то дисперсия
равенства (16.3,14) должна быть равна нулю:
2 0 г [ ^ г!(0 )]2 =
0.
-
(16.3.14)
левой
части
( 1 6 .3 .1 5 )
МЛ].
ЛИ НЕЙН Ы Е
ПРЕОБРАЗОВАНИЯ
СЛУЧАЙНЫХ ФУНКЦИЙ
417
Так как все дисперсии
величин У 1 положительны, то равен­
ство (16.3.15) может осуществиться только, когда
<|Д/>(0) = 0
(16.3.16)
для всех I.
Подставляя 1]ЛГ)( 0) = 0 в формулу (16.3.14), получим:
т<г)( 0) ; ■Уг
(16.3.17)
Из равенства (16.3.17) следует, что уравнение (16.3.10) для ма­
тематического ожидания должно интегрироваться при заданных на­
чальных условиях (16.3.12):
« у (0) = У0,
« ; ( 0) =
(16.3.18)
и « ( 0) = уг.
«<»)( 0) = у в.
Что касается уравнений (16.3.11), то они должны интегрироваться
при нулевых начальных условиях:
Ф, (0) = Ф;(0) =
...
= ф(/> (0) =
...
= ^ ) ( 0) = 0
( / = 1 , 2, . . . . к).
Рассмотрим
случайны:
более
сложный
случай,
когда
(16.3.19)
начальные условия
У (0) = У0,
Г ( Р ) = У1.
У{Г)(0) = УГ,
(16.3.20)
У{п~1)(0) = Уп_ 1,
где Г0, У1.......... Уп- \ — случайные величины.
В этом случае реакция на выходе системы может быть найдена
в виде суммы:
К ( 0 = К , ( / ) - Ь К 11(0 ,
(16.3.21)
где
— решение дифференциального уравнения (16.3.9) при нуле­
вых начальных условиях; Кп (() — решение того же дифференциаль­
ного уравнения, но с нулевой правой частью при заданных начальных
условиях (16.3.20). Как известно из теории дифференциальных
14 Теория вероятностей
41 8
К АН О Н И ЧЕСКИ Е
РАЗЛОЖ ЕНИ Я
СЛУЧАЙНЫ Х
ФУНКЦИЙ
[ГЛ ,
16
уравнений, это решение представляет собой линейную комбинацию
начальных условий:
л -1
Уп У )
(16.3.22)
где f j ( t ) — неслучайные функции.
Решение К ^ /) может быть получено изложенным выше методом
в форме канонического разложения. Корреляционная функция случай­
ной функции К (О —
(/)-(- К п (() может быть найдена обычными
приемами сложения случайных функций (см. п°15.8).
Следует заметить, что на практике весьма часто встречаются
случаи, когда для моментов времени, достаточно удаленных от начала
случайного процесса, начальные условия уже не оказывают влияния
, на его течение: вызванные ими переходные процессь! успевают за­
тухнуть. Системы, обладающие таким свойством, называются асимп­
тотически устойчивыми. Если нас интересует реакция асимптотически
устойчивой динамической системы на участках времени, достаточно
удаленных от начала, то можно ограничиться исследованием реше­
ния У1У), полученного при нулевых начальных условиях. Для доста­
точно удаленных от начального моментов времени это решение будет
справедливым и при любых начальных условиях.
Г Л А В А 17
СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ФУНКЦИИ
17.1. Понятие о стационарном случайном процессе
1
На практике очень часто встречаются случайные процессы, про­
текающие во времени приблизительно однородно и имеющие вид
.непрерывных случайных колебаний вокруг некоторого среднего зна­
чения, причем ни средняя амплитуда, ни характер этих колебаний не
;Обнаруживают существенных изменений с течением времени. Такие
случайные процессы называются стационарными.
В качестве примеров стационарных случайных процессов можно
привести: 1) колебания самолета на установившемся режиме горизон­
тального полета; 2) колебания напряжения в электрической освети­
тельной сети; 3) случайные шумы в радиоприемнике; 4) процесс
качки корабля и т. п.
Каждый стационарный процесс можно рассматривать как продол­
жающийся во времени неопределенно долго; при исследовании стацио­
нарного процесса в качестве начала отсчета можно пыбрать любой мо­
мент времени. Исследуя стационарный процесс на любом участке вре­
мени, мы должны получить одни и те же его характеристики. Образно
выражаясь, стационарный процесс «не имеет ни начала, ни конца».
Примером стационарного случайного процесса может служить из­
менение высоты центра тяжести самолета на установившемся режиме
горизонтального полета (рис. 17.1.1).
В противоположность стационарным случайным процессам можно
указать другие, явно нестационарные, случайные процессы, например:
14*
420
С ТАЦ И О Н АРН Ы Е СЛУЧАЙНЫ Е Ф УН К Ц И И
[Г Л .
17
колебания самолета в режиме пикирования; процесс затухающих
колебаний в электрической цепи; процесс горения порохового заряда
в реактивной камере и т. д. Нестационарный процесс характерен
тем, что он имеет определенную т е н д е н ц и ю р а з в и т и я во
в р е м е н и ; характеристики такого процесса зависят от начала от­
счета, зависят от времени.
На рис. 17.1.2 изображено семейство реализаций явно нестацио­
нарного случайного процесса — процесса изменения тяги двигателя
реактивного снаряда во времени.
Заметим, что далеко не все нестационарные случайные процессы
являются существенно нестационарными на всем протяжении своего
развития. Существуют неста­
ционарные процессы, которые
(на известных отрезках вре­
мени и с известным приближе­
нием) могут быть приняты за
стационарные.
Например, процесс наводки
перекрестия авиационного при*
цела на це
Рис. 17.1.2.
ционарный процесс, если цель
за короткое время с большой
и резко меняющейся угловой скоростью проходит поле зрения
прицела. В этом случае колебания оси прицела относительно цели
не успевают установиться в некотором стабильном режиме; про­
цесс начинается и заканчивается, не успев приобрести стационар­
ный характер. Напротив, процесс наводки перекрестия прицела на
неподвижную или движущуюся с постоянной угловой скоростью
цель через некоторое время после начала слежения приобретает
стационарный характер.
Вообще, как правило, случайный процесс в любой динамической
системе начинается с нестационарной стадии — с так называемого
«переходного процесса». После затухания переходного процесса
система обычно переходит на установившийся режим, и тогда слу­
чайные процессы, протекающие в ней, могут считаться стационарными.
Стационарные случайные процессы очень часто встречаются в фи­
зических и технических задачах. По своей природе эти процессы
проще, чем нестационарные, и описываются более простыми характе­
ристиками. .Линейные преобразования стационарных случайных про­
цессов также обычно осуществляются проще, чем нестационарных.
В связи с этим на практике получила широкое применение специаль­
н а я тео р и я стационарных случайных процессов, или, точнее,
тео р и я стационарных случайных функций (так как аргументом
стационарной случайной функции в общем случае может быть и не
время). Элементы этой теории и будут изложены в данной главе.
,17.11
П О Н Я ТИ Е О С Т А Ц И О Н А РН О М С Л У Ч А Й Н О М
П РО Ц Е СС Е
421
Случайная функция X (/) называется стационарной, если все ее
[вероятностные характеристики не зависят от t (точнее, не меняются
Л1ри любом сдвиге аргументов, от которых они зависят, по оси ().
[
В данном элементарном изложении теории случайных функций
‘мы совсем не пользуемся такими вероятностными характеристиками,
как законы распределения: единственными характеристиками, кото; рыми мы пользуемся, являются математическое ожидание, дисперсия
'и корреляционная функция. Сформулируем определение стационарной
; случайной функции в терминах этих характеристик.
;
Так как изменение стационарной случайной функции должно
Протекать однородно по времени, то естественно потребовать, чтобы
для стационарной случайной функции математическое ожидание было
‘постоянным:
т х У) = т х = сомЬ
(17.1.1)
Заметим, однако, что это требование не является существенным: мы
внаем, что от случайной функции X (/) всегда можно перейти к ценО
.трированной случайной функции X {(), для которой математическое
ожидание тождественно равно нулю и, следовательно, удовлетворяет
^условию (17.1.1). Таким образом, если случайный процесс нестацио­
нарен только за счет переменного математического ожидания, это не
помешает нам изучать его как стационарный процесс.
{
Второе условие, которому, очевидно, должна удовлетворять ста­
ционарная случайная функция, — это условие постоянства дисперсии:
О , (0 = й х — сопэП
(17.1.2)
Установим, какому условию должна удовлетворять корреляцион­
н а я функция стационарной случайной функции. Рассмотрим случай­
н у ю функцию X (() (рис. 17.1.3). Положим в выражении К х ((, У)
и рассмотрим
/ + *) — корреляцион; йый момент двух сечений слу­
чайной функции, разделен­
ных интервалом времени х.
Очевидно, если случайный
‘ процес^/З^ (г1) действительно
стационарен, то этот корре­
Рис. 17.1.3.
ляционный момент не должен
зависеть от того, г д е именно
на оси ОЬ мы взяли участок т, а должен зависеть только от д л и н ы
этого участка. Например, для участков I и I I на рис. 17.1.3, имею­
щих одну и ту же длину т, значения корреляционной функцин
К х ((, t^-x) и К Х У 1< ^ -(-т) должны быть одинаковыми. Вообще,
.корреляционная функция стационарного случайного процесса должна
зависеть не от п о л о ж е н и я £ первого аргумента на оси абсцисс, а
т о л ь к о о т п р о м е ж у т к а т между первым и вторым аргументами:
К Х Ц. / н - - е ) =
Аж (X )..
(1 7 .1 .3 )
422
С ТАЦ И О Н АРН Ы Е
СЛУЧАЙНЫ Е Ф УН К Ц И И
[ГЛ .
17
Следовательно, корреляционная функция стационарного случайного
процесса есть функция не двух, а всего о д н о г о аргумента. Это
обстоятельство в ряде случаев сильно упрощает операции над ста­
ционарными случайными функциями.
Заметим, что условие (17.1.2), требующее от стационарной слу­
чайной функции постоянства дисперсии, является частным случаем
условия (17.1.3). Действительно, полагая в формуле (17.1.3) Ь-\-х~Ь
(т = 0), имеем
Ох (0 = ^
(<,
(17.1.4)
Таким образом, условие (17.1.3) есть единственное существенное усло­
вие, которому должна удовлетворять стационарная случайная функция.
Поэтому в дальнейшем мы под стационарной случайной функцией
будем понимать такую случайную функцию, корреляционная функция
которой зависит не от обоих своих аргументов Ь и
а только от
разности т между ними. Чтобы не накладывать специальных условий
на математическое ожидание,
мы
будем
рассматривать
только центрированные слу­
чайные функции.
Мы знаем, что корреля­
ционная функция любой слу­
чайной функции обладает
свойством симметрии:
>
К х ц, ? ) == К х (Л О-
V
Отсюда для стационарного
процесса, полагая У — I — т,
имеем:
М О = М — О. (17.1.5)
т. е. корреляционная функция кх {\) есть че тн а я функция своего
аргумента. Поэтому обычно корреляционную функцию определяют
только для положительных значений аргумента (рис. 17.1.4).
На практике, вместо корреляционной функции кх (х), часто поль­
зуются нормированной кор реляционной функцией
=
-
0 7
Л -б)
где Ох — кх (0) — постоянная дисперсия стационарного процесса.
Функция рх (т) есть не что иное, как коэффициент корреляции между
сечениями случайной функции, разделенными интервалом т по времени.
Очевидно, что рж (0) = 1.
В качестве примеров рассмотрим два образца приблизительно
стационарных случайных процессов и построим их характеристики.
П р и м е р 1. Случайная функция X {() задана совокупностью 12 реали­
заций (рис. 17.1.5). а) Найти ее характеристики т х{1), К х {^> *')> А * (О и
17Л]
П О Н Я ТИ Е О С ТА Ц И О Н А РН О М С Л У Ч А Й Н О М
П РО Ц Е С С Е
423
нормированную корреляционную функцию г х ((, г'), б) Приближенно рассмат­
ривая случайную функцию X (() как стационарную, найти ее характеристики.
Р е ш е н и е . Так как случайная функция X (/) меняется сравнительно
плавно, можно брать сечения не очень часто, например через 0,4 сек. Тогда
№
Рис. 17.1.5.
случайная функция будет сведена к системе семи случайных величин,
отвечающих сечениям ( = 0; 0,4; 0,8; 1,2; 1,6; 2,0; 2,4. Намечая эти сечения
на графике и снимая с графика значения случайной функции в этих сече­
ниях, получим таблицу (табл. 17.1.1).
Т а б л и ц а 17.1.1
/
0
эации
1
2
3
4
5
6
7
8
9
10
11
12
0,64
0,54
0,34
0,23
0 ,1 2
—0,16
—0 ,2 2
—0,26
—0,50
—0,30
—0,69
0,18
0,4
0,74
0,37
0,50
0,26
0 ,2 0
—0 ,1 2
—0,29
—0,69
—0,60
0,13
—0,40
—0,79
0,8
1,2
1,6
2,0
0,62
0,06
0,37
0,35
0,24
—0,15
—0,38
—0,70
—0 ,6 8
0,75
0,08
—0,56
0,59
—0,32
0,26
0,55
0,18
0,05
—0,24
—0,61
—0,62
0,84
0,16
—0,39
0,35
—0,60
—0,52
0,69
—0 ,2 0
0,29
—0,06
—0,43
—0 ,6 8
0,78
—0,09
—0,69
—0,72
0,75
—0,42
0,43
0,07
—0 ,2 2
—0,56
0,73
0,18
-—0,58
0 ,1 2
—0,42
2,4
-«,39
—0,67
0,42
0,80
—0,46
0,63
—0,16
0,29
—0,54
0,71
0,33
-0,53
Таблицу рекомендуется заполнять по строчкам, передвигаясь все время вдоль
одной реализации.
Далее ^находим оценки для характеристик случайных величин X (0),
X (0,4)....... X (2,4). Суммируя значения по столбцам и деля сумму на число
424
СТА Ц И О Н А РН Ы Е С ЛУЧАЙ Н Ы Е
ФУНКЦИИ
(ГЛ .
17
реализаций я = 12, найдем приближенно зависимость математического ожи­
дания от времени:
0
0,4
0,8
1,2
1.6
2,0
2,4
—0,007
—0,057
0,000
0,037
—0,057
—0,093
0,036
>
т х (0
На графике рис. 17.1.5 математическое ожидание показано жирной линией.
Далее находим оценки для элементов корреляционной матрицы: диспер­
сий и корреляционных моментов. Вычисления удобнее всего производить по
следующей схеме. Для вычисления статистической дисперсии суммируются
квадраты чисел, стоящих в соответствующем столбце; сумма делится на п — 12;
из результата вычитается квадрат соответствующего математического ожи­
дания. Для получения несмещенной оценки результат множится иа поправку
= -|у. Аналогично оцениваются корреляционные моменты. Для вы­
числения статистического момента, отвечающего двум заданным сечениям,
перемножаются числа, стоящие в соответствующих столбцах; произведения
складываются алгебраически; полученная сумма делится на п — 12; из резуль­
тата вычитается произведение соответствующих математических ожиданий;
для получения несмещенной оценки корреляционного момента результат мно­
жится на п
• При выполнении расчетов на счетной машине или ариф­
мометре промежуточные результаты умножений не записываются, а непо­
средственно суммируются'). Полученная таким способом корреляционная
матрица системы случайных величин X (0), X (0,4),
X (2,4) — она
же ' таблица значений корреляционной функции К х {Ь, У) — приведена
в таблице 17.1.2.
Т а б л и ц а 17.1.2
/
\
0
0,4
0,8
1,2
1,6
2,0
2,4
0
0,4
0,8
1,2
0,1632
0,1379
0,2385
0,0795
0,2029
0,2356
0,0457
0,1621
0,2152
0,2207
1,6
2,0
г,4
—0,0106 —0,0642 —0,0648
0,0827
0,0229
0,0251
0,1527
0,0982
0,0896
0,1910
0,1491
0,1322
0,2407
0,2348
0,1711
0,2691
0,2114
0,2878
По главной диагонали таблицы стоят оценки дисперсий:
*
0
0,4
0,8
1,2
1,6
2,0
2,4
0Д632
0,2385
0,2356
0,2207
0,2407
0,2691
0,2878
*) В данном случае оказалось возможным непосредственно вести обработку
через начальные моменты, так как математическое ожидание функции X (()
близко к нулю. Если это не так, то перед обработкой необходимо перенести
начало отсчета поближе к математическому ожиданию.
17.11
425
П О Н Я ТИ Е О С Т А Ц И О Н А Р Н О М С Л У Ч А Й Н О М П РО Ц Е С С Е
Извлекая из этих величин квадратные корни, найдем зависимость сред­
него квадратического отклонения в* от времени:
\
0
0,4
0,8
1,2
1.6
2,0
2,4
0,404
0,488
0,485
0,470
0,491
0,519
0,536
t
Деля значения, стоящие в табл. 17.1.2, на произведения соответствующих
средних квадратических отклонений, получим таблицу значений нормирован­
ной корреляционной функции гх {1, I') (табл. 17.1.3).
Т а б л и ц а 17.1.3
< |
1
0
0,4
0,8
• 1,2
1,6
2,0
2.4
0
1
0,4
0,8
1,2
1,6
2,0
2,4
0,700
1
0,405
0,856
1
0,241
0,707
0,943
1
—0,053
0,345
0,643
0,829
1
—0,306
0,090
0,390
0,612
0,923
1
—0,299
0,095
0,344
0,524
0,650
0,760
1
>
Проанализируем полученные данные под утлом зрения предполагаемой
стационарности случайной функции X (*)• Если судить непосредственно по
данным, полученным в результате обработки, то можно прийти к выводу, что
случайная функция X (<) стационарной не является: ее математическое ожи­
дание не вполне постоянно; дисперсия также несколько меняется со време­
нем; значения нормированной корреляционной функции вдоль параллелей
главной диагонали также не вполне-постоянны. Однако, принимая во внима­
ние весьма ограниченное число обработанных реализаций (я = 12) и в связи
с этим наличие большого элемента случайности в полученных оценках, этн
видимые отступления от стационарности вряд ли можно считать значимыми,
тем более, что они не носят сколько-нибудь закономерного характера. По­
этому вполне целесообразной будет приближенная замена функции X (<)
стационарной. Для приведения функции к стационарной прежде всего осредннм по времени оценки для математического ожидания:
'
тх= т* ^
‘‘‘
~ __о 0 2 .
Аналогичным образом осредним оценки для дисперсии:
£ х = = РЛ<-» + О А О Л ) ±
.± Р * ( 2 Л ) ю 0 > т
Извлекая корень, найдем осредненную оценку с. к. о.:
ах « 0,486.
Перейдем к построению нормированной корреляционной функции того
стационарного процесса, которым можно заменить случайную функцию X (().
Для стационарного процесса корреляционная функция (а значит, и нормиро­
ванная корреляционная функция) зависит только от * = V — *; следовательно,
426
СТАЦ И О Н АРН Ы Е СЛУЧАЙНЫ Е
Ф УН К Ц И И
(ГЛ .
17
при постоянном т корреляционная функция должна быть постоянной. В таб­
лице 17.1.3 постоянному х соответствуют: главная диагональ (х = 0) и парал­
лели этой диагонали (т = 0,4; т — 0,8; х = 1,2 и т. д.). Осредняя оценки нор­
мированной корреляционной функции вдоль этих параллелей главной диагонали,
получим значения функции р* (г):
г
0,4
0
0 ,8
1,2
2 ,0
2,4
—0 ,1 0
—0,30
1,6
•
0,84
•1,00
р*(т)
0,38
0,60
0,13
График функции "рх (х) представлен на рис. 17.1.6.
При рассмотрении рис. 17.1.6 обращает на себя внимание наличие для
некоторых х отрицательных значений корреляционной функции. Это указывает
на то, что в структуре случайной функции имеется некоторый элемент пе*
риодичнссти, в связи с чем на расстоянии по времени, равном примерно
половине периода основных коле­
баний, наблюдается отрицательная
корреляция между значениями слу­
чайной функции: положительным
отклонениям от среднего в одном
сечении соответствуют отрица­
тельные отклонения через опре­
деленный промежуток времени, и
наоборот.
Такой характер корреляцион­
ной фу нкции, с переходом на отри­
цательные значения, очень часто
у
встречается на практике. Обычно
в таких случаях по мере увеличе­
ния х амплитуда колебаний корре­
ляционной функции уменьшается
и при дальнейшем увеличении х
Рис. 17.1.6,
корреляционная функция стре­
мится к нулю.
П р и м е р 2. Случайная функция X (/) задана совокупностью 12 своих
реализаций (рис. 17.1.7). Приближенно заменив функцию л (<) стационарной,
сравнить ее нормированную корреляционную функцию с функцией р^(х) пре­
дыдущего примера.
Р е ш е н и е . Так как случайная функция X (?) отличается значительно
менее плавным ходом по сравнению с функцией ,Х (<) предыдущего примера,
промежуток между сечениями уже нельзя брать равным 0,4 сек, как в пре­
дыдущем примере, а следует взять по крайней мере вдвое меньше Днапример, 0,2 сек, как на рис. 17.1.7). В результате обработки получаем оценку
для нормированной корреляционной функции
(х):
т
0
ы -о
1 ,0 0
рис.
0 ,2
0,4
0,73 0,41
0 ,6
0 ,2 2
0 ,8
1,0
1,2
1Д
1,6
1,8
2 ,0
2 ,2
2,4
—0,01 —0 ,2 0 —0,19 —0 ,1 0 -0,06 —0,15 0,08 0,19 0,05
График функции р* Н) представлен на рис. 17.1.8. Из сравнения графиков
17.1.8 и 17.1.6 видно, что корреляционная функция, изображенная
1М |
С П ЕК ТРА Л ЬН О Е
РА ЗЛ О Ж Е Н И Е
НА
КО Н Е Ч Н О М
УЧАСТКЕ
427
на рио, 17.1.8, убывает значительно быстрее. Это и естественно, так
как характер изменения функции X (?) в примере 1 гораздо более
Рис. 17.1.7,
плавный и постепенный, чем в примере 2 ; в связи с этим корреляция
между значениями случайной функции в примере 1 убывает медленнее.
При рассмотрении рис. 17.1.8
бросаются в глаза незакономерные
колебания функции р* (х) для боль- 1,,
ших значений х. Так как при боль- '
шик значениях т точки графика
получены осреднение« сравни­
тельно очень небольшого числа
данных, их нельзя считать надеж­
ными. В подобных случаях имеет
смысл сгладить корреляционную
функцию, как, например, показано
пунктиром на рис. 17.1.8.
17.2. Спектральное разложе­
ние стационарной случайной
функции на конечном участке
времени. Спектр дисперсий
На двух примерах, приве­
денных в предыдущем п°, мы
наглядно убедились в том, что существует связь между характером кор- '
реляционной функции и внутренней структурой соответствующего '
ей случайного процесса. В зависимости от того, какие частоты и
428
С ТАЦ И О Н АРН Ы Е
СЛУЧАЙНЫ Е
Ф УН К Ц И И
{Г Л . 17
в каких соотношениях преобладают в составе случайной функции, ее
корреляционная функция имеет тот или другой вид. Из таких сооб­
ражений мы непосредственно приходим к понятию о спектральном
составе случайной функции.
• Понятие «спектра» встречается не только в теории случайных
функций; оно широко применяется в математике, физике и технике.
№
Л }
' - 'Л
Г\
" V
\У
Рис. 17.2.1.
Если какой-либо колебательный процесс представляется в виде
суммы гармонических колебаний различных частот (так называемых
«гармоник»), то спектром колебательного процесса называется функ­
ция, описывающая распределение амплитуд по различным частотам.
Спектр показывает, какого рода колебания преобладают в данном
процессе, какова его внутренняя структура.
Совершенно аналогичное спектральное описание можно дать и
стационарному случайному процессу; вся разница в том, что для слу­
чайного процесса ампли,кх (Т)
туды
колебаний будут
случайными величинами.
Спектр стационарной слу­
чайной функции будет
описывать распределе~
ние дисперсий по раз­
личным частотам.Подойдем к понятию
о спектре стационарной
Рис. 17.2.2.
случайной функции из
следующих соображений.
Рассмотрим стационарную случайную функцию X (?), которую мы
наблюдаем на интервале (О, Т) (рис. 17.2.1).
Задана корреляционная функция случайной функции X (()
К х ((,
=
Функция к х (т) есть четная функция:
и, следовательно,
(рис. 17.2.2).
на графике
изобразится
симметричной
кривой
17.21
СП ЕК ТРА Л ЬН О Е
РА ЗЛ О Ж Е Н И Е
Н А КОНЕЧНОМ
УЧАСТКЕ
429
При изменении 4 и ^ от 0 до Г аргумент х — /' -— t изменяется
от — Т до -{-7'.
Мы знаем, что четную функцию на интервале (— Т, Т) можно
разложить в ряд Фурье, пользуясь только четными (косинусными)
гармониками:
(1 7 .2 .1 )
kx (х )— 2 & k cos
k~0
где
2те
л
W
у ,
(1 7 .2 .2 )
а коэффициенты D k определяются формулами:
т
1
I к х (х)dx,
-т
т
f
D R~ y
(1 7 .2 .3 )
kx (х) cos <оАх cfx
при
kф
0
.
Имея . в виду, что функции к х {х) и соэш^х четные, можно пре­
образовать формулы (17.2.3) к виду:
т
(17.2.4)
Г
D k — ~ f j A r (x) cos ® ftx dx
2
при
k Ф 0.
Перейдем в выражении (17.2.1) корреляционной функции kx(x)
от аргумента х снова к двум аргументам t и t'. Для этого положим
cos шкх — cos u>k ( t' — t) = cos mktr cos
sin u>
kt
(17.2.5)
и подставим выражение (17.2.5) в формулу (17.2.1):
СО
К (t, 0 = 2 (£ * cos
,к=О
cos <oftf -}-£>* sin
sin шА/).
(17.2.6)
Мы видим, что выражение (17.2.6) есть не что иное, как к а н о ­
ническое
р а з л о ж е н и е корреляционной функции К х (t, t').
Координатными функциями этого канонического разложения являются
попеременно косинусы и синусы частот, кратных о^:
cos u>kt, sini»A£
(й =
0
,
1,
...).
430
СТАЦИОНАРНЫЕ СЛУЧАЙНЫ Е ФУНКЦИ И
[ГЛ. 17
Мы знаем, что по каноническому разложению корреляционной
функции можно построить каноническое разложение самой случайной
функции с теми же координатными функциями и с дисперсиями,
равными коэффициентам D k в каноническом разложении корреля­
ционной функциих).
Следовательно, случайная функция X (/) может быть представлена
в виде канонического разложения:
СО
■ £ ( 0 = 2 (^ а cos u>^4-Vftsin Юьt),
* =0
(17.2.7)
. .
где U k, V k — некоррелированные случайные величины с математи­
ческими ожиданиями, равными нулю, и дисперсиями, одинаковыми для
каждой пары случайных величин с одним и тем же индексом k:
D [ U k] = D \V l!] = D k.
(17.2.8)
Дисперсии D j при различных к определяются формулами (17.2.4).
Таким образом, мы получили на интервале (0, Т) каноническое
о
разложение случайной функции X (t ), координатными функциями
которого являются функции cos u)kt, sin u->
kt при различных
Раз­
ложение такого рода называется спектральным разложением ста­
ционарной случайной функции. На представлении случайных функций
в виде спектральных разложений основана так называемая сп ект­
ральная тео р и я стационарных случайных процессов.
Спектральное разложение изображает стационарную случайную
функцию разложенной на гармонические колебания различных частот:
«>1. “ 2- ••■■
........
причем амплитуды этих колебаний являются случайными величинами.
о
Определим дисперсию случайной функции X ( t), заданной спек­
тральным разложением (17.2.7). По теореме о дисперсии линейной
функции некоррелированных случайных величин
СО
D x — D \ X (0 ] = 2 (cos2V
ft=o
со
+ sin* u>ft0 £>* = 2 0 * .
i=o ■
(17.2.9)
Таким образом, дисперсия стационарной случайной функции
равна сумме дисперсий всех гармоник ее спектрального разло-
жения.
о
Формула (17.2.9) показывает, что дисперсия функции X (t)
х) Можно доказать, что для любой корреляционной функции ^.(т) коэф­
фициенты О*, выражаемые формулами (17.2.4), неотрицательны.
17.3]
С П ЕК ТРА Л ЬН О Е РА ЗЛ О Ж Е Н И Е
Н А Б Е С К О Н Е Ч Н О М УЧАСТКЕ
431
известным образом распределена по различным частотам: одним частотам соответствуют ббльшие дисперсии, другим — меньшие. Распределение дисперсий по частотам
^
можно проиллюстрировать
графически в виде так назы­
ваемого спектра стационар­
ной случайной функции (точ­
нее — спектра
дисперсий).
Для этого по оси абсцисс от­
■1 —±_йУ
кладываются частоты ш0 = О,
О Ц Шг Ш3
, а по
«Ор ш2 ........
оси ординат— соответствуюРис. 17.2.3.
щие дисперсии (рис. 17.2.3).
Очевидно, сумма всех ординат построенного таким образом
спектра равна дисперсии случайной функции.
17.3.
Спектральное разложение стационарной
случайной функции на бесконечном участке времени.
Спектральная плотность стационарной случайной функции
Строя спектральное разложение стационарной случайной функо
ции X (() на конечном участке времени (О, Г ), мы получили спектр
дисперсий случайной функции в виде ряда отдельных дискретных
линий, разделенных равными промежутками (так называемый «пре­
рывистый» или «линейчатый» спектр).
Очевидно, чем больший участок времени мы будем рассматривать,
тем полнее будут наши сведения о случайной функции. Естественно
поэтому в спектральном разложении попытаться перейти к пределу
при Г- > о о и посмотреть, во что при этом обратится спектр случай2Т
С
ной функции. При Т->о о ш1= 2 уг-+ 0; поэтому расстояния между
частотами шй, на которых строится спектр, будут при Г- > о о не­
ограниченно уменьшаться. При этом дискретный, спектр будет при­
ближаться к непрерывному, в котором каждому сколь угодно малому
интервалу частот Дш будет соответствовать элементарная диспер­
сия АО (ш).
Попробуем изобразить непрерывный спектр графически. Для
этого мы должны несколько перестроить график дискретного спектра
при конечном Т. А именно, будем откладывать по оси ординат уже
не самую дисперсию О к (которая безгранично уменьшается при,
Г - * со), а среднюю плотность дисперсии, т. е. дисперсию, при­
ходящуюся на единицу длины данного интервала частот. Обозначим
расстояние между соседними частотами Да>;
9*
: Да)
2Т
432
С ТАЦ И О Н АРН Ы Е
СЛУЧАЙ Н Ы Е Ф УН К Ц И И
[ГЛ . 17
и на каждом отрезке Да>, как на основании, построим прямоугольник
с площадью О к (рис. 17.3.1). Получим ступенчатую диаграмму,
напоминающую по принципу построения гистограмму статистического
распределения.
Высота диаграммы на участке Ди>, прилежащем к точке шА, равна
2л
Ао)
(17.3.1)
и представляет собой среднюю плотность дисперсии на этом участке.
Суммарная площадь всей
ЗхСЩ)
диаграммы, очевидно, рав­
на дисперсии случайной
?71 -ПК
функции.
Будем неограниченно
увеличивать интервал Т.
При этом Дш—>-0, и сту­
пенчатая кривая будет не­
ограниченно приближать­
ся к плавной кривой 8Х (и>)
(рис. 17.3.2). Эта кривая
изображает
плотность
О
Ы. Аш
распределения дисперсий
по частотам непрерывного
Рис. 17,3.1.
спектра, а сама функция
Б х (со) называется спектральной плотностью дисперсии, или, короче,
о
спектральной плотностью стационарной случайной функции X (()
Очевидно, площадь, огра­
ниченная кривой 5 ж(т), попрежнему должна равняться
дисперсии
И х случайной
^х(ш)
функции X (£):
оо
О х = $ 5 ж (ю )^т. (17.3.2)
о
Формула (17.3.2) есть не
что иное, как разложение
дисперсии Б х на сумму
элементарных
слагаемых О
8Х («>) йш, каждое из кото­
рых
представляет
собой
дисперсию, приходящуюся на элементарный участок частот йш,
прилежащий к точке ш (рис. 17.3.2).
Таким образом, мы ввели в рассмотрение новую дополнительную
характеристику стационарного случайного процесса — спектральную
•• 17.3]
С П ЕК ТРАЛ ЬН ОЕ РА ЗЛ О Ж Е Н И Е
433
Н А БЕ СК ОН Е Ч НО М УЧАСТКЕ
,плотность, описывающую частотный состав стационарного процесса.
Однако эта характеристика не является самостоятельной; она пол­
ностью определяется корреляционной функцией данного процесса.
Подобно тому, как ординаты дискретного спектра D k выражаются
формулами (17.2.4) через корреляционную функцию kx (x), спектраль­
ная плотность S x (u>) также может быть выражена через корреляцион­
ную функцию.
Выведем это выражение. Для этого перейдем в каноническом
разложении корреляционной функции к пределу при Г —>оо и посмот­
рим, во что оно обратится. Будем исходить из разложения (17.2.1)
корреляционной функции в ряд Фурье на конечном интервале (— 7\ Г ):
;
.
ОО
kx
^ D k cos wkx,
(17.3.3)
'
А=О
где дисперсия, соответствующая частоте шй, выражается формулой
т
D k — y - f kx (x)coswkxdx.
(17.3.4)
о
Перед тем как переходить к пределу при Т->о о, перейдем
в формуле (17.3.3) от дисперсии D k к средней плотности дисперсии
1
. Так как эта плотность вычисляется еще при конечном значеД(й
нии Т и зависит от Т, обозначим ее:
=
(17.3.5)
Разделим выражение (17.3.4) на Дш = - у ; получим:
т
У* kx (х) cos шкх dx.
о
5jj.r>(a>*) =
(17.3.6)
Из (17.3.5) следует, что
b * = S in (<o*)Aa>.
(17.3.7)
Подставим выражение (17.3.7) в формулу (17.3.3); получим:
СО
kx (х) — 2
’(свл) cos <влх Дш.
(17.3.8)
fc = 0
Посмотрим, во что превратится выражение (17.3.8) при Г-> о о.
Очевидно, при этом Дш->0; дискретный аргумент u>s переходит
в непрерывно меняющийся аргумент ш; сумма переходит в интеграл
по переменной «>; средняя плотность дисперсии S x \iak) стремится
434
С Т А Ц И О Н А РН Ы Е С Л У Ч А Й Н Ы Е Ф У Н К Ц И Я
[ГЛ .
17
к плотности дисперсии S x (w), и выражение (17,3.8) в пределе при­
нимает вид:
СО
I
Sx (се) cos mt dm,
(17.3.9)
о
где S x (ю) — спектральная плотность стационарной случайной функции.
Переходя к пределу при Т —>сю в формуле (17.3.6), получим
выражение спектральной плотности через корреляционную функцию:
OQ
S x (ш) = -?- f
о
kx (х) cos шхdx. .
(17.3.10)
Выражение типа (17.3.9) известно в математике под названием
Интеграл Фурье есть обобщение разложения
в ряд Фурье для случая непериодической функции, рассматриваемой
на бесконечном интервале, и представляет собой разложение функции
на сумму элементарных гармонических колебаний с непрерывным
спектром V
Подобно тому как ряд Фурье выражает разлагаемую функцию
через коэффициенты ряда, которые в свою очередь выражаются через
разлагаемую функцию, формулы (17.3.9) и (17.3.10) выражают функ­
ции кх (х) и 5ж (<о) взаимно: одна через другую. Формула (17.3.9)
выражает корреляционную функцию через спектральную плотность;
.формула (17.3.10), наоборот, выражает спектральную плотность через
корреляционную функцию., Формулы типа (17.3.9) и (17.3.10),
связывающие взаимно две функции, называются преобразованиями
интеграла Фурье.
Ф у р ь е 2).
Таким образом, корреляционная функция и спектральная плот­
ность выражаются одна через другую с помощью преобразований
Фурье.
Заметим, что из общей формулы (17.3.9) при х = 0 получается
ранее полученное разложение дисперсии по частотам (17.3.2),
На практике вместо спектральной плотности S x (ш) часто поль­
зуются нормированной спектральной плотностью:
М<») = - Т 5 ~ .
(17.3.11)
где Dx — дисперсия случайной функции.
') Формула (17.3.9) является частным видом интеграла Фурье, обобщаю­
щим разложение в ряд Фурье четной функции по косинусным гармоникам.
Аналогичное выражение может быть написано и для более общего случая.
а) В данном случае мы имеем дело с частным случаем преобразований
Фурье — с так называемыми «косинус-преобразованиями Фурье».
17.3)
С П ЕК ТРА Л ЬН О Е Р А ЗЛ О Ж Е Н И Е
Н А Б Е С К О Н Е Ч Н О М УЧАСТКЕ
435
Нетрудно убедиться, что нормированная корреляционная функция
рх (т) и нормированная спектральная плотность вх (и ) связаны теми же
преобразованиями Фурье:
(ш ) СОв шт й ш ,
о
(17.3.12)
СО
ях (I») = ~ /
Рл М со*
йх.
Полагая в первом из равенств (17.3.12) т = 0 и учитывая, что
рх (0) — 1, имеем:
(и>) </«0 =
(17.3,13)
1,
т. е. полная площадь, ограниченная графиком нормированной спект­
ральной плотности, равна единице.
П р и м е р 1. Нормированная корреляционная функция р* (т) случайной
функции X (/) убывает по линейному закону от единицы до нуля при 0 < т < т0;
(О
при 1 > 1 0 рд. (х) = 0 (рис. 17.3.3). Определить нормированную спектральную
плотность случайной функции X (*).
Р е ш е н и е . Нормированная корреляционная функция выражается фор­
мулами:
/
т
при 0 < -с < т0,
, 1
= 1 ---- Р-г (х) 1
то
при ? > х0.
( ==О
Из формул (17.3.12) имеем:
Р.Г СО С05 “ т
И
:
ь0
СОБ <ЛХ Их г
ъ х йц>‘
(1 — СОЭ й)То).
436
С ТА Ц И О Н А РН Ы Е СЛУЧАЙ Н Ы Е Ф УН К Ц И И
[ГЛ .
17
График нормированной спектральной плотности представлен на рис. 17.3.4.
Первый — абсолютный — максимум спектральной плотности достигается
при <о= 0 ; раскрытием неопределенности в этой точке убеждаемся, что он
равен
Далее при возрастании « спектральная плотность достигает ряда
относительных максимумов, высота которых убывает с возрастанием а>;
При о) —> СО 5д-(<о)-> 0.
Характер изменения спектральной плотности $.*■(<«>) (быстрое или медлен­
ное убывание) зависит от параметра т0. Полная площадь, ограниченная кри­
вой 5 х (и>), постоянна и равна единице. Изме$
нение т0 равносильно изменению масштаба кри­
вой 5 Г («) по обеим.осям при сохранении ее
площади. При увеличении т0 масштаб по оси
ординат увеличивается, по оси абсцисс —
уменьшается; преобладание в спектре случай­
ной функции нулевой частоты становится бо­
лее ярко выраженным. В пределе при т0 -»•со
случайная функция вырождается в обычную
случайную величину; при этом рх (-):=■ 1 , а
спектр становится дискретным с одной-единственной частотой ш0 = О.
ш
г
О
П р и м е р 2. Нормированная спектральная
плотность 5 ж(ю) случайной функции X (() по­
Рис. 17.3.5.
стоянна на некотором интервале частот » 1, щ
и равна нулю вне этого интервала (рис. 17.3.5).
Определить нормированную корреляционную функцию случайной функ­
ции X (7).
Р е ш е н и е . Значение зх (в>) при « 1 < а>< о>2 определяем из условия,
что площадь, ограниченная кривой
(м), равна единице:
sx (w) (ша — “ i) =* 1 > s * (® ):
1
<«2 -
Из (17.3.12) имеем: ■
UJj
?х (х) :
I
1
Sx ( t o ) C O S COT d m :
co2 •
(31П <02t -- S in (O jT) :
cos <ot du>=
T( 0)2 — W[)
COS
sin
Общий вид функции px (') изображен на рис. 17.3.6. Она носит характер
убывающих по амплитуде колебаний с рядом узлов, в которых функция обра­
щается в нуль. Конкретный вид графика, очевидно, зависит от значений о>], ш2.
Представляет интерес предельный вид функции рх (т) при со,-> <л2- Оче­
видно, при (о2 = ю, = (о спектр случайной функции обращается в дискретный
с одиой-единственной линией, соответствующей частоте ш; при этом корре­
ляционная функция обращается в простую косинусоиду:
Рх С1) = cos °>тПосмотрим, какой вид в этом случае имеет сама случайная функция ЛГ (<)!
При дискретном спектре с одной-единственной линией спектральное разложе­
ние стационарной случайной функции X (t) имеет вид:
X ( t ) — U cos W - f - V sin ait,
(1 7.3.1 4)
17.3]
СП ЕК ТРА Л ЬН О Е РА ЗЛ О Ж Е Н И Е
Н А БЕ СК ОН Е Ч НО М УЧАСТКЕ
437
где U и V — некоррелированные случайные величины с математическими
ожиданиями, равными нулю, и равными дисперсиями:
D [ U] — D [F ] = D.
Покажем, что случайная функция типа (17.3.14) может быть предста­
влена как одно гармоническое колебание частоты ш со случайной ампли­
тудой и случайной фазой. Обозначая
cos Ф = ■ и
Y u 2+ v * '
• Ф
- •
sin
V
■
Y u * + К* ’
приводим выражение (17.3.14) к виду:
х (<) = Y u * 4"
(cos ® cos
-Ь sin ® sin “ 0 —
cos (о><— Ф).
&>этом выражении | ^ ( / 2 - ) - ^ 2 — случайная амплитуда; Ф — случайная фаза
гармонического колебания.
До сих пор мы рассматривали только тот случай, когда распре­
деление дисперсий по частотам является непрерывным, т. е. когда
на бесконечно малый участок частот приходится бесконечно малая
дисперсия. На практике иногда встречаются случаи, когда случайная
функция имеет в своем составе чисто периодическую составляющую
частоты (oft со случайной амплитудой. Тогда в спектральном разло­
жении случайной функции, помимо непрерывного спектра частот,
будет фигурировать еще отдельная частота u>ft с конечной диспер­
сией D k. В общем случае таких периодических составляющих может
быть несколько. Тогда спектральное разложение корреляционной
функции будет состоять из двух частей: дискретного и непрерывного
спектра:
ОО
kx{i) ~ ' ^ D k cos
-f-
J Sx (u>)cos
cot
du>.
(17.3.15)
438
С ТАЦ И О Н АРН Ы Е СЛУЧАЙН Ы Е Ф У Н К Ц И И
[ГЛ .
I?
Случаи стационарных случайных функций с таким «смешанным»
спектром на практике встречаются довольно редко. В этих случаях
всегда имеет смысл разделить случайную функцию на два слагае­
мых— с непрерывным и дискретным спектром — и исследовать эти
слагаемые в отдельности.
Относительно часто приходится иметь дело с частным случаем,
когда конечная дисперсия в спектральном разложении случайной
функции приходится на нулевую частоту (в>==0). Это значит, что
в состав. случайной функции в качестве Слагаемого входит обычная
случайная величина с дисперсией £)0. В подобных случаях также имеет
смысл выделить это случайное слагаемое и оперировать с ним отдельно.
17.4. Спектральное разложение случайной функции
в комплексной форме
В ряде случаев с точки зрения простоты математических пре­
образований оказывается удобным пользоваться не действительной,
а комплексной формой записи как спектрального разложения слу­
чайной функции, так и ее характеристик: спектральной плотности
и корреляционной функции. Комплексная форма записи удобна,
в частности, потому, что всевозможные линейные операции над функ­
циями, имеющими вид гармонических колебаний (дифференцирование,
интегрирование, решение линейных дифференциальных уравнений
и т. д.). осуществляются гораздо проще, когда эти гармонические
колебания записаны не в виде синусов и косинусов, а в комплекс­
ной форме, в виде показательных функций. Комплексная форма записи
корреляционной функции и спектральной плотности применяется и
в тех случаях, когда сама случайная функция (а следовательно, и ее
корреляционная функция и спектральная плотность) действительна.
Покажем, как можно в спектральном разложении случайной функ­
ции чисто формально перейти от действительной формы к комплексной.
Рассмотрим спектральное разложение (17,2.8) случайной функции
X (*)' на участке (0, 7):
X (() — 2 (1}к сое
*=о
+
<«*0.
(17.4.1)
где и к, У к — некоррелированные случайные величины, причем для
каждой, пары и к, У к с одинаковыми индексами дисперсии равны:
Учитывая, что ®к — Ы х\ и>0 = 0, перепишем выражение (17.4.1)
в виде:
X (/) = £/д—
{—^ ( I / к соэ (ок( -4~V к эШ о>ьО*
(17.4.2)
17.4]
СП ЕК ТРА Л ЬН О Е
РА ЗЛ О Ж Е Н И Е В КОМ П Л ЕК СН О Й Ф ОРМ Е
439
Придадим спектральному разложению (17.4.2) комплексную форму.
Для этого воспользуемся известными формулами Эйлера:
im.t , -kobt
е к +е
*
COS <s>*
t t = ------- --------- ’
—
2
е1ш*( — е
8 ]П 0)4/ =
~
"
---- - % ----- = — / ------ 2 ----- •
Подставляя эти выражения в формулу (17.4.2), имеем:
^Г(/) = £/0Н - 2
— =г-—
к-1
)- <17-4-3>
т. е. разложение с координатными функциями е‘'“к1, е~,ть<.
Преобразуем разложение (17.4.3) так, чтобы в нем в качестве
координатных функций фигурировали только функции е'“У ; для
этого распространим условно область частот <оА на отрицательные
значения ш и в качестве частот спектрального разложения будем
рассматривать значения
"А
т. е. будем считать, что к принимает не только положительные, но
и отрицательные значения. Тогда формулу (17.4.3) можно переписать
в виде;
ОО
—00
=
^ -^£+1^*-*<вУ , (17.4.4)
*=-]
*= 1
если положить
и . ь = и л; У ^ = : У Й.
Формула (17.4.4) представляет собой разложение случайной функ­
ции X ((), в котором в качестве координатных функций фигурируют
комплексные функции
а коэффициенты представляют собой
комплексные случайные величины.. Обозначая эти комплексные слу­
чайные величины V? к (& = ± 1 , ± 2, . . придадим разложению (17.4.4)
форму:
о
*<0=
00
УР**1“*'.
к—- со
2
(17.4.5)
где
№ }1= и ()
при к = О,
(17.4.6)
440
С ТАЦ И О Н АРН Ы Е СЛ У ЧА Й Н Ы Е Ф УН К Ц И И
[ГЛ .
17
Докажем, что разложение (17.4.5) является каноническим раз­
ложением случайной функции X Ц). Для этого достаточно показать,
что случайные коэффициенты этого разложения не коррелированы
между собой.
Рассмотрим сначала коэффициенты двух различных членов раз­
ложения в положительной части спектра
и
при Ыф1, А > 0,
/ > 0 и определим корреляционный момент этих величин. Согласно
определению корреляционного момента для комплексных случайных
величин (см. п° 15.9) имеем:
где и^г — комплексная сопряженная величина для
При А > 0, / > 0
кн — М [
и -к
{ {М [ В д ] + Ш [ и ^ ] - Ш
[ и у л] + М [У кУ {]} = о,
так как случайные величины . £/й, У к, фигурирующие в разложении
(17.4.1), все не коррелированы между собой.
Совершенно так же докажем некоррелированность величин № к, №1
при любых знаках индексов А и /, если к ф + 1.
Остается доказать только некоррелированность коэффициентов
при симметричных членах разложения, т. е. величин \Рк и
при
любом А. Имеем:
____
= Ж [ Г ЙГ _ , ] = =
= м [ -У » - 1
У-Ь■
- *.] =
“ ТИ
1(ик - IV кУ] =
[и\\ - М [У2к] - 21М [ и кУк]}.
Учитывая, что величины и к, У к, входящие в один и тот же член
разложения (17.4.1), не коррелированы и имеют одинаковые диспер­
сии О к, получим:
К * .- * = т { Д , - Д * - 2 ' - 0 } = = 0 .
Таким образом, доказано, что разложение (17.4.5) представляет
собой не что иное, как к а н о н и ч е с к о е р а з л о ж е н и е с л у ч а й о
н о й ф у н к ц и и X (/)
.
с
комплексными
координатными
ф у н к ц и я м и V “ ** и к о м п л е к с н ы м и к о э ф ф и ц и е н т а м и № к.
Найдек дисперсии этих коэффициентов. При к = 0 дисперсия Е>0
осталась, очевидно, такой же, как была при действительной форме
17.4]
441
СП ЕК ТРА Л ЬН О Е РА ЗЛ О Ж Е Н И Е В К ОМ П Л Е К СН О Й Ф ОРМ Е
спектрального разложения. Дисперсия каждой из комплексных вели­
чин
(при А Ф 0) равна сумме дисперсий ее действительной и мни­
мой частей:
РШ ь]
—
4Г^~
Р [ У Л]
‘
4
2 Р [Ц к]
—
4
Рк
—
2
*
Введем обозначение:
А& = - ^
при А Ф 0; 0 1 — 0 0 при & = 0
и построим дискретный спектр случайной функции X (^),
страненный на частоты от — со до 4 - ° ° (рис. 17.4.1).
распро­
в:
.
т
!
-ш3 -Ыг -Ы, 0 О), шг ш3
У»
Рис. 17.4.1.
Этот спектр симметричен относительно оси , ординат; от ранее
построенного спектра (рис. 17.2.3) он отличается тем, что определен
не только для положительных, но и для отрицательных частот, но
зато его ординаты при & Ф 0 вдвое меньше соответствующих орди­
нат прежнего спектра; сумма всех ординат по-прежнему равна дис­
персии случайной функции X (£):
(17.4.7)
Определим корреляционную функцию случайной функции Х .((),
представленной в виде комплексного спектрального разложения (17.4.5).
Применяя формулу (16.2.15) для корреляционной функции комплекс­
ной случайной функции, заданной каноническим разложением, имеем:
442
С ТА Ц И О Н А РН Ы Е
С ЛУЧАЙ Н Ы Е
Ф УН К Ц И И
[Г Л .
17
"или, пе'реходя к аргументу х — У — t,
А С * ) 3“
2
к =
где
-
(17.4.8)
со
т
Р к ~ \ : Р / , = у У* А* (х) соб <ойх й?х при А =£ 0.
(17.4.9)
о
Придадим выражению (17.4.9) также комплексную форму. По­
лагая
е1шь' + е-1аь'
созшАх = -----ь ----- ,
получим:
т
01 =
±
/
кх (т) ( « ' V + е- '«V ) с1, =
о
| г
/ кх (х)
Г
)
йх -+■/ кх (х) / V <*х .
о
и
)
Полагая во втором интеграл« т = — и, имеем:
т
,-т
о
/ К (X) е<в*т йх = — / кх (и) е~ык“ аи =
0
0
/ кх (х) е~*т*' йх,
-Г
откуда
Т
01 = — / кх (х)е~ы*'(1х.
(17.4.10)
-V
Таким образом, мы построили комплексную форму спектрального
разложения случайной функции на конечном интервале (О, Т). Далее
естественно перейти к пределу при Т-> оо, как мы делали для
действительной формы, т. е. ввести в рассмотрение спектральную
плотность
■
,
г;
5 ,(0 » )= Иш
Дш->0 Аа>
и получить в пределе из формул (17.4.8), (17.4.10) интегральные соот­
ношения, связывающие корреляционную функцию и спектральную плот­
ность в комплексной форме. В пределе при Г->оо__формулы (17.4.8)
17.4]
СП ЕК ТРА Л ЬН О Е
РА ЗЛ О Ж Е Н И Е В К ОМ П Л Е К СН О Й Ф ОРМ Е
443
И (17.4.10) принимают вид:
СО
kx (x)z= J<S^((o) eia,zdu>,
(17.4.11)
— СО
оо
f
kx (T)e-l“ dx.
(17.4.12)
— СО
Формулы (17.4.11) и (17.4.12) представляют собой комплексную
форму преобразований Фурье, связывающих корреляционную функ­
цию и спектральную плотностьх).
Формулы (17.4.11) и (17.4.12) могут быть и непосредственно
получены из формул (17.3.9) и (17.3.10), если произвести в них
замену
•
A n i.- t™
COS сот = -- ------- ,
положить S x (со) = 2 S I (со) и расширить область интегрирования на
интервал от — оо до + оо.
Полагая в формуле (17.4.11) т = 0, получим выражение диспер­
сии случайн-ой функции X (t):
СО
Dx=
JS x (» )d « o .
—оо ,
(17.4.13)
Формула (17.4.13) выражает дисперсию случайной функции в виде
суммы элементарных дисперсий, распределенных с некоторой плот­
ностью по всему диапазону
частот от — оо до -j-oo.
Сравнивая
формулу
(17.4.13) и ранее выведен­
ную
(для действительной
формы спектрального раз­
ложения) формулу (17.3.2),
мы видим, что они разли­
чаются лишь тем, что в фор­
муле
(17.4.13) стоит не­
сколько иная функция спе­
ктральной плотности S x(to),
Рис. 17.4.2.
определенная не от 0 до
оо, а от — оо до оо, но зато с вдвое меньшими ордина­
тами. Если изобразить обе функции спектральной плотности на
') Заметим, что в главе 13, рассматривая характеристические функции,
мы уже встречались с преобразованиями такого типа, а именно: характеристи­
ческая функция и плотность вероятности выражаются одна через другую
с помощью преобразований Фурье.
444
С ТАЦ И О Н АРН Ы Е
СЛУЧАЙНЫ Е
ФУНКЦИИ'
[ГЛ , 17
графике, они различаются только масштабом по оси ординат и тем,
что функция 5^ (ш) для
отрицательных частот не определена
(рис. 17.4.2). На практике в качестве спектральной плотности при­
меняются как та, так и другая функции.
Иногда в качестве аргумента спектральной плотности рассмат­
ривают не круговую частоту (со), а частоту колебаний / , выражен­
ную в герцах:
со
Я
йГ*
В этом случае подстановкой и>=
водится к виду:
21т/
формула (17.4.11) при­
00
к х ( т) =
( 2тс/ )
« ? /.
—со
или, вводя обозначение
Ол (/ ) = 2тг5'_’ (2тг/),
СО
=
{
Ох ( Л « 2к1/' й / .
-
(17.4.14)
Функция Ох (/) также может применяться как спектральная
плотность дисперсии. Ее выражение через корреляционную функцию,
очевидно, имеет вид:
СО
< ?*(/)= / кх (т)
</т.
(17.4.15)
— 00
Все приведенные нами и некоторые
другие применяемые на практике вы­
ражения спектральной плотности, оче­
видно, отличаются друг
от друга
только масштабом. Каждую из них
можно нормировать, деля соответству­
ющую функцию спектральной плот­
ности на дисперсию случайной функции.
П р и м е р 1. Корреляционная функция случайной функции X (<) задана
формулой:
кх {х) = Де-“ 1'с11
где а > 0 (рис. 17.4.3).
Пользуясь комплексной формой преобразования
спектральную плотность ^ (ш ).
(17.4.16)
Фурье, определить
!7.«1
СП ЕК ТРА Л ЬН О Е РА ЗЛ О Ж Е Н И Е В К ОМ П Л Е К СН О Й Ф ОРМ Е
445
Р е ш е н и е . По формуле (17.4.12) находим:
/
3> ) = ^
=
— СО
[
ч'
0
см
^ е™е~1 т аг +
^
+ /
— 1 „
= _Оо гГ_____
Р
Г
"И а -)- /и
1
2п [ а — ш
1
а
Г
—(а+ /ш)т
-(а —/а>) т
2я [ а — /ш
И
Ы]
Ра
тс (а2 4 “ 0>2)
График спектральной плотности
Оа
£ ( » ') - я (а2 се2)
представлен на рис. 17.4:4.
Посмотрим, как будут вести себя корреляционная функция и спектраль­
ная плотность при изменении а.
При уменьшении а корреляционная функция будет убывать медленнее;
характер изменения случайной функции становится более плавным; соответ­
ственно в спектре случайной функции ббльший удельный вес приобретают
малые частоты: кривая спектральной плотности вытягивается вверх, одновре­
менно сжимаясь с боков; в пределе при а ->0 случайная функция выродится
в обычную случайную величину с дискретным спектром, состоящим из един­
ственной линии с частотой <% = 0 .
При увеличении а корреляционная функция убывает быстрее, характер
колебаний случайной функции становится более резким и беспорядочным;
соответственно этому в спектре
менее выраженным; при а >со спектр случайной функции приближается к
равномерному (так называемому «белому») спектру, в котором нет преоб­
ладания каких-либо частот.
446
[ГЛ. 17
С ТА Ц И О Н А РН Ы Е С ЛУЧАЙ Н Ы Е Ф УН К Ц И И
П р и м е р 2. Нормированная корреляционная функция случайной функ­
ции X {{) имеет вид:
Р* (т) = в- “ 111 сов рх
(рис. 17.4.5).
Определить нормированную спектральную плотность.
Р е ш е н и е . Представляем $х (г) в комплексной форме:
Рх (г) = е~
е1^ -\-е~
Нормированную спектральную плотность 5* (а) находим по формуле (17.4.12),
подставляя в нее рх (х) вместо кх (х):
J f r I a-lpt
± 1 ----- e-iw dz :
*> )
j
ea‘! (el^ + e-lf‘!)e - im d i + f r " ( e ^ - f t “ '* )« - * “ * * J ,
откуда после элементарных преобразований получаем:
2 ^ {
а 2
(е ,
Р )2
+
а*+
(« . —
§ )*
}*
Вид грзфика спектральной плотности зависит от соотношения парамет­
ров а и р, т. е. от того, что преобладает в корреляционной функции: убывание
по закону г -® '’ ! или колеба­
S£(u)
ние по закону cos Рх. Очевидно,
при сравнительно малых а пре­
обладает колебание, при срав­
нительно больших а — убыва­
ние. В первом случае случайная
функция близка к периодиче­
ским колебаниям частоты р со
случайной амплитудой и фазой;
соответственно в спектре слу­
чайной функции преобладают
__ частоты, близкие к частоте р.
-2 \ В
+2
и Во втором случае спектраль­
ный состав случайной функции
Рис. 17.4.6.
более равномерен, преоблада­
ния тех или иных частот не
наблюдается; в пределе при а ->со спектр случайной функции приближается
к «белому» спектру.
В качестве иллюстрации на рис. 17.4.6 изображены нормированные
спектральные плотности для случаев:
1) Р = 2, а = 1 (кривая /); 2) р = 2, а = 3 (кривая 1Г). Как видно из
чертежа, при о = 1 спектр случайной функции обнаруживает ярко выраженный
максимум в области частот ш = ±р. При « = 3 (кривая II) спектральная
плотность в значительном диапазоне частот остается почти постоянной.
17.5]
'
П Р Е О Б РА ЗО В А Н И Е
С Т А Ц И О Н А РН О Й
ЛИНЕЙНОЙ
СИСТЕМ ОЙ
447
17.5. Преобразование стационарной случайной функции
стационарной линейной системой
В главе 16 мы познакомились с общими правилами линейных пре­
образований случайных функций, представленных в виде канони­
ческих разложений. Эти правила сводятся к тому, что при линейных
преобразованиях случайных функций их математические ожидания и
координатные функции Подвергаются тем же линейным преобразо­
ваниям. Таким образом, задача линейного преобразования случайной
функции сводится к задаче такого же линейного преобразования
нескольких неслучайных функций.
,
В случае, когда речь идет о линейных преобразованиях стацио­
нарных случайных функций, задачу удается упростить еще больше.
Если и входное воздействие X (() и реакция системы У (() стацио­
нарны, задачу преобразования случайной функции можно свести
к преобразованию одной-единственной неслучайной функции — спек­
тральной плотности <£х (ю).
Для того чтобы при стационарном воздействии реакция системы
могла быть тоже стационарной, очевидно необходимо, чтобы пара­
метры системы (например, входящие в нее сопротивления, емкости,
индуктивности и т. п.) были постоянными, а не переменными. Усло­
вимся называть линейную систему с постоянными параметрами
стационарной линейной системой. Обычно работа стационарной
линейной системы
описывается
Лй)
линейными
дифференциальными
уравнениями с постоянными коэф/\ /
фициентами.
Рассмотрим задачу о преоб- тх>кх(Т>
--- »»
разовании стационарной случайной функции стационарной линей­
ной системой. Пусть на вход ли­
нейной системы I поступает стационарная случайная функция X (();
реакция системы есть случайная функция У (() рис. (17.5.1). Известны
характеристики случайной функции X (/): математическое ожи­
дание /пх и корреляционная функция кх (ч). Требуется опреде­
лить характеристики случайной функции У (^) на выходе линейной
системы.
Так как для решения задачи нам придется преобразовывать не­
случайные функции — математическое ожидание и координатные функ­
ции, рассмотрим прежде всего задачу об определении реакции
системы £ на неслучайное воздействие х (£)•
Напишем, в операторной форме линейное дифференциальное
уравнение с постоянными коэффициентами, связывающее реакцию
448
С ТАЦ И О Н АРН Ы Е
С ЛУЧАЙ Н Ы Е Ф УН К Ц И И
[гл. а
системы у(£) с воздействием хЦ)\
(апРп + ап_1рп~1
. . . + а хр + а , ) у ^ ) ~
^ Ф т Р т + Ьт -хРт -1-\- ••• 4-&1Р +
6 0) ^ ( О .
(17.5.1)
где р = ~ ~ — оператор дифференцирования.
Уравнение (17.5.1) короче можно записать в виде:
К ( Р ) У { ( . ) = В т (р )х Ц ),
(17.5.2)
или, наконец, условно разрешая уравнение (17.5.2) относительно у(£),
записать оператор системы в «явном» виде:
у ( 0 = " т а г * (/)‘
(17-5-3)
Реакцию системы I на воздействие х{1) можно найти путем ре­
шения линейного дифференциального уравнения (17.5.1). Как известно
из теории дифференциальных уравнений, это решение состоит из
двух слагаемых: у ( (/) и Уи(0- Слагаемое у п (0 представляет собой
решение уравнения без правой части и определяет так называемые
свободные или собственные колебания системы. Это — колебания,
совершаемые системой при отсутствии входного воздействия, если
система в начальный момент как-то была выведена из состояния
равновесия. На практике чаще всего встречаются так называемые
устойчивые системы, в этих системах свободные колебания с тече­
нием времени затухают.
Если ограничиться рассмотрением участков времени, достаточно
удаленных от начала процесса, когда все переходные процессы
в системе можно считать законченными, и система работает в устано­
вившемся режиме, можно отбросить второе слагаемое у и (/) и огра­
ничиться рассмотрением только первого слагаемого у х(^). Это первое
слагаемое определяет так называемые вынужденные колебания си­
стемы под влиянием воздействия на нее заданной функции хЦ ).
В случае, когда воздействие х (^) представляет собой достаточно
простую аналитическую функцию, часто удается найти реакцию
системы также в виде простой аналитической функции. В частности,
когда воздействие представляет собой гармоническое колебание опре­
деленной частоты, система отвечает на него также гармоническим
колебанием той же частоты, но измененным по амплитуде и фазе.
Так как координатные функции спектрального разложения стацио­
нарной случайной функции X (/) представляют собой гармонические
колебания, то нам прежде всего необходимо научиться определять
реакцию системы на гармоническое колебание заданной частоты со.
Эта задача решается очень просто, особенно если гармоническое
колебание представлено в комплексной форме.
17.5]
П РЕ О Б РА ЗО В А Н И Е
С Т А Ц И О Н А РН О Й
ЛИНЕЙНОЙ
449
С И СТЕМ О Й
Пусть на вход системы поступает гармоническое колебание вида:
х Ц ) = еш .
(17.5.4)
Будем искать реакцию системы у(/) также в виде гармонического
колебания частоты со, но умноженного на некоторый комплексный
множитель Ф(/со):
у Ц ) = Ф {Ш )е ш .
(17.5.5)
Множитель Ф(/со) найдем следующим образом. Подставим функ­
цию (17.5.4) в правую, а функцию (17.5.5) в левую часть уравнения
(17.5.1). Получим:
Лп
а - [Ф (/о)) в1“ 1) + ап_,
* п~1
[Ф (/о)
+
...
••• + «1 Ж [Ф (ги)) еШ] + а° [Ф (Ло) еШ]
й ем + Ьщ. 1 -1—
т <ит
йС1~
. . . + &, Л - е^ ‘ -\-Ь0е ^ . (17.5.6)
(И
Имея в виду, что при любом &
еш = (/со)* еш ,
~
[Ф (/со) еш ] = (/со)* еш Ф (/«#),
и деля обе части уравнения (17.5.6) на еш , получим:
Ф(/ш) [а„(/со)п-|-ал_ 1(/со)"
а х(/ш) -4—а0]
= Ьт {Ш)т + Ьт _ х(Ш)т -1+
. . . + * 1 ( / « ) - М 0.
О 7-5-7)
Мы видим, что множитель при Ф (/со) представляет собой не что
иное, как многочлен А п(р) — а пр п-{- а п_ 1р"~ 1-\- . . . ■+• а хр -{—« 0,
в который вместо оператора дифференцирования р подставлено (/со);
аналогично правая часть равенства (17.5.7) есть не что иное, как
В т (1ш). Уравнение (17.5.7) можно записать в виде: ,
Ф (/со) Ап (/со) = В т (/со),
откуда
1
<1 7 -5 8 >
Функция Ф(/ш) носит специальное название часто тн о й х а р а к т е ­
ристика линейной системы. Для определения частотной характери­
стики достаточно в оператор системы, записанный в явной форме
(17.5.3), вместо оператора дифференцирования р подставить /со.
Таким образом, если на вход линейной системы с постоян­
ными п ар ам етрам и п оступ ает гармоническое колебание
вида еш , т о реакция системы представляется в виде того ж е
гармонического колебания, умноженного на ча сто тн ую х а р а к ­
те р и сти к у системы Ф (/со). Пусть на вход системы поступает воз­
действие вида
Х (() = и е ш ,
(17.5.9)
15 Теория вероятностей
450
С ТА Ц И О Н А РН Ы Е СЛ У ЧА Й Н Ы Е Ф У Н К Ц И И
(ГЛ
17
где и — некоторая величина, не зависящая от
В силу линейности
системы величина и выходит за знак оператора, и реакция системы
на воздействие (17.5.9) будет, равна:
у Ц ) = и Ф (Ш )е ш .
(17.5.10)
Очевидно, это свойство сохранится и в том случае, когда вели­
чина и будет случайной (лишь бы она не зависела от /).
Применим изложенные приемы преобразования гармонических ко­
лебаний линейной системой к математическому ожиданию случайной
функции X (?) и координатным функциям ее спектрального разло­
жения.
Представим математическое ожидание т х стационарной случайной
функции X (/) как гармоническое колебание нулевой частоты а>= 0
и положим в формуле (17.5.8) ш = 0:
ф<°>=-§л1=1г’
<17-5'и>
откуда получаем математическое ожидание на выходе системы:
т у*= *Т ;т *-
(17.5.12)
Перейдем к преобразованию линейной системой существенно слу­
чайной части функции X (£), а именно функции
Х у ) = * Х у ) — т х.
(17.5.13)
о
Для этого представим функцию X (() на участке (0, Т) в виде
спектрального разложения:
о
Х У )=
2
(17.5.14)
к * -оо
где I I к — некоррелированные случайные величины, дисперсии кото­
рых образуют спектр случайной функции X ({).
Рассмотрим отдельное слагаемое этой суммы:
Х к (() = и к е1У .
(17.5.15)
Реакция системы на это воздействие будет иметь вид:
У к ( 0 ^ и /гФ (Ш к) е 1шь‘.
(17.5.16)
Согласно принципу суперпозиции реакция системы на сумму воз­
действия равна сумме реакций на отдельные воздействия. Следова­
тельно, реакцию системы на воздействие (17.5.14) можно предста­
вить в виде спектрального разложения:
о
00
Г ( 0 == X
Ок Ф (/»*)**-*',
17.5]
ПРЕОБРАЗОВАНИЕ
СТАЦИОНАРНОЙ
ЛИНЕЙНОЙ
СИСТЕМОЙ
или, обозначая £/йФ (/«>л) = № к,
о
00
К(0= 2
451
(17.5.17)
А= - с о
где
— некоррелированные случайные величины с математическими
ожиданиями, равными нулю.
Определим спектр, этого разложения. Для этого найдем диспер­
сию комплексной случайной величины
в разложении (17.5.17).
Имея в виду, что дисперсия комплексной случайной величины равна
математическому ожиданию квадрата ее модуля, имеем.’
Р [ Г к] = М [ | и . Ф (/«*)121= М [ | £/* |*| Ф ( Ю
|2] =
= |Ф(/«о*)|аЛ1[|г/*|*] = |Ф (/ « * )| * Р * .
(17.5.18)
Мы приходим к следующему выводу: при преобразовании с т а •
ционарной случайной функции стационарной линейной систе­
мой к аж д ая из ординат ее спектра у м н о ж ае тся на к ва д р ат
модуля часто тн о й х ар актер и сти ки системы для со о тв е т­
ствующей ча сто ты .
Таким образом, при прохождении стационарной случайной функ­
ции через линейную стационарную систему ее спектр определенным
образом перестраивается: некоторые частоты усиливаются, некоторые,
напротив, ослабляются (фильтруются). Квадрат модуля частотной ха­
рактеристики (в зависимости от <ой) и показывает, как реагирует
система на колебания той или иной частоты.
Аналогично тому, как это делалось раньше, перейдем в спек­
тральном представлении случайной, функции к пределу при Г -> со
и от дискретного спектра — к спектральной плотности. Очевидно,
спектральная плотность на выходе линейной системы получается из
спектральной плотности на входе тем же умножением на |Ф (/о>) |2.
как и ординаты дискретного спектра:
5 у (со) = |Ф(/ш)|2 5 Л «)).
(17.5.19)
Таким образом, получено весьма простое правило:
При преобразовании стационарной случайной функции
стационарной линейной системой ее спектральная п лотн ость
ум н о ж ается на квад р ат модуля часто тн о й х ар актер и сти ки
системы.
*
Пользуясь этим правилом, мы легко можем решить поставленную
выше задачу: по характеристикам случайной функции на входе линей­
ной системы найти характеристики случайной функции на ее выходе.
Пусть на вход стационарной линейной системы с оператором
(17.5.3) поступает стационарная случайная функция X (I) с матема­
тическим ожиданием т^ и корреляционной функцией кх (т). Требуется
найти математическое ожидание т у и корреляционную функцию к у (^)
случайной функции У (*) на выходе системы.
15*
452
С ТАЦ И О Н АРН Ы Е СЛУЧАЙН Ы Е Ф У Н К Ц И И
[ГЛ .
17
Задачу будем решать в следующем порядке.
1. Находим математическое ожидание на выходе:
т у= -^-тх.
7
а0
(17.5.20)
2. По корреляционной функции йж (т) находим спектральную плот­
ность на входе (см. формулу (17.4.12)):
00
5 , ( ® ) = я г / * * (*)« - '* "Л 1)-
(17.5.21)
— СО
3. По формуле (17.5.8) находим частотную характеристику си­
стемы и квадрат ее модуля:
=
<17-5-22)
4. Умножая спектральную плотность на входе на квадрат моду­
ля частотной характеристики, находим спектральную плотность на
выходе:
_ 5 , (ш) = |Ф (/ю )|*$ , ( » ) .
(17.5.23)
5. По спектральной плотности 5 у (ш) находим корреляционную
функцию к у (х) на выходе системы:
СО
6у (х) — j S y (ш)
(17.5.24)
— 00
Таким образом, поставленная задача решена.
Во многих задачах практики нас интересует не вся корреляци­
онная функция Ау (т)- на выходе системы, а только дисперсия О у,
равная
О у = к у ( 0 ).
Тогда из формулы (17.5.24) получаем при т = 0 гораздо более
простую формулу:
СО
f 5 у (ш)йа),
— СО
или, учитывая четность функции З у (а>),
ОО
D y == 2J
о
(а)) йГ(о.
(17.5.25)
1)
Для простоты записи мы здесь опускаем знак * в обозначении спек­
тральной плотности.
17.51
П РЕ О Б РА ЗО В А Н И Е
С ТАЦ И О Н А РН О Й
ЛИНЕЙНОЙ
453
СИ СТЕМ О Й
Пр и ме р . Работа линейной динамической системы описывается линей­
ным дифференциальным уравнением первого порядка:
(<*!/>+ л0) у (0 = (&!/>+ Ь0) х (0,
(17.5.26)
ИЛИ
На вход системы поступает стационарная случайная функция X (Ц с ма­
тематическим ожиданием т х и корреляционной функцией
кх(г) = Охе~а1г],
(17.5.27)
где а — положительный коэффициент (см. пример 1 п° 17.4). Найти матема­
тическое ожидание т у и дисперсию £>у на выходе системы').
Р е ш е н и е . По формуле (17.5.20) имеем:
Ь0
Ч
«V = —- т х.
У
Очевидно, величина /лу не зависит от параметра а, растет при возра­
стании Ь0 и убывает при возрастании а0.
Спектральную плотность на входе определяем как в примере 1 п° 17.4:
я (а2 -)- (Й2)
(см. рис. 17.4.4).
По формуле (17.5.8) находим частотную характеристику системы:
, .. .
ф(т ) =
— —-
и квадрат ее модуля:
|Ф (/о>) |2 = I 1. -у -Т2
|й^1(й*-{“ |
= - 2 '2-,
.?•
Йд
Затем определяем спектральную плотность на выходе системы:
О , Й <"2 + 6о
а
(со) — I ф (га)) |2 5,- (<о) = — —5—5—— 5- — -- 2 •
■
к а\и> + вд а + “
Далее по формуле (17.5.25) определяем дисперсию на выходе:
2 0
,
£>у = — -
7 ь У + ЬI
-
/ -г г т -т -г г
- 2
*“ ■
•) Выбирая для корреляционной функции случайной функции Л' (/) выра­
жение типа (17.5.27), широко применяемое на практике вввду его простоты,
необходимо иметь в виду следующее. Строго говоря, случайная функция X (/),
имеющая корреляционную функцию такого вида, недифференцируема, и, сле­
довательно, для нее мельзя писать дифференциальные уравнения в обычном
смысле слова. Это затруднение можно обойти, если рассматривать выраже­
ние (17.5.27) для корреляционной функции только как приближенное.
454
С ТА Ц И О Н АРН Ы Е СЛУЧАЙНЫ Е Ф УН К Ц И И
[ГЛ
17
Для вычисления интеграла разложим подынтегральное выражение на
простые дроби:
Ь\«? + Ь2
0
а
_
й^ш2 -|-а о а2-)-®2
А
В
вдЧ - ®?“2
“24~ “2
и определим коэффициенты:
а\ь1-а\ь\
Л = а-
„2
’
ьу-ь1
В = а _2Л2
„2
О,*(2 ” * Й
л
После интегрирования получим:
е=
й140 + а0*1а
^ ------------------------------' •
в 0 °1 (а 1а 4" йо)
В заключение данного п° упомянем о том, как преобразуется
линейной системой 'стационарная случайная функция, содержащая в
качестве слагаемого обычную случайную величину: --
Х 1У) = и и+ Х У ) ,
(17.5.28)
где 1/0— случайная величина с дисперсией D 0, X (0 — стационарная
случайная функция.
Реакция системы на воздействие Х хф найдется как сумма реак­
ций на отдельные воздействия в правой части (17.5.28). Реакцию на
воздействие X (() мы уке умеем находить. Воздействие 1/0 мы рас­
смотрим как гармоническое колебание нулевой частоты ш = 0; со­
гласно формуле (17.5.11) реакция на него будет равна
Уо = ~ и ои0
-
(17.5.29)
Слагаемое К 0 просто прибавится к реакции системы на воздей­
ствие X (О-
17.6. Применения теории стационарных случайных процессов
к решению задач, связанных с анализом
и синтезом динамических систем
В предыдущем п° был рассмотрен вопрос, о преобразовании стаиионарной случайной функции стационарной линейной системой и
получены простые математические приемы решения этой задачи.
Преобразование случайной функции свелось к простейшему пре­
образованию (умножению на квадрат модуля частотной характеристи­
ки) одной-единственной функции: спектральной плотности. Такая про­
стота спектральной теории стационарных случайных процессов делает
ее незаменимым аппаратом при исследовании линейных динамических
систем, работающих в условиях наличия случайных возмущений (помех).
П РИ М ЕН Е Н И Я
Т Е О РИ И
С ТА Ц И О Н А РН Ы Х
455
П РОЦЕССОВ
Обычно при решении практических задач нас интересует не сама
ПО себе корреляционная функция к у (-с) на выходе системы, а связан­
ная с нею дисперсия
£>, = АУ( 0 ),
которая характеризует ошибки системы, вызванные поступающими на
нее случайными возмущениями, и во многих случаях может служить
критерием точности работы системы.
При исследовании динамических систем методами теории случай­
ных функций решаются два вида задач, которые можно назвать «пря­
мыми» и «обратными».
Прямая задача состоит в следующем. Анализируется ^заданная
линейная динамическая система с вполне определенными параметрами,
работа которой описывается линейным дифференциальным уравнением:
(а аР я + оа_ 1р а- 1+
••• + л 1/» + о0) У
~ { Ьт Р " 1+ Ьт~\Рт ~1+
( #) = 8
- Ь А / ’ + &о) *
,
(17.6.1)
Требуется исследовать точность работы системы при наличии на
ее входе стационарного случайного воздействия— так называемой
«стационарной помехи». Для этого прежде всего исследуется случай­
ная помеха, определяются ее корреляционная функция и спектральный
состав. Далее, описанными выше методами находятся спектр и дис­
персия случайной функции на выходе системы. Дисперсия на выходе,
очевидно, зависит как от характеристик случайного воздействия на
входе, так и от коэффициентов уравнения. Решая такую задачу,
можно оценить точность работы заданной системы в условиях раз­
личного рода помех.
Обратная задача состоит в том, чтобы так выбрать коэффициенты
уравнения (17.6.1), чтобы при заданном спектральном составе помеха
ошибки на выходе системы были минимальными. При заданных ха­
рактеристиках случайной функции (помехи) на входе системы диспер­
сия на выходе зависит от всей совокупности коэффициентов урав­
нения:
Оу = О у (а п, я „ _ ],
0^ ай, Ът , Ьт _ х,
Ь0).
Коэффициенты уравнения зависят от конструктивных параметров
системы, и некоторыми из них при проектировании системы можно
в достаточно широких пределах распоряжаться. Задача выбора рацио­
нальных значений этих параметров может быть решена исходя из
того требования, чтобы дисперсия й у была минимальна.
Следует оговориться, что на практике часто не удается пол­
ностью удовлетворить этому требованию. Действительно, выведенные
нами выражения для корреляционной функции и дисперсии на выходе
системы справедливы только для значений времени /, достаточно
удаленных от начала случайного процесса, когда все переходные
процессы в системе, связанные с ее свободными колебаниями, успели
456
С ТА Ц И О Н АРН Ы Е СЛУЧАЙ Н Ы Е Ф УН К Ц И И
[ГЛ
17
уже затухнуть. В действительности же часто приходится применять
линейные динамические системы (прицелы, счетно-решающие меха­
низмы, следящие системы и т. п.) на ограниченном участке времени;
при этом быстрота затухания переходных процессов в системе суще­
ственно зависит от ее конструктивных параметров, т. е. от тех же
коэффициентов уравнения (17.6.1), Если выбрать эти коэффициенты
так, чтобы они обращали в минимум дисперсию на выходе (для
достаточно удаленных моментов времени), это, как правило, приво­
дит к тому, что на выходе системы появляются другие ошибки, свя­
занные с тем, что переходные процессы в системе еще не успела
затухнуть. Эти ошибки обычно называют динамическими ошибками.
В связи с ограниченностью времени применения линейных систем
и наличием динамических ошибок на практике обычно приходится
решать задачу о ^щшш^дьдам. выборе: -параметров системы не на
чистом принципе Минимума дисперсии, а с учетом динамических оши­
бок. Рациональное решение задачи находится как компромиссное, при
котором, с одной стороны, дисперсия на выходе системы достаточно
мала, с другой стороны — динамические ошибки не слишком велики.
В случае, когда ищутся оптимальные параметры системы с учетом
как дисперсии, так и систематических динамических ошибок, часто
в качестве критерия точности работы системы выбирают второй на­
чальный момент а2 на выходе системы:
а2 =
0
, + /»*,
(17.6.2)
где / )у — дисперсия, т у — систематическая ошибка на выходе системы.
При этом параметры системы выбирают так, чтобы они обращали
в минимум величину а2.
Иногда в качестве критерия для оценки системы выбирают не
дисперсию и не второй начальный момент, а какую-либо другую
величину, связанную с целевым назначением системы. Например, при
исследовании прицельных устройств и систем управления, предназначеннных для стрельбы, к выбору их параметров часто подходят,
исходя из максимума вероятности поражения цели.
Упомянем еще об одифй типичной задаче, связанной с рациональ­
ным конструированием динамических систем. До сих пор мы рассмат­
ривали только задачу о рациональном выборе коэффициентов урав­
нения (17.6.1), самый же вид уравнения считался заданным. При
решении задач, связанных с так называемым синтезом динамических
систем, задача ставится более широко. В частности, ставится во­
прос о рациональном выборе самого вида уравнения или, еще шире,
задача об определении оптимального оператора динамической
системы. Такого рода задачи в настоящее время успешно решаются
методами теории случайных функций.
При решении практических задач, связанных с анализом и син­
тезом динамических систем, часто не удается ограничиться кругом
17.71
Э РГО Д И Ч Е СК О Е
С В О Й С ТВ О
С ТАЦ И О Н А РН Ы Х
ФУНКЦИЯ
457
стационарных случайных процессов и относящимся к нему аппаратом
спектральной теории. Однако в ряде случаев, несколько видоизменив
этот аппарат, можно применить его и для нестационарных процессов.
На практике часто встречаются так называемые «квазистационарные»
случайные функции и «квазистационарные» динамические системы;
они характерны тем, что изменения характеристик случайных функ­
ций и параметров системы со временем протекают сравнительно мед­
ленно. Для таких случайных процессов В. С. Пугачевым разработан
метод, по структуре мало отличающийся от спектрального, но при­
менимый в более широком диапазоне условий г).
17.7. Эргодическое свойство стационарных
случайных функций
Рассмотрим некоторую стационарную случайную функцию X (£)
и предположим, что требуется оценить ее характеристики: матема­
тическое ожидание т х и корреляционную функцию кх (т). Выше
(см. п° 15.4) были изложены способы получения этих характеристик
из опыта. Для этого нужно располагать известным числом реализа­
ций случайной функции X ((). Обрабатывая эти реализации, можно
найти оценки для математического ожидания т хф и корреляционной
функции К х (?. П . В связи с ограниченностью числа наблюдений
функция т х ( 0 не будет строго постоянной; ее придется осреднить
и заменить некоторым постоянным т х\ аналогично, осредняя значе­
ния К ХУ, У) для разных х — ( ' — /, получим корреляционную функ­
цию кх (х).
Этот метод обработки, очевидно, является довольно сложным
и громоздким и к тому же состоит из двух этапов: приближенного
определения характеристик случайной функции и также приближен­
ного осреднения этих характеристик. Естественно возникает вопрос:
нельзя ли для стационарной случайной функции этот сложный, двух­
ступенчатый процесс обработки заменить более простым, который
заранее базируется на предположении, что математическое ожидание
не зависит от времени, а корреляционная функция— от начала отсчета?
Кроме того, возникает вопрос: при обработке наблюдений над
стационарной случайной функцией является ли существенно необхо­
димым располагать н е с к о л ь к и м и реализациями? Поскольку случай­
ный процесс является стационарным и протекает однородно по временив
естественно предположить, что о д н а - е д и н с т в е н н а я р е а л и з а ­
ц и я достаточной продолжительности йожет служить достаточным опыт­
ным материалом для получения характеристик случайной функции.
') См. В, С. П у г а ч е в . Теория случайных функций и ее применение
к задачам автоматического управления, Физматгиз, 1962.
458
С ТАЦ И О Н АРН Ы Е С ЛУЧАЙ Н Ы Е Ф УН К Ц И И
[ГЛ.
17
При более подробном рассмотрении этого вопроса оказывается,
что такая возможность существует не для всех случайных процессов:
не всегда одна реализация достаточной продолжительности оказы­
вается эквивалентной множеству отдельных реализаций.
Для примера рассмотрим две стационарные случайные функции
А', (£) и Х 2(/). представленные совокупностью своих реализаций на
рис. 17,7.1 и 17.7.2.
Для случайной функции Х 1(() характерна следующая особенность:
каждая из ее реализаций обладает одними и теми же характерными
признаками: средним значением, вокруг которого происходят колеба­
ния, и средним размахом этих колебаний. Выберем произвольно одну
из таких реализаций и продолжим мысленно опыт, в результате
которого она получена, на некоторый участок времени Т. Очевидно,
при достаточно большом Т эта одна реализация сможет дать нам
достаточно хорошее представление о свойствах случайной функции
в целом. В частности, осредняя значения этой реализации вдоль оси
абсцисс — по времени, мы должны получить приближенное значение
математического ожидания случайной функции; осредняя квадраты
отклонений от этого среднего, мы должны получить приближенное
значение дисперсии, и т. д.
Про такую случайную функцию говорят, что она обладает эргодическим свойством. Эргодическое свойство состоит в том, что каж­
дая отдельная реализация случайной функции является как бы «пол­
номочным представителем» всей совокупности возможных реализаций;
17.71
Э РГО Д И Ч Е СК О Е
С В О Й С ТВ О
С ТАЦ И О Н А РН Ы Х
ФУНКЦИРГ
459
одна реализация достаточной продолжительности может заменить при
обработке множество реализаций той же общей продолжительностих).
Рассмотрим теперь случайную функцию Х 2У). Выберем произ­
вольно одну из ее реализаций, продолжим ее мысленно на доста­
точно большой участок времени и вычислим ее среднее значение по
времени на всем участке наблюдения. Очевидно, это среднее значе­
ние для каждой реализации будет свое и может существенно отли­
чаться от математического ожидания случайной функции, построенного
как среднее из множества реализаций. Про такую случайную функ­
цию говорят, что она не обладает эргодическим свойством.
Если случайная функция X (() обладает эргодическим свойством,
то для нее среднее по времени (на достаточно большом участке на­
блюдения) приближенно равно среднему по м ножеству наблю­
дений. То же будет верно и для Х 2{(), X (() ■X ((-+- т) и т. д. Сле­
довательно, все характеристики случайной функции (математическое
ожидание, дисперсию, корреляционную функцию) можно будет при­
ближенно определять по одной достаточно длинной реализации.
- Какие же стационарные случайные функции обладают, а какие
не обладают эргодическим свойством?
Поясним этот вопрос наглядно, исходя нз примера. Рассмотрим
случайную функцию а ф — колебания угла атаки самолета на уста­
новившемся режиме горизонтального полета. Предположим, что по­
лет происходит в каких-то типичных средних метеорологических усло­
виях. Колебания угла атаки вызваны случайными возмущениями, свя­
занными с турбулентностью атмосферы. Среднее значение угла атаки,
около которого происходят колебания, зависит от высоты полета Н.
Зависит от этой высоты и размах колебаний: известно, что в нижних
слоях атмосферы турбулентность сказывается сильнее, чем в верхних.
Рассмотрим случайную функцию а (О — колебания угла атаки на
з а д а н н о й высоте Н . Каждая из реализаций этой случайной функ­
ции осуществляется в результате воздействия одной и той же группы
случайных факторов и обладает одними и теми же вероятностными
характеристиками: случайная функция а (^) обладает эргодическим
свойством (рис. 17.7.3).
Представим себе теперь, что рассматривается случайная функция
а (?) не для одной высоты Н , а для целого диапазона, внутри кото­
рого задан какой-то закон распределения высот (например, закон
равномерной плотности). Такая случайная функция, оставаясь стацио­
нарной, очевидно, уже не будет обладать эргодическим свойством; ее
возможные реализации, осуществляющиеся с какими-то вероятностями,
имеют различный характер (рис. 17.7.4).
*) Строго говоря, следовало бы сказать не* «каждая отдельная реализа­
ция», а «почти каждая». Дело в том, что в отдельных случаях могут по­
являться реализации, не обладающие таким свойством, но вероятность по­
явления такой реализации равна нулю.
460
СТАЦ И О Н АРН Ы Е СЛУЧАЙ Н Ы Е Ф УН К Ц И И
ГГЛ.
17
Для этого случайного процесса характерно то, что он как бы
«разложим» на более элементарные случайные процессы; каждый из
них осуществляется с некоторой вероятностью и имеет свои индиви­
дуальные
характеристики.
Таким образом,
разложимость,
внутренняя неоднородность случайного процесса, протекающего с не­
которой вероятностью по тому или другому типу, есть физическая
причина неэргодичности этого процесса.
В частности, неэргодичность случайного процесса может быть
связана с наличием в его составе слагаемого в виде обычной случай­
ной величины (т. е. наличие в спектре случайного процесса, помимо
непрерывной части, конечной дисперсии при частоте 0 ).
Действительно, рассмотрим случайную функцию
(17.7.1)
где X (t) — эргодическая стационарная случайная функция с характе­
ристиками т х, kx (x), У — случайная величина с характеристиками т.у
и D y\ предположим к тому же, что X (t) и Y некоррелированны.
Определим характеристики случайной функции Z (t). Согласно
общим правилам сложения случайных функций (см. п° 15.8) имеем:
т г — т х + т у,
k;(x) = kx (T) + D y.
(17.7.2)
(17.7.3)ь
Из формул (17.7.2) и (17.7.3) видно, что случайная функция Z {t)
является стационарной. Но обладает ли она эргодическим свойством?
Очевидно, нет. Каждая ее реализация будет по характеру отличаться
от других, будет обладать тем или иным средним по времени зна­
17.7)
Э РГО Д И Ч Е СК О Е
С В О Й С ТВ О
С ТАЦ И О Н АРН Ы Х
Ф УН К Ц И Й
461
чением в зависимости от того, какое значение приняла случайная
величина К (рис. 17.7.5).
Об
эргодичности или неэргодичности случайного процесса може
непосредственно свидетельствовать вид его корреляционной функции.
Действительно, рассмотрим корреляционную функцию неэргодической
случайной функции (17.7.1). Она отличается от корреляционной функ­
ции случайной функции К (?) наличием постоянного слагаемого
(рис. 17.7.6). В то время как корреляционная функция кх (х) стре­
мится к нулю при х - > о о (корреляционная связь между значениями
случайной функции неограниченно убывает по мере увеличения рас­
стояния между ними), функция
(т) уже не стремится к нулю при
t - > ост, а приближается
к
постоянному
значе­
нию й у.
На практике мы не
имеем возможности иссле­
довать случайный процесс
и его корреляционную
функцию на бесконечном
участке времени; участок
значений т, с которым мы
имеем дело, всегда огра­
ничен. Если при этом
корреляционная функция
стационарного случайного
процесса при увеличении -с
не убывает, а, начиная с
некоторого х, остается приблизительно постоянной, это обычно есть
признак того, что в составе случайной функции имеется слагаемое
в виде обычной случайной величины и что процесс не является эргодическим. Стремление же корреляционной функции к нулю при t-*■oo
говорит в пользу эргодичности процесса. Во всяком случае оно
462
СТАЦ И О Н АРН Ы Й С ЛУЧАЙ Н Ы Е
Ф УН К Ц И И
[ГЛ , 17
достаточно для того, чтобы математическое ожидание функции можно
было определять как среднее по времени.
При решении практических задач часто суждение об эргодичности
случайного процесса выносится не на основе исследования поведения
корреляционной функции при х~>оо, а на основании физических
соображений, связанных с существом процесса (его предположительной
«разложимостью» или «неразложимостью» на элементарные процессы
различного типа, появляющиеся с некоторыми вероятностями).
17.8.
Определение характеристик эргодической
стационарной случайной функции по одной реализации
Рассмотрим стационарную случайную функцию X (/), обладающую
эргодическим свойством, и предположим, что в нашем распоряжении
имеется всего одна реализация этой случайной функции, но, зато на
достаточно большом участке времени Т. Для эргодической стационар­
ной случайной функции одна реализация достаточно большой про­
должительности практически эквивалентна (в смысле объема сведений
о случайной функции) множеству реализаций той же общей продол­
жительности; характеристики Случайной функции могут быть прибли­
женно определены не как средние по множеству наблюдений, а как
средние по времени Ь. В частности, при достаточно большом Т
математическое ожидание шх может быть приближенно вычислено
по формуле
т
т х^ ~ §
* (/ )* !).
(17.8.1)
о,
Аналогично может быть приближенно найдена корреляционная
функция кх (т) при любом т. Действительно, корреляционная функция,
по определению, представляет собой не что иное, как математичео
о
ское ожидание случайной функции X (() X у + т):
кх (т) = М [ Х у ) Х у - \ - ? ) 1'.
(17.8.2)
Это математическое ожидание также, очевидно, может быть прибли­
женно вычислено как среднее по времени.
Фиксируем некоторое значение т и вычислим указанным способом
корреляционную функцию Их (т). Для этого удобно предварительно
«центрировать» данную реализацию х ((), т. е. вычесть из нее мате­
матическое ожидание (17.8.1):
х (?) = х ({) — т х.
(17.8.3)
*) Для простоты записи мы здесь опускаем знак при характеристиках
случайной функции, означающий, что мы имеем дело не с самими характе­
ристиками, а с их оценками.
17.81
О П РЕ Д Е Л ЕН И Е ХА РА К ТЕ РИ С ТИ К Э РГО Д И Ч Е С К О П
Ф УН К Ц И И
463
Вычислим при заданном т математическое ожидание случайной
функции X У ) Х {I + ' ) как среднее по времени. При этом, очевидно,
нам придется учитывать не весь участок времени от 0 до Г , а не­
сколько меньший, так как второй сомножитель X ( ( + х) известен нам
не для всех t, а только для тех, для которых
Вычисляя среднее по времени указанным выше способом, получим:
Т—х
К СО «
/
* ф * (<+ х) л *
о
(17-8,4)
Вычислив интеграл (17.8.4) для ряда значений «с, можно прибли­
женно воспроизвести по точкам весь ход корреляционной функции.
На практике обычно интегралы (17.8.1) И (17.8.4) заменяют
конечными суммами. Покажем, как это делается. Разобьем интервал
записи случайной функции на п равных частей длиной Д/ и обозна­
чим середины полученных участков Ьх, ^2. •••• tn (рис. 17.8.1). Пред­
ставим интеграл (17.8.1) как сумму интегралов по элементарным
участкам Д^ и на каждом из них вынесем функцию л-(?) из-под знака
интеграла средним значением, соответствующим центру интервала х (£г).
Получим приближенно:
п
от,
~
х (^).
/*]
п
ИЛИ
о 7-8-5)
г=1
Аналогично можно вычислить корреляционную функцию для значе­
ний *, равных О, Ы , 2 Д<, . . . Придадим, например, величине х значение
а
,
х = пга{ —
тТ
п
—
И вычислим интеграл (17.8.4), деля интервал интегрирования
т
п,
ШТ
Т1 — 171
п
т
Т — х — Т ----- = ----- Т
п
,
464
СТАЦ И О Н АРН Ы Е
СЛУЧАЙНЫ Е Ф УН К Ц И И
[ГЛ. 17
на п — т. равных участков длиной Д£ и вынося на каждом из них
о
о
функцию л; (/) х (/ -|- т) за знак интеграла средним значением. Получим:
п -т
к* ( ~ ) = (п — т ) Т Т
2
Х^
х ^1+т)'
1=1
или окончательно
п—т
к* № г ) ==' ^
21 *('«>■*(*«+»)•
(-1
(17.8.6)
Вычисление корреляционной функции по формуле (17.8.6) произ­
водят для т = 0 , 1 , 2 , . . . последовательно вплоть до таких значе­
ний т , при которых корреляционная функция становится практически
равной нулю или начинает совершать небольшие нерегулярные коле­
бания около нуля. Общий ход функции кх (х) воспроизводится по
отдельным точкам (рис. 17.8.2).
Для того чтобь) математическое ожидание т х и корреляционная
функция 1гх (г) были определены с удовлетворительной точностью,
нужно, чтобы число точек п было
достаточно велико (по,рядка сотни,
а в некоторых случаях даже не­
скольких сотен). Выбор длины эле­
ментарного участка Д£ опреде­
ляется характером изменения слу­
чайной функции. Если случайная
функция изменяется сравнительно
плавно, участок Д^ можно выби7
рать ббльшим,
вершает резкие и частые колебаРис. 17.8.2.
ния. Чем более высокочастотный
состав имеют колебания, образую­
щие случайную функцию, тем чаще нужно располагать опорные
точки при обработке. Ориентировочно можно рекомендовать выбирать
элементарный участок Д^ так, чтобы на полный период самой высо­
кочастотной гармоники в составе случайной функции приходилйсь
порядка 5— 1 0 опорных точек.
Часто выбор опорных точек вообще не зависит от обрабатываю­
щего, а диктуется темпом работы записывающей аппаратуры. В этом
случае следует вести обработку непосредственно полученного из опыта
материала, не пытаясь вставить между наблюденными значениями про­
межуточные, так как это не может повысить точности результата,
а излишне осложнит обработку.
П р и м е р . В условиях горизонтального полета самолета произведена
запись вертикальной перегрузки, действующей на самолет. Перегрузка ре­
гистрировалась на участке времени 200 сек с интервалом 2 сек. Результаты
17.8]
465
ОП РЕ Д Е Л ЕН И Е Х А Р А К ТЕ РИ С ТИ К Э РГО Д И Ч Е С К О Й Ф УН К Ц И И
приведены в таблице 17.8.1. Считая процесс изменения перегрузки стационар­
ным, определить приближенно математическое ожидание перегрузки т^ ,
дисперсию О и нормированную корреляционную функцию ру ,(х). Аппрокси­
мировать
(х) какой-либо аналитической функцией, найти и построить
спектральную плотность случайного процесса.
Т а б л и ц а 17.8.1
t
(сек)
Перегрузка
fflt)
0
1,0
2
1,3
t
{сек)
Перегрузка
N (0
t
(сек)
1,0
100
1,2
1,1
102
1,4
0 ,8
1,0
0 ,8
104
106
108
1Д
110
0 ,8
1Д
1,2
112
0 ,8
114
116
118
1,4
12
1,3
14
16
18
0 ,8
50
52
54
56
58
60
62
64
0 ,8
66
0,4
0,3
0,3
68
4
6
8
10
20
22
24
26
28
30
32
34
36
38
40
42
44
46
48
1,1
0,7
0,7
1,1
0 ,6
0,3
0,5
0,5
0,7
0 ,8
0 ,6
1 ,0
0,5
1 ,0
0,9
1,4
1,4
Рушение.
70
72
74
76
. 78
80
82
84
1,5
1,0
0 ,8
Перегрузка
N (t)
0,9
1 ,0
1,6
1,7
1,3
0 ,8
120
1,2
122
1,6
0,7
0,7
124
126
128
130
132
134
136
138
140
142
144
146
148
0 ,8
1,1
1,5
1 ,0
0 ,6
86
0,9
88
0 ,8
90
92
94
96
98
0 ,8
0,9
0,9
0 ,6
0,4
1,2
0 ,6
1,0
0 ,6
0 ,8
0,7
0,9
1,3
1,5
1Д
0,7
1,0
.
1
{сек)
150
152
154
156
158
160
162
164
166
168
170
172
174
176
178
180
182
184
186
188
130
192
194
196
198
Перегрузка
N (t)
0 ,8
0 ,6
0,9
1,2
1,3
0,9
1,3
1,5
1,2
1,4
1,4
0 ,8
0 ,8
1,3
1,0
0,7
1Д
0,9
0,9
1,1
1,2
1,3
1,3
1,6
1,5
По формуле (17.8.5) имеем:
100
2
W i)
m/v = - - l 0 0 — * 0’98'
Центрируем случайную функцию (табл. 17.8.2).
о
Возводя в квадрат все значения N (t) и деля сумму на я = 100. получим
приближенно дисперсию случайной функции N ( t):
466
С ТАЦ И О Н АРН Ы Е СЛУЧАЙ Н Ы Е Ф УН К Ц И И
[ГЛ
Т аблица
(сек)
/
N (1)
0
0 ,0 2
2
0,32
4
6
8
10
12
14
16
18
20
22
24
26
28
30
32
34
36
38
40
42
44
46
48
0 ,1 2
— 0,28
— 0,28
0 ,1 2
0,32
— 0,18
— 0,18
— 0,58
— 0 ,6 8
— 0 ,6 8
— 0,38
— 0 ,6 8
— 0,48
— 0,48
— 0,28
— 0,18
-0,38
0 ,0 2
— 0,48
0 ,0 2
— 0,08
0,42
0,42
{сек)
50
52
54
56
58
60
62
64
66
68
70
72
74
76
78
80
82
84
86
88
90
92
94
96
98
о
N(1)
<
0 ,0 2
100
0 ,1 2
102
0,52
104
106
103
0 ,0 2
— 0,18
0 ,1 2
110
0 ,1 2
112
0 ,2 2
114
116
■118
0 ,0 2
— 0,18
— 0,18
0 ,2 2
— 0,28
-0,28
0 ,1 2
0,52
0 ,0 2
-0,38
— 0,08
-0,18
— 0,18
— 0,08
— 0,08
— 0,38
— 0,58
/
(сек)
120
122
124
126
128
130
132
134
136
138
140
142
144
146
148
0 ,2 2
0,42
— 0,18
— 0,08
0 ,0 2
— 0,18
— 0,18
0,42
0,62
0,72
0,32
0,62
-0,18
0 ,2 2
— 0,38
0 ,0 2
— 0,38
— 0,18
— 0,28
— 0,08
0,32
0,52
0 ,1 2
— 0,28
0 ,0 2
17
17.8.2
{сек)
N(0
150
152
154
156
158
160
162
164
166
168
170
172
174
176
178
180
182
184
186
188
190
192
194
196
198
— 0,18
-0,38
— 0,08
0 ,2 2
0,32
0,08
0,32
0,52
0 ,2 2
0,42
0,42
— 0,18
— 0,18
0,32 .
0 ,0 2
— 0,28
0 ,1 2
—
—
0,08
0,08
0 ,1 2
0 ,2 2
0,32
0,32
0,62
0,52
и среднее квадратическое отклонение:
N
0,323.
Перемножая значения N ((), разделенные интервалом т ==2, 4, 6 , ..., и деля
сумму произведений соответственно на
п — 1=99; и — 2 = 98; п — 3 = 97, ....
получим значения корреляционной функ­
ции к[Х (-). Нормируя корреляционную
функцию делением на £> = 0,1045, по­
лучим таблицу значений функции р (х)
(табл. 17.8.3).
График функции р^ (х) представлен
на рис. 17.8.3 в виде точек, соединенных
пунктиром. Не вполне гладкий ход кор­
реляционной функции может быть объ­
яснен недостаточным объемом экспери­
ментальных данных (недостаточной про­
должительностью опыта), в связи с чем
случайные неровности в ходе функции
не успевают сгладиться. Вычисление рд, (х) продолжено до таких значений х,
при которых фактически корреляционная связь пропадает.
17.8]
ОП РЕ Д Е Л ЕН И Е ХА РА К ТЕ РИ С ТИ К Э РГО Д И Ч Е С К О Й Ф УН К Ц И И
467
Для того чтобы сгладить явно незакономерные колебания эксперимен­
тально найденной функции рл, (т), заменим ее приближенно функцией вида:
Р; ( * ) = * - а|ч
где параметр « подберем методом наименьших .квадратов (см. п° 14.5).
Таблица
17.8.3
т
0
2
4
6
8
10
12
14
1 ,0 00
1 ,0 0 0
0,598
0,358
0,214
0,128
0,077
0,046
0,027
0,505
0,276
0,277
0,231
—0,015
0,014
0,071
Применяя этот метод, находим а = 0,257. Вычисляя значения функции р^ (т)
при т = 0, 2, 4, ..., построим график сглаживающей кривой. На рис. 17.8.3
он проведен сплошной линией. В последнем столбце таблицы 17.8.3 приве­
дены значения функции рдгСО.
Рис. 17.8.4,
Пользуясь приближенным выражением корреляционной функции (17.8.6),
получим (см. п° 17.4, пример 1) нормированную спектральную плотность слу­
чайного процесса в виде:
0. ,
ч
а
— тс (аг + о>2) “
0,257
я (0,2572 + <ог) *
График нормированной спектральной плотности представлен на рис. 17.8.4.
ГЛАВА
18
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
18.1. Предмет и задачи теории информации
Теорией информации называется наука, изучающая количествен­
ные закономерности, связанные с получением, передачей, обработкой
и хранением информации. Возникнув в 40-х годах нашего века из
практических задач теории связи, теория информации в настоящее
время становится необходимым математическим аппаратом при изуче­
нии всевозможных процессов управления.
Черты случайности, присущие процессам передачи информации,
заставляют обратиться при изучении этих процессов к вероятностным
методам. При этом не удается ограничиться классическими методами
теории вероятностей, и возникает необходимость в создании новых
вероятностных категорий. Поэтому теория информации представляет
собой не просто прикладную науку, в которой применяются вероят­
ностные методы исследования, а должна рассматриваться как раздел
теории вероятностей.
Получение, обработка, передача и хранение различного рода ин­
формации — непременное условие работы любой управляющей системы.
В этом процессе всегда происходит обмен информацией между раз­
личными звеньями системы. Простейший случай — передача информа­
ции от управляющего устройства к исполнительному органу (передача
команд). Более сложный случай — замкнутый контур управления, в ко­
тором информация о результатах выполнения команд передается уп­
равляющему устройству с помощью так называемой «обратной связи».
Любая информация для того, чтобы быть переданной, должна
быть соответственным образом «закодирована», т. е. переведена на
язык специальных символов или сигналов. Сигналами, передающими
информацию, могут быть электрические импульсы, световые или зву­
ковые колебания, механические перемещения и т. д.
Одной из задач теории информации является отыскание наиболее
экономных методов кодирования, позволяющих передать заданную
информацию с помощью минимального количества символов. Эта
задача решается как при отсутствии, так и при наличии искажений
(помех) в канале связи.
18.2]
Э Н ТРО П И Я
469
Другая типичная задача теории информации ставится следующим
образом: имеется источник информации (передатчик), непрерывно вы­
рабатывающий информацию, и канал связи, по которому эта инфор­
мация передается в другую инстанцию (приемник). Какова должна
быть пропускная способность канала связи для того, чтобы канал
«справлялся» со своей задачей, т. е. передавал всю поступающую
информацию без задержек и искажений?
Ряд задач теории информации относится к определению объема
запоминающих устройств, предназначенных для хранения информации,
к способам ввода информации в эти запоминающие устройства и вы­
вода ее для непосредственного использования.
Чтобы решать подобные задачи, нужно прежде всего научиться
измерять количественно объем передаваемой или хранимой информа­
ции, пропускную способность каналов связи и их чувствительность
к помехам (искажениям). Основные понятия теории информации, из­
лагаемые в настоящей главе, позволяют дать количественное описа­
ние процессов передачи информации и наметить некоторые матема­
тические закономерности, относящиеся к этим процессам.
18.2. Энтропия как мера степени неопределенности
состояния физической системы
Любое сообщение, с которым мы имеем дело в теории информа­
ции, представляет собой совокупность сведений о некоторой физи­
ческой системе. Например, на вход автоматизированной системы
управления производственным цехом может быть передано сообщение
о нормальном или повышенном проценте брака, о химическом со­
ставе сырья или температуре в печи. На вход системы управления
средствами противовоздушной обороны может быть передано сооб­
щение о том, что в воздухе находятся две цели, летящие на опре­
деленной высоте, с определенной скоростью. На тот же вход может
быть передано сообщение о том, что на определенном аэродроме
в данный момент, находится такое-то количество истребителей в бое­
вой готовности, или что аэродром выведен из строя огневым воз­
действием противника, или что первая цель сбита, а вторая продол­
жает полет с измененным курсом. Любое из этих .сообщений опи­
сывает состояние какой-то физической системы.
Очевидно, если бы состояние физической системы было известно
заранее, не было бы смысла передавать сообщение. Сообщение при­
обретает смысл только тогда, когда состояние системы заранее не­
известно, случайно.
Поэтому в качестве объекта, о котором передается информация,
мы будем рассматривать некоторую физическую систему X , которая
случайным образом может оказаться в том или ином состоянии,
т. е. систему, которой заведомо присуща какая-то с т е п е н ь
470
ОС Н ОВ Н Ы Е
П ОНЯТИ Я
ТЕ ОРИ И
И Н Ф О РМ АЦ И И
[ГЛ.
18
н е о п р е д е л е н н о с т и . Очевидно, сведения, полученные о системе,
будут, вообще говоря, тем ценнее и содержательнее, чем больше была
неопределенность системы до получения этих сведений («априори»).
Возникает естественный вопрос: что значит «ббльшая» или «мень­
шая» степень неопределенности и чем можно ее измерить?
Чтобы ответить на этот вопрос, сравним между собой две си­
стемы, каждой из которых присуща некоторая неопределенность.
В качестве первой системы возьмем монету, которая в результате
бросания может оказаться в одном из двух состояний: 1 ) выпал герб
и 2) выпала цифра. В качестве второй — игральную кость, у которой
шесть возможных состояний: 1, 2, 3, 4, 5 и 6 . Спрашивается, не­
определенность какой системы больше? Очевидно, второй, так как
у нее больше возможных состояний, в каждом из которых она мо­
жет оказаться с одинаковой вероятностью.
Может показаться, что степень неопределенности определяется
числом возможных состояний системы. Однако в общем случае это
не так. Рассмотрим, например, техническое устройство, которое мо­
жет быть в двух состояниях: 1) исправно и 2) отказало. Предполо­
жим, что до получения сведений (априори) вероятность исправной
работы устройства 0,99, а вероятность отказа 0,01. Такая система
обладает только очень малой степенью неопределенности: почти на­
верное можно предугадать, что устройство будет работать исправно.
При бросании монеты тоже имеется два возможных состояния, но
степень неопределенности гораздо больше. Мы видим, что степень
неопределенности физической
системы
определяется не только
ч и с л о м ее в о з м о ж н ы х с о с т о я н и й , но и в е р о я т н о с т я м и
состояний.
Перейдем к общему случаю. Рассмотрим некоторую систему X ,
которая может принимать конечное множество состояний: х х, х2, . . .
. . . , хп с вероятностями р х, р2,
р п, где
р 1==Р ( Х ~ х {)
■' (18.2.1)
— вероятность того, что система X примет состояние х { (символом
X ~ х 1 обозначается событие: система находится в состоянии х[).
П
Очевидно,
•
■; = 1
Запишем эти данные в виде таблицы, где в верхней строке пе­
речислены возможные состояния системы, а в нижней — соответствую­
щие вероятности:
Х\
х2
• » »
Хп
Р\
Рг
.
Рп.
.
.
18.2]
471
Э Н ТРОП И Я
Эта табличка по написанию сходна с рядом распределения пре­
рывной случайной величины X с возможными значениями x lt х 2, •••. х п,
имеющими вероятности р х, р 2,
Р п• И действительно, между
физической системой X с конечным множеством состояний и пре­
рывной случайной величиной много общего; для того чтобы свести
первую ко второй, достаточно приписать каждому состоянию какое-то
числовое значение (скажем, номер состояния). Подчеркнем, что для
описания степени неопределенности системы совершенно неважно,
к а к и е и м е н н о значения х }, х2........ х п записаны в верхней строке
таблицы; важны только к о л и ч е с т в о этих значений и их в е ­
роятности.
В качестве меры априорной неопределенности системы (или пре­
рывной случайной величины X ) в теории информации применяется
специальная характеристика, называемая э н т р о п и е й . Понятие об
энтропии является в теории информации основным.
Энтропией системы называется сумма произведений вероятностей
различных состояний системы на логарифмы этих вероятностей, взя­
тая с обратным знаком:
/ / (* ) = -
2
/=1
lo g * Л
(18.2.2)
Энтропия Н (X ), как мы увидим в дальнейшем, обладает рядом
свойств, оправдывающих ее выбор в качестве характеристики степени
неопределенности. Во-первых, она обращается в нуль, когда одно из
состояний системы достоверно, а другие — невозможны. Во-вторых,
при заданном числе состояний она обращается в максимум, когда
эти состояния равновероятны, а при увеличении числа состояний —
увеличивается. Наконец, и это самое главное, она обладает свойством
аддитивности, т. е. когда несколько независимых систем объеди­
няются в одну, их энтропии складываются.
Логарифм в формуле (18.2.2) может быть взят при любом осно­
вании а > 1. Перемена основания равносильна простому умножению
энтропии на постоянное число, а выбор основания равносилен вы­
бору определенной единицы измерения энтропии. Если за основа­
ние, выбрано число 1 0 , то говорят о «десятичных единицах» энтро­
пии, если 2 — о «двоичных единицах». На практике удобнее всего
пользоваться логарифмами при основании 2 и измерять энтропию
в двоичных единицах; это хорошо согласуется с применяемой в эле­
ктронных цифровых вычислительных машинах двоичной системой
счисления.
В дальнейшем мы будем везде, если не оговорено противное,
под символом log понимать двоичный логарифм.
‘) Знак минус перед суммой поставлен для того, чтобы энтропия была
положительной (числа Р 1 меньше единицы и их логарифмы отрицательны).
ОСНОВНЫ Е
472
П ОН ЯТИ Я
ТЕ О РИ И
И Н Ф ОРМ АЦ И И
[ГЛ .
!8,
В приложении (табл. 6 ) даны двоичные логарифмы целых чисел
до 1 0 0 1).
Легко убедиться, что при выборе 2 в качестве основания лога­
рифмов за единицу измерения энтропии принимается энтропия про­
стейшей системы X , которая имеет два равновозможных состояния:
от
1
•*/
Х\
хг
Pi
1
2
1
2
Действительно, по формуле (18.2.2) имеем:
Н ( Х ) = — (- ilo g - j + j l o g y ) = l .
Определенная таким образом единица энтропии называется «дво­
ичной единицей» и иногда обозначается bit (от английского «binary
digit»— двоичный знак). Это энтропия одного разряда двоичного
числа, если он с одинаковой вероятностью может быть нулем или
единицей.
Измерим в двоичных единицах энтропию системы X , которая
имеет п равновероятных состояний:
XI
Pi
X,
х2
■ • •
хп
1
1
1
п
п
п
Имеем:
Н ( Х ) = — « i - l o g — log 1 + lo g »
или
H ( X ) = log n,
(18.2.3)
т. e. энтропия системы с равновозможными состояниями равна
логарифму числа состояний.
Например, для системы с восемью состояниями Н { X ) = log 8 = 3.
Докажем, что в случае, когда состояние системы в точности из­
вестно заранее, ее энтропия равна нулю. Действительно, в этом слу­
чае все вероятности p v р2, . . . . р п в формуле (18.2.2) обращаются
•) Логарифмы дробей находятся вычитанием, например:
log 0,13 = log 13 — log 100.
Для нахождения логарифмов чисел с тремя значащими цифрами можно поль­
зоваться линейной интерполяцией.
V, \8.21
Э Н ТРО П И Я
,
473
в нуль, кроме одной — например p k, которая равна единице. Член
Рк log1Pk обращается в нуль, так как log 1 = 0 . Остальные члены
тоже обращаются в нуль, так как
lim p\ogp = 0.
р -> о
Докажем, что энтропия системы с конечным множеством состоя­
ний достигает максимума, когда все состояния равновероятны. Для
этого рассмотрим энтропию системы (18.2.2) как функцию вероят­
ностей р х, р2........ рп и найдем условный экстремум этой функции
при условии:
П
?LP i = Ь
(18.2.4)
( =1
Пользуясь методом неопределенных
искать экстремум функции:
множителей
Лагранжа,
П
П
F = — Ъ P i t e g P i + 'b 'l i Pii' =l
i =1
будем
(18.2.5)
Дифференцируя (18.2.5) по p v . . . . рп и приравнивая производные
нулю, получим систему уравнений:
log p t -f- log e + X =
(/ =
0
1,
. . . , 11)
или
1° S P i = — ^ — 1° g e
( t — 1, . . . , w ) ,
(18.2.6)
откуда видно, что экстремум (в данном случае максимум) достигается
при равных между собой значениях p t. Из условия (18.2.4) видно,
что при этом
р 1=* р г = . . . ==ра = 1 ..
(18.2.7)
а максимальная энтропия системы равна:
H m.AX( X ) = \ogn,
(18.2.8)
т. е. максимальное значение энтропии системы с конечным числом
состояний равно логарифму числа состояний и достигается, когда
все состояния равновероятны.
Вычисление энтропии по формуле (18.2.2) можно несколько упростить; если ввести в рассмотрение специальную функцию:
ri(p) = — p lo g р,
где логарифм берется по основанию
Формула (18.2.2) принимает вид:
//( * ) = 2
2
(18.2.9)
.
(18.2.10)
474
ОСН ОВН Ы Е
П ОН ЯТИ Я
ТЕОРИИ
И Н Ф ОРМ АЦ И И
[ГЛ .
18
Функция г\(р) затабулирована; в приложении (табл. 7) приведены
ее значения для р от 0 до 1 через 0 ,0 1 .
П р и м е р 1. Определить энтропию физической системы, состоящей из двух
самолетов (истребителя и бомбардировщика), участвующих в воздушном бою.
В результате боя система может оказаться в одном из четырех возможных
состояний:
1 ) оба самолета не сбиты;
2 ) истребитель сбит, бомбардировщик не сбит;
3) истребитель не сбит, бомбардировщик сбит;
4) оба самолета сбиты.
Вероятности этих состояний равны соответственно 0,2; 0,3; 0,4 и ОД.
Р е ш е н и е . Записываем условия в виде таблицы:
Xi
X\
*2
*3
xA
Pi
0 ,2
0,3
0,4
0,1
По формуле (18.2.10) имеем:
Н (Х ) = г, (0,2) + У! (0,3) + г! (0,4) + т) (0,1).
Пользуясь таблицей 7 приложения, находим
Н (X ) = 0,4644 + 0,5211 + 0,5288 + 0,3322 « 1,85 (дв. ед.).
П р и м е р 2. Определить энтропию системы, состояние которой описы­
вается прерывной случайной величиной X с рядом распределения
Xi
X\
X2
*3
Pi
0,01
0,01
0,01
xA
0,01
*5
0,96
Решение.
Н (X ) = 4т) (0,01) -f i) (0,96) да 0,322 (дв. ед.).
П р и м е р 3. Определить максимально возможную энтропию системы,
состоящей из трех элементов, каждый из которых может быть в четырех
возможных состояниях.
Решение. Общее число возможных состояний системы равно/2=4-4.4=64.
Максимально возможная энтропия системы равна log 64 = 6 (дв. ед.).
П р и м е р 4. Определить максимально возможную энтропию сообщения,
состоящего из пяти букв, причем общее число букв в алфавите равно 32.
Р е ш е н и е . Число возможных состояний системы п — 325. Максимально
возможная энтропия равна 5 log 32 = 25 (дв. ед).
Формула (18.2.2) (или равносильная ей (18.2.10)) служит для
непосредственного вычисления энтропии. Однако при выполнении
преобразований часто более удобной оказывается другая форма записи
энтропии, а именно, представление ее в виде математического ожи­
дания:
Л ( * ) = iM[— lo g /> ( * ) ! ,
(18.2.11)
475
Э Н ТРО П И Я С Л О Ж Н О Й СИСТЕМ Ы
18.3]
где log Р ( X ) — логарифм вероятности любого (случайного) состояния
системы, рассматриваемый как случайная величина.
Когда система X принимает состояния х х........ х п, случайная
величина lo g P (^ f ) принимает значения:
. log/»!,
lo g р 2........ lo g / v
(18.2.12)
Среднее значение (математическое ожидание) случайной величины
— lo g P (A ") и есть, как нетрудно убедиться, энтропия системы X .
Для ее получения значения (18.2.12) осредняются с «весами», равными
соответствующим вероятностям р х, р2, . . . , р п.
Формулы, подобные (18.2.11), где энтропия представляется в виде
математического ожидания, позволяют упрощать преобразования, свя­
занные с энтропией, сводя их к применению известных теорем
о математических ожиданиях.
18.3. Энтропия сложной системы.
Теорема сложения энтропий
На практике часто приходится определять энтропию для сложной
системы, полученной объединением двух или более простых систем.
Под объединением двух систем X и У с возможными состояниями
х х........ х п\ y v . . . . ут понимается сложная система ( X , Y), состоя­
ния которой {Xj, уj) представляют собой все возможные комбинации
состояний x t, у} систем X и У.
Очевидно, число возможных состояний системы (X , У) равно
л X т . Обозначим Р ц вероятность того, что система (ЛГ, У) будет
в СОСТОЯНИИ (Хр yj)-.
P i) = P { ( X ^ x l) ( Y ^ y j)).
(18.3.1)
Вероятности Р 1} удобно расположить в виде таблицы (матрицы)
Х\
X1
хп
У\
р и
Р 21
Рпх
Уг
Л 2
Рц
.
.
.
.
.
.
Р П2
•
Ут
Р\т
Ргт
Р
г пт
476
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
Найдем энтропии? сложной системы. По определению она равна
сумме произведений вероятностей всех возможных ее состояний на их
логарифмы с обратным знаком:
п
т
Н ( Х , К) = - 2 2 Р ц log Р и
i=lj=l
(18.3.2)
или, в других обозначениях:
п
т
H {X ,Y ) = ^ ^ M P ) .
/=1у=1
(18.3.20
Энтропию сложной системы, как и энтропию простой, тоже можно
записать в форме математического ожидания:
Н ( Х , Y) = M [ — \ o g P (X , К)],
(18.3.3)
где log Р (X , Y) — логарифм вероятности состояния системы, рас­
сматриваемый как случайная величина (функция состояния).
Предположим, что системы X и Y независимы, т. е. принимают
свои состояния независимо одна от другой, и вычислим в этом пред­
положении энтропию сложной системы. По теореме умножения
вероятностей для независимых событий
Р ( Х , Y) = P ( X ) P ( Y ) ,
откуда
log P ( X , Y) = log Р (А') -[- log Р (К).
Подставляя в (18.3.3), получим
t f ( X , K ) = M [- lo g / > p O - lo g P (n ],
или
Н ( Х , Y) = H {X )- \ - H (Y ),
(18.3.4)
т. е. при объединении независимых систем их энтропии скла­
дываются,
Доказанное положение называется т е о р е м о й
сложения
энтропий.
Теорема сложения энтропий может быть легко обобщена на про­
извольное число независимых систем:
S
H { X V X 2........ A 's) = 2 H ( X k).
*=i
(18.3.5)
Если объединяемые системы зависимы, простое сложение энтропий
уже неприменимо. В этом случае энтропия сложной системы меньше,
чем сумма энтропий ее составных частей. Чтобы найти энтропию
системы, составленной из зависимых элементов, нужно ввести новое
понятие у с л о в н о й э н т р о п и и .
18.4]
УСЛОВНАЯ ЭНТРОПИЯ. О БЪЕД И Н ЕН И Е ЗАВИСИМ ЫХ
СИСТЕМ
477
18.4. Условная энтропия. Объединение зависимых систем
Пусть имеются две системы К и Y, в общем случае зависимые.
Предположим, что система X приняла состояние x t. Обозначим Р (у;-1xt)
условную вероятность того, что система Y примет состояние yj при
условии/ что система X находится в состоянии х{.
Р (>V I*, ) ==/>(
К
(18.4.1)
Определим теперь условную энтропию системы Y при условии,
ч то система X находится в состоянии х г Обозначим ее H (Y \ x j).
По общему определению, имеем:
т
или
H (Y\.xl) — ~ ' ^ P ( y j \ x l) lo g P (y J \xl)
/=1
(18.4.2)
т
(18.4.2')
у= 1
Формулу (18.4.2) можно также записать в форме математического
ожидания:
Н (Y j x t) ~ М х. [— log Р ( К ) я,)],
(18.4.3)
где знаком М Х1 обозначено условное математическое ожидание вели­
чины, стоящей в скобках, при условии X — xt.
Условная энтропия зависит от того, какое состояние x t приняла
система Х\ для одних состояний она будет больше, для других —
меньше. Определим среднюю, или полную, энтропию системы Y
с учетом того, что система может принимать разные состояния. Для
этого нужно каждую условную энтропию (18.4.2) умножить на
вероятность соответствующего состояния р г и все такие произведе­
ния сложить. Обозначим полную условную энтропию H (Y \ X )\
H ( Y \ X ) = ^ P iH ( Y \ x t)
i =1
или, пользуясь формулой (18.4.2),
п *“
(18.4.4)
m
H ( Y \ X ) = — ' £ p l '2l P ( y j\ x i) lo g P ( y J \xi).
i= i
j =l
Внося p t под знак второй суммы, получим:
п m
H { Y | Х ) = - 2 2 P ;^ O vl*< )Io g /, (y;:|x()
t=i /=i
или
п
(18.4.5)
m
H (Y i^ ) = S 2
/=ly = i
P n (P < y j\ x ,)).
4
'
Ho no теореме умножения вероятностей p t P (yj | xt) — P tj,
(18.4.50
478
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
следовательно,
п
т
/ / ( К | * ) = » - 2 51 Р ц 1ое Р (у, [*,)..
I=
Г1] =
31
(18.4.6)
Выражению (18.4.6) тоже можно придать форму математического
ожидания:
Н ( У \ Х ) = М [ — 1оё Р ( У \ Х )] .
(18.4.7)
Величина ^ ( У ^ Х ) характеризует степень неопределенности си*
стемы У, остающуюся после того, как состояние системы X пол*
ностью определилось. Будем называть ее полной условной эн тр о ­
пией системы У относительно X .
П р и м е р I. Имеются две системы Х а У, объединяемые в одну (Л', У);
вероятности состояний системы (X , У) заданы таблицей
XI
Х%
X3
У1
0,1
0,2
0
0,3
Уа
0
0,3
0
0,3
Уз
0
- 0,2
0,2
0,4
Р1
0,1
0,7
0,2
Определить полные условные энтропии Н (У \ Х ) и Н ( X | У).
Р е ш е н и е . Складывая вероятности Я/у по столбцам, получим вероят­
ности р ^ Р
*.):
/>! *=0,1; рг = 0,7; р3— 0,2.
Записываем их в нижней, добавочной строке таблицы. Аналогично, склады­
вая Р ц по строкам, найдем:
г, =0,3; /-2= 0,3; г3= 0,4
(г/= Р ( К ~ у . ) )
и запишем справа дополнительным столбцом. Деля Р ^ на р
лицу условных вероятностей Р (у! \х1):
X,
Хг
У1
1
0,2
0,7
0
Уа
0
0,3
0,7
0
Уз
0
0,2
0,7
1
у/
X,
\
получим таб­
18.4]
УСЛОВНАЯ ЭНТРОПИЯ. О БЪ ЕД И Н ЕН И Е ЗАВИСИМ ЫХ СИСТЕМ
479
По формуле (18.4.5') находим Н (У |А'). Так как условные энтропии при
Х ~ х 1 и X ~ хъ равны нулю, то
Н (У 1X) = 0,7 [т, ( М ) +
( | | ) + 1, ( ^ 2 ) ] .
Пользуясь таблицей 7 приложения, находим
Н(У\ X ) » 1,09 (дв. ед.).
Аналогично определим Н (Х\ У). Из формулы (18.4.5')- меняя местами .X
и У, получим
т
н {х \ г ) = 2 ^ ( р ( ^ ! ^ ) ) -
.
Составим таблицу условных вероятностей Р ( х ( |ур. Деля
\
*1
Х%
У!
0,1
0,3
0,2
0,3
0
Уз
0
1
0
Уз
0
С4)
о 1о
у/
0,2
0,4
на
получим:
Отсюда
« ( Л | Г ) - 0 , з [ , ( | 1 ) + , ( | | - ) ] + 0 , 4 [ , ( £ | ) + , ( | | ) ] » 0 . 6 8 ( д в.е Л).
Пользуясь понятием условной энтропии, можно определить энтро­
пию объединенной системы через энтропию ее составных частей.
1 Докажем следующую т е о р е м у :
Если, две системы X и У объединяются в одну, т о э н тр о ­
пия объединенной системы равна энтропии одной из ее со­
ставных частей плюс условная энтропия второй части о тн о ­
сительно первой:
Н ( Х , У ) — Н { Х ) + Н (У \ Х ).
(18.4.8)
Для доказательства запишем Н { X , У) в форме математического ожи­
дания (18.3.3):
Н { X , У) — М [— 1о£ Р (X , У)].
По теореме умножения вероятностей
Р { X , У ) = Р ( Х ) Р ( У \ X ),
480
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
следовательно,
lo g P ( X , Y) = lo g P ( X ) + \ o g P (Y \ X ),
откуда
Н ( Х , У) = М [ — l o g P W l H - M l — lo g P (K | X )]
или, по формулам (18.2.11), (18.3.3)
Н ( Х , Y) = H ( X ) + H ( Y \ X ) ,
что и требовалось доказать.
В частном случае, когда системы X и Y независимы, # ( К | X ) —
= H (Y ), и мы получаем уже доказанную в предыдущем п° теорему
сложения энтропий:
Н ( Х , Y) = H { X ) + H {Y ).
В общем случае
Н ( Х , К ) < Я ( А ' ) + Я (К ).
(18.4.9)
Соотношение (18.4.9) следует из того, что полная условная энтро­
пия H { Y \ X ) не может превосходить безусловной:
H ( Y | X )* C H (Y ) .
(18.4.10)
Неравенство (18.4.10) будет доказано в п° 18.6. Интуитивно оно
представляется довольно очевидным: ясно, что степень неопределен­
ности системы не может увеличиться оттого, что состояние какой-то
другой системы стало известным.
Из соотношения (18.4.9) следует, что энтропия сложной системы
достигает максимума в крайнем случае, когда ее составные части
независимы.
Рассмотрим другой крайний случай, когда состояние одной из
систем (например X ) полностью определяет собой состояние дру­
гой (К). В этом случае Н (Y j А') = 0, и формула (18.4.7) дает
Н ( Х , Y) — Н (X ).
Если состояние каждой из систем A', Y однозначно определяет
состояние другой (или, как говорят, системы А' и К эквивалентны), то
Н ( Х , К) — Я ( X ) = Н (Y).
Теорему об энтропии сложной системы легко можно распростра­
нить на любое число объединяемых систем:
I i ( X v Х 2........ X s) — Н ( Xj ) -f- Н (А'2| А ’1)
Н ( Х г\ Х г, Х 2) +
. . . + H ( X S\ X V Х 2........ ^ S_ 1),
...
(18.4.11)
где энтропия каждой последующей системы вычисляется при условии,
что состояние всех предыдущих известно.
18.5]
ЭНТРОПИЯ И ИНФОРМАЦИЯ
481
18.5. Энтропия и информация
В предыдущих п°п° была определена энтропия как мера неопре­
деленности состояния некоторой физической системы. Очевидно, что
в результате получения сведений неопределенность системы может
быть уменьшена. Чем больше объем полученных сведений, чем они
более содержательны, тем больше будет информация о системе, теи
менее неопределенным будет ее состояние. Естественно поэтому коли­
чество информации измерять у м е н ь ш е н и е м э н т р о п и и той си­
стемы, для уточнения состояния которой предназначены сведения.
Рассмотрим некоторую систему X , над которой производится
наблюдение, и оценим информацию, получаемую в результате того,
что состояние системы X становится полностью известным. До полу­
чения сведений (априори) энтропия системы была Н (Х)\ после полу­
чения сведений состояние системы полностью определилось, т. е.
энтропия стала равной нулю. Обозначим I х информацию, получаемую
в результате выяснения состояния системы X . Она равна уменьше­
нию энтропии:
1х = Щ Х ) - 0
ИЛИ
1х = Н (Х ),
(18.5.1)
т. е. количество информации, приобретаемое при полном
выяснении состояния некоторой физической системы, равно
энтропии этой системы.
Представим формулу (18.5.1) в виде:
П
/* = — 2 P i'o g P i,
i=i
(18.5.2)
где pi = P ( X '~ ~ 'X i).
Формула (18.5,2) означает, что информация 1Х есть осредненное
по всем состояниям системы значение логарифма вероятности состоя­
ния с обратным знаком.
Действительно, для получения 1Х каждое значение log p t (лога­
рифм вероятности /-го состояния) со знаком минус множится на
вероятность этого состояния и все такие произведения складываются.
Естественно каждое отдельное слагаемое — log p t рассматривать как
частную информацию, получаемую от о т д е л ь н о г о с о о б щ е н и я ,
состоящего в том, что система X находится в состоянии x t. Обо­
значим эту информацию 1Х.:
/*. = — log Pi-
(18.5.3)
Тогда информация 1Х представится как с р е д н я я (или п о л н а я )
информация, получаемая от всех возможных отдельных сообщений
16 Теория вероятностей
482
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
[ГЛ. 18
с учетом их вероятностей. Формула (18.5.2) может быть переписана
в форме математического ожидания:
1Х = М \— lo g P ( * )] ,
(18.5.4)
где буквой X обозначено любое (случайное) состояние системы X .
Так как все числа pt не больше единицы, то как частная инфор­
мация I Xi, так и полная 1Х не могут быть отрицательными.
Если все возможные состояния системы априори одинаково ве­
роятны ^р1= р 2=
. . . = р п = - i ) , то, естественно, частная инфор­
мация I ki от каждого отдельного сообщения
I Xj = — log р = log it
равна средней (полной) информации
/х = ~ п ~ log
log п.
В случае, когда состояния системы обладают различными вероят­
ностями, информации от разных сообщений неодинаковы: наибольшую
информацию несут сообщения о тех событиях, которые априори были
наименее вероятны. Например, сообщение о том, что 31 декабря
в г. Москве выпал снег, несет гораздо меньше информации, чем
аналогичное по содержанию сообщение, что 31 июля в г. Москве
выпал снег.
П р и м е р 1. На шахматной доске в одной из клеток произвольным об­
разом поставлена фигура. Априори все положения фигуры на доске одинаково
вероятны. Определить информацию, получаемую от сообщения, в какой
именно клетке находится фигура.
Р е ше н и е . Энтропия системы X с п равновероятными состояниями
равна log л; в данном случае
I x*= Н (X ) — log 64 = 6 (дв. ед.),
t
т. е. сообщение содержит б двоичных единиц информации. Так как все со­
стояния системы равновероятны, то ту же информацию несет и любое кон­
кретное сообщение типа: фигура находится в квадрате е2.
П р и м е р 2. В условиях примера 1 определить частную информацию от
сообщения, что фигура находится в одной из угловых клеток доски.
Р е ше н и е . Априорная вероятность состояния, о котором сообщается,
равна
-_L__L
Р ~ 64
16 •
Частная информация равна
/ = — log
= 4 (дв. ед.).
П р и м е р 3. Определить частную информацию, содержащуюся в сооб­
щении впервые встреченного лица А: «сегодня мой день рождения».
18.51
ЭНТРОПИЯ И ИНФОРМАЦИЯ
483
Ре ше н ие . Априори все дни в году с одинаковой вероятностью могут
быть днями рождения лица А. Вероятность полученного сообщения р = щ .
Частная информация от данного сообщения
/ = — log -т^г- да 8,51 (дв. ед.).
П р и м е р 4. В условиях примера 3 определить полную информацию от
сообщения, выясняющего, является ли сегодняшний день днем рождения
впервые встреченного лица А.
Решение . Система, состояние которой выясняется, имеет два возмож­
ных состояния: хх— день рождения и х2— не день рождения. Вероятности
1
364
этих состоянии р, — -ggjr-; р2— -ggg-.
Полная информация равна:
<«•• «■)■
Пр и ме р 5. По цели может быть произведено п независимых выстре­
лов; вероятность поражения цели при каждом выстреле равна р. После к-то
выстрела (1 < к < п) производится разведка, сообщающая, поражена или не
поражена цель; если она поражена, стрельба по ней прекращается. Опреде­
лить к из того условия, чтобы количество информации, доставляемое развед­
кой, было максимально ■)•
Ре ше н ие . Рассмотрим физическую систему Х к — цель после А-го вы­
стрела. Возможные состояния системы X k будут
xt — цель поражена;
х2— цель не поражена.
Вероятности состояний даны в таблице:
Xi
X.1
х2
'
Pi
!-(!-/>)*
О - Р )к
Очевидно, информация, доставляемая выяснением состояния системы Х к,
будет максимальна, когда оба состояния
и х2 равновероятны:
откуда
1— (1— />)* = (1—/>)*.
к = .
....
log (1 — р )\
где log — знак двоичного логарифма.
Например, при р = 0,2 получаем (округляя до ближайшего целого числа)
1
0,3219
1) Пример заимствован у И. Я. Динера.
16*
3.
484
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
ГГЛ. 18'
Если информация выражена в двоичных единицах, то ей можно
дать довольно наглядное истолкование, а именно: измеряя информа­
цию в двоичных единицах, мы условно характеризуем ее числом
ответов «да» или «нет», с помощью которых можно приобрести
ту же информацию. Действительно, рассмотрим систему с двумя состояниями:
х3
X,
XI
Pi
Pi
Рг
Чтобы выяснить состояние этой системы, достаточно задать один
вопрос, например: находится ли система в состоянии x t? Ответ «да»
или «нет» на этот вопрос доставляет некоторую информацию, кото­
рая достигает своего максимального значения 1, когда оба состояния
априори равновероятны: р 1= р 2= ^ . Таким образом, максимальная
информация, даваемая ответом «да» или «нет», равна одной двоич­
ной единице.
Если информация от какого-то сообщения равна п двоичным еди­
ницам, То она равносильна информации, даваемой п ответами «да»
или «нет» на вопросы, поставленные так, что «да» и «нет» одина­
ково вероятны.
В некоторых простейших случаях для выяснения содержания сооб­
щения действительно удается поставить несколько вопросов так, чтобы
ответы «да» и «нет» на эти вопросы были равновероятны. В таких
случаях полученная информация фактически измеряется числом таких
вопросов.
Если же поставить вопросы точно таким образом не удается,
можно утверждать только, что минимальное число вопросов, необхо­
димое для выяснения содержания данного сообщения, не меньше, чем
информация, заключенная в сообщении. Чтобы число вопросов было
минимальным, нужно формулировать их так, чтобы вероятности отве­
тов «да» и «нет» были как можно ближе к у .
Пр и ме р 6. Некто задумал любое целое число X от единицы до восьми:
1< X< 8,
а нам предлагается угадать его, поставив минимальное число вопросов, на
каждый из которых дается ответ «да» или «нет».
Решение . Определяем информацию, заключенную в сообщении, какое
число задумано. Априори все значения X от 1 до 8 одинаково вероятны:
Р\— Р г — ... = Рь — у . и формула (18.5.2) дает
J x = log 8 = 3.
Минимальное число вопросов, которые нужно поставить для выяснения
задуманного числа, не меньше трех.
18.51
ЭНТРОПИЯ И ИНФОРМАЦИЯ
485
' В данном случае можно, действительно, обойтись тремя вопросами, если
сформулировать их так, чтобы вероятности ответов «да» и «нет» были равны.
Пусть, например, задумано число «пять», мы этого не знаем и задаем
вопросы;
В о п р о с 1. Число X меньше пяти?
О т в е т . Нет.
(Вывод: X — одно из чисел 5, 6, 7, 8.)
В о п р о с ‘2. Число X меньше семи?
О т в е т . Да.
(Вывод: X — одно из чисел 5, 6.)
В о п р о с 3. Число X меньше шести?
О т в е т . Да.
(Вывод: число X равно пяти.)
Легко убедиться, что тремя такими (или аналогичными) вопросами можно
установить любое задуманное число от 1 до 8 ').
Таким образом, мы научились измерять информацию о системе X ,
содержащуюся как в отдельных сообщениях о ее состоянии, так и
в самом факте выяснения состояния. При этом предполагалось, что
наблюдение ведется непосредственно за самой системой X . На прак­
тике это часто бывает не так: может оказаться, что система X непо­
средственно недоступна для наблюдения, и выясняется состояние не
самой системы X , а некоторой другой системы У, связанной с нею.
Например, вместо непосредственного наблюдения за воздушными
целями на посту управления средствами противовоздушной обороны
ведется наблюдение за планшетом или экраном отображения воздуш­
ной обстановки, на котором цели изображены условными значками.
Вместо непосредственного наблюдения за космическим корабле«
ведется наблюдение за системой сигналов, передаваемых его аппара­
турой. Вместо текста X отправленной телеграммы получатель наблю­
дает текст У принятой, который не всегда совпадает с X .
Различия между непосредственно интересующей нас системой X
и поддающейся непосредственному наблюдению У вообще могут быть
двух типов:
1) Различия за счет того, что некоторые состояния системы X
не находят отражения в системе У, которая «беднее подробностями»,
чем система X .
2) Различия за счет ошибок: неточностей измерения параметров
системы X и ошибок при передаче сообщений.
Примером различий первого типа могут служить различия, воз­
никающие при округлении численных данных и вообще при грубом
описании свойств системы X отображающей ее системой У. При­
мерами различий второго типа могут быть искажения сигналов,
возникающие за счет помех (шумов) в каналах связи, за счет
■) Читателю рекомендуется самостоятельно поставить шесть вопросов,
необходимых для выяснения положения фигуры на шахматной доске (см. при­
мер 1), и определить число вопросов, достаточное для выяснения задуманной
карты в колоде ич 36 карт.
486
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
неисправностей передающей аппаратуры,
за счет рассеянности
людей, участвующих в передаче информации, и т. д.
В случае, когда интересующая нас система X и наблюдаемая К
различны, возникает вопрос: какое количество информации о си­
стеме X дает наблюдение системы У?
Естественно определить эту информацию как уменьшение э н тр о ­
пии системы X в результате получения сведений о состоянии
системы У:
Iy + x = H ( X ) — H (X \ Y ).
\
(18.5.5)
Действительно, до получения сведений о системе Y энтропия
системы X была Н (Х )\ после получения сведений «остаточная» эн­
тропия стала Н ( X | К); уничтоженная сведениями энтропия и есть
информация 1Y-+XВеличину (18.5.5) мы будем называть полной (или средней)
информацией о системе X , содержащейся в системе Y.
Докажем, что
h-+x = 1х-* у,
т. е. из двух систем каждая содержит относительно другой одну и
ту же полную информацию.
Для доказательства запишем энтропию системы (X , У) согласно
теореме на стр. 479, двумя равносильными формулами:
И ( Х , У) = Н ( Х ) + Н ( У \ Х ) ,
Н { Х , Y) = H {Y ) -+-H(X\Y),
откуда
H { X ) + 'H {Y \ X ) = H {Y ) + H {X \ Y ) ,.
H ( X ) — H { X \ Y ) = H {Y ) — H (Y \ X ),
или
/у-*Х — Ix-+ у,
что и требовалось доказать.
Введем обозначение:
I y <-+x = I y -*x — I x -*y
(18.5.6)
(18.5.7)
и будем называть информацию /у«~>х полной взаимной информа­
цией, содержащейся в системах X и У.
Посмотрим, во что обращается полная взаимная информация
в крайних случаях полной независимости и полной зависимости систем.
Если X и У независимы, то Н ( У \ Х ) = Н (У ), и
1у++х = О,
(18.5.8)
т. е. полная взаимная информация, содержащаяся в независимых си­
стемах, равна нулю. Это вполне естественно, так как нельзя полу­
ч и т сведений о системе, наблюдая вместо нее другую, никак с нею
не связанную.
487
ЭНТРОПИЯ И ИНФОРМАЦИЯ
18.5]
Рассмотрим другой крайний случай, когда состояние системы X
полностью определяет состояние системы У и наоборот (системы
эквивалентны). Тогда Н ( Х ) ^ Н ( У ) :
Н (Х \ У ) = Н (У \ Х ) = 0
■1 у ^ х = 1х = 1у = Н ( Х ) = И (У ),
(18.5.9)
т. е. получается случай, уже рассмотренный нами выше (формула
(18,5.2)), когда наблюдается непосредственно интересующая нас си­
стема X (или, что то же, эквивалентная ей У).
Рассмотрим случай, когда между системами X и У имеется жест­
кая зависимость, но односторонняя: состояние одной из систем
полностью определяет состояние другой, но не наоборот. Условимся
называть ту систему, состояние которой полностью определяется
состоянием другой, «подчиненной системой». По состоянию подчи­
ненной системы вообще нельзя однозначно определить состояние
другой. Например, если система X представляет собой полный текст
сообщения, составленного из ряда букв, а У — его сокращенный
текст, в котором для сокращения пропущены все гласные буквы,
то, читая в сообщении У слово «стл», нельзя в точности быть уве­
ренным, означает оно «стол», «стул», «стал» или «устал».
Очевидно, энтропия подчиненной системы меньше, чем энтропия
той систему, которой она подчинена.
Определим полную взаимную информацию, содержащуюся в си­
стемах, из которых одна является подчиненной.
Пусть из двух систем X и У подчиненной является X . Тогда
Н {Х \ У )= 0 , и
1 у ^ х = Н (Х ),
(18.5.10)
т. е. полная взаимная информация, содержащаяся в системах,
из которых одна явл яется подчиненной, равна энтропии под­
чиненной системы.
Выведем выражение для информации
не через условную
энтропию, а непосредственно через энтропию объединенной системы
Н (X , У) и энтропии ее составных частей Н { X ) и Н (К).
Пользуясь теоремой об энтропии объединенной системы (стр. 479),
получим:
Н (Х \ У ) — Н {X , У) — Н (К).
(18.5.11)
Подставляя это выражение в формулу (18.5.5), получим:
1у ^ х = Н ( Х ) + Н ( У ) ~ Н ( Х , У),
(18.5.12)
т. г. полная взаимная информация, содержащаяся в двух си­
стем ах, равна сумме энтропий составляющих -систем минус
энтропия объединенной системы.
На основе полученных зависимостей легко вывести общее выра­
жение для полной взаимной информации в виде математического
488
ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ИНФОРМАЦИИ
[ГЛ. 18
ожидания. Подставляя в (18.5.12) выражения для энтропий:
Н ( Х ) = М [ — log Р (АГ)1,
H (Y ) = M [— log P,(K)].
Н ( Х , Y) = M [ — lo g P (A \ К)],
получим
1у
х = М [— log Р ( X ) — log Р (К) + log P ( X , Y ) ]
или
(18.5.13)
]■
Для непосредственного вычисления полной взаимной информации
формулу (18.5.13) удобно записать в виде
(18.5.14)
где
Р <у= Р ( ( ^ ~ х г) ( К ~ у у)),
Pi — P i X ^ X if ,
r, = P ( Y ~ y j ) .
П р и м е р 1. Найти полную взаимную информацию, содержащуюся в си­
стемах X и У в условиях примера 1 п° 18.4.
Р е ш е н и е . Из примера 1 п° 18.4 с помощью таблицы 7 приложения
получим:
Н (Х , У) =2,25; Н (X ) = 1,16; Я ( Г ) = 1,57;
l r <.+K * = H ( X ) + H ( Y ) - H ( X , У)‘— 0,48 (дв. ед.).
П р и м е р 2. Физическая система X может находиться в одном из четырех состояний хи х2, х3, л:,; соответствующие вероятности даны в таблице
х,
л:,
х2
х3
х4
р,
0,1
0,2
0,4
0,3
При наблюдении за системой X состояния х1и х2 неразличимы; состояния х3
и хк также неразличимы. Сообщение о системе X указывает, находится ли
она в одном из состояний х и хг или же в одном из состояний х3, х4. Полу­
чено сообщение, указывающее, в каком из состояний: х {, х2 или х%, хк — на­
ходится система Я. Определить информацию, заключенную в этом сообщении.
Р е ш е н и е . В данном примере мы наблюдаем не саму систему X,
а подчиненную ей систему У, которая принимает состояние уи когда система X
оказывается в одном из состояний хх, хь и состояние у2. когда X оказы­
вается в одном из состояний х3, х«. Имеем:
г, = Р ( К ~ у , ) = 0,1+0,2 =0,3;
г2= Р (У ~ уг) = 0,3 + 0,4 = 0,7.
Находим взаимную информацию, т. е. энтропию подчиненной системы:
1У
X “ — ri ,0S ri — Г2 loS r 2 = Ч (°-3) + Ч (О.7) « 0>88 (Дв- ед.).
489
ЧАСТНАЯ ИНФОРМАЦИЯ О СИСТЕМЕ
18.6]
18.6. Частная информация о системе, содержащаяся в сообщении
о событии. Частная информация о событии, содержащаяся
в сообщении о другом событии
В предыдущем п° мы рассмотрели полную (или среднюю) инфор­
мацию о системе X , содержащуюся в сообщении о том, в каком
состоянии находится система К. В ряде случаев представляет интерес
оценить частную информацию о системе X , содержащуюся в от­
дельном сообщении, указывающем, что система Y находится в кон­
кретном состоянии Уу Обозначим эту частную информацию
Заметим, что полная (или, иначе, средняя) информация /к->х должна
представлять собой математическое ожидание частной информации для
всех возможных состояний, о которых может быть передано сообщение:
т
1 У ^ Х = Ъ Г ;/ ,^ Х .
08.6.1)
Придадим формуле (18.5.14), по которой вычисляется l y +х (она же
/к*--*а), такой вид, как у формулы (18.6.1):
VIV!
1у _ х = £ 2
Ы 1jm1
рч
V4V4
Г>Р ( Х 1 \У))
log — - = 2 2 r , P ( * t \ y j)'o g ----Щ --- =
‘ > 1=1)ш\
1l
p ( xt \У/)
/=1
i=l
1
откуда, сравнивая с формулой (18.6.1), получим выражение частной
информации:
Р ( р |Уу)»
( 18-б з >
Выражение (18.6.3) и примем за определение частной информации.
Проанализируем структуру этого выражения. Оно представляет собой не
что иное, как осредненное по всем состояниям x t значение величины
log
.
(18,6.4)
pi
Осреднение происходит с учетом различных вероятностей значений
x v х2, . . . . х„. Так как система Y уже приняла состояние Уу, то
при осреднении значения (18.6.4) множатся не на вероятности p t
состояний x t, а на у е л о в н ы е вероятности P ( x t \yj).
^Таким образом, выражение для частной информации можно запи­
сать в виде условного математического ожидания:
' ’W
l
(18' 6' 5)
4 90
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
Докажем, что частная информация 1у .+х> так же как и полная,
не может быть отрицательна. Действительно, обозначим:
Р ( х1\У])
— ] ~ - = Яи
(18.6.6)
и рассмотрим выражение
р ( * ; I У/)
.
,
1 о £ _ - --- = 1ое ^ .
Легко убедиться (см. рис. 18.6.1), что при любом х > 0
1 п х < л : — 1.
Полагая в (18.6.7) х —
(18.6.7)
, получим:
откуда
\пдц
1о£?<7 —
1 /
1\
>1 ^ 2 ( ! — ! щ ) ‘
'
(18.6.8)
На основании (18.6.3) и (18.6.6) имеем:
П
^ У ^ Х = ' ^ Р {X i \УJ)\Ogqij^■
t=l(
, = Ж 2 \ 2 л * ' ^ \ У } ) - 2 л Р1
1/-1
Но
/=1
1=1
1=1
и выражение в фигурной скобке равно нулю; следовательно 1у^ х ^ - 0 .
Таким образом, мы доказали, что ч а с т н а я информация о си­
стеме X , заключенная в сообщении о любом состоянии у^ си­
стемы У, не м о ж е т бы ть отрицательной. Отсюда следует, что
неотрицательна и полная взаимная информация 1у*~>х (как матема­
тическое ожидание неотрицательной ^случайной величины):
1у+ + х> 0.
Из формулы (18.5.5) для информации:
следует, что
или
Н(Х) — Н (Х\У)^
Н (Х \ У ) ^ . Н (X ),
(18.6.9)
= И { X ) — Я ( Л ’)К)
0'
(1 8 .6 .1 0 )
18.61
ЧАСТНАЯ ИНФОРМАЦИЯ О СИСТЕМЕ
491
т. е. полная условная энтропия системы не превосходит ее
безусловной эн тр о п и и 1).
Таким образом, доказано положение, принятое нами на веру
в п° 18.3.
Для непосредственного вычисления частной информации фор­
мулу (18.6.3) удобно несколько преобразовать, введя в нее вместо
условных вероятностей Р ( х к\У]) безусловные. Действительно,
Р ( х 4\У ; ) = ^ р
и формула (18.6.3) принимает вид
( 1 8 -6 Л 1 >
1=1
Пр и ме р и Система (X , У) характеризуется таблицей вероятностей Рц\
*1
х,
Ух
0,1
0,2
0,3
Уг
0,3
0,4
0,7
Р1
0,4
0,6
Г1
Найти частную информацию о системе X, заключенную в сообщении У
у,.
‘) Заметим, что это справедливо только в отношении полной условной
энтропии; что касается частной условной энтропии Н (А"( уу), то она для от­
дельных У) Может быть как больше, так и меньше Н (Х).
492
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
Р е ше н и е . По формуле (18.6.11) имеем:
0,1
V i* *
0,1
0,2
0,2
0,3 Iog 0,4-0,3 + 0,3 log 0,6-0,3 '
По таблице 6 приложения находим
l°g
= log Ю - log 12 я - 0,263,
,08Ö J ^ 3 = log2° - log 18 ~ 0'152, yl->X ~ ~ °-333' 0,263 + 0,667 •0,152я;0,013 (дв. ед.).
Мы определили частную информацию о системе X , содержащуюся
в конкретном событии У ~ ур т. е. в сообщении «система У нахо­
дится в состоянии у р . Возникает естественный вопрос: а нельзя ли
пойти еще дальше и определить частную информацию о событии
X — х^ содержащуюся в событии
Оказывается, это можно
сделать, только получаемая таким образом информация «от события
к событию» будет обладать несколько неожиданными свойствами:
она может быть как положительной, так и отрицательной.
Исходя из структуры формулы (18.6.3), естественно определить
информацию «от события к событию» следующим образом:
( 18 . 6 . 12)
т. е. ч а с т н а я информация о событии, получаемая в резуль­
т а т е сообщения о другом событии, равна логарифму о тн о ­
шения вероятности первого события после сообщения к его же
вероятности до сообщения (априори).
Из формулы (18.6.12) видно, что если вероятность события
X ~ х 1 в результате сообщения У ~ уувеличивается, т. е.
цательна. В частности, когда появление события
полностью
исключает возможность появления события X ~ x t (т. е. когда эти
события несовместны), то
Л'у >г,■— - 00'
Информацию
можно записать в виде:
P ( X i I V /)
Рп
-
V '.” '08—S^-“ ,ogw7’
(18'6ЛЗ)
из чего следует, что она симметрична относительно x t и у;-, и
(18.6.14)
18.7]
ЭНТРОПИЯ ДЛЯ СИСТЕМ С Н Е П РЕ РЫ В Н . МНОЖЕСТВОМ с о с т о я н .
493
Таким образом, нами введены три вида информации;
1) полная информация о системе X , содержащаяся в системе К:
I у+х — I Y++X,
2) частная информация о системе X ,
(сообщении) Y •
— yf.
содержащаяся в событии
3) частная информация о событии X ~ x t, содержащаяся в со­
бытии (сообщении) К — у у.
h)+Xi = hj<r->jcl'
Первые два типа информации неотрицательны; последняя может
быть как положительной, так и отрицательной.
П р и м е р 2. В урне 3 белых и 4 черных шара. Из урны вынуто 4 шара,
три из них оказались черными, а один — белым. Определить информацию
заключенную в наблюденном событии В по отношению к событию А — сле­
дующий вынутый из урны шар будет черным.
Р ^ ш е н и.е.
/в > а = log Р р \ Ау - = log Щ
w - 0,779 (дв. ед.).
18.7. Энтропия и информация для систем с непрерывным
множеством состояний
До сих пор мы рассматривали физические системы, различные
состояния которых x v х2,
х п можно было все перечислить;
вероятности этих состояний были какие-то отличные от нуля вели­
чины p v р2, __ _ р п• Такие системы аналогичны прерывным (диск­
ретным) случайным величинам, принимающим значения x t, х2........ х п
с вероятностями p v р2........р п. На практике часто встречаются
физические системы другого типа, аналогичные непрерывным случай­
ным величинам. Состояния таких систем нельзя перенумеровать: они
непрерывно переходят одно в другое, причем каждое отдельное со­
стояние имеет вероятность, равную нулю, а распределение вероят­
ностей характеризуется некоторой п л о т н о с т ь ю . Такие системы,
по аналогии с непрерывными случайными величинами, мы будем на­
зывать «непрерывными», в отличие от ранее рассмотренных, кото­
рые мы будем называть «дискретными». Наиболее простой пример
непрерывной системы — это система, состояние которой описывается
одной непрерывной случайной величиной X с плотностью распре­
деления f ( x ) . В более сложных случаях состояние системы описы­
вается несколькими случайными величинами Х±, Х 2, . . . , X s с плот­
ностью распределения / ( * ,, х2........xs)- Тогда ее можно рассматри­
вать как объединение (Л"!, Х 2, .. ., X s) простых систем X v Х 2, . . X s.
Рассмотрим простую систему X , определяемую одной непрерыв­
ной случайной величиной X с плотностью распределения f (х)
494
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
(рис. 18.7.1). Попытаемся распространить на эту систему введенное
в п° 18.1 понятие энтропии.
Прежде всего отметим, что понятие «непрерывной системы», как
и понятие «непрерывной случайной величины», является некоторой
идеализацией.
Например,
когда мы считаем величину
X — рост наугад взятого че­
ловека— непрерывной слу­
чайной величиной, мы отвле­
каемся от того, что факти­
чески никто не измеряет
рост точнее, чем до 1 см,
и что различить между собой
два значения роста, разня­
щиеся, скажем, на 1 мм,
практически
невозможно.
Тем не менее данную слу­
чайную величину естественно описывать как непрерывную, хотя можно
было бы описать ее и как дискретную, считая совпадающими те зна­
чения роста, которые различаются менее чем на 1 см.
Точно таким образом, установив предел точности измерений, т. е.
некоторый отрезок Ах, в пределах которого состояния системы X
практически
неразличимы,
можно приближенно свести
непрерывную систему X к
дискретной. Это равносильно
замене плавной кривой / (х)
ступенчатой, типа гисто­
граммы (рис. 18.7.2); при
этом каждый участок (раз­
ряд) длины Ах заменяется
одной точкой-представителем. Площади прямоуголь­
ников изображают вероят­
ности попадания в соответ­
ствующие разряды: / (х ^ А х . Если условиться считать неразли­
чимыми состояния системы, относящиеся к одному разряду, и объе­
динить их все в одно состояние, то можно приближенно определить
энтропию системы X , рассматриваемой с точностью до Ах:
Ньх ( X ) = — 2 / (*») Д*
{/ (л<) Д*} =
= — 2 / (•*;)д* {1о& / ( х , ) + 1<^ Д * } =
= — 2 {/(*г)1 о я/ (.^ )] Дл — 1о§ Дх ^ / (* ,) Д*.
(18.7.1)
18:7]
ЭНТРОПИЯ ДЛЯ СИСТЕМ С Н Е П Р Е Р Ы В Н . МНОЖЕСТВОМ с о с г о я н .
При
д о с т а т о ч н о м алом
495
Дх
00
2
I
1 / ( * / ) 10S /
(х 1> ) Д л г ~
f f ( * ) 10£ / ( * ) d x'
-00
oo
2 / (*/) bx «
/
J / (x) dx = 1,
-C O
и формула (18.7.1) принимает вид:
ОО
Н \ х (Х ) = — J f (х) lo g / (x ) dx — logAx.
(18.7.2)
— OO
Заметим, что в выражении (18.7.2) первый член получился совсем
не зависящим от Д х — степени точности определения состояний си­
стемы. Зависит от Длг только второй член (— log Дат), который стре­
мится к бесконечности при Дх->0. Это и естественно, так как чем
точнее мы хотим задать состояние системы X , тем ббльшую степень
неопределенности мы должны устранить, и при неограниченном умень­
шении Дх эта неопределенность растет тоже неограниченно.
Итак, задаваясь произвольно малым «участком нечувствительно­
сти» Дх\ наших измерительных приборов, с помощью которых опре­
деляется состояние физической системы X , можно найти энтропию
Н±х ( Х ) по формуле (18.7.2), в которой второй член неограниченно
растёт с уменьшением Дх. Сама энтропия Н\х (АО отличается
от этого неограниченно растущего члена на независимую от Дх
величину
00
Н * {Х ) — —
J f(x )\ o g f(x )d x .
(18.7.3)
— СО
Эту величину можно назвать «приведенной энтропией» непрерывной
системы X . Энтропия Нъх( Х ) выражается через приведенную энтро­
пию # * ( X ) формулой
Н ах ( X ) — Н* ( X ) — log Дх.
(18.7.4)
Соотношение (18.7.4) можно истолковать следующим образом:
от точности измерения Дх зависит только н а ч а л о о т с ч е т а , при
котором вычисляется энтропия.
В дальнейшем для упрощения записи мы будем опускать ин­
декс Дх в обозначении энтропии и писать просто Н (Х у , наличие Дх
в правой части всегда укажет, о какой точности идет речь.
Формуле (18.7.2) для энтропии можно придать более компактный
вид, если, как мы это делали для прерывных величин, записать ее
в виде математического ожидания функции. Прежде всего перепишем
496
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
(ГЛ. 18
(18.7.2) в виде
СО
Н ( Х ) = — f f ( x ) \ o g {f (x ) Ах} dx.
(18.7.5)
— СО
Это есть не что иное, как математическое ожидание функции
— l°g {/ (^ O A * } от случайной величины X с плотностью / (х):
Н ( Х ) = /И [— log {/ ( X ) Ах}].
(18.7.6)
Аналогичную форму можно придать величине Н* (X ):
//’ ( * ) = Ж [ - l o g /(*)]■
(18.7.7)
Перейдем к определению условной энтропии. Пусть имеются две
непрерывные системы: X и Y. В общем случае эти системы зави­
симы. Обозначим f ( x , у) плотность распределения для состояний
объединенной системы ( X , У); /,(лг) — плотность распределения си­
стемы Х\ / 2( у ) — плотность распределения системы Y; f(y \ x ),
f {х\у) — условные плотности распределения.
Прежде всего определим ч а с т н у ю у с л о в н у ю э н т р о п и ю
H (Y \x ), т. е. энтропию системы К при условии, что система X при­
няла определенное состояние л:. Формула для нее будет аналогична
(18.4.2), только вместо условных вероятностей P(,yj\xt) будут стоять
условные законы распределения f (у\х) и появится слагаемое logAy:
00
Н (Y\x) — — j f (у\х) log f (y\x)dy — log Ay.
(18.7.8)
— OO
Перейдем теперь к полной (средней) условной энтропии Н ( Y \Х);
для этого нужно осреднить частную условную энтропию H (Y \x )
по всем состояниям х с учетом их вероятностей, характеризуемых
плотностью /j (л;):
СО
H ( Y \ X ) = — J J f x(x )f(y \ x )\ o g f(y \ x )d x d y — \ogAy
(18.7.9)
— ОО
или, учитывая, что
/ ( * , у) = / ,(* )• / (у |дг),
ОО
H ( Y \ X ) — — j J f ( x , y )\o g /(y \x )d x d y — logAy.
(18.7.10)
— 00
Иначе эта формула может быть записана в виде
Я ( К |^ ) = Ж [ - lo g / (К |Л ' ) ! - log Ду
(18.7.11)
H( Y\ X) = M\ — \og У (Y\X)Ay}\.
(18.7.12)
или
18.7)
ЭНТРОПИЯ ДЛЯ СИСТЕМ С Н ЕП РЕРЫ ВН . МНОЖЕСТВОМ с о с т о я н .
497
Определив таким образом условную энтропию, покажем, как она
применяется при определении энтропии объединенной системы.
Найдем сначала энтропию объединенной системы непосредственно.
Если «участками нечувствительности» для систем X и У будут Ах и
Ау, то для объединенной системы ( X , У) роль их будет играть эле­
ментарный прямоугольник Ах Ау. Энтропия системы (X , У) будет
Н ( Х , У) = М [ — lo g {/ (X , К)ДхДу)] .
(18.7.13)
Так как
f ( x , у) = / 1(х )/ (у \ х ),
то и
/ ( X , У) — / г ( X ) / (У \X ).
(18.7.14)
Подставим (18.7.14) в (18.7.13):
И (X , У) = М [ - log /, ( X ) — log f ( Y \ X ) — log Ax — log Ay] =
= M .[- lo g (/, ( X ) Д*)] + M [ - log (/ (Y | X ) Ду)],
или, по формулам (18.7.6) и (18.7.12),
Н ( Х , У) = Н { Х ) + Н ( У \ Х ) .
(18.7.15)
т. е. теорема об энтропии сложной системы остается в силе и для
непрерывных систем.
Если А” и У независимы, то энтропия объединенной системы
равна сумме энтропий составных частей:
Н ( Х , У) = Н ( Х ) + Н (У ).
(18.7.16)
П р и м е р 1. Найти энтропию непрерывной системы X, все состояния
которой на каком-то участке (о, Р) одинаково вероятны:
1
——
при a < х < а
Р,
О
Ре шение .
при
X < а
ИЛИ
X >
р.
в
H*(X) = — f
!0g
d x — lo g (Р — и);
о
И (А -) = lo g (Р — а) — log Дл:
или
tf(.Y) = lo g b ^ - .
(18.7.17)
Пример 2. Найти энтропию системы X , состояния которой распреде­
лены по нормальному закону:
498
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
Решение.
' W * W = * M [ - l o g / ( X ) ] = A f | - !o g .{- 7L - r ‘S r l
L
= М
j^log ( V 2it a) -f-
V у
2к а
)_
=
log <?j = log { f 2л a) - f —
l og e.
Ho
M [A"2] = D [X] — <
s2,
H* (A ) = log ( V 2k a) -j- — log e = log ( У ‘2пё я)
и
H {X ) = log (|л2адз) — log Дл: = log
•
(18.7.18)
Пр и м ер 3. Состояние самолета характеризуется тремя случайными
величинами: высотой Н, модулем скорости V и углом 0, определяющим
направление полета. Высота самолета распределена с равномерной плотностью
на участке (Л,, Л2); скорость V — по нормальному закону с м.о. v0 и с.к.о. ар;
угол 0— с равномерной плотностью на участке (0, ti). Величины Н, V, 0 не­
зависимы. Найти эйтропию объединенной системы.
Решение.
Из примера 1 (формула (18.7.17)) имеем
«д агде АЛ — «участок нечувствительности» при определении высоты.
Так как энтропия случайной величины не зависит от ее математического
ожвдания, то для определения энтропии величины V воспользуемся формулой
H {V )= \ o g [^ p L \
Энтропия величины 0:
Н (0) = log (я — 0) — log ДО = log
.
Окончательно имеем:
Н(Н, V, 0) = log
+ log
+ log J J .
или
Н(Н, l/,0) = l
o
g
(18.7.19)
Заметим, что каждый из сомножителей под знаком фигурной скобки имеет
один и тот же смысл: он показывает, сколько «участков нечувствительности»
укладывается в некотором характерном для данной случайной величины от­
резке. В случае распределения с равномерной плотностью этот участок пред­
ставляет собой просто участок возможных значений случайной величины;
в случае нормального распределения этот участок равен У~2кё я, где а — сред­
нее квадратическое отклонение.
18.75
ЭНТРОПИЯ ДЛЯ СИСТЕМ С Н ЕП РЕРЫ ВН . МНОЖЕСТВОМ с о с т о я н .
499
Таким образом, мы распространили понятие энтропии на случай
непрерывных систем. Аналогично может быть распространено и поня­
тие информации. При этом неопределенность, связанная с наличием
в выражении энтропии неограниченно возрастающего слагаемого, отпа­
дает: при вычислении информации, как разности двух энтропий, эти
члены взаимно уничтожаются. Поэтому все виды информации, связан­
ные с непрерывными величинами,'
оказываются не зависящими от
У
у
«участка нечувствительности» Ах. ---^
* - *---♦-- +--- л
Выражение для полной взаимX
ной информации, содержащейся
рис. ш.7.3.
в двух непрерывных системах X
и У, будет аналогично выражению (18.5.4), но с заменой вероятностей
законами распределения, а сумм — интегралами:
СО
/^
=
/
/
( 18'7'20>
— СО
или, применяя знак математического ожидания,
/ , _ , = ;и [|о г
(18.7.21)
Полная взаимная информация 1у4-+х> как и в случае дискретных си­
стем, есть неотрицательная величина, обращающаяся в нуль только
тогда, когда системы X и У
независимы.
Пр и ме р 4. На отрезке (0, 1)
выбираются случайным образом,
независимо друг от друга, дваточки и и V; каждая кз них рас­
пределена на этом отрезке с равно­
мерной плотностью. В результате
опыта одна из точек легла правее,
другая — левее. Сколько информа­
ции о положении правой точки
дает значение положения левой?
Решение . Рассмотрим две
случайные точки и и V на оси
абсцисс Ох (рис. 18.7.3). Обозна­
чим У абсциссу той из них, ко­
торая оказалась слева, а X — абс­
циссу той, которая оказалась
Рис. 18.7.4.
справа (на рис. 18.7.3 слева оказа­
лась точка и, но могло быть и
наоборот). Величины X и У определяются через и и V следующим образом:
К = пНп 117, V}!
Х = т а х {Ц ,У ].
Найдем закон распределения системы (X , У). Так как У < X, то он будет
существовать только в области Д заштрихованной на рис. 18.7.4. Обозначим
500
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
/ (х, у) плотность распределения системы (X, У) и найдем элемент вероятности
/(х, y)dxdy, т. е. вероятность того, что случайная точка (X, У) попадет
в элементарный прямоугольник (х, х + dx; у, y + dy). Это событие может
произойти двумя способами: либо слева окажется точка U, а справа V, либо
наоборот. Следовательно,
/ (х, у) dxdy = <((х, у) dxdy-\-<? (у, х) dx dy,
где <
р(и, v) обозначена плотность распределения системы величин (£/, V). ■
В данном случае
9 (м. v) = 1
« ^
\0 < v < II
•
следовательно,
<
е(X, у) = ч>(у, х) = 1;
/ (х, у) dx dy = 2 dx tfy
и
2 при (х, у) с: О,
при (х, у)
£>.
Найдем теперь законы распределения отдельных величин, входящих
в систему:
X
00
Л (Х )=
J f (х, у) <у =
2аГу = 2х
^
при
0 < х < 1;
аналогично
оо
1
/ 2 (у)=* f f (х, у) dx = j" 2d x — 2 ( l — у)
—оо
при
0
< у < 1.
у
Графики плотностей /, (х) и / 2(у) изображены на рис. 18.7.5.
Подставляя / (х, у), /, (х) и /2(у) в формулу (18.7.20), получим
4 г
<
-
*
х
-
щ
-
/
/
1п
2 F
(
r
=
y
)
2
d
x
d
y
=
(О)
-щ^-j — 1п2 + У * У 2(— Iflx) rfxrfy -f- У У *2 [— !п(1 — у)1 rfxrfy
'
Ф )
(О )
18.7]
ЭНТРОПИЯ ДЛЯ СИСТЕМ С Н ЕП РЕРЫ ВН . МНОЖЕСТВОМ с о с т о я н .
501
В силу симмбтрии задачи последние два интеграла равны, и
—
ff\nxd xd y~*
Ф)
1
4
1л2
1
ln 2
х
J ' ln х dx J
о
1
dy ■
■
1.
о
— JГ
2х\пх dx =
ln2
1 « 0,44 (дв. ед.).
П р и м е р 5. Имеется случайная величина X , распределенная по нор­
мальному закону с параметрами т х — 0,
Величина X измеряется с ошиб­
кой 2Г, тоже распределенной по нормальному закону с параметрами т г — 0, о2.
Ошибка 2 не зависит от X. В нашем распоряжении — результат измерения,
т. е. случайная величина
Г=Х+2.
Определить, сколько информации о величине X содержит величина У.
Р е ш е н и е . Воспользуемся для вычисления информации формулой
(18.7.21), т. е. найдем ее как математическое ожидание случайной величины
U-nlog
/<*. У)
(18.7.22)
Для этого сначала преобразуем выражение
log
log f\ (*)/ (? I X)
/ (* . У)
/1
log
fi (•*) f% (y)
(•*) / г (У )
/ ( У\х)
h (У) *
В нашем случае
/* <У) =
V 2n ]/"o® -f- o;г
/—J
1
Ц
(см. главу 9).
Выражение (18.7.22) равно:
t/ = log
V T R
1
2oZ
in 2
*= log
+ °2
y2
(Y — X f
1
2 ('
1
ln2
2az
2 (°X + ° г) j
Отсюда
1
Ïn 2
M \Z2\
M [Y 2]
(18.7.23)
502
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[Г Л .
18
(18.7.24)
Подставляя (18.7.24) в (18.7.23), получим
Например, при
=
18.8. Задачи кодирования сообщений. Код Шеиноиа — Фэно
При передаче сообщений по линиям связи всегда приходится
пользоваться тем или иным кодом, т. е. представлением сообщения
в виде ряда сигналов. Общеизвестным примером кода может слу­
жить принятая в телеграфии для передачи словесных сообщений азбука
Морзе. С помощью этой азбуки любое сообщение представляется
в виде комбинации элементарных сигналов: точка, тире, пауза (про­
бел между буквами), длинная пауза (пробел между словами).
Вообще кодированием называется отображение состояния одной
физической системы с помощью состояния некоторой другой. Напри­
мер, при телефонном разговоре звуковые сигналы кодируются в виде
электромагнитных колебаний, а затем снова декодируются, превра­
щаясь в звуковые сигналы на другом конце линии. Наиболее простым
случаем кодирования является случай, когда обе системы X и У
(отображаемая и отображающая) имеют конечное число возможных
состояний. Так обстоит дело при передаче записанных буквами сооб­
щений, например, при телеграфировании. Мы ограничимся рассмотре­
нием этого простейшего случая кодирования.
Пусть имеется некоторая система X (например, буква русского
алфавита), которая может случайным образом принять одно из состоя­
ний Хр х 2, . . . . х„. Мы хотим отобразить ее (закодировать) с по­
мощью другой системы К, возможные состояния которой ур у 2........ут .
Если т < п (число состояний системы У меньше числа состояний
системы X ), то нельзя каждое состояние системы X закодировать с по­
мощью одного-единственного состояния системы У. В таких случаях
одно состояние системы X приходится отображать с Помощью опре­
деленной комбинации (последовательности) состояний системы К. Так,
в азбуке Морзе буквы отображаются различными комбинациями эле') Применяя формулу (18.7.20), можно было бы прийти к тому же ре­
зультату, но более громоздким способом.
18.8]
ЗАДАЧИ КОДИРОВАНИЯ СООБЩ ЕНИЯ. КОД ШЕННОНА - ФЭНО
503
ментарных символов (точка, тире). Выбор таких комбинаций и уста­
новление соответствия между передаваемым сообщением и этими ком­
бинациями и называется «кодированием» в узком смысле слова.
Коды различаются по числу элементарных символов (сигналов),
из которых формируются комбинации, иными словами — по числу воз­
можных состояний системы К. В азбуке Морзе таких элементарных
символов четыре (точка, тире, короткая пауза, длинная пауза). Пере­
дача сигналов может осуществляться в различной форме: световые
вспышки, посылки электрического тока различной длительности, зву­
ковые сигналы и т. п. Код с двумя элементарными символами (0 и 1)
называется двоичным. Двоичные коды широко применяются на прак­
тике, особенно при вводе информации в электронные цифровые вы­
числительные машины, работающие по двоичной системе счисления.
Одно и то же сообщение можно закодировать различными спосо­
бами. Возникает вопрос об оптимальных (нанвыгоднейших) способах
кодирования. Естественно считать наивыгоднейшим такой код, при
котором на передачу сообщений затрачивается минимальнее время.
Если на передачу каждого элементарного символа (например 0 или 1)
тратится одно и то же время, то оптимальным будет такой код,
при котором на передачу сообщения заданной дликы будет затрачено
минимальное количество элементарных символов.
Предположим, что перед нами поставлена задача: закодировать
двоичным кодом буквы русской азбуки так, чтобы каждой букве
соответствовала определенная комбинация элементарных символов 0 и 1
и чтобы среднее число этих символов на букву текста было мини­
мальным.
Рассмотрим 32 буквы русской азбуки: а, б, в, г, д, е, ж, з, и,
й, к, л, м, н, о, п, р, с, т, у, ф, х, ц, ч, ш, щ, ъ, ы, ь, э, ю, я
плюс промежуток между словами, который мы будем обозначать «— ж.
Если, как принято в телеграфии, не различать букв ъ и ь (это не
приводит к разночтениям), то получится 32 буквы: а, б, в, г, д, е,
ж, з, и, й, к, л, м, н, о, п, р, с, т, у, ф, х, ц, ч, ш, щ, (ъ, ь),
ы, э, ю, я, «— ».
Первое, что приходит в голову — это, не меняя порядка букв,
занумеровать их подряд, приписав им номера от 0 до 31, и затем
перевести нумерацию в двоичную систему счисления. Двоичная си­
стема— это такая, в которой единицы разных разрядов представляют
собой разные степени двух. Например, десятичное число 12 изобра­
зится в виде
12 = 1- 23+ 1 . 22+ 0 •21 + 0-2»
и в двоичной системе запишется как 1100.
Десятичное число 25 —
25 = 1 •24+ 1 •23+ 0 •22+ 0 •2’ + 1 •2°
— запишется в двоичной системе как 110£>1
504
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ
18
Каждое из чисел 0, 1 , 2 ........ 31 может быть изображено пяти­
значным двоичным числом. Тогда получим следующий код:
а — 00000
б
— 00001
в — 00010
г — 00011
я — 11110
« —» — 11111
В этом коде на изображение каждой буквы тратится ровно 5
элементарных символов. Возникает вопрос, является ли этот простей­
ший код оптимальным и нельзя ли составить другой код, в котором
на одну букву будет в среднем приходиться меньше элементарных
символов?
Действительно, в нашем коде на изображение каждой буквы —
часто встречающихся «а», «е», «о» или редко встречающихся «щ»,
«э», « ф»— тратится одно и то же число элементарных символов.
Очевидно, разумнее было бы, чтобы часто встречающиеся буквы были
закодированы меньшим числом символов, а реже встречающиеся —
большим.
Чтобы составить такой код, очевидно, нужно знать частоты букв
в русском тексте. Эти частоты приведены в таблице 18.8.1. Буквы
в таблице расположены в порядке убывания частот.
Т а б л и ца 18.8.1
Буква
Частота
Буква
Частота
Буква
Частота
Буква
Частота
«— »
0
е
а
и
т
н
с
0,145
0,095
0,074
0,064
0,064
0,056
0,056
0,047
Р
В
л
к
м
0,041
0,039
0,036
0,029
0,026
0,026
0,024
0,021
я
ы
3
ъ, ь
б
г
ч
и
0,019
0,016
0,015
0,015
0,015
0,014
0,013
0,010
X
Ж
ю
ш
Ц
Щ
э
ф
0,009
0,008
0,007
0,006
0,004
0,003
0,003
0,002
д
п
У
Пользуясь такой таблицей, можно составить наиболее экономич­
ный код на основе соображений, связанных с количеством информа­
ции. Очевидно, код будет самым экономичным, когда каждый эле­
ментарный символ будет передавать максимальную информацию.
Рассмотрим элементарный символ (т. е. изображающий его сигнал)
как физическую систему с двумя возможными состояниями: 0 и 1.
18.81
ЗАДАЧИ КОДИРОВАНИЯ СООБЩЕНИЙ. КОД ШЕННОНА - ФЭНО
505
Информация, которую дает этот символ, равна энтропии системы
и максимальна в случае, когда оба состояния равновероятны; в этом
случае элементарный символ передает информацию 1 (дв. ед.).
Поэтому основой оптимального кодирования будет требование, чтобы
элементарные символы в закодированном тексте встречались в сред­
нем одинаково часто.
Т а б л и ц а 18.8.2
Дбоичные знапи
букбы I й
0
0
е
а
и
Q
н
с
б
/1
к
м
0
4й
3й
, о
5й
6й
7“
8й 9й
()
0
I
m
Р
гй
0
0
Ш
в
0 ■o j
ifi
0
&
0
О
0
(I
gj
V\VÄ
Ш
0
ч и
я
о
ы
S 11 Л
в
3
0
ъ,ь 2
0
ё й
IIIУ/.У0Уу.
ч *
п
и
|р itH и 13
X
ж
0
ю Ж и Ш . Pi
*
ш
И 111
i j -'/и/////
\Ц
щ
/
у.у/У/,У
п
,
3
<
р в
i t f
ш
ш .ш
0
У/М
ш Щ
0
Изложим здесь способ построения кода, удовлетворяющего по­
ставленному условию; этот способ известен под названием «кода
Шеннона — Фзно». Идея его состоит в том, что кодируемые символы
(буквы или комбинации букв) разделяются на две приблизительно
равновероятные группы: для первой группы символов на первом месте
комбинации ставится 0 (первый знак двоичного числа, изображающего
символ); для второй группы — 1. Далее каждая группа снова делится
на две приблизительно равновероятные подгруппы; для символов пер­
вой подгруппы на втором месте ставится нуль; для второй подгруппы —
единица и т. д.
Продемонстрируем принцип построения кода Шеннона— Фэно на
материале русского алфавита (табл. 18.8.1). Отсчитаем первые шесть
506
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
букв (от «— » до «т»); .суммируя их вероятности (частоты), получим
0,498; на все остальные буквы (от «н» до «ф») придется приблизи­
тельно такая же вероятность 0,502. Первые шесть букв (от «— » до
«т») будут иметь на первом месте двоичный знак 0. Остальные буквы
(от «н» до «ф») будут иметь на первом месте единицу. Далее снова
разделим первую группу на две приблизительно равновероятные под­
группы: от «— » до «о» и от «е» до «т»; для всех букв первой
подгруппы на втором месте поставим нуль, а второй подгруппы’—
единицу. Процесс будем продолжать до тех пор, пока в каждом
подразделении не останется ровно одна буква, которая и будет за­
кодирована определенным двоичным числом. Механизм построения
кода показан на таблице 18.8.2, а сам код приведен в таблице 18.8.3.
Таблица
Буква
«—»
О
е
а
и *
т
н
с
р
в
л
Двоичное
число
000
001
0100
0101
оно
0111
1000
1001
10100
10101
10110
Буква
к
м
Д
П
У
я
ы
3
ъ, ь
б
г
Двоичное
число
Двоичное
ЧИСЛО
Буква
10111
11000
110010
110011
110100
110110
110111
111000
1.11001
111010
111011
Ч
Й
X
ж
ю
ш
ц
щ
э
ф
18.8.3
111100
1111010
1111011
1111100
1]11101
11111100
11111101
11111110
111111110
111111111
С помощью таблицы 18.8.3 можно закодировать и декодировать
Любое сообщение.
В виде примера запишем двоичиым кодом фразу: «теория ин­
формации»
01110100001101000110110110000
0 1 1 0 1 0 0 0 1 И 111111001101.00
1100001011111110101100110
Заметим, что здесь нет необходимости отделять друг от друга
буквы специальным знаком, так как и без этого декодирование вы­
полняется однозначно. В этом можно убедиться, декодируя с по­
мощью таблицы 18.8.2 следующую фразу:
1001110 011 001 100 100 111 101 000 0
1011100111001001101010000110101
0 1 0 1 1 0 00 011 011 011 0
(«способ кодирования»).
18.8]
ЗАДАЧИ КОДИРОВАНИЯ СООБЩ ЕНИЯ. КОД Ш ЕННОНА - ФЭНО
507
Однако необходимо отметить, что любая ошибка при кодирова­
нии (случайное перепутывание знаков 0 и 1) при таком коде губи­
тельна, так как декодирование всего следующего за ошибкой текста
становится невозможным. Поэтому данный принцип кодирования может
быть рекомендован только в случае, когда ошибки при кодировании
и передаче сообщения практически исключены.
Возникает естественный вопрос: а является ли составленный нами
код при отсутствии ошибок действительно оптимальным? Для того
чтобы ответить ка этот вопрос, найдем среднюю информацию, при­
ходящуюся‘на один элементарный символ (0 или 1), и сравним ее
с максимально возможной информацией, которая равна одной двоич­
ной единице. Для этого найдем сначала среднюю информацию, содер­
жащуюся в одной букве передаваемого текста, т. е. энтропию на
одну букву:
32
32
Н ( б) = — ^ P i ^ S P i — 2,-q (Pt),
i* i
i=i
где pt — вероятность того, что буква примет определенное состояние
(«— », о, е, а, . . . , ф).
Из табл. 18.8.1 имеем
Я (б) =*=г; (0,145)-f-г; (0,095)-f- ••• + 4 (0,003) + tj (0,002) г» 4,42
(дв. единиц на букву текста).
По таблице 18.8.2 определяем среднее число элементарных сим­
волов на букву
лср = 3 •0,145-1-3 •0,095 + 4 •0,074+ . . .
. . . + 9 - 0 . 0 0 3 + 9.0,002 = 4,45.
Деля энтропию Н ( б) на пср, получаем информацию на один эле­
ментарный символ
4 42
/lc== 435 ~ 0’" 4 (ДВ' еД,)Таким образом, информация на один символ весьма близка к сво­
ему верхнему пределу 1, а выбранный нами код весьма близок
к оптимальному. Оставаясь в пределах задачи к о д и р о в а н и я по
б у к в а м , мы ничего лучшего получить не сможем.
Заметим, что в случае кодирования просто двоичных номеров
букв мы имели бы изображение каждой буквы пятью двоичными зна­
ками и информация на один символ была бы
4 49
Лс = ТЩ)- = 0*884 (дв. ед.),
т. е. заметно меньше, чем при оптимальном буквенном кодировании.
Однако надо заметить, что кодирование «по буквам» вообще не
является экономичным. Дело в том, что между соседними буквами
508
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
(ГЛ. 18,
любого осмысленного текста всегда имеется з а в и с и м о с т ь . Напри­
мер, после гласной буквы в русском языке не может стоять «ъ»
или «ь»; после шипящих не могут стоять «я» или «ю»; после не­
скольких согласных подряд увеличивается вероятность гласной и т. д.
Мы знаем, что при объединении зависимых систем суммарная
энтропия меньше суммы энтропий отдельных систем; следовательно,
информация, передаваемая отрезком связного текста, всегда меньше,
чем информация на один символ, умноженная на число символов.
С учетом этого обстоятельства более экономный код можно построить,
если кодировать не каждую букву в отдельности, а целые «блоки»
из букв. Например, в русском тексте имеет смысл кодировать цели­
ком некоторые часто встречающиеся комбинации букв, как «тся»,
«ает», «ние» и т. п. Кодируемые блоки располагаются в порядке
убывания частот, как буквы в табл. 18.8.1, а двоичное кодирование
осуществляется по тому же принципу.
В ряде случаев оказывается разумным кодировать даже не блоки
из букв, а целые осмысленные куски текста. Например, для разгрузки
телеграфа в предпраздничные дни.целесообразно кодировать условными
номерами целые стандартные тексты, вроде:
«поздравляю новым годом желаю здоровья успехов работе».
Не останавливаясь специально на методах кодирования блоками,
ограничимся тем, что сформулируем относящуюся сюда теорему
Шеннона.
Пусть имеется источник информации X и приемник Y, связанные
каналом связи К (рис. 18.8.1).
Известна производительность источника информации Н 1(Х ),
т. е. среднее количество двоичных единиц информации, поступающее
от источника в единицу времени (численно
оно равно средней энтропии сообщения,
производимого источником в единицу вре­
мени). Пусть, кроме того, известна про­
пускная способность канала Clt т. е.
максимальное количество информации (на­
пример, двоичных знаков 0 или 1), которое способен передать канал
в ту же единицу времени. Возникает вопрос: какова должна быть
пропускная способность канала, чтобы он «справлялся» со своей за­
дачей, т. е. чтобы информация от источника X к приемнику Y по­
ступала без задержки?
Ответ на этот вопрос дает первая теорема Шеннона. Сформули­
руем ее здесь без доказательства.
1-я т е о р е м а Ш е н н о н а
Если пропускная способность канала связи С г больше эн тр о ­
пии источника информации в единицу времени
С1> Н х(Л ),
18.9]
ПЕРЕД АЧА
ИНФОРМАЦИИ С И СКАЖ ЕНИЯМ И
509
т о всегда можно закодировать достаточно длинное сообще­
ние т а к , чтобы оно передавалось каналом связи без задержки.
Если же, напротив,
18.9. Передача информации с искажениями.
Пропускная способность канала с помехами
В предыдущем п° мы рассмотрели вопросы, связанные с кодиро­
ванием и передачей информации по каналу связи в идеальном случае,
когда процесс передачи информации осуществляется без ошибок.
В действительности этот процесс неизбежно сопровождается ошиб­
ками (искажениями). Канал передачи, в котором возможны искаже­
ния, называется каналом с помехами (или шумами). В частном
случае ошибки возникают в процессе самого кодирования, и тогда
кодирующее устройство может рассматриваться как канал с помехами.
Совершенно очевидно, что наличие помех приводит к потере
информации. Чтобы в условиях наличия помех получить на прием­
нике требуемый объем информации, необходимо принимать специаль­
ные меры. Одной из таких мер является введение так называемой
«избыточности» в передаваемые сообщения; при этом источник ин­
формации выдает заведомо больше символов, чем это было бы нужно
при отсутствии помех. Одна из форм введения избыточности — про­
стое повторение сообщения. Таким приемом пользуются, например,
при плохой слышимости по телефону, повторяя каждое сообщение
дважды. Другой общеизвестный способ повышения надежности пере­
дачи состоит в передаче слова «по буквам» — когда вместо каждой
буквы передается хорошо знакомое слово (имя), начинающееся с этой
буквы.
Заметим, что все живые языки естественно обладают некоторой
избыточностью. Эта избыточность часто помогает восстановить пра­
вильный текст «по смыслу» сообщения. Вот почему встречающиеся
вообще нередко искажения отдельных букв телеграмм довольно редко
приводят к действительной потере информации: обычно удается
исправить искаженное слово, пользуясь одними только свойствами
языка. Этого не было бы при отсутствии избыточности. Мерой избы­
точности языка служит величина
(18.9.1)
где И 1С— средняя фактическая энтропия, приходящаяся на один пе­
редаваемый символ (букву), рассчитанная для достаточно длинных
отрывков текста, с учетом зависимости между символами, п — число
510
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
{ГЛ. 18
применяемых символов (букв), log л — максимально возможная в дан­
ных условиях энтропия на один передаваемый символ, которая была
бы, если бы все символы были равновероятны и независимы.
Расчеты, проведённые на материале наиболее распространенных
европейских языков, показывают, что их избыточность достигает 50%
и более (т. е., грубо говоря, 50% передаваемых символов являются
лишними и могли бы не передаваться, если бы не опасность иска­
жений).
Однако для безошибочной передачи сведений естественная избы­
точность языка может оказаться как чрезмерной, так и недостаточ­
ной: все зависит от того, как велика опа
сность искажений («уровень помех») в ка
А
у
нале связи.
“ 7 “ t'T
'— .--С помощью методов теории инфермаПюе1и
ции можно для каждого уровня помех
Рис. 18.9.1.
найти нужную степень избыточности источ­
ника информации. Те же методы помо­
гают разрабатывать специальные помехоустойчивые коды (в частности,
так называемые «самокорректирующиеся» коды). Для решения этих
задач нужно уметь учитывать потерю информации в канале, связан­
ную с наличием помех.
Рассмотрим сложную систему, состоящую из источника информа­
ции X , канала связи К и приемника Y (рис. 18.9.1). Источник ин­
формации представляет собой физическую систему X , которая
имеет п возможных состояний
■^1’ '^2* » ••» ^п
с вероятностями
P v Р 2........ Рп'
Будем рассматривать эти состояния как элементарные символы, кото­
рые может передавать источник X через канал К к приемнику К.
Количество информации на один символ, которое дает источник, бу­
дет равно энтропии на один символ:
Н ( Х ) = — 2 Pi log Pii= \
Если бы передача сообщений не сопровождалась ошибками, тб коли­
чество информации, содержащееся в системе Y относительно X , было
бы равно самой энтропии системы X . При наличии ошибок оно бу­
дет меньше:
l y ^ x =
H ( X ) - H ( X \ Y ) .
Естественно рассматривать условную энтропию И ( X | К) как
потерю информации на один элементарный символ, связанную
с наличием помех.
18.9]
П ЕРЕД АЧА ИНФОРМАЦИИ
С И СКАЖ ЕНИ ЯМ И
511
Умея определять потерю информации в канале* приходящуюся на
один элементарный символ, переданный источником информации,
можно определить п р о п у с к н у ю с п о с о б н о с т ь канала с поме­
хами, т. е. максимальное количество информации, которое способен
передать канал в единицу времени.
Предположим, что канал может передавать в единицу времени k
элементарных символов. В отсутствие помех пропускная способ­
ность канала была бы равна
C = k\ogn,
(18.9.2)
так как максимальное количество информации, которое может содер­
жать один символ, равно log«, а максимальное количество инфор­
мации, которое могут содержать k символов, равно k\ogn, и оно
достигается, когда символы появляются независимо друг от друга.
Теперь рассмотрим канал с помехами. Его пропускная спэсобность определится как
С = k тах /к ’->х>
(18.9.3)
где тах /к ^ х — максимальная информация на один символ, которую
может передать канал при наличии помех.
Определение этой максимальной информации в общем случае —
дело довольно сложное, так как она зависит от того, как и с какими
вероятностями искажаются символы; происходит ли их перепутывание,
или же простое выпадение некоторых символов; происходят ли
искажения символов независимо друг от друга и т. д.
Однако для простейших случаев пропускную способность канала
удается сравнительно легко рассчитать.
Рассмотрим, например, такую задачу. Канал связи К передает от
источника информации X к приемнику Y элементарные символы 0 и 1
в количестве k символов в единицу времени. В процессе передачи
каждый символ, независимо от других, с вероятностью f* может быть
искажен (т. е. заменен противоположным). Требуется найти про­
пускную способность канала.
Определим сначала максимальную информацию на один символ,
которую может передавать канал. Пусть источник производит сим­
волы 0 и 1 с вероятностями р и 1— pt
Тогда энтропия источника будет
Я (Л Г) = — p\ogp — (1 — р) log ( I — р).
Определим информацию ity+x на один элементарный символ:
I (^ x = H ( Y ) - H ( Y \ X ) .
Чтобы найти полную условную энтропию Н (Y \Х), найдем сна­
чала частные условные энтропии: Н{У\Хх) (энтропию системы Y
при условии, что система X приняла состояние a^) и H {Y \ х }
512
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
(энтропию системы У при условии, что система X приняла состоя­
ние х2). Вычислим Я ( К | х , ) ; для этого предположим, что передан
элементарный символ 0. Найдем условные вероятности того, что при
этом система У находится в состоянии
= 0 и в состоянии у2= 1 .
Первая из них равна вероятности того, что сигнал не перепутан:
1— «*;
вторая — вероятности того, что сигнал перепутан:
Условная энтропия H {Y \ x x) будет:
2
н (К I Jfj) = — 2 Р СУ;1* i) log Р (У; I х г) =
• i~ 1 .
= — (1 —
(A)
lOg (1 — JJ.) —
(A
Найдем теперь условную энтропию системы У
X — * 2 (передан сигнал единица):
lOg Jl.
при условии,
что
Р { У ч \ х д = 1 — (X,
откуда
Н ( Y 1х2) = — [a log ц — (1 — [a) lo g (1 — р.).
Таким образом,
И (У \ х {)
=
Н (У \ х ^
=
—
(A lo g jA —
(1
—
p.)
log (1
—
|а).
(18.9.4)
Полная условная энтропия И ( У \ Х ) получится, если осреднить услов­
ные энтропии /У (К | j Cj ) и Н (У \ х 2) с учетом вероятностей р и 1 — р
значений x v х2. Так как Частные условные энтропии равны, то
Н (У I X ) — — (A log (А— (1 — (A) log (1 — [А).
Мы получили следующий вывод: условная энтропия Н ( У \ Х )
совсем не зависит о т того, с какими вероятностям и р, 1 — р
встречаю тся символы 0; 1 в передаваемом сообщении, а зави­
си т только о т вероятности ошибки |а.
Вычислим полную информацию,
передаваемую одним символом:
1У+х = Н { У ) - Н ( У \ Х ) =
= {— Г log/- — (1 — г) log (1 — г)) —
— {— И log [А — (1 — |А) log (1 — (А)! ■=
=
17] ( г ) +
7] ( 1 —
Л )] —
[Т] ((А ) +
7] ( 1 —
ц )1 .
18.9]
П ЕРЕД АЧА
ИНФОРМАЦИИ
С И СКАЖ ЕНИЯМ И
513
где г — вероятность того, что на выходе появится символ 0. Оче­
видно, при заданных свойствах канала информация на один символ
достигает максимума, когда -ц(г) — '^(1 — г) максимально. Мы знаем,
что такая функция достигает максимума при г — 1/2, т. е. когда на
приемнике оба сигнала равновероятны. Легко убедиться, что это
достигается, когда источник передает оба символа с одинаковой
вероятностью р — 1/2. При том же значении р = 1/2 достигает
максимума и информация на один символ. Максимальное значение
равно
- [* )] = 1 - ь о о + ч а - ю ! .
Следовательно, в нашем случае
тах /У и * = 1 — [у] (1*) + 71(1 — (1,)],
и пропускная способность канала связи будет равна
С = Л 11 — 111(1*)+ ч ( 1 — 1»)]}.
(18.9.5)
Заметим, что тд(;л) — V] (1 — |х) есть не что иное, как энтропия
системы, имеющей два возможных состояния с вероятностями (х и
1 — [х. Она характеризует п о т е р ю и н ф о р м а ц и и на о дин
с и м в о л , связанную с наличием помех в канале.
П рим е р. 1. Определить пропускную способность канала связи, способ­
ного передавать 100 символов 0 или 1 в единицу времени, причем каждый из
символов искажается (заменяется противоположным) с вероятностью (л = 0,01.
Р е ш е н и е . По таблице 7 приложения находим
к) (|л) = 0,0664,
т](1— (л) =0,0144,
Ч (К’) + Ч 0 — Iх) = 0,0808.
На один символ теряется информация 0,0808 (дв. ед). Пропускная способ­
ность канала равна
С = 100 (1 — 0,0808) = 91,92 я 92
двоичные' единицы в единицу времени.
С помощью аналогичных расчетов может , быть определена про­
пускная способность канала и в более сложных случаях: когда число
элементарных символов более двух и когда искажения отдельных
символов зависимы. Зная пропускную спбсобность канала, можно
определить верхний предел скорости передачи информации по каналу
с помехами. Сформулируем (без доказательства) относящуюся к этому
случаю вторую теорему Шеннона.
2-я т е о р е м а Ш е н н о н а
П у сть имеется источник информации X , энтропия к о т о ­
рого в единицу времени равна И (X ), и канал с пропускной
способностью С. Тогда если
Н (Х )> С ,
17 Теория вероятностей
514
ОСНОВНЫЕ
ПОНЯТИЯ
ТЕОРИИ
ИНФОРМАЦИИ
[ГЛ. 18
т о при любом кодировании передача сообщений без задержек
и искажений невозможна. Если ж е
Н (Х )< С ,
т о всегда можно достаточно длинное сообщение закодировать
т а к , чтобы оно било передано без задержек и искажений
с вероятностью , сколь угодно близкой к единице,
Пр и ме р 2. Имеются источник информации с энтропией в единицу
времени Н (А") = 100 (дв. ед.) и два канала связи; каждый из них может
передавать в единицу времени 70 двоичных знаков (0 или 1); каждый двоич­
ный знак заменяется противоположным с вероятностью [* = 0,1. Требуется
выяснить: достаточна ли пропускная способность этих каналов для передачи
информации, поставляемой источником?
Р е ше ние . Определяем потерю информации на один символ:
Г1 (Iх) + ■'!(1 — (*) = 0.332 -|-0,137 = 0,469 (дв. ед.).
Максимальное количество информации, передаваемое по одному каналу
в единицу времени:
С = 70 (1 — 0,469) = 37,2.
Максимальное количество информации, которое может быть передано
по двум каналам в единицу времени:
37,2 •2 =* 74,4 (дв. ед.),
чего недостаточно для обеспечения передачи информации от источника.
ГЛ А В А
19
ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ
19.1. Предмет теории массового обслуживания
За последние десятилетия в самых разных областях практики
возникла необходимость в решении своеобразных вероятностных
задач, связанных с работой так называемых* систем массового
обслуживания. Примерами таких систем могут служить: телефон­
ные станции, ремонтные мастерские, билетные кассы, справочные
бюро, парикмахерские и т. п. Каждая такая система состоит из
какого-то числа обслуживающих единиц, которые мы будем назы­
вать «каналами» обслуживания. В качестве каналов могут фигури­
ровать: линии связи; лица, выполняющие те ли иные операции; раз­
личные приборы и т. п. Системы массового обслуживания могут быть
как одно-,так и многоканальными.
Работа любой системы массового обслуживания состоит в выпол­
нении поступающего на нее потока требований или з а я в о к . Заявки
поступают одна за другой в некоторые, вообще говоря, случайные,
моменты времени. Обслуживание поступившей заявки продолжается
какое-то время, после чего канал освобождается и снова готов для
приема следующей заявки. Каждая система массового обслуживания,
в зависимости от числа каналов и их производительности, обладает
какой-то пропускной способностью, позволяющей ей более или менее
успешно справляться с потоком заявок. Предмет теории массового
обслуживания — установление зависимости между характером потока
заявок, производительностью отдельного канала, числом каналов и
успешностью (эффективностью) обслуживания. В качестве характе­
ристик эффективности обслуживания — в зависимости от условий
задачи и целей исследования — могут применяться различные вели­
чины и функции, например: средний процент заявок, получающих
отказ и покидающих систему необслуженными; среднее время «простоя»
отдельных каналов и системы в целом; среднее время ожидания
в очереди; вероятность того, что поступившая заявка немедленно
будет принята к обслуживанию; закон распределения длины очереди
и т. д. Каждая из этих характеристик описывает, с той или другой
стороны, степень приспособленности системы к выполнению потока
заявок, иными словами — ее пропускную способность.
17*
516
ЭЛЕМ ЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ
[ГЛ. 19
Под «пропускной способностью» в узком смысле слова обычно
понимают среднее число заявок, которое система может обслужить
в единицу времени. Наряду с нею часто рассматривают относительную
пропускную способность — среднее отношение числа обслуженных
заявок к числу поданных. Пропускная способность (как абсолютная,
так и относительная) в общем случае зависит не только от пара­
метров системы, но и от характера потока заявок. Если бы заявки
поступали регулярно, через точно определенные промежутки времени,
и обслуживание каждой заявки тоже имело строго определенную
длительность, расчет пропускной способности системы не предста­
влял бы никакой трудности. На практике обычно моменты поступления
заявок случайны; по большей части случайна и длительность обслу­
живания заявки. В связи с этим процесс работы системы протекает
нерегулярно: в потоке заявок образуются местные сгущения и разре­
жения. Сгущения м<?гут привести либо к отказам в обслуживании,
либо к образованию очередей. Разрежения могут привести к непроиз­
водительным простоям отдельных каналов или системы в целом.
На эти случайности, связанные с неоднородностью потока заявок,
иакла пываются еще случайности, связанные с задержками обслужи­
вания отдельных заявок. Таким образом, процесс функционирования
системы массового обслуживания представляет собой с л у ч а й н ы й
п р о ц е с с . Чтобы дать рекомендации по рациональной организации
системы, выяснить ее пропускную способность и предъявить к ней
требования, необходимо изучить случайный процесс, протекающий
в системе, и описать его математически. Этим и занимается теория
массового обслуживания.
Заметим, что за последние годы область применения математи­
ческих методов теории массового обслуживания непрерывно расши­
ряется и все больше выходит за пределы задач, связанных с «обслу­
живающими организациями» в буквальном смысле слова. Многие
задачи автоматизации производства оказываются близкими к теории
массового обслуживания: потоки деталей, поступающих для выполнения
над ними различных операций, могут рассматриваться как «потоки
заявок», ритмичность поступления которых нарушается за счет слу­
чайных причин. Своеобразные задачи теории массового обслуживания
возникают в связи с проблемой организации транспорта и системы
сообщений. Близкими к теории массового обслуживания оказываются
и задачи, относящиеся к надежности технических устройств: такие
их характеристики, как среднее время безотказной работы, потребное
количество запасных, деталей, среднее время простоя в связи с ре­
монтом и т. д., определяются методами, непосредственно заимство­
ванными из теории массового обслуживания.
Проблемы, родственные задачам массового обслуживания, постоянно
возникают в военном деле. Каналы наведения, линии связи, аэродромы,
устройства для сбора и обработки информации представляют собой
19.2]
СЛУЧАЙНЫЙ ПРОЦЕСС СО СЧЕТНЫМ МНОЖЕСТВОМ СОСТОЯНИЙ
517
своеобразные системы массового обслуживания со своим режимом
работы и пропускной способностью.
Трудно даже перечислить все области практики, в которых нахо­
дят применение методы теории массового обслуживания. За последние
годы она стала одной из самых быстро развивающихся ветвей теории
вероятностей.
В настоящей главе будут изложены некоторые элементарные све­
дения по теории массового обслуживания, знание которых необходимо
любому инженеру, занимающемуся вопросами организации в области
промышленности, народного хозяйства, связи, а также в военном деле.
б
.
1 ^ . Случайный процесс со счетным множеством состояний
Случайный процесс, протекающий в системе массового обслужива­
ния, состоит в том, что система в случайные моменты времени пере­
ходит из одного состояния в другое: меняется число занятых каналов,
число заявок, стоящих в очереди, и т. п. Такой процесс существенно
отличается от случайных процессов, которые мы рассматривали в гла­
вах 15— 17. Дело в том, что система массового обслуживания пред­
ставляет собой физическую систему д и с к р е т н о г о т и п а с конеч­
ным (или счетным) множеством состояний *), а переход системы из
одного состояния в другое происходит скачком, -в момент, когда осу­
ществляется какое-то событие (приход новой заявки, освобождение
канала, уход заявки из очереди и т. п.).
Рассмотрим физическую систему X со счетным множеством со­
стояний
V лV-2$ •••» л4-/2, . . .
Лр
В любой момент времени t система X может быть в одном из этих
состояний. Обозначим р к (() (& = 1, 2,
.) вероятность того,
что в момент ( система будет находиться в состоянии х к. Очевидно,
для любого Ь
2 / > * (0 = 1 *
(19-2.1)
Совокупность вероятностей р ь (^) для каждого момента времени ( ха­
рактеризует данное сечение случайного процесса, протекающего в си­
стеме. Эта совокупность не является исчерпывающей характеристикой
процесса (она, например, совсем не отражает зависимости между се­
чениями), но все же достаточно хорошо описывает процесс и для ряда
практических применений оказывается достаточной.
Случайные процессы со счетным множеством состояний бывают
двух типов: с дискретным или непрерывным временем. Первые отлича­
ются тем, что переходы из состояния в состояние могут происходить
‘) В математике «счетным» называется конечное или бесконечное множе­
ство, члены которого можно перенумеровать, т. е. записать в виде после­
довательности аь а2...... ап, ...
518
ЭЛ ЕМ ЕН ТЫ ТЕОРИИ МАССОВОГО О БСЛУЖИВАНИЯ
[ГЛ
19
только в строго определенные, разделенные конечными интервала­
ми моменты времени tv
. . . Случайные процессы с непрерывным
временем отличаются тем, что переход системы из состояния в со­
стояние возможен в любой момент времени t.
В качестве примера дискретной системы X , в которой протекает
случайный процесс с непрерывным временем, рассмотрим группу из га
самолетов, совершающих налет на территорию противника, обороняе­
мую истребительной авиацией. Ни момент обнаружения группы, ни
моменты подъема по ней истребителей заранее не известны. Различ­
ные состояния системы соответствуют различному числу пораженных
самолетов в составе группы:
х0 — не поражено ни одного самолета,
ЛГ] — поражен ровно один самолет,
х к — поражено ровно й самолетов,
х п -— поражены все п самолетов.
Схема возможных состояний системы и возможных переходов из
состояния в состояние показана на рис. 19.2.1.
Стрелками показаны возможные переходы системы из состояния
в состояние. Закругленная стрелка, направленная из состояния
в него же, означает, что система может не только перейти в соседнее
•V
X,
-------------- ■^Г-/
--------------
■*/>
Рис. 19.2.1.
состояние * * +1, но и остаться в прежнем. Для данной системы
характерны н е о б р а т и м ы е п е р е х о д ы (пораженные самолеты
не восстанавливаются); в связи с этим из состояния х п никакие пере­
ходы в другие состояния уже невозможны.
Отметим, что на схеме возможных переходов (рис. 19.2.1) пока­
заны только переходы из состояния в соседнее состояние и не пока­
заны «перескоки» через состояние: эти перескоки отброшены как
практически невозможные. Действительно, для того чтобы система
«перескочила» через состояние, нужно, чтобы строго одновременно
были поражены два или более самолета, а вероятность такого собы­
тия равна нулю.
Случайные процессы, протекающие в системах массового обслужи­
вания, как правило, представляют собой процессы с непрерывным
временем. Это связано со случайностью потока заявок. В противопо­
ложность системе с необратимыми переходами, рассмотренной в пр<*
дыдущем примере, для системы массового обслуживания характерны
19.2]
СЛУЧАЙНЫ Й ПРОЦЕСС СО СЧЕТНЫМ МНОЖЕСТВОМ СОСТОЯНИЙ
519
о б р а т и м ы е п е р е х о д ы : занятый канал может освободиться, оче­
редь может «рассосаться».
В качестве примера рассмотрим одноканальную систему массового
обслуживания (например, одну телефонную линию), в которой заявка,
заставшая канал занятым, не становится в очередь, а покидает си­
стему (получает «отказ»). Эт о — дискретная система с непрерывным
временем и двумя возможными состояниями:
л;0— канал свободен,
х г — канал .занят.
Переходы из состояния в состояние обратимы. Схема возможных
переходов показана на рис. 19.2.2.
п.
г
л .
Рис. 19.2.2.
хп
Рис. 19.2.3.
Для га-канальной системы такого же типа схема возможных пере­
ходов показана на рис. 19.2.3. Состояние х0,— все каналы свободны;
х , — занят ровно один канал, х2— занято ровно два канала и т. д.
Рассмотрим еще один пример дискретной системы с непрерывным
временем: одноканальную систему массового обслуживания, которая
может находиться в четырех состояниях:
х0— канал исправен и свободен,
— канал исправен и занят,
х2— канал неисправен и ждет ремонта,
х3 — канал неисправен и ремонтируется.
Схема возможных переходов для этого случая показана на рис. 19.2.4 •)•
Переход системы из х3 непосредственно в хг, минуя х0, можно счи­
тать практически невозможным, так как для этого
/->
нужно, чтобы окончание ремонта и приход оче-'
редной заявки произошли строго в один и тот
же момент времени.
Для того чтобы описать случайный процесс,
протекающий в дискретной системе с непрерывным г
временем, прежде всего нужно проанализировать ^
причины, вызывающие переход системы из состоя­
ния в состояние. Для системы массового обслужи­
вания основным фактором, обусловливающим протекающие в ней про­
цессы, является поток заявок. Поэтому математическое описание любой
системы массового обслуживания начинается с описания потока заявок.
') Схема составлена в предположении, что неработающий канал выйти
из строя не может.
520
ЭЛ ЕМ ЕН ТЫ ТЕОРИИ МАССОВОГО О БСЛУЖИВАНИЯ
[ГЛ. 19
19.3. Поток событий. Простейший поток и его свойства*
Под потоком событий в теории вероятностей понимается после­
довательность событий, происходящих одно за другим в какие-то мо­
менты времени. Примерами могут служить: поток вызовов на телефон­
ной станции; поток включений приборов в бытовой электросети; поток
заказных писем, поступающих в почтовое отделение; поток сбоев
(неисправностей) электронной вычислительной машины; поток выстре­
лов, направляемых на цель во время обстрела, и т. п. События, обра­
зующие поток, в общем случае могут быть различными, но здесь мы
будем рассматривать лишь поток однородных событий, различаю­
щихся только моментами появления. Такой поток можно изобразить
как последовательность точек tv t2, . . . . tk, . . . на числовой оси
(рис. 19.3.1), соответствующих моментам появления событий.
t
I
О
Ь
Ш
2
a
,
I
Рис. 19.3.1.
Поток событий называется регулярным, если события следуют
одно за другим через строго определенные промежутки времени. Та­
кой поток сравнительно редко встречается в реальных системах, но
представляет интерес как предельный случай. Типичным для системы
массового обслуживания является случайный поток заявок.
В настоящем н° мы рассмотрим потоки событий, обладающие
некоторыми особенно простыми свойствами. Для этого введем ряд
определений.
1. Поток событий называется стационарным, если вероятность
попадания того или иного числа событий на участок времени длиной х
(рис. 19.3.1) зависит только от д л и н ы участка и не зависит от
того, где именно на оси Ot расположен этот участок.
2. Поток событий называется потоком без последействия, если
для любых неперекрывающихся участков времени число событий, подадающих на один из них, не зависит от числа событий, попадающих
на другие.
3. Поток событий называется ординарным, если вероятность по­
падания на элементарный участок &.É двух или более событий прене­
брежимо мала по сравнению с вероятностью попадания одного события.
Если поток событий обладает всеми тремя свойствами (т. е. ста­
ционарен, ординарен и не имеет последействия), то он называется
простейшим (или стационарным пуассоновским) потоком. Название
«пуассоновский» связано с тем, что при соблюдении условий l-f-3
число событий, попадающих на любой фиксированный интервал вре­
мени, будет распределено по закону Пуассона (см. п° 5.9).
19.31
ПОТОК СОБЫТИЯ. ПРОСТЕЙШ ИЙ
поток
И ЕГО СВОЙСТВА
521
Рассмотрим подробнее условия 1-5- 3, посмотрим, чему они соот­
ветствуют для потока заявок и за счет чего они могут нару­
шаться.
1. Условию стационарности удовлетворяет поток заявок, вероят­
ностные характеристики которого не зависят от времени. В частности,
для стационарного потока характерна п о с т о я н н а я п л о т н о с т ь
(среднее число заявок в единицу времени). На практике часто встре­
чаются потоки заявок, которые (по крайней мере, на ограниченном
отрезке времени) могут рассматриваться как стационарные. Например,
поток вызовов на городской телефонной станции на участке времени
от 12 до. 13 часов может считаться стационарным. Тот же поток в те­
чение целых суток уже не может считаться стационарным (ночью
плотность вызовов значительно меньше, чем днем). Заметим, что так
обстоит дело и со всеми физическими процессами, которые мы назы­
ваем «стационарными»: в действительности все они стационарны лишь
на ограниченном участке времени, а распространение этого участка
до бесконечности — лишь удобный прием, применяемый в целях упро­
щения анализа. Во многих задачах теории массового обслуживания'
представляет интерес проанализировать работу системы при постоян­
ных условиях; тогда задача решается для стационарного потока
заявок.
2. Условие отсутствия последействия — наиболее существенное для
простейшего потока — означает, что заявки поступают в систему не­
зависимо друг от друга. Например,, поток пассажиров, входящие на
станцию метро, можно считать потоком без последействия потому,
что причины, обусловившие приход отдельного пассажира именно
в тот, а не другой момент, как правило, не связаны с аналогичными
причинами для других пассажиров. Однако условие отсутствия после­
действия может быть легко нарушено за счет появления такой зави­
симости. Например, поток пассажиров, п о к и д а ю щ и х станцию
метро, уже не мо^жет считаться потоком без последействия, так как
моменты выхода пассажиров, прибывших одним и тем же поездом,
зависимы между собой.
Вообще нужно заметить, что выходной поток (или поток обслу­
женных заявок), покидающий систему массового обслуживания, обычно
имеет последействие, даже если входной поток его не имеет. Чтобы
убедиться в этом, рассмотрим одноканальную систему массового обслу­
живания, для которой время обслуживания одной заявки вполне опре­
делено и равно t0(1. Тогда в потоке обслуженных заявок минимальный
интервал времени между заявками, покидающими систему, будет ра­
вен ^об. Нетрудно убедиться, что наличие такого минимального интер­
вала неизбежно приводит к последействию. Действительно, пусть стало
известно, что в какой-то момент tx систему покинула обслуженная
заявка. Тогда можно утверждать с достоверностью, что на любом
участке времени х, лежащем в пределах (^, ^ + ^0в)* обслуженной
522
ЭЛЕМ ЕН ТЫ ТЕОРИИ МАССОВОГО О БСЛУЖИВАНИЯ
[ГЛ. 19
заявки не появится; значит, будет иметь место зависимость между чи­
слами событий на неперекрывающихся участках.
Последействие, присущее выходному потоку, необходимо учитывать,
если этот поток является входным для какой-либо другой системы
массового обслуживания (так называемое «многофазовое обслуживание»,
когда одна и та же заявка последовательно переходит из системы
в систему).
Отметим, между прочим, что самый простой на первый взгляд ре­
гулярный поток, в котором события отделены друг от друга равными
интервалами, отнюдь не является «простейшим» в нашем смысле слова,
так как в нем имеется ярко выраженное последействие: моменты появ­
ления следующих друг за другом событий связаны жесткой, функцио­
нальной зависимостью. Именно из-за наличия последействия анализ
процессов, протекающих в системе массового обслуживания при регу­
лярном потоке заявок, гораздо сложнее, чем при простейшем.
3.
Условие ординарности означает, что заявки приходят пооди
ночке, а не парами, тройками и т. д. Например, поток атак, которому
подвергается воздушная цель в зоне действия истребительной авиа­
ции, будет ординарным, если истребители атакуют цель поодиночке,
и не будет ординарным, если истребители идут в атаку парами. Поток
клиентов, входящих в парикмахерскую, может считаться практически
ординарным, чего нельзя сказать о потоке клиентов, направляющихся
в ЗА ГС для регистрации брака.
Если в неординарном потоке заявки поступают только парами,
только тройками и т. д., то неординарный поток легко свести к орди­
нарному; для этого достаточно вместо потока отдельных заявок рас­
смотреть поток пар, троек и т. д. Сложнее будет, если каждая заявка
случайным образом может оказаться двойной, тройной и т. д. Тогда
уже приходится иметь дело с потоком не однородных, а разнород­
ных событий.
В дальнейшем мы для простоты ограничимся рассмотрением орди­
нарных потоков.
Простейший поток играет среди потоков событий вообще особую
роль, до некоторой степени аналогичную роли нормального закона
среди других законов распределения. Мы знаем, что при суммирова­
нии большого числа независимых случайных величин, подчиненных
практически любым законам распределения, получается величина,
приближенно распределенная по нормальному закону. Аналогично
можно доказать, что при суммировании (взаимном наложении) большого
числа ординарных, стационарных потоков с практически любым по­
следействием получается поток, сколь угодно близкий к простейшему.
Условия, которые должны для этого соблюдаться, аналогичны условиям
центральной предельной теоремы, а именно — складываемые потоки
должны оказывать на сумму приблизительно равномерно малое
влияние.
19.31
ПОТОК СОБЫТИЯ. ПРОСТЕЙШИЙ ПОТОК И ЕГО СВОЙСТВА
523
Не доказывая этого положения и даже не формулируя математи­
чески условия, которым должны удовлетворять потоки1), проиллюстри­
руем его элементарными рассуждениями. Пусть имеется ряд незави­
симых потоков Пр П2. •••• П„ (рис. 19.3.2). «Суммирование» потоков
состоит в том, что все моменты появления событий сносятся на одну
и ту же ось 0 {, как показано на рис. 19.3.2.
-гг
т
&
Т,
Г"
Т
т- г
-Т— Г
Ч-Г
Пл - Г
.1.1.~Ц-
4_1—Ц 11 р^/."4Ып=гЦ»11"''|И 1
V,
111-1
ь
Рис. 19.3.2.
Предположим, что потоки Пр П2- ••• сравнимы по своему влиянию
на суммарный поток (т. е. имеют плотности одного порядка), а число
их. достаточно велико. Предположим, кроме того, что эти потоки
стационарны и ординарны, но каждый из них может иметь после­
действие, и рассмотрим суммарный поток
п = 2 пА
(19.3.1)
на оси 0 ( (рис. 19.3.2). Очевидно, что поток П должен быть ста­
ционарным и ординарным, так как каждое слагаемое обладает этим
свойством и они независимы. Кроме того, достаточно ясно, что при
увеличении числа слагаемых последействие в суммарном потоке, даже
если оно значительно в отдельных потоках, должно постепенно сла­
беть. Действительно, рассмотрим на оси 0 ( два неперекрывающихся
отрезка т, *и т2 (рис. 19.3.2). Каждая из точек, попадающих в эти
‘) См. А. Я. X и н ч и н, «Математические методы теории массового обслу­
живания», 1955.
524
ЭЛЕМ ЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ
[ГЛ. 19
отрезки, случайным образом может оказаться принадлежащей тому
или иному потоку, и по мере увеличения п удельный вес точек, при­
надлежащих одному и тому же потоку (и, значит, зависимых), должен
уменьшаться, а остальные точки принадлежат разным потокам и
появляются на отрезках
т2 независимо друг от друга. Достаточно
естественно ожидать, что при увеличении п суммарный поток будет
терять последействие и приближаться к простейшему.
г __________
=
2= 8 = а ---------- . -------------- г
Рис. 19.3.3.
На практике оказывается обычно достаточно сложить 4-4-5 пото­
ков, чтобы получить поток, с которым можно оперировать как
с простейшим.
Простейший поток играет в теории массового обслуживания осо­
бенно важную роль. Во-первых, простейшие и близкие к простейшим
потоки заявок часто встречаются на практике (причины этого изло­
жены выше). Во-вторых, даже при потоке заявок, отличающемся
от простейшего, часто можно получить удовлетворительные по точ­
ности результаты, заменив поток любой структуры простейшим
с той же плотностью. Поэтому займемся подробнее простейшим
потоком и его свойствами.
Рассмотрим на оси О* простейший поток событий П (рис. 19.3.3)
как неограниченную последовательность случайных точек.
Выделим произвольный участок времени длиной т. В главе 5
(п°5.9) мы доказали, что при условиях 1, 2 и 3 (стационарность,
отсутствие последействия и ординарность) число точек, попадающих
на участок т, распределено по закону Пуассона с математическим
ожиданием
а=Ат,
(19.3.2)
где X — плотность потока (среднее число событий, приходящееся на
единицу времени).
Вероятность того, что за время т произойдет ровно т событий,
равна
=
(1 9 .3 .3 )
В частности, вероятность того, что участок окажется пустым (не произой­
дет ни одного события), будет
Р 0(х) = е - Ч
(19.3.4)
Важной характеристикой потока является закон распределения
длины промежутка между соседними событиями. Рассмотрим случай-
19.31
ПОТОК СОБЫТИЙ. ПРОСТЕЙШИЙ ПОТОК И ЕГО СВОЙСТВА
5 25
ную величину Т — промежуток времени между произвольными двумя
соседними событиями в простейшем потоке (рис. 19.3.3) и найдем
ее функцию распределения
/7(0 = Я ( Г < 0 Перейдем к вероятности противоположного события
1— Р (() = Р ( Т ^ ( ) .
Это есть вероятность того, что на участке времени длиной (, начи­
нающемся в момент
появления одного из событий потока, не появится
ни одного из последующих событий. Так как простейший поток
не обладает последействием, то наличие в начале участка (в точке tll)
какого-то события никак не влияет на вероятность появления тех или
других событий в дальнейшем. По­
этому вероятность Р (7 '^ - /) можно
вычислить по формуле (19.3.4)
Р йУ) = е-“ ,
откуда
Г (0 = 1 — е~и
Дифференцируя,
распределения
/ (0 = ,\ е - К1
(/ > 0). (19.3.5)
найдем плотность
а > 0).
(19.3.6)
Закон распределения с плот­
ностью (19.3.6) называется показа­
тельным законом, а величина т — его парам етром. График плот­
ности /(/) представлен на рис. 19.3.4.
Показательный закон, как мы увидим в дальнейшем, играет боль­
шую роль в теории дискретных случайных процессов с непрерывным
временем. Поэтому рассмотрим его подробнее.
Найдем математическое ожидание величины Т, распределенной
по показательному закону:
т,
Л
:М
или, интегрируя по частям,
(1 9 .3 .7 )
Дисперсия величины Т равна
00
£), = £>(Г ) = /
00
— £- = / М2е-Х1< Н - ~ .
526
ЭЛЕМЕНТЫ Т Е О РИ И
М А С С О В О Г О О БС Л У Ж И В А Н И Я
[ГЛ.
19
отк у д а
(1 9 .3 .8 )
1_
К’
(1 9 .3 .9 )
Д ок аж ем од н о зам ечательное с в о й с т в о п ок а за тел ьн ого закона.
О н о с о с т о и т в сл ед ую щ ем : е с л и п р о м е ж у т о к в р е м е н и , р а с ­
п р е д е л е н н ы й по п о к а з а т е л ь н о м у з а к о н у , уже д л и л с я
некоторое
в р е м я х, т о
э т о н и к а к не в л и я е т на з а ­
к о н р а с п р е д е л е н и я оставшейся ч а с т и п р о м е ж у т к а : он
б у д е т таким ж е, как и закон распределения в с е г о п р ом еж у тк а Т.
Для д ока зател ьств а р а ссм о тр и м случайный п р о м е ж у т о к врем ени Т
с ф ункцией распределения
/>(0=1 —
е~и
(1 9 .3 .1 0 )
и п р ед п ол ож и м , ч то э т о т п р о м е ж у т о к у ж е п р од ол ж а ется н е к о т о р о е
время х, т. е. п р о и з о ш л о со б ы т и е Т > х. Н айдем при это м п р е д п о ­
лож ении у сл овн ы й закон распредел ения оставш ей ся части п р ом еж у тк а
Т, =
Т — х; обозн ачи м е г о
(/)
(1 9 .3 .1 1 )
Д ок аж ем ,
что
усл овн ы й
за кон
распределения Р * 1^ ) не зависит
о т х и равен / ? ( /) . Д ля т о г о ч тобы вычислить / 7<х)( 0 . найдем сн а­
чала в е р о я т н о с т ь п роизведения д в у х соб ы ти й
Г > х
и
Г — х < £.
П о т е о р е м е ум нож ения в ер оя тн остей
/ > ( (Г > х )(Г -
х < 0 ) = Я (7 > х ) Р ( Г -
х < г | Г > х) ==
= Р (Г
отк уд а
Н о с о б ы т и е (Г > х) ( Г — х <
в е р о я тн о сть к о т о р о г о равна
р а вн оси л ьн о с о б ы т и ю х <
С д р у г о й ст о р о н ы ,
Р ( Т > х ) = 1 — / г (х),
сл ед ова тел ьн о,
Т< I
т,
НЕ СТА Ц И О Н А РН Ы Й
19.41
ПУАССОНОВСКИЯ
ПОТОК
527
отк у д а , со гл а сн о ф ор м у л е (1 9 .3 .1 0 ), получим
/* > ( 0 = 1 ------ --------------- =
1_
е -и = Р ( а
ч то и т р е б о в а л о сь д ок а зать.
Таким о б р а з о м , мы доказали, ч то если п р о м е ж у т о к врем ени Т
распредел ен п о пок азательн ом у за к он у , т о лю бы е сведения о т о м ,
с к о л ь к о времени у ж е п ротек ал э т о т п р о м е ж у т о к , не влияют на закон
распределения оста в ш егося врем ени. М ож н о д ок а за ть, что п ок а за тел ь­
ный з а к о н — единственны й, обладаю щ ий таким св о й с т в о м . Э т о с в о й ­
с т в о п ок аза тел ьн ого закона представляет с о б о й , в су щ н о сти , д р у г у ю
ф о р м у л и р о в к у для «о т су т с т в и я п осл ед ей ств и я », к о т о р о е является
осн овн ы м св о й ст в о м п р о с т е й ш е г о п оток а .
1 9 .4 Н е с т а ц и о н а р н ы й п у а с с о н о в с к и й п о т о к
Е сли п о т о к собы ти й нестационарен, т о е г о осн о в н о й х а р а к т е р и ­
сти к ой является м г н о в е н н а я
плотность
Х((). Мгновенной
плотностью п о то к а называется п редел отнош ения с р е д н е г о числа
собы ти й , п р и х од я щ егося на элементарны й у ч а ст о к времени ((,
к длине э т о г о участка , к огд а последняя стр ем и тся к нулю :
Нш
д<->о
т
+ Д2
=
т '( 0 ,
(1 9 .4 .1 )
т ф — м атем атическое ож идание числа со б ы ти й на уч а стк е (0 , ^).
Р а ссм отр и м п о т о к о д н о р о д н ы х собы ти й , ординарны й и б е з п о с л е ­
действия, но не стационарны й, с п ерем енной п л отн ость ю Х((). Т а к ой
поток
называется
нестационарным пуассоновским потоком.
Э т о — первая ступен ь об о б щ е н и я по сравнению с п ростей ш и м п о т о ­
к о м . Л егк о показать м етод ом , аналогичным прим ененном у в п ° 5 .9 ,
ч то для та к о г о п о т о к а число со бы ти й , поп а да ю щ и х на у ч а с т о к
длины х, начинающийся в т о ч к е tй, подчиняется закон у П у а ссон а
гд е
Р т Ъ *о) = - Ш е ~а
где
до
("*=0,1,2,...).
(1 9 .4 .2 )
а — м атем атическое ож идание числа соб ы ти й на уч а стк е о т ( 0
+
равное
а—
Х (0 Л .
(1 9 .4 .3 )
и
З д есь величина а зависит не т о л ь к о о т длины т участка, н о и
о т е го п ол ож ения на оси 01.
Н айдем для н естац и он а рн ого п оток а закон распределения п р о м е ­
ж утк а врем ени Т м еж ду сосед н и м и собы ти я м и . Ввиду н естац и он а рн ости п о т о к а э т о т закон б у д е т зависеть о т т о г о , где на о с и Ы
528
ЭЛЕМЕНТЫ Т Е О РИ И
М АССОВОГО
ОБСЛУЖ И ВАНИЯ
ГГЛ
19
р а сп ол ож ен о п е р в о е из со б ы т и й . К р о м е т о г о , 011 б у д е т зависеть
о т вида функции Х ( /) . П р е д п о л о ж и м , что п е р в о е из д в у х сосед н и х
собы ти й п оя ви л ось в м ом ен т t0, и найдем при э т о м у сл ов и и закон
распределен ия врем ени Т м еж ду этим соб ы ти ем и п осл ед ую щ и м ;
/ ?<0(/) = Я(7’ < 0 = 1 - Я ( 7 ' > 0 .
Н айдем Р ( Г ^ { ) — в е р о я тн о сть т о г о , что на у ч а стк е о т
не появится ни о д н о г о собы ти я :
- /
Р (Т ^ 0 ~ е ~ а “
до
Ь
40*
е и
,
отк у д а
- /
Х(/)<й
Ъ № = \ — е '•
.
(1 9 .4 .4 )
Д и ф ф ерен ц и руя, найдем п л о тн о сть распределения
-
[
МО*
/ (о( * ) = Ч * 0+ 9 е
(1 9 .4 .5 )
Э т о т закон распределения у ж е не б у д е т показательны м . В ид е го
зависит о т парам етра (0 и вида функции Х((). Н ап р и м ер , при линей­
ном изменении Х(£)
а
X(0 =
Ы
п л о тн о сть ( 1 9 .4 .5 ) им еет вид
№
/
Г раф ик
на р и с.
(1 9 .4 .6 )
(о = г а + * (/0
э т о г о закона
1 9 .4 .1 .
п ри
а =
0 ,4 ,
Ь — 2 и ^0 = 0 ,3
п редставлен
19.5]
ПОТОК С О ГРА Н И Ч Е Н Н Ы М П О С Л ЕД Е Й С ТВ И Е М (П О ТО К П АЛ ЬМ А)
529
Н есм отр я на т о , ч то с т р у к т у р а н естац и он а рн ого п у а с с о н о в с к о г о
п оток а н еск ол ь к о сл ож н ее, чем п р о с т е й ш е г о , он очень у д о б е н в п р а к ­
ти ческ и х прим енениях: главн ое с в о й с т в о п р о с т е й ш е г о п оток а — о т с у т ­
стви е п осл ед ей стви я — в нем со х р а н е н о . А именно, если мы за ф и к си ­
р у ем на оси О * п р ои зв ол ь н у ю точ к у t0, т о за кон распределения
/ , о( 0 врем ени Т, отд ел я ю щ его э т у точ к у о т бли ж ай ш его п о врем ени
б у д у щ е г о собы ти я , не зависит о т т о г о , ч то п р о и с х о д и л о на у ч а стк е
врем ени, п р ед ш еств у ю щ ем £0, и в сам ой точ к е
(т . е. появлялись ли
ранее д р у г и е собы ти я и к огд а именно).
19.5. П оток с ограниченным последействием
(п оток Пальма)
В пред ы дущ ем п° мы познаком ились с естествен н ы м об о б щ е н и е м
п р о с т е й ш е г о п оток а — с нестационарны м п у а ссон ов ск и м п о т о к о м .
О б об щ ен и ем п р о с т е й ш е г о п о т о к а в д р у г о м направлении является
поток с ограниченным последействием.
Р а ссм отр и м ординарны й п о т о к о д н о р о д н ы х соб ы т и й (р и с . 1 9 .5 .1 ).
Э т о т п о т о к называется потоком с ограниченным последействием
Рис. 19.5.1.
(или потоком Пальма), если п р ом еж у тк и врем ени м еж ду п о с л е д о ­
вательными собы тиям и Т1, Т2, • • • пред ставл я ю т с о б о й независимы е
случайны е величины.
О чеви дн о, п р остей ш и й п о т о к является частным случаем п оток а
П альма: в нем расстояния Т1, Т2, . . . п р ед став л я ю т с о б о й неза­
висим ы е случайны е величины, распредел енны е по пок азательн ом у з а ­
к о н у . Ч то касается н естац и он а рн ого п у а с со н о в с к о г о п оток а , т о он не
является п о т о к о м Пальма. Д ей стви тел ьн о, р а ссм отр и м два сосед н и х
п р ом еж у тк а Тк и Тк+1 в нестационарном п у а ссо н о в ск о м п о то к е . Как
мы видели в пред ы дущ ем п°, закон распределения п ром еж у тка м еж ду
собы ти я м и в нестационарном п о т о к е зависит о т т о г о , где э т о т п р о ­
м е ж у т о к начинается, а начало п р ом еж у тк а Тк+1 совпадает с кон ц ом
п р ом еж у тк а Тк\ значит, длины эти х п р ом еж у тк ов зависимы.
Р а ссм отр и м п ри м еры п о т о к о в Пальма.
1.
Н е к о то р а я деталь тех н и ч еск ого у с т р о й с т в а (н ап рим ер, р а д и о
лампа) р а б ота ет н еп рер ы вн о д о с в о е г о отк аза (в ы х од а из с т р о я ),
п о сл е чего она м гновенно заменяется н ов ой . С р о к безотк азн ой ра боты
детали случаен; отдельны е экзем пляры в ы ходя т из с тр о я независим о
530
Э ЛЕМ ЕН ТЫ Т Е О РИ И
М АССОВОГО ОБСЛУЖ И ВАНИЯ
[ГЛ.
19
д р у г о т д р у г а . П ри эти х у сл о в и я х п о т о к отк а зов (или п о т о к « в о с с т а ­
н овл ен и й ») п редставля ет с о б о й п о т о к Пальма. Е сли, к т о м у ж е. с р о к
р а б оты детали распредел ен п о пок азател ьн ом у за к он у , т о п о т о к
Пальма превращ ается в п ростей ш и й .
2.
Группа са м ол етов идет в б о е в о м п ор я д к е « к о л о н н а » (р и с . 1 9 .5 .2 )
с од и н ак овой для в сех са м ол етов с к о р о с т ь ю V . Каж дый сам ол ет,
к р о м е в е д у щ е г о , обязан вы держ ивать с т р о й , т . е. д ерж аться на задан­
ном расстоянии £ о т в п еред и и д у щ его. Э то ра сстоян и е, всл ед стви е
п огр еш н остей р а ди од ал ьн ом ера, вы держ ивается с ош и бк ам и . М ом енты
-------Ц
Ц
К
Рис. 19.5.2.
пересечения сам олетам и задан н ого
так как случайны е величины
Т1 =
рубеж а
образую т
Т2 — -
~
л о т о к Пальма,
независимы . З а ­
метим, что т о т ж е п о т о к не б у д е т п о то к о м П альма, если каж дый .из
сам ол етов стр ем и тся в ы держ ать заданное ра сстоян и е не о т с о се д а ,
а о т ведущ его.
П о т о к и П альма ча сто п ол учаю тся в виде вы х одн ы х п о т о к о в с и ­
стем м а с с о в о г о обслуж ивания. Если на к а к у ю -л и б о си стем у п осту п а ет
к а к о й -т о п о т о к заявок, т о он это й си стем ой разделяется на два: п о ­
т о к об сл у ж ен н ы х и п о т о к н еобсл у ж ен н ы х заявок.
П о т о к н еобсл у ж ен н ы х заявок ча сто п оступ а ет на к а к у ю -л и б о д р у ­
г у ю си сте м у м а с с о в о г о обслуж ивания, п о э т о м у пред ставл я ет и н терес
изучить его- св ой ств а .
О сн о в н о й в теор и и вы ходн ы х п о т о к о в является т еорема Пальма,
к о т о р у ю мы сф о р м у л и р у е м б е з д ока зател ьства.
Пусть на систему массового обслуживания поступает п о­
ток заявок типа П альма, причем, заявка, заставшая все ка­
налы занятыми, получает отказ (не обслуживается). Если при
этом время обслуживания имеет показательный закон р а с ­
пределения, то поток необслуж енных заявок является также
потоком типа Пальма.
В ча стн ости , если в х о д н о й п о т о к заявок б у д е т п р остей ш и м , т о
п о т о к н еобсл у ж ен н ы х заявок, не будучи п р остей ш и м , б у д е т в се ж е
иметь огр ан и ч ен н ое п осл ед ей ств и е.
И н тересн ы м п р и м ер ом п о т о к о в с ограниченны м посл ед ей стви ем
являются так называемые потоки Эрланга . О ни о б р а з у ю т с я « п р о ­
сеи ва н и ем » п р о с т е й ш е г о п оток а .
19.5]
П ОТО К С О ГРА Н И Ч Е Н Н Ы М П О С Л ЕД Е Й С ТВ И Е М (П О ТО К П А Л Ь М А )
531
Р а с с м о т р и м п р остей ш и й п о т о к (р и с . 1 9 .5 .3 ) и в ы б р оси м из н его
каж дую в т о р у ю т о ч к у (на ри сун к е в ы бр ош ен н ы е точки отм ечены
к р еста м и ). О ста вш и еся точк и о б р а з у е т п о т о к ; э т о т п о т о к называется
потоком, Э р л а н га п ер в о го п о р я д к а ( Э ] ) . О чеви дн о, э т о т п о т о к
Рис. 19.5.3. '
есть п о т о к П альма: п о с к о л ь к у независимы п р ом еж у тк и меж ду с о ­
бы тиями в п р остей ш ем п о т о к е , т о независимы и величины 7^, Т2...........
пол учаю щ и еся сум м и рова н и ем таких п р о м е ж у тк о в п о два.
П от ок Э р л а н га в т ор ого п о р я д к а пол уч и тся , если сох р а н и ть
в п р остей ш ем п о т о к е к аж дую т р е т ь ю т о ч к у , а д в е п р ом еж у точ н ы е
в ы б р о с и т ь (р и с .
1 9 .5 .4 ).
В о о б щ е , пот оком Э р ла нга к -го п о р я д к а (Э*) называется п о т о к , получаемы й из п р о с т е й ш е г о , если сох р а н и ть каж дую (й + 1 )-ю
т о ч к у , а остал ьн ы е в ы б р о с и т ь . О чеви дн о, п р остей ш и й п о т о к м ож н о
р а ссм атр и вать как п о т о к Э рланга н у л ев ого поря д ка (Э0)-
Г
Н ай дем закон распределения п р ом еж у тк а врем ени Т м еж ду с о с е д ­
ними собы ти я м и в п о т о к е Э рланга А -г о порядка (Э * )- Р а ссм отр и м
на о с и Ot (р и с . 1 9 .5 .5 ) п р остей ш и й п о т о к с интервалами 7’,, Т2, . . .
Величина Т представля ет с о б о й су м м у А -J- 1 независимы х случайны х
величин
*+i
T = ' 2 i Ti,
1
(1 9 .5 .1 )
532
ЭЛЕМ ЕНТЫ
ТЕ О РИ И М А СС О В О Г О О Б С Л У Ж И В А Н И Я
[ГЛ.
19
г д е Ти Т2........... Тк+1 — независимы е случайны е величины, подчинен­
ные о д н о м у и т о м у ж е п ок азател ьн ом у закон у
/(0 =
Х е~«
(/> 0 ).
( 1 9 .5 .2 )
М ож н о бы л о бы найти за кон распределения величины Т как к о м п о ­
зицию ( 6 + 1 ) за к он ов ( 1 9 .5 .2 ) . О д н а к о п р ощ е вы вести е г о эл ем ен ­
тарными рассуж дениям и.
О бозн ач и м Д ( / ) п л о тн о сть распределения величины Т для п о ­
то к а Э * ; f lt{t)d t есть в е р о я т н о с т ь т о г о , что величина Г при м ет зна­
чение меж ду * и t - \-d-t (р и с . 1 9 .5 .5 ). Э т о значит, что последняя
т о ч к а п р ом еж у тк а Т долж н а п оп а сть на элем ентарны й у ч а сток
(^, t-\-dt), а пред ы дущ и е А точ ек п р о с т е й ш е г о п оток а — на у ч а с­
т о к (0 , (). В ер оя тн ость п е р в о г о соб ы ти я равна X йЬ', в ер оя тн ость в т о ­
р о г о , на основании ф ор м ул ы (1 9 .3 .2 ), б у д ет
Ч г е ~и '
Перемножая эти вероятности, получим
откуда
=
(^ > 0 ).
(1 9 .5 .3 )
З акон распределения с п л отн ость ю (1 9 .5 .3 ) называется законом
Эрланга й - г о порядка. О ч ев и д н о, п ри к = 0 он о бр а щ а ется в п о к а ­
зательный
/ 0 (г) =
Х е~ «
(< > 0 ).
(1 9 .5 .4 )
Н айдем х а р а к тер и сти к и закона Эрланга / й (£): м а тем атическое о ж и ­
дание тк и д и сп ер си ю £ )й. П о т е о р е м е слож ения м атем атических
ож иданий
*+1
— 2
«= 1
где т 0 =
-|—
т 0 = ( А + 1)да0.
м атем атическое ож идание п р ом еж у тк а
меж ду с о б ы т и ­
ями в п р остей ш ем п о т о к е .
О т сю д а
=
(1 9 .5 .5 )
А н ал оги чн о п о т е о р е м е слож ения дисп ер си й
«* = £ * 3 1 .
(19.5>6)
19.51
533
ПОТОК С ОГРАНИЧЕННЫМ ПОСЛЕДЕЙСТВИЕМ (ПОТОК ПАЛЬМА)
П л о тн о сть А к п о то к а Э * б у д е т о б р а тн а величине тк
А* = т т г *
(1 9 -5 -7)
Таким о б р а з о м , при увеличении п оря д ка п оток а Эрланга увел и чи ­
в аю тся как м атем атическое ож идание, так и д и сп ер си я п р ом еж у тк а
врем ени м еж ду собы ти я м и , а п л отн ость п оток а падает.
Выясним, как б у д е т изменяться п о т о к Э рланга при А - > о о , если
е г о п л отн ость б у д е т сохр а н я ться п остоя н н ой ? П р о н о р м и р у е м вели­
чину Т так, ч тоб ы ее м атем атическое ож идание (и, сл ед ова тел ьн о,
п л отн ость п оток а ) о ст а в а л о сь неизменным. Для э т о г о изменим м а с­
ш таб п о оси врем ени и в м е сто Т р а ссм отр и м величину
Т = т^ г .
(19.5.8)
Н азовем так ой п о т о к нор м и р ованны м пот оком Э рланга к,-го п о ­
р ядк а. З акон распределения п р ом еж у тк а Т м еж ду собы тиям и э т о г о
потока будет
/ » « ) =
Аь^
)к- е - ^
(* > 0 ).
(1 9 .5 .9 )
где Л й == X (Дг Н—1). или
7 ,(0 =
(Х(& +
1 ) 0 * « ~ м>+1)<
М атем ати ческое ож идание величины
(1 9 .5 .1 0 ), не зависит о т А и равно
Р 0 ) .
Т, расп ред ел ен н ой
(1 9 .5 .1 0 )
по
закон у
я** = «о —у*
где X — п л отн ость п о т о к а , совпадаю щ ая при
л ю бом
А с п л отн ость ю
и с х о д н о г о п р о с т е й ш е г о п о т о к а . Д и сп ер си я величины Т равна
о .= 7 1 ^ = т ? < г т 1 Г
<19-5 Л 1 >
и неограниченно у бы в ает с возрастан и ем А.
Таким о б р а з о м , мы п ри ход и м к в ы в од у : п ри неограниченном
увеличении А норм ированны й поток Эрланга, приближ ается
к регулярном у
пот оку
с
постоянными
интервалами,
рав-
1
ными у
Э т о с в о й с т в о п о т о к о в Эрланга у д о б н о в практи ч еск и х п рим ен е­
ниях: о н о д ает в о зм о ж н о ст ь , задаваясь различными А, получить л ю б у ю
степень последей стви я : о т п о л н о го отсу тств и я (А = 0 ) д о ж естк ой
функциональной связи м еж ду моментами появления соб ы ти й (А = о о ) .
Таким о б р а з о м , п о р я д о к п о то к а Э рланга м ож ет служ ить как бы « м е ­
р о й п осл ед ей ств и я », им ею щ егося в п о т о к е . В целях у п рощ ен и я ч а сто
534
ЭЛЕМ ЕНТЫ Т Е О РИ И
М А С С О В О ГО
О БС Л У Ж И ВА Н И Я
[ГЛ.
19
бывает удобн о заменить реальный поток заявок, имеющий последей­
ствие, нормированным потоком Эрланга с примерно теми же характе­
ристиками промежутка между заявками: математическим ожиданием
и дисперсией.
П р и м е р . В результате статистической обработки промежутков между
заявками в потоке получены оценки для математического ожидания и дис­
персии величины Т\
mt — 2 (мин). Dt — 0,8 (мин1).
Заменить этот поток нормированным потоком Эрланга с теми же характери;тиками.
Р е ш е н и е . Имеем
X = J - == 0,5.
tnt
Из формулы (19.5.11) получим
Поток можно приближенно заменить нормированным потоком Эрланга чет­
вертого порядка.'
1 9 .6 . В р е м я о б с л у ж и в а н и я
К ром е характеристик входн ого потока заявок, режим работы с и ­
стемы зависит еще от характеристик производительности самой си ­
стемы: числа каналов п и быстродействия каж дого канала. Одной из
важнейших величин, связанных с системой, является в р е м я о б с л у ­
ж и в а н и я о д н о й з а я в к и Тоб. Эта величина мож ет быть как не­
случайной, так и случайной. Очевидно, более общ им является сл у ­
чайное время-обслуж ивания.
Рассмотрим случайную величину Т об и обозначим 0 ( t ) ее ф унк­
цию распределения:
Q(t) — P (Тоб < t),
(1 9 .6 .1 )
а g ( t ) — плотность распределения:
g ( t ) = G'(t).
(1 9 .6 .2 )
Для практики особы й интерес представляет случай, когда вели­
чина Той имеет показательное распределение
g (t) =
(t > 0).
(1 9 .6 .3 )
где параметр р — величина, обратная среднему времени обслуживания
одной заявки:
Щ0ь = М [ Т 0б\.
(1 9 .6 .4 )
*об
О собая роль, к о т о р у ю играет в теории м а ссового обслуживания
показательный закон распределения величины Г об. связана с тем
ВРЕМ Я О Б С Л У Ж И В А Н И Я
19.6]
535
свойством эт ого закона, к о т о р о е было доказан«? в п° 19.4. В приме­
нении к данному случаю оно ф ормулируется так: е с л и в к а к о й- т о
м о м е н т /0 п р о и с х о д и т о б с л у ж и в а н и е заявки, то за­
кон ра сп р ед ел ен и я
ост авшегося в р е м е н и о б с л у ж и в а ­
ния не з а в и с и т о т т о г о , с к о л ь к о в р е м е н и о б с л у ж и ­
в а н и е уже п р од ол ж а л ось.
На первый взгляд допущение о том , что время обслуживания
распределено по показательному закону, представляется довол ьно
искусственным. В ряде практических задач кажется естественнее пред­
положить его либо совсем не случайным, либо распределенным по
нормальному закону. Однако сущ ествую т условия, в к отор ы х время
обслуживания действительно распределяется по закону, близкому
к показательному.
Э то, прежде всего, все задачи, в котор ы х обслуживание сводится
к ряду «п оп ы ток », каждая из к отор ы х приводит к необходимому
результату с какой-то вероятностью р .
П усть, например, «обслуж ивание» состои т в обстр ел е какой-то
цели и заканчивается в момент ее поражения. О бстрел ведется неза­
висимыми выстрелами с некоторой средней скорострел ьн остью X вы­
стрелов в единицу времени. Каждый выстрел поражает цель с вероят­
ностью р. Чтобы не связывать себя необходим остью точного учета
момента каж дого выстрела, предположим, что они происходят в сл у­
чайные моменты времени и образую т простейший п оток Г1 с плот­
ностью X (рис. 19.6.1).
О
Рис. 19.6.1.
Выделим мысленно из эт о го потока др у гой — поток «у сп еш н ы х »,
или «пораж аю щ их», выстрелов (они отмечены кружками на рис. 19 .6 .1 ).
Выстрел будем называть «успеш ны м», если он приводит к поражению
цели (если только цель не была поражена ранее). Н етрудно убедиться,
что успешные выстрелы тож е образую т простейший п оток ГГ с плот­
ностью Л = Х/> (исходный поток Г1 — простейш ий, а каждый выстрел
мож ет стать поражающим, независимо от других, с вероятностью р).
В ероятность того, что цель будет поражена д о момента / , будет равна
0 ( 0 = / 5 (7’о б < 0 = 1 - е - А',
откуда плотность распределения времени «обслуж ивания»
g ( t ) = A e ~ KI,
а это есть показательный закон с параметром (*=*=Л.
536
ЭЛЕМ ЕНТЫ
ТЕ ОРИ И
М АССОВОГО
О БС Л У Ж И ВА Н И Я
[ГЛ.
19
Показательным законом распределения времени обстрела д о п ор а ­
жения цели мож но приближенно пользоваться и в случае, когда вы­
стрелы не образую т простейш его потока, а отделены, например,
ст р о го определенными промежутками времени tv если только ве­
роятность поражения одним выстрелом р не очень велика. Для ил­
люстрации приведем на одном и том же графике (рис. 1 9 .6 .2 ) ф унк­
цию распределения момента пораж ающ его выстрела (ступенчатая
линия) для случая р — 0 ,4 , ^ = 1 и функцию распределения показа­
тельного закона с парамет­
ром [х = р = 0 ,4 (плавная
кривая).
Как
видно
на
рис.
19 .6 .2 , непрерывное
показательное
распределе­
ние х о р о ш о соответствует
характеру нарастания ф унк­
ции распределения для ди­
скретного
случая.
Е сте­
ственно, если моменты вы­
стрелов не бу д у т ст р о го
определенными, с о о т в е т ст ­
вие с показательным законом
будет еще лучше.
Случай
стрельбы — не
единственный, когда о б сл у ­
живание осуществляется рядом «п оп ы ток ». К такому типу часто можно
отнести обслуживание по устранению неисправностей технических
у стр ой ств , когда поиски неисправной детали или узла осущ ествляются
рядом тестов или проверок. К такому же типу можно отнести задачи,
где «обслуж ивание» заключается в обнаружении к ак ого-л и бо объекта
радиолокатором, если объ ек т с какой-то вероятностью может быть
обнаружен при каждом цикле обзор а .
Показательным законом х о р о ш о описываются и те случаи, когда
плотность распределения времени обслуживания по тем или иным
причинам убывает при возрастании аргумента t. Э то бывает, когда
основная масса заявок обслуживается очень бы стр о, а значительные
задержки в обслуживании наблюдаются редко. Р ассмотрим, например,
окно почтового отделения, где продаются марки и конверты, а также
принимаются почтовые отправления и переводы. Основная масса п о ­
сетителей покупает марки или конверты и обслуживается очень
бы стр о. Реже встречаются заявки на отправление заказных писем,
они обслуживаются несколько дольш е. П ереводы посылаются еще
реже и обслуживаются еще дольш е. Наконец, в самых редких сл у ­
чаях представители организаций отправляют сразу бол ьш ое коли­
чество писем. Гистограмма распределения времени обслуживания
имеет вид, представленный на рис. 19 .6 .3 . Так как плотность рас­
М А РК О В СК И Й
С Л У ЧАЙ Н Ы Й
П РО Ц Е СС
537
пределения убывает с возрастанием t, можно без о со б о й погреш ности
выровнять распределение с помощ ью показательного закона, подобрав
соответствую щ им образом его параметр {)..
Разумеется, показательный закон не является универсальным
законом распределения времени обслуживания. Часто время о б сл у ­
живания лучше описывается, например, законом Эрланга. Однако,
к счастью, пропускная сп о ­
собн ость и другие характеристики системы м ассового
обслуживания сравнительно
мало зависят о т вида закона
распределения времени о б ­
служивания, а зависят, глав­
ным образом , от его среднего
значения пг,о6. П оэтом у в
теории массового обсл уж и ­
вания чаще всего пользуются
допущением, что время о б ­
служивания распределено по
показательному закону. Эта
Рис. 19.6.3.
гипотеза позволяет сильно
упростить
математический
аппарат, применяемый для решения задач м а ссового' обслуживания,
и, в ряде случаев, получить простые аналитические формулы для х а ­
рактеристик-пропускной сп особ н ости системы.
19.7. М арковский сл учайны й п р оц есс
Допущения о пуассоновском характере потока заявок и о пока­
зательном распределении времени обслуживания ценны тем, что
позволяют применить в теории м ассового обслуживания аппарат так
называемых марковских случайных проц ессов.
П роц есс, протекающий в физической системе, называется м а р ­
ковским (или процессом без последействия), если для каждого м о­
мента времени вероятность любого сост ояния системы в б у ­
дущем зависит только от сост ояния системы в настоящий
момент (*0) и не зависит от' того, каким о б р а з о м система
пришла в это сост ояние .
Рассмотрим элементарный пример м арковского случайного п р о ­
цесса. П о оси абсцисс О х случайным образом перемещается точка X .
В момент времени / = 0 точка X находится в начале координат
(л: = 0) и остается там в течение одной секунды. Через секунду
бросается монета; если выпал гер б — точка X перемещается на одну
единицу длины вправо, если цифра — влево. Через секунду снова
бросается монета и производится такое же случайное перемещение,
538
ЭЛЕМЕНТЫ
ТЕ О РИ И
М А СС О В О Г О
О БС Л У Ж И В А Н И Я
[ГЛ
19
и т. д. П р оц есс изменения положения точки (или, как говорят,
«бл уж дания») представляет собой случайный процесс с дискретным
временем ( £ — О, 1, 2 , . . . , ) и счетным множеством состояний
х0= 0; ^ =
1; х _ х = — 1; х 2 — 2 ; х _ 2 ~ — 2 ; . . .
Схема возможных переходов для этого процесса показана на
рис. 19.7.1.
Покажем, что этот проц есс — марковский. Действительно, пред­
ставим себе, что в какой-то момент времени £0 система находится,
например, в состоянии х х — на одну единицу правее начала к оор д и ­
нат. Возможные положения точки через единицу времени будут х 0
и х 2 с вероятностями 1/2 и 1/ 2 ; через две единицы — х _ х, х х, х 3
с вероятностями 1/4, 1/2, 1/4 и так далее. Очевидно, асе эти ве­
роятности зависят только от т о г о , г д е находится точка в данный
момент ta, и соверш енно не зависят от т о го , к а к она пришла туда.
Рис. 19.7.1,
Р ассмотрим другой пример. Имеется техническое у стр ой ство X ,
состоящ ее из элементов (деталей) типов а и Ь, обладающих разной
долговечностью . Эги элементы в случайные моменты времени и неза­
висимо д р уг от друга могут выходить из строя. Исправная работа
каж дого элемента безусловно необходима для работы устройства
в целом. Время безотказной работы элемента — случайная величина,
распределенная по показательному закону; для элементов типа а и Ь
параметры эт ого закона различны и равны соответственно \а и \ь.
В случае отказа устройства немедленно принимаются меры для вы­
явления причин и обнаруженный неисправный элемент немедленно
заменяется новым. Время, потребное для восстановления (ремонта)
устройства, распределено по показательному закону с параметром р.а
(если вышел из строя элемент типа а) и ^ (если вышел из строя
элемент типа Ь).
В данном примере случайный процесс, протекающий в системе,
есть марковский процесс с непрерывным временем и конечным мно­
ж еством состояний:
.V, — все элементы исправны, система работает,
х 1— неисправен элемент типа а, система рем он ти руется1),
х 2 — неисправен элемент типа Ь, система ремонтируется.
Схема возмож ных переходов дана на рис. 19.7.2.
') Предполагается, что детали могут выходить из строя только во время
работы системы; выход из строя одновременно двух или более деталей прак­
тически невозможен.
19.7]
М А РК О В СК И Й СЛУЧАЙ Н Ы Й П РО Ц Е СС
539
Действительно, проц есс обладает марковским свойством. П усть
например, в момент / 0 система находится в состоянии л;0 (исправна).
Так как время безотказной работы каж дого элемента — показатель­
н о е 1), то момент отказа каж дого элемента в будущ ем не зависит от
т о г о , сколько времени он уже работал (когда поставлен). П оэтом у
вероятность т о го , что в будущ ем система останется в состоянии х 0
или уйдет из него, не зависит от «преды стории» процесса. П р ед ­
положим теперь, что в момент t0 система находится в состоянии х х
(неисправен элемент типа а). Так как время ремонта тож е показа­
тельное, вероятность окончания ремонта в лю бое время после t^} не
зависит от т о го , когда начался ремонт и когда
^
^
были поставлены остальные (исправные) элементы.
Г"
| ,Г
Таким образом , проц есс является марковским.
-—
х<
Заметим, что показательное распределение вреI *
мени работы элемента и показательное распреде­
ление времени ремонта — существенные условия,
л
без котор ы х процесс не был бы марковским. Д ейС Хг
ствительно, предположим, что время исправной
работы элемента распределено не по показательРис. 19.7.2.
ному закону, а по какому-нибудь другом у —
например, по закону равномерной плотности на участке ( / ; , £2). Это
значит, что каждый элемент с гарантией работает время t l, а нз
участке от t l до (2 может выйти из строя в любой момент с одина­
ковой плотностью вероятности. Предполож им, что в какой-то момент
времени / 0 эл ем ен тр а б ота е т исправно. Очевидно, вероятность т ого ,
что элемент выйдет из строя на каком -то участке времени в будущ ем,
зависит от т о го , насколько давно поставлен элемент, т. е. зависит
от предыстории, и процесс не будет марковским.
Аналогично обстои т дело и с временем ремонта Т
если оно не
показательное и элемент в момент t 0 ремонтируется, то оставш ееся
время ремонта зависит от т о го , когда он начался; проц есс снова не
будет марковским.
В ообщ е показательное распределение играет о со б у ю роль в теории
марковских случайных процессов с непрерывным временем. Легко у б е ­
диться, что в стационарном марковском процессе время, в течение
к о т о р о го система остается в каком-либо состоянии, распределено
всегда по показательному закону (с параметром, зависящим, вообщ е
говоря, о т этого состояния). Действительно, предположим, что в м о ­
мент tй система находится в состоянии х к и до этого уже находилась
в нем как ое-то время. Согласно определению марковского процесса,
вероятность л ю бого события в будущ ем не зависит от предыстории;
в частности, вероятность т о го , что система уйдет из состояния х к
‘) Так говорят
ления».
кратко вместо «имеет показательный закон распреде­
540
ЭЛЕМ ЕНТЫ ТЕ О РИ И
М А С С О В О ГО О Б С Л У Ж И В А Н И Я
[ГЛ.
19
в течение времени
не должна зависеть о т т о го , скол ько времени
система уж е провела в этом состоянии. Следовательно, время пребы ­
вания системы в состоянии х к должно быть распределено по показа­
тельному закону.
В случае, когда процесс, протекающий в физической системе со
счетным множеством состояний и непрерывным временем, является
марковским, можно описать эт о т проц есс с помощ ью обыкновенных
дифференциальных уравнений, в котор ы х неизвестными функциями
являются вероятности состояний р 1У), р 2(0< ••• Составление и р е ­
шение таких уравнений мы продемонстрируем в следующ ем п° на
примере простейш ей системы м ассового обслуживания.
19.8. Система м ассового обслуж ивания с отказами.
Уравнения Эрланга
Системы м ассового обслуживания делятся на два основных типа:
а) системы с отказами, б) системы с ожиданием.
В с и с т е м а х с о т к а з а м и заявка, поступившая в момент, когда
все каналы обслуживания заняты, немедленно получает отказ, поки­
дает систему и в дальнейшем процессе обслуживания не участвует.
В с и с т е м а х с о ж и д а н и е м заявка, заставшая все каналы заня­
тыми, не покидает систему, а становится в очередь и ожидает, пока
не освободи тся какой-нибудь канал. В настоящем п° мы рассмотрим
систему с отказами как наиболее п р остую .
Рис. 19.8.1.
П усть имеется и-канальная система м ассового обслуживания
с отказами. Рассмотрим ее как физическую систему X с конечным
множ еством состояний:
л;р — свободны все каналы,
х х — занят ровно один канал,
х к — занято ровно & каналов,
х п — заняты все п каналов.
Схема возмож ны х переходов дана на рис. 19.8.1.
Поставим задачу: определить вероятности состояний системы
Р ь У ) (& = 0, 1, . . . . п) для л ю бого момента времени t. Задачу будем
решать при следующ их допущениях:
1) п оток заявок — простейш ий, с плотностью
19.8]
СИСТЕМ А М А С С О В О ГО
541
О БС Л У Ж И В А Н И Я С ОТКАЗАМ И
2) время обслуживания Тоб — показательное, с параметром {* =
—
т ‘о6
=
(* > 0 ).
(1 9 .8 .1 )
Заметим, что параметр р. в ф ормуле (1 9 .8 .1 ) полностью аналогичен
параметру X показательного закона распределения промежутка Т между
соседними событиями простейш его потока:
/(* )4 » Х е -*
(* > 0 ).
(1 9 .8 .2 )
Параметр X имеет смысл «плотности потока заявок». Аналогично,
величину р. можно истолковать как «плотность потока освобож дени й»
занятого канала. Действительно, представим себе канал, непрерывно
занятый (бесперебойно снабжаемый заявками); тогда, очевидно, в этом
канале будет идти простейш ий поток освобож дений с плотностью |а.
Так как оба потока — заявок и освобож дений — простейш ие, п р о ­
цесс, протекающий в системе, будет марковским.
Рассмотрим возможные состояния системы и их вероятности
/> о (0 . Р г ( 0 .......... р » ( 0 .
(1 9 .8 .3 )
Очевидно, для лю бого момента времени
2 /> * ( * ) =
к= 0
1-
(1 9 -8 .4 )
Составим дифференциальные уравнения для всех вероятностей (1 9 .8 .3 ),
начиная с р 0(О. Зафиксируем момент времени * и найдем вероятность
р 0 ( / + ДО т ого, что в момент
система будет находиться в с о ­
стоянии х 0 (все каналы свободн ы ). Э то может п р о ­
изойти двумя способам и (рис. 19.8.2):
- у *■
.1,
А — в момент t система находилась в со с т о я ­
У
Ш
нии лг0, а за время ДI не перешла из нее в х х (не
пришло ни одной заявки),
Рис. 19.8.2,
В — в момент / система находилась в со с т о я ­
нии х х, а за время М канал освободился, и система перешла в с о ­
стояние х 0г).
В озм ож ностью «п ер еск ок а » системы через состояние (например, из
х 2 в х 0 через л:х) за малый пром еж уток времени можно пренебречь,
как величиной высш его порядка малости по сравнению с Р (А) и Р (В ) 2).
П о теорем е сложения вероятностей имеем
р 0(( + М ) ^ Р ( А ) - { - Р ( , В ) .
(1 9 .8 .5 )
') На рис. 19.8.2 возможные способы появления состояния х 0 в момент
<-|- М показаны стрелками, направленными в х 0; стрелка, направленная из
х а в Х[. перечеркнута в знак того, что система не должна выйти из состоя­
ния х 0.
2)
В дальнейшем мы все время будем пренебрегать слагаемыми высших
порядков малости по сравнению с Д/. В пределе при Д ?->0 приближенные
равенства перейдут в точные.
542
ЭЛЕМЕНТЫ
ТЕ О РИ И
М А СС О В О Г О
ОБСЛУЖ И ВАНИЯ
[ГЛ
19
Найдем вероятность события А по теореме умножения. В ероят­
ность т о го , что в момент Л система была в состоянии х а, равна р 0 (/).
Вероятность того, что за время
не придет ни одной заявки, равна
е -хд<> с точностью до величин высш его порядка малости
Ш ,
(19.8.6)
Следовательно,
Р ( А ) а р 0( О ( 1 — X ДОНайдем Р (В). В ероятность того, что в момент i система была
в состоянии ЛГ), равна р х ((). В ероятность того, что за время М канал
освободи тся, равна 1 — е -М < ; с точностью до малых величин вы с­
шего порядка
1—
« (а Д£.
Следовательно,
Р ( Я ) « Л ( 0 р Д /.
Отсюда
р 0 ( * + А 0 » / > 0 ( 0 ( 1 - х д 0 + р / > 1(*)Д*.
П еренося р 0 ( 0 в левУю часть, деля на Ы и переходя к пределу
при Д ^ -> 0 , получим дифференциальное уравнение для />0 ( 0 :
^
Г
=
- ^
0(0 +
^ > (0 .
(1 9 .8 .7 )
Аналогичные дифференциальные уравнения могут быть составлены
и для други х вероятностей состояний.
Возьмем лю бое А (0 < А < л) и найдем вероятность р к Ц -\ -М )
т о го , что в момент ^ + ^ система будет в состоянии х к (рис. 1 9 .8 .3 ).
Эта вероятность вычисляется как вероят­
ность суммы уж е не двух, а тр ех событий (по
числу стрелок, направленных в состояние х к):
А — в момент £ система была в состоянии х к
(занято А каналов), а за время Ы не перешла
Рис. 19.8.3.
из нег0 ни в х 4+1, ни в лгА_1 (ни одна заявка
не поступила, ни один канал не освободился);
В — в момент Ь система была в состоянии х к_ г (занято А — 1
каналов), а за время Д£ перешла в х к (пришла одна заявка);
С — в момент Ь система была в состоянии х к+1 (занято А + 1
каналов), а за время М один из каналов освободился.
Найдем Р { А ) . Вычислим сначала вероятность т о го , что за время
Д£ не придет ни одна заявка и не освободи тся ни один из каналов:
Пренебрегая малыми величинами высших порядков, имеем
1 — '(Х + А р ) Д * ,
19.81
С И СТЕМ А М А С С О В О Г О
543
О Б С Л У Ж И В А Н И Я С О ТК АЗАМ И
отк уд а
Р (Л ) » М О П
— (* +
*!*)**!•
А налогично
р ( в ) ^ Рк_ 1т и ,
Р ( С ) ~ р к+1( ( ) ( к + \ ) р Ы
и
РкУ + д0 ^ Рк( О П
— (X — &[!.) д / 1
рк-1 ( /) х д ^
- Ь />*+1 ( 0 (* н - 1) I» д / .
О т сю д а получаем диф ф еренциал ьное уравнение для
йРь (О
'■^ Р к - 1 ( 0 — (^ “Ь ^!х) Р к (0 +
С оста в и м уравн ен ие для
Име£м
Рп ( / +
ДО «
(^ ~Ь О У,Рк+1 ( 0 •
п осл ед н ей в е р о я тн о сти
( 0 (1 — пр
до
+
р к(0 (0 < А < « ):
р „ ( 0 (рис. 1 9 .8 .4 ).
Р п - 1 ( 0 х д ^-
I------- 1
I^
гд е 1 — й (а Д / — в ер оя тн ость т о г о , ч то за врем я Д£
Рис [ 9 8 4
не о с в о б о д и т с я ни один канал;
— в е р о я тн о сть
т э г о , что за врем я Д£ п р и д ет одна заявка. П ол учаем д и ф ф еренциал ь­
н ое уравнение для р „ ,,(0 :
= ^ „ - 1 ( 0 - щ р „ (ОТаким
образом ,
для в ер оя тн остей
получена
си стем а диф ф еренциальны х уравнений
р х ( 0 . Рг (0> • • •• Рп (О-
^ М 1 = - \ р 0( 0 + ^
<а
( 0.
Ар* (0 _
м
(1 9 .8 .8 )
(О < А < и),
рп (0 _
Уравнения (1 9 .8 .8 ) назы ваю тся уравнениями Эрланга. И н тегр и ­
рование си стем ы уравнений (1 9 .8 .8 ) при начальных у сл ови я х
/>о(0) =
1;
М °)=
••• = Р « ( 0) = 0
544
ЭЛЕМЕНТЫ ТЕ О РИ И
М А С С О В О ГО
О БСЛ УЖ И ВАН И Я.
ГГЛ
19
(в начальный момент все каналы свободн ы ) дает зависимость р к (£)
для л ю бого А. Вероятности р к (() характеризую т средню ю загрузку
системы и ее изменение с течением времени. В частности, р'п(() есть
вероятность того, что заявка, пришедшая в момент
застанет все
каналы занятыми (получит отказ):
^ОТК == РII (ОВеличина д у ) = \ — р „ ( 0 называется относительной п р о п у ­
скной способност ью системы. Для данного момента Ь это есть о т н о ­
шение среднего числа обслуженных за единицу времени заявок
к среднему числу поданных.
Система линейных дифференциальных уравнений (1 9 .8 .8 ) сравни­
тельно легко может быть проинтегрирована при любом конкретном
числе каналов и.
Заметим, что при выводе уравнений (1 9 .8 .8 ) мы нигде не пользо­
вались допущением о том, что величины X и [а (плотности потока
заявок и «п оток а освобож ден и й») постоянны. П оэтом у уравнения
(1 9 .8 .8 ) остаю тся справедливыми и для зависящих от времени )•.(().
|а(^), лишь бы потоки событий, переводящих систему из состояния
в состояние, оставались пуассоновскими (без этого процесс не будет
марковским).
19.9. Установивш ийся режим
обслуж ивания. Формулы Эрланга
Рассмотрим я-канальную систему м ассового обслуживания с отка­
зами, на вход котор ой поступает простейший поток заявок с пл от­
ностью X; время обслуживания— показательное, ^параметром р.. В о з­
никает в оп р ос: будет ли стационарным случайный процесс, протекаю ­
щий в системе? Очевидно, что в начале, сразу после включения
системы в работу, протекающий в ней процесс- еще не будет стацио­
нарным: в системе м ассового обслуживания (как и в любой динами­
ческой системе) возникнет так называемый «переходны й», нестацио­
нарный проц есс. Однако, спустя некоторое время, этот переходный
процесс затухнет, и система пёрейдет на стационарный, так называе­
мый «установивш ийся» режим, вероятностные характеристики к о т о ­
рого уж е не будут зависеть от времени.
' Во многих задачах практики нас интересуют именно характери­
стики предельного установивш егося режима обслуживания.
М ож но доказать, что для любой системы с отказами такой п р е­
дельный режим сущ ествует, т. е. ч-то при ( - > о о все вероятности
р 0((), р\Ц), . . . . р п ( 0 стремятся к постоянным пределам р 0, р х, . . .
. . . , р п, а все их производные — к нулю.
Чтобы найти предельные вероятности р 0, р у
р п (вероятности
состояний системы в установившемся режиме), заменим в уравнениях
(1 9 .8 .8 ) все вероятности р к {() (О
их пределами р к, а все
19.9]
У СТА Н О В И В Ш И Й С Я
РЕ Ж И М О Б С Л У Ж И В А Н И Я . Ф О РМ У Л Ы
Э Р Л А Н ГА
545
п р ои з в од н ы е п ол ож и м равными н ул ю . П олучим си сте м у у ж е не д и ф ­
ф еренциал ьны х, а а л гебраи ческ и х уравнений
— ХА , - Ь т =
хРо — О1+
^Рк-1 —
О,
Р \ -Ь 2 р р 2 =
!*)
Р * 4 - ( * + *) РРь+\ = 0
+
(0 <
(1 9 .9 .1 )
к < п),
(п — 1)(а] р я- х + п ^ р п ~ 0 ,
'ЬРа-Г
[Х +
ЬРп-Г
■ПРРп
0.
К этим уравнениям н е о б х о д и м о д об а в и ть у сл о в и е
2
р
*=
(1 9 .9 .2 )
ь
Р азреш и м си сте м у ( 1 9 .9 .1 ) о т н о с и т е л ь н о н еи звестн ы х
. . . . р п. И з п е р в о г о уравнения имеем
А
Р1
р 0, р и . . .
(1 9 .9 .3 )
Р о-
И з в т о р о г о , с у ч е то м ( 1 9 .9 .3 ),
Рг —
I— ^Ри +
(^ 4 - 11)
Р\\ —
—
+
=
Ро'*
(1 9 * 9 .4 )
аналогично из т р е т ь е г о , с у ч е то м ( 1 9 .9 .3 ) и ( 1 9 .9 .4 ),
1 (
=
з|Г
,
к*
— Ро +
и в о о б щ е , для л ю б о г о
,
2^Г Р ° +
к1 '
2|ХГ *
к»
к ^ .п
А*
РьВ ведем
\
Ярро) — з ]^ г Ро>
А1|лА
Ро-
( 1 9 .9 .5 )
обозн а чен и е
_Х_
(1 9 .9 .6 )
Iх
и назовем величину а приведенной плотностью потока заявок.
Э т о есть не что иное, как с р е д н е е ч и с л о з а я в о к , п р и х о д я ­
щ е е с я на с р е д н е е в р е м я о б с л у ж и в а н и я о д н о й з а я в к и .
Д ей стви тел ьн о,
а = = :у
38 Теория вероятностей
= 1т‘ о6’
646
ЭЛЕМ ЕНТЫ Т Е О РИ И
где
т(о6 = М. [ Г об] — с р е д н е е
М А СС О В О Г О
врем я
ОБСЛУЖ ИВАНИЯ
обсл уж и ван и я
одной
[ГЛ
19
заявки.
В н ов ы х обозн ачен и я х ф ор м у л а (1 9 .9 .5 ) п ри м ет вид
*1
Рк = ТгРок\
( 1 9 .9 .7 )
Ф ор м у л а (1 9 .9 .7 ) в ы ра ж а ет в се в е р о я т н о ст и р к ч ер ез р 0. Ч тобы в ы ­
разить их н еп оср ед ств ен н о ч ерез а и п, в о сп о л ь зу е м ся у сл ов и ем
(1 9 .9 .2 ). П од ста ви в в н его (1 9 .9 .7 ), получим
±
Рк^
й=0
Р
^
= и
А=0
отк у д а
Р о^ -Т Г — ак
2и1\
к=0
0 9 - 9 .8 )
П одставл яя ( 1 9 -9 ,8 ) в ( 1 9 .9 .7 ), получим ок он чател ьн о
,к
а*
Р к ~ ' ~ г ~—
(0 < £ < / * ) •
(1 9 .9 .9 )
ТГЧ ак
2лТ\
6=0
Ф ор м у л ы ( 1 9 .9 .9 ) назы ваю тся формулами Эрланга. О н и д аю т
п редельны й закон распредел ения числа занятых каналов в за висим ости
о т х а р а к тер и сти к п о т о к а за я в ок и п р ои зв од и тел ь н ости си стем ы о б с л у ­
живания. П олагая в ф о р м у л е (1 9 .9 .9 ) £ = я , получим вероятность
отказа (в е р о я т н о с т ь т о г о , ч то поступ и вш ая заявка найдет в се к а­
налы заняты ми):
о™
Р ^ Р и ^ ^ г — '
V I о6
о 9 -9 - 10)
ь= о
В ч а стн ости , для од н окан ал ьн ой систем ы
(п = 1)
=
(1 9 .9 .1 1 )
а отн оси тел ьн а я п р оп уск н а я с п о с о б н о с т ь
1 _ р отк==т1 _ ,
(1 9 .9 .1 2 )
Ф ор м у л ы Э рланга (1 9 .9 ,9 ) и их сл ед стви я ( 1 9 .9 .1 0 ) — (1 9 .9 .1 2 )
вы ведены нами для случая п ок аза тел ьн ого распредел ения врем ени
19.91
У СТА Н О В И В Ш И Й С Я
РЕЖ ИМ
О Б С Л У Ж И В А Н И Я . Ф ОРМ УЛ Ы
Э РЛ А Н ГА
547
обслуживания. Однако исследования последних л е т 1) показали, что
эти формулы остаю тся справедливыми и при любом законе распре­
деления времени обслуживания, лишь бы входной поток был п р о­
стейшим.
П р и м е р 1. Автоматическая телефонная станция имеет 4 линия связи.
На станцию поступает простейший поток заявок с плотностью X = 3 (вызова
в минуту). Вызов, поступивший в момент, когда все линии заняты, получает
отказ 2). Средняя длительность разговора 2 минуты. Найти: а) вероятность
отказа; б) среднюю долю времени, в течение которой телефонная станция
вообще не загружена.
Р е ш е н и е . Имеем /п<о6 = 2 (мин);
[д. = 0,5 (разг/мин),
а = А = 6.
Н1
а) По формуле (19.9.10) получаем
а4
^ ■ - Л -
г + -Е + ^
^
II ^
^
2! ^
31 ^
-
Ю0ЛУ.
4!
б) По формуле (19.9.8)
р0 = -------------------------- - 3-------я 0,0087.
1+ Т Т + 2 Т + З Т + 4Г
Н есм отря на то, что формулы Эрланга в точности справедливы
только при простейшем потоке заявок, ими можно с известным при­
ближением пользоваться и в случае, когда поток заявок отличается
о т простейш его (например, является стационарным потоком с о гр а ­
ниченным последействием). Расчеты показывают, что замена прои з­
вольного стационарного потока с не очень большим последействием
простейшим потоком той же плотности X, как правило, мало влияет
на характеристики пропускной сп особ н ости системы.
Наконец, можно заметить, что формулами Эрланга можно при­
ближенно пользоваться и в случае, когда система м ассового о б сл у ­
живания допускает ожидание заявки в очереди, но когда ср ок ож и ­
дания мал по сравнению со средним временем обслуживания одной
заявки.
П р и м е р 2. Станция наведения истребителей имеет 3 канала. Каждый
канал может одновременно наводить один истребитель на одну цель. Среднее
время наведения истребителя на цель т/дб = 2 мин. Поток целей — простей­
ший, с плотностью X = 1,5 (самолетов в минуту). Станцию можно считать
«системой с отказами», так как цель, по которой наведение не началось
в момент, когда она вошла в зону действия истребителей, вообще остается не
') См. Б. А. С е в а с т ь я н о в , Эргодическая теорема для марковских
процессов и ее приложение к телефонным системам с отказами. Теория ве­
роятностей и ее применения, т. 2, вып. 1, 1957,
2)
Предполагается, что вторичные вызовы абонентов, получивших отказ
не нарушают пуассоновского характера потока заявок.
18*
548
Э ЛЕМ ЕН ТЫ Т Е О РИ И
М А СС О В О Г О
ОБСЛУЖ И ВАНИЯ
[ГЛ.
19
атакованной. Найти среднюю долю целей, проходящих через зону действия
не обстрелянными.
Р е ш е н и е. Имеем [*•= 4- = 0,5: X = 1,5; а = — = 3.
2
По формуле (19.9.10)
З3
Рот — Ръ —
д
дг
дз" ~ 0,346.
1+ТГ + 1Гг+ 'зТ
Вероятность отказа « 0,346; она же выражает среднюю долю необстрелян­
ных целей.
Заметим, что в данном примере плотность потока целей выбрана такой,
что при их регулярном следовании одна за другой через определенные интер­
валы и при точно фиксированном времени наведения Т0(, = 2 мин номиналь­
ная пропускная способность системы достаточна для того, чтобы обстрелять
все без исключения цели. Снижение пропускной способности происходит из-за
наличия случайных сгущений и разрежений в потоке целей, которые нельзя
предвидеть заранее.
19.10. Система
м а ссового обслуж ивания с ожиданием
С и стем а м а с с о в о г о обслуж ивания называется системой с ожида­
нием, если заявка, заставш ая в се каналы занятыми, стан ови тся в о ч е ­
р ед ь и ж д ет, пока не о с в о б о д и т с я к а к ой -н и бу д ь канал.
Е сли врем я ож идания заявки в оч еред и ничем не огран и ч ен о, т о
си стем а назы вается «ч и с т о й си стем ой с ож и д а н и ем ». Е сли о н о о г р а ­
ничено к а к и м и -то усл овиям и, т о си стем а называется «си с т е м о й с м е ­
ш ан н ого т и п а » . Э т о п ром еж у точн ы й случай м еж ду чистой си стем ой
с отказам и и чи стой си сте м о й с ож иданием.
Для практики наибольш ий и н терес п р ед став л я ю т именно си стем ы
см еш а н н ого типа.
4
О граничения, налож енны е на ож идание, м о г у т бы ть различн ого
типа. Ч асто бы вает, что ограничение накладывается на в р е м я о ж и ­
д а н и я з а я в к и в о ч е р е д и ; считается, ч то о н о огран и чен о с в е р х у
к а к и м -то с р о к о м Тож, к о т о р ы й м ож ет бы ть как с т р о г о определен н ы м ,
так и случайны м. П ри этом ограничивается т о л ь к о с р о к ожидания
в оч ер ед и , а начатое обсл уж и ван и е д ов од и тся д о конца, независим о
о т т о г о , с к о л ь к о врем ени п р од ол ж а л ось ож идание (н ап рим ер, клиент
в п а р и к м а х ер ск ой , сев в к р е с л о , об ы ч н о у ж е не у х о д и т д о конца
обсл уж и ван и я ). В д р у г и х задачах естеств ен н ее налож ить огр ан и ч е­
ние не на врем я ож идания в очер ед и , а на о б щ е е в р е м я п р е б ы ­
в а н и я з а я в к и в с и с т е м е (н ап рим ер, воздуш ная цель м ож ет
п р о б ы ть в зон е стр ел ь б ы лишь огран и чен н ое врем я и п окидает ее
независим о о т т о г о , кончился о б с т р е л или нет). Н аконец, м ож н о р а с ­
см о т р е т ь и та к у ю см еш анную си стем у (он а ближ е в се г о к типу т о р ­
говы х предприятий, т о р г у ю щ и х предм етам и не п ер в ой н ео б х о д и м о сти ),
когда заявка стан ови тся в оч ер ед ь т о л ь к о в то м случае, если длина
19.10]
СИСТЕМ А
М А С С О В О ГО
ОБСЛУЖ И ВАНИЯ С ОЖ ИДАНИЕМ
549
очереди не слишком велика. Здесь ограничение накладывается на
число заявок в очереди.
>
В системах с ожиданием сущ ественную роль играет гак назы­
ваемая «дисциплина очер еди ». Ожидающие заявки могут вызываться
на обслуживание как в порядке очереди (раньше прибывший раньше
и обслуживается), так и в случайном, неорганизованном порядке.
С ущ ествую т системы м а ссового обслуживания « с преимущ ествами»,
где некоторы е заявки обслуживаются предпочтительно перед другими
(«генералы и полковники вне очереди»).
Каждый тип системы с ожиданием имеет свои особенности и свою
математическую теорию . Многие из них описаны, например, в книге
Б. В. Гнеденко .«Лекции по теории м ассового обслуживания».
Здесь мы остановимся только на простейш ем случае смешанной
системы, являющемся естественным обобщ ением задачи Эрланга для
системы с отказами. Для этого случая мы выведем дифференциаль­
ные уравнения, аналогичные уравнениям Эрланга, и формулы для
вероятностей состояний в установивш емся режиме, аналогичные ф о р ­
мулам Эрланга.
Рассмотрим смешанную систему м а ссового обслуживания X
с п каналами при следующ их условиях. На вход системы поступает
простейший п оток заявок с плотностью X. Время обслуживания одной
заявки Т 06 — показательное, с параметром
= —— . Заявка, Застав­
и в
шая все каналы занятыми, становится в очередь и ожидает обсл уж и­
вания; время ожидания ограничено некоторы м ср ок ом Т ож; если до
истечения эт ого срока заявка не будет принята к обслуживанию, то
она покидает очередь и остается необслуж енной. С р ок ожидания Т ож
будем считать случайным и распределенным по показательному
закону
Л (0 = » а д - *
(( > 0).
р
где параметр V — величина, обратная среднему ср о к у ожидания:
V— — ?— ;
т1ож
т.,
‘ ож
= / И [ 7 ’ож].
ож'
Параметр V полностью аналогичен параметрам X и р потока за­
явок и «п оток а освобож дени й». Его можно интерпретировать, как
плотность «потока у х о д о в » заявки, стоящей в очереди. Действительно,
представим себе заявку, которая только и делает, что становится
в очередь и ждет в ней, пока не кончится ср ок ожидания Тож, после
чего уходит и сразу же снова становится в очередь. Тогда «п оток
у х о д о в » такой заявки из очереди будет иметь плотность V.
Очевидно, при V—>■о о система смешанного типа превращается
в чистую систему с отказами; при ■*->() она превращается в чистую
систему с ожиданием.
.
550
ЭЛЕМЕНТЫ
ТЕ О РИ И
М А СС О В О Г О
ОБСЛУЖ И ВАНИЯ
[ГЛ
19
Заметим, что при показательном законе распределения ср ока ож и­
дания пропускная сп осо б н о сть системы не зависит от т о го , обсл уж и ­
ваются ли заявки в порядке очереди или в случайном порядке: для
каждой заявки закон распределения оставш егося времени ожидания не
зависит от т о г о , сколько времени заявка уже стояла в очереди.
Благодаря допущению о пуассон овском характере всех потоков
событий, приводящих к изменениям состояний системы, пр оц есс, п р о ­
текающий в ней, будет марковским. Напишем уравнения для вероят­
ностей состояний системы. Для эт о г о , прежде всего, перечислим эти
состояния. Будем их нумеровать не по числу занятых каналов, а по
числу с в я з а н н ы х с с и с т е м о й з а я в о к . Заявку будем называть
«связанной с систем ой », если она либо находится в состоянии о б с л у ­
живания, либо ожидает очереди. Возможные состояния системы будут:
лг0 — ни один канал не занят (очереди нет),
— занят ровно один канал (очереди нет),
х к — занято ровно & каналов (очереди нет),
х п — заняты все п каналов (очереди нет),
лг„+ 1— заняты все п каналов, одна заявка стои т в очереди,
х пл.! — заняты все я каналов, 5 заявок стоят в очереди.
Число заявок 5, стоящ их в очереди, в наших условиях мож ет
быть сколь угодно больш им. Таким обр азом , система X имеет б е с к о ­
нечное (хотя и счетное) множество состояний. С оответственн о, число
описывающих ее дифференциальных уравнений тож е будет б е с к о ­
нечным.
Очевидно, первые п дифференциальных уравнений ничем не будут
отличаться о т соответствую щ их уравнений Эрланга:
* М ± = - 1 Рй (0 +
^
( 0.
dpb (t)
Л — = V f t - i ( 0 — (*- + kp) р к (/) + (А 4 - 1 )
—V
— = 1-Рп- 2 ( 0 — Iх +
(Я — 1) |*1Р п - 1 ( 0 +
(t),
п\хр„ (0 .
Отличие новых уравнений о т уравнений Эрланга начнется при
А = » . Д ействительно, в состояние х а система с отказами может
19.101
551
С И СТЕМ А М А С С О В О Г О О Б С Л У Ж И В А Н И Я С О Ж И Д А Н И ЕМ
перей ти т о л ь к о из состоя н и я
что к асается си стем ы с ож и д а ­
нием, т о она м ож ет перейти в с остоя н и е х п не т о л ь к о из х п_ г, но
и из х п+1 (в се каналы заняты, одна заявка с т о и т в очер ед и ).
С остав и м д и ф ф ерен циал ьн ое уравн ен ие для р п($). З аф и кси руем м о ­
мент ^ и найдем / > „ ( / - ) - Д О — в е р о я т н о с т ь т о г о , ч то си стем а в м ом ент
# -| -Д / б у д е т в состоя н и и х п. Э т о м ож ет о су щ е ств и ть ся трем я с п о ­
соба м и :
1) в м ом ен т t си стем а у ж е бы ла в состоя н и и х п, а за врем я М
не выш ла из н его (не приш ла ни одн а заявка и ни один из каналов
не о с в о б о д и л с я );
2) в м ом ент £ си стем а бы ла в состоя н и и х „ _ 1, а за врем я А /
п ереш ла в со ст о я н и е х „ (п ри ш л а одна заявка);
3 ) в м ом ент Ь си стем а бы ла в состоя н и и х п+1 (в с е каналы заняты ,
од н а заявка с т о и т в оч е р е д и ), а за время М п ереш ла в х п (л и б о
о с в о б о д и л с я один канал и стоящ ая в оч е р е д и заявка заняла е г о , л ибо
стоящ ая в оч ер ед и заявка уш ла в связи с окон чан и ем с р о к а ).
И м еем :
Рп{* + Ы ) ж р п Ц )( 1 — Х М — я р Д О -Н
+
Р п-х ( 0 Ш - Ь р п+1 ( 0 (яц + V) Д
отк уд а
п?) Рп
(0 4~ ^Р п -\ (О~Ь(л1х 4~ "ОРпл 1(О-
Вы числим теп ер ь р п+1((-^-&() при л ю б ом £ > 0 — в е р о я тн о сть
т о г о , что в м ом ент
в се п каналов б у д у т заняты и р ов н о
5 заявок б у д у т стоя ть в оч ер ед и . Э т о со б ы т и е сн ова м ож ет о с у щ е ­
стви ться тр ем я сп о со б а м и :
1) в м ом ен т t си стем а у ж е бы ла в состоя н и и х п+$, а за время М
э т о с о ст о я н и е не изм енилось (значит, ни одна заявка не приш ла,
ни один канал не о с в о б о д и л с я и ни одна из 5 стоящ и х в оч ер ед и
за явок не уш ла);
2) в м ом ент Ь си стем а бы ла в состоя н и и х п+5_ 1, а за время Д£
переш ла в со сто я н и е х я+1 (т . е. приш ла од н а заявка);
3) в м ом ен т ( си стем а бы ла в состоя н и и х п+5+1, а за время Д£
переш ла в с остоя н и е х п+$ (для э т о г о л и бо один из каналов д ол ж ен
о с в о б о д и т ь с я , и тогд а одна из 5 + 1 стоя щ и х в очеред и заявок зай­
м ет е г о , л и бо одна из стоящ и х в очеред и заявок долж на уйти в связи
с ок ончанием с р о к а ).
С л ед ов ател ьн о:
/>«+$ 0 “ ~ Г Д О ~
Р п + Д О О — А Д / — щх М — «V Д О +
+
Рп+з- 1 (О
Д* +
Рл+3 + 1 ( 0 Iя !’' —К (5 — 1) V] Д /.
о тк у д а
—
— — — ( / .- ] - щх + 5 >) р п+5 ( 0 +
+ '>'/ 7н+ 4 - 1 ( 0 “ Ы л 1а -+-(5 +■ 1)
V]
р п+е + ! ( 0 ‘
552
ЭЛЕМ ЕНТЫ
ТЕ О РИ И
М АССОВОГО
ОБСЛУЖ ИВАНИЯ
[ГЛ .
19
Таким обр а зом , мы получили для вероятностей состояний систему
бескон ечного числа дифференциальных уравнений:
йРоУ) _
Щ Р- =
»
(0 -
(X 4 " I*) Рг ( 0 +
2 ^ 2 (/).
• • •
йрь (0
'■
1 (О — ( * ■ + Рк ( 0 4 * (* 4 - 1)
-и (О
О О О — 1).
йРп (0
<и
—
(19.10.1)
; X /*,,-! (О — (Х 4 - «И') />„ (О +
(Я Ц -Н ) />„+1 (0 .
= ^Ря+,-1 (О — (X4- яц 4- «V)
(о 4-
4- [«(* 4- С?4- О VI />„+*+1 (0.
Уравнения (1 9 .1 0 .1 ) являются естественным обобщ ением уравнений
Эрланга на случай системы смешанного типа с ограниченным врем е­
нем ожидания. Параметры X, (л,, V в этих уравнениях могут быть как
постоянными, так и переменными. При интегрировании системы (1 9 .1 0 .1 )
нужно учитывать, что хотя теоретически число возмож ных состояний
системы бесконечно, но на практике вероятности р п+5{Ь) при в озр а ­
стании 5 становятся пренебрежимо малыми, и соответствую щ ие у р а в ­
нения могут быть отброш ены .
Выведем ф ормулы, аналогичные формулам Эрланга, для вероятно­
стей состояний системы при установившемся режиме обслуживания
(при / -» -.с о ). Из уравнений (1 9 .1 0 .1 ), полагая все р к (А = 0 ......... п, . . . )
постоянными, а все п роизводны е— равными нулю, получим систему
алгебраических уравнений:
^Ро4“ РР\ —
Х^о — (X 4 ~ [*) Рг 4 ~ 2РР2 =
ЬРк-х — (х 4 - Ьр) Рк 4 ~ ( * 4 ~
( 1
0
0
= о
— 1).
ЬРп- 1 — (X 4 - «[*) Рп 4 - (я[* 4 - V) р п+1 = о,
^Рп+$-х — (х + «I» 4 - «'*) р „ +1 4 -4- [яц 4 - (5 4 - 1 ) V] р я+1+1 = О,
(19.10.2)
19.10]
С И СТЕМ А М А СС О В О Г О О Б С Л У Ж И В А Н И Я
С
ОЖ ИДАНИЕМ
653
К ним н уж н о п ри соед и н и ть у сл о в и е :
ОО
*=о
=
(1 9 .1 0 .3 )
Н айдем реш ение си стем ы (1 9 .1 0 .2 ).
Для э т о г о применим т о т ж е п ри ем , к о т о р ы м мы п ол ьзова л и сь
в случае си стем ы с отказам и: разреш им п е р в о е уравнение о т н о с и ­
тел ьн о р г, п од стави м в о в т о р о е , и т. д. Д ля л ю б о г о
как
и в случае си стем ы с отк азам и , пол учим :
(1 9 .1 0 .4 )
к > п (/% = я - | - $ , £ ^ - 1 ) . Т ем ж е с п о ­
П ерейдем к уравнениям для
с о б о м получим :
Хя+1Ръ
Рп+1—
л !.{ * я ( л ц 4 -* ) ’
^ л+2
л!*Л(л|л + V) (п^ 4 *2^)
и в о о б щ е при л ю б о м 5
1
Рп+З==
уч -’ ро
л !ц я п
(яр. +
(1 9 .1 0 .5 )
тч)
т= 1
В о б е ф ор м ул ы (1 9 .1 0 .4 ) и ( 1 9 .1 0 .5 ) в к ачестве сом н ож и тел я
в х од и т в е р о я тн о сть р 0. О п ред ел и м ее из у сл ови я (1 9 .1 0 .3 ). П о д ­
ставляя в н его вы раж ения (1 9 .1 0 .4 ) и (1 9 .1 0 .5 ) для к ^ . п и 5 ^ > 1 ^
получим :
\п+*
Ро
к=о
1.
*■1 л 1(Лп Д ( л ^ + т ч )
т= 1
отк уд а
( 1 9 .1 0 .6 )
Ро
А*
554
ЭЛЕМЕНТЫ ТЕОРИИ МАССОВОГО ОБСЛУЖИВАНИЯ
[ГЛ. 19
П р е о б р а з у е м выражения ( 1 9 .1 0 .4 ), ( 1 9 .1 0 .5 ) и ( 1 9 .1 0 .6 ) , ввод я в них
в м е ст о п л отн остей X и V «п р и в ед ен н ы е» п л отн ости :
А = Х т<об = а,
(1 9 .1 0 .7 )
П ар ам етры а и (3 в ы ра ж а ю т с о о т в е т с т в е н н о ср ед н ее число заявок
и ср ед н ее число у х о д о в заявки, стоящ ей в оч ер ед и , п ри ходящ и еся
на ср ед н ее время обслуж ивания од н ой заявки.
В н ов ы х обозначениях ф ор м у л ы ( 1 9 .1 0 .4 ), ( 1 9 .1 0 .5 ) и (1 9 .1 0 .6 )
п р и м ут вид:
Ра=
-£]-/><)
(0 < £ < я ) ;
(1 9 .1 0 .8 )
ап<-*
‘ Ро
Рп+$ — —
-----------
(5 > 1 );
(1 9 .1 0 .9 )
П (л + м Р)
тл= 1
Ро = —п-------------------- £ --------------------------- (1 9 .1 0 .1 0 )
<** ,
*=°
'
V
.
*=» П (л + т р )
т~\
П одставляя ( 1 9 .1 0 .1 0 ) в ( 1 9 .1 0 .8 ) и (1 9 .1 0 .9 ), получим о к о н ч а ­
тельн ы е выражения для в ер оя тн остей состоя н и й си стем ы :
Рк = — -------------------- £ -------------------------\Ч ак ( ап
(0 < й < в );
(1 9 .1 0 .1 1 )
а*
Ь ' Ы ' Т п\ М ~ Т
А=0
*=1 Д ( л + /пр)
т= 1
С1П
Л
Г-5
л!
*5
П ( я + «Р )
^
а4 , а"
Ж +
Е
*=0
------------------- —
■
а5
*=1 Д ( л + / я р )
(* > 1 ).
(1 9 .1 0 .1 2 )
19101
С И СТЕМ А М А С С О В О ГО
ОБСЛУЖ И ВАНИЯ
С О Ж И ДАН И ЕМ
555
Зная вероятности всех состояний системы, можно легко оп реде­
лить другие интересующ ие нас характеристики, в частности, вероят­
ность Р н т о го , что заявка покинет систему необслуженной. О п реде­
лим ее из следую щ их соображ ений: при установившемся режиме
вероятность Р н т о го , что заявка покинет систему необслуженной,
есть не что иное, как отношение среднего числа заявок, у х о д я ­
щ и х из очереди в единицу времени, к среднему числу заявок, п о ­
с т у п а ю щ и х в единицу времени. Найдем среднее число заявок:
уходящ их из очереди в единицу времени. Для этого сначала вычи­
слим математическое ожидание та числа заявок, н а х о д я щ и х с я
в очереди:
оо
( 1 9 .1 0 .1 3 )
Чтобы получить Р а, нужно т3 умножить на среднюю «плотность
у х о д о в » одной заявки V и разделить на средню ю плотность заявок X,
т. е. умножить на коэффициент
2-— Л. — А
X~
X “
а*
Получим;
ОО
(1 9 .1 0 .1 4 )
«-1 Д ( Я + *Р)
Относительная пропускная сп особн ость системы характеризуется
вероятностью т о г о , что заявка, попавшая в систему, будет обслуж ена:
<7=1
Очевидно, что пропускная сп особ н ость системы с ожиданием, при
тех же 1 и [I, будет всегда выше, чем пропускная сп особн ость
системы с отказами: в случае наличия ожидания необслуженными
556
ЭЛЕМЕНТЫ
ТЕ ОРИ И
М АССОВОГО
ОБСЛУЖ И ВАНИЯ
[ГЛ.
(9
у х о д я т не все заявки, заставш и е п каналов заняты ми, а т о л ь к о н е­
к о т о р ы е . П р оп уск н ая с п о с о б н о с т ь увел ичивается при увеличении
ср ед н его врем ени ож идания
т(ож=
Н е п оср ед ств ен н ое п ол ьзован ие ф ор м ул ам и (1 9 .1 0 .1 1 ), (1 9 .1 0 .1 2 )
и (1 9 .1 0 .1 4 ) н еск ол ь к о за тр у д н ен о тем , что в них в х од я т б е с к о н е ч ­
ные сум м ы . О дн а ко члены эти х сум м б ы с т р о у б ы в а ю т !).
П о с м о т р и м , в о что п ревратя тся ф ор м ул ы (1 9 .1 0 .1 1 ) и ( 1 9 .1 0 .1 2 )
при f i - > c o и р - > 0 . О чев и дн о, ч то при р - > о о си стем а с о ж и д а ­
нием долж на преврати ться в си стем у с отказам и (заявка м гновенно
у х о д и т из о ч ер ед и ). Д ей стви тел ьн о, при [ 3 - > о о ф ор м ул ы (1 9 .1 0 .1 2 )
д ад ут нули, а ф ор м ул ы (1 9 .1 0 .1 1 ) п ревратя тся в ф ор м ул ы Э рланга
для си стем ы с отказам и.
Р а ссм отр и м д р у г о й крайний случай: ч и сту ю си сте м у с ож иданием
( Р ~ » 0 ) . В так ой си стем е заявки в о о б щ е не у х о д я т из о ч ер ед и , и
п о э т о м у Р н = 0: каждая заявка рано или п озд н о д ож д ется о б с л у ж и ­
вания. З ато в чистой си стем е с ож иданием не всегда имеется п р е ­
дельны й стационарны й реж им при / - > о о . М ож н о д ок а за ть, что
так ой реж им су щ е ст в у е т т о л ь к о при а < п, т . е. к огд а ср ед н ее
ч исло заявок, при ход ящ ееся на врем я обсл уж и ван и я о д н ой заявки,
не в ы х од и т за пределы в о зм о ж н о ст е й л -к ан а л ьн ой си стем ы . Е сли ж е
а ^ - п , чи сл о заявок, стоя щ и х в оч ер ед и , б у д е т с течением врем ени
неограниченно в озр а ста ть .
П р ед п ол ож и м , что а < п, и найдем предельны е в е р о я т н о ст и р к
(0 < k
п) для чистой си стем ы с ож иданием . Для э т о г о пол ож и м
в ф ор м у л а х (1 9 .9 .1 0 ), ( 1 9 .9 .1 1 ) и ( 1 9 .9 .1 2 ) (3—> 0 . П олучи м :
1_______
Р0
/(
оо
ап V I
ak
S
*= 0
*
as
TT + 'n T z J и*
i= l
или, сум м и руя п р о г р е с с и ю - (ч то в о зм о ж н о т о л ь к о при а < и ),
Р о = — ------------5------ --------- -•
VI
ак
(1 9 .1 0 .1 5 )
ап + 1
A I +
*=0
л! ( л - в )
') Для грубой оценки ошибки, происходящей от отбрасывания всех чле­
нов сумм, начиная с г-го, можно воспользоваться формулами:
( ±
jU
s
m —1
У
< Ы
г|
а
со
ср
'
у
__
2d
( ±
_____ ^
Y
а
s
< ( г - 1) 1 * '
s,sr п . ( » + ™ р )
m~\
19.111
557
СИСТЕМА С М ЕШ АН Н О ГО ТИ П А
Отсюда, пользуясь формулами (19.10.8) и (19.10.9), найдем
(0 < £ < « ) ,
п \гс5
(1 9 .1 0 .1 6 )
(1 9 .1 0 .1 7 )
й= 0
Среднее число заявок, находящихся в очереди, определяется из ф о р ­
мулы (1 9 .1 0 .1 3 ) при р - > 0 :
(1 9 .1 0 .1 8 )
ч к=0
П р и м е р 1. На вход трехканальной системы с неограниченным време­
нем ожидания п о с т у п а е т ' простейший поток заявок с плотностью А = 4
(з а я в к и в час). Среднее время обслуживания одной заявки т(об — 30 мин.
Определить, существует ли установившийся режим обслуживания; если да,
то найти вероятности рй, р и рг, р 3, вероятность наличия очереди и среднюю
длину очереди т$.
=
= 2; а = — = 2. Так как а < п, установив­
ш ее
**
шнйся режим существует. По формуле (19.10.16) находим
Р е ш е н и е . Имеем ц ч
Вероятность наличия очереди:
Р о ч = 1 — (А> + Р\ 4~ Р*
Ра) — 0,297.
Средняя длина очереди по формуле (19.10.18) будет
та « 0,89 (заявки).
19.11. Система смешанного типа с ограничением
по длине очереди
В предыдущем п° мы рассмотрели систему м ассового обслуж ива­
ния с ограничением по времени пребывания в очереди. Здесь мы
рассмотрим систему смеш анного типа с другим видом ограничения
ожидания — по числу заявок, стоящ их в очереди. П редполож им, что
558
ЭЛЕМЕНТЫ
ТЕОРИИ
М АССОВОГО
О БС Л У Ж И ВА Н И Я
[Г Л
19
ваявка, заставшая все каналы занятыми, становится в очередь, только
если в ней находится м е н е е т заявок; если же число заявок в оче­
реди равно т (больш е т он о быть не мож ет), то последняя при­
бывшая заявка в. очередь не становится и покидает систему н еобслуженной. Остальные допущения — о простейш ем потоке заявок и
о показательном распределении времени обслуживания — оставим
прежними.
Итак, имеется я-канальная система с ожиданием, в к отор ой коли­
чество заявок, стоящих в очереди, ограничено числом т.. Составим
дифференциальные уравнения для вероятностей состояний системы.
Заметим, что в данном случае число состояний системы будет
конечно, так как общ ее число заявок, связанных с системой, не
может превышать я
т (я обслуживаемых и т стоящ их в очереди).
Перечислим состояния системы:
Х а — все каналы свободн ы , очереди нет,
»
Ху — занят один канал,
» ,
Х „ — занято к каналов,
»
» ,
х п- 1 — занято я — I каналов,
»
» ,
— заняты все я каналов,
»
» .
Х П1 I — заняты все я каналов, одна заявка стоит в очереди,
х п+т — заняты все п каналов, т заявок стоит в очереди.
Очевидно, первые я уравнений для вероятностей р 0( { ) , . . . р п_
будут совпадать с уравнениями Эрланга (1 9 .8 .8 ). Выведем остальные
уравнения. Имеем
Р„ ( I ' +
откуда
=
Р п- 1 (*) х дг + Рп (О (1 — х Ы — яр
—Ра Г ~ “
Хр"~ 1 & ~ (Х +
Далее выведем уравнение для
=
Рп+*-1 (О к
+ Рп + 1 (О «Р
Р » Ю + * № + 1 Ю*
(1 -^ « < /и )
( 0 (1 — Ь Ы — я р ДО 4 -
р я+3+1 (О пр и .
откуда
~
■- = 1Р„+*-1 ( 0 — (>> + яр) р а+$ (<) +-
П оследнее уравнение будет
~
( 0 ~ ЩРп+т (0>
м+1 </).
СИСТЕМ А
J9.H1
С М Е Ш А Н Н О ГО ТИП А
Таким о б р а з о м , получена си стем а (ге +
у~равнений:
лрд (О
а
■ * Р о (0 +
йрь (О
а(
—= ^ А - х ( 0 — (X +
ю - Ь 1) диф ф еренциальны х
1 Ч »1(0 .
Л[1) р к (/) 4 -
+ ( & + 1 )^ р А+1 (<)
( 0 < & о — 1),
" йРл Т "
=
■С
‘ РП^1
==Х/ ,я + * - г (0 — (^ - Ь я р ) Р я + * (0 +
+
559
(О ~ (}' + п!х) Рп (О + пррл+! (0 .
п ^ я+5+1 (О
(1 9 .1 1 .1 )
О < « < т),
9 • • • •
- = ^Рп+т-1 —
(О-
Р а ссм о т р и м предельны й случай при / - ► э о . П риравнивая в се п р о ­
изводны е н ул ю , а в се в е р о я т н о с т и считая п остоянны м и, получим с и - ,
стем у ал гебраи ческ и х уравнений
—
+ РР\ — 0 .
хР ь - х —
+
(* +
1){* Р »+1 = = 0
(0 < / & < л — 1),
Ьр*-1 — & + «Р) Рп + щ р п+, = 0.
(1 9 .1 1 .2 )
*А«+*-1 — (х+ 'л^) Рп+* + 1фРл+,+1 = О
(1 < 5 < т ) ,
^Рп+т-1— Я № + « = (|
и д обавочн ое усл ови е:
Я + 171
л=о
(1 9 .1 1 .3 )
У равнения (1 9 .1 1 .2 ) м о г у т бы ть реш ены так ж е, как мы реш или
аналогичные ал гебраи ческ и е уравнения в п ред ы ду щ и х п°п°. Н е о с т а ­
560
ЭЛЕМ ЕНТЫ ТЕ О РИ И М А С С О В О Г О
О БС Л У Ж И В А Н И Я
[ГЛ .
19
навливаясь на этом решении, приведем только окончательные формулы:
а*
р к = ~ ------------ * Ц _ ----------
(0<Л<л).
(1 9 .1 1 .4 )
<1 < * < * ) .
(19.11.5)
г.*
к=0
a" / a \ s
Pn+S=
„ ------ 4 , ---------------У 4
**0
+
— y f - V
1
Вероятность того, что заявка покинет систему необслуженной,
равна вероятности р а+т того, что в очереди уже стоят т заявок.
Нетрудно заметить, что формулы (19.11.4) и (19.11.5) получаются
из формул (19.10.11), (19.10.12), если положить в них р * = 0 и огра­
ничить суммирование по $ верхней границей т.
П р и м е р . На станцию текущего ремонта автомашин поступает простей­
ший поток заявок с плотностью X = 0,5 (машины в час). Имеется одно поме­
щение для ремонта. Во дворе станции могут одновременно находиться, ожи­
дая очереди, не более трех машин. Среднее время ремонта одной машины
mio6 = — = 2 (часа). Определить: а) пропускную способность системы;
б) среднее время простоя станции; в) определить, насколько изменятся эти
характеристики, если оборудовать второе помещение для ремонта.
Р е ш е н и е . Имеем: а = 0,5; [х = 0,5; а = 1; т — 3.
а) По формуле (19.11.5), полагая я = 1, находим вероятность того, что
пришедшая заявка покинет систему необслуженной:
1
Р ц — р\ + з -----| , | q — 0,20.
1- f
Относительная пропускная способность системы q — 1 — Р н — 0,80. Абсолют­
ная пропускная способность: Q = ~kq = 0,4 (машины в час).
б) Средняя доля времени, которое система будет простаивать, найдем по
формуле (19.11.4): р0 = у *=0,20.
в) Полагая п = 2, найдем:
Р н а е рг + 3
=
------------------- :---- — у 1------- 5---------- г— =
ду Ж
0,021,
+ ! + ~ 2 + - j + j + -I6
1
q = 1 — Рн « 0,979 (т. е. удовлетворяться будет около 9 8% всех заявок).
Q**\q « 0,49 (машины в час).
Относительное время простоя: ра =
16
и 0,34,
т. е. оборудование будет простаивать полностью около 34% всего времени.
ПРИЛОЖ ЕНИЕ
Таблица
Значения нормальной функции распределения:
х
-Д= I
1
<Ь*(х)
д
X
<Ь*(х)
д
—0,30
—0,31
—0,32
—0,33
—0,34
-0 ,3 5
—0,36
—0,37
—0,38
—0,39
0,3821
3783
3745
3707
3669
3632
3594
3557
3520
3483
38
38
38
38
37
38
37
37
37
37
—0,60
—0,61
—0,62
—0,63
—0,64
—0,65
—0,66
—0,67
—0,68
—0,69
0,2743
2709
2676
2643
2611
2578
2546
2514
2483
2451
34
33
33
32
33
32
32
31
32
31
40
40
39
40
39
40
39
39
39
40
—0,40
—0,41
—0,42
—0,43
—0,44
—0,45
—0,46
—0,47
—0,48
—0,49
0,3446
3409
3372
3336
3300
3264
3228
3192
3156
3121
37
37
36
36
36
36
36
36
35
36
—0,70
—0,71
-0 ,7 2
—0,73
—0,74
—0,75
—0,76
—0,77
—0,78
—0,79
0,2420
2389 N
2358
2327
2297
2266
2236
2206
2177
2148
31
31
31
31
30
30
29
29
29
39
39
39
38
39
39
38
39
38
38
—0,50
—0,51
—0,52
—0,53
—0,54
—0,55
—0,56
—0,57
-0 ,5 8
—0,59
0,3085
3050
3015
2981
2946
. 2912
2877
2843
2810
2776
35
35
34
35
34
35
34
33
34
33
—0,80
—0,81
-0 ,8 2
-0 ,8 3
—0,84
—0,85
—0,86
—0,87
- 0,88
—0,89
0,2119
2090
2061
2033
2005
1977
1949
1922
1894
1867
29
29
28
28
28
28
27
28
27
26
X
Ф* (ж)
&
—0,00
—0,01
—0,02
—0,03
—0,04
—0,05
—0,06
—0,07
—0,08
-0 ,0 9
0,5000
4960
4920
4880
4840
4801
4761
4721
4681
4641
40
40
40
40
39
40
40
40
40
39
—0,10
—0,11
—0,12
—0,13
-0 ,1 4
т-0,15
—0,16
—0,17
-0 ,1 8
-0 ,1 9
0,4602
4562
4522
4483
4443
4404
4364
4325
4286
4247
—0,20
- 0,21
- 0,22
-0,23
-0 ,2 4
—0,25
-0 ,2 6
-0 ,2 7
-0 ,2 8
-0 ,2 9
0,4207
4168
4129
4090
4052
4013
3974
3936
3897
3859
X
.
30
1
662
П РИ Л О Ж Е Н И Е
Продолж ение табл. /
X
Ф*(х)
д
X
Ф* (X)
»
—0,90
—0,91
-0 ,9 2
—0,93
-0 ,9 4
—0,95
—0,96
—0,97
—0,98
—0,99
0,1841
1814
1788
1762
1736
1711
1685
1660
1635
1611
27
26
26
26
25
26
25
25
24
24
- 1,00
- 1,01
- 1,02
— 1,03
— 1,04
— 1,05
— 1,06
— 1,07
-1 ,0 8
— 1,09
0,1587
1563
1539
1515
1492
1469
1446
1423
1401
1379
—1,10
- 1,11
- 1,12
— 1,13
-1 ,1 4
-1 ,1 5
— 1,16
-1 ,1 7
-1 ,1 8
— 1,19
— 1,20
— 1,21
— 1,22
— 1,23
-1 ,2 4
-1 ,2 5
— 1,26
— 1,27
— 1,28
-1 ,2 9
'
Ф*(ЛГ|
&
— 1,35
— 1,36
— 1,37
— 1,38
— 1,39
0,0968
0951
0934
0918
0901
0885
0869
0853
0838
0823
17
17
16
17
16
16
16
15
15
— 1,70
-1 ,7 1
— 1,72
— 1,73
— 1,74
— 1,75
— 1,76
— 1,77
— 1,78
— 1,79
0,0446
0436
0427
0418
0409
0401
0392
0384
0375
0367
10
9
9
9
8
9
8
9
8
8
24
24
24
23
23
23
23
22
22
22
— 1,40
-1 ,4 1
— 1,42
— 1,43
— 1,44
— 1,45
— 1,46
— 1,47
— 1,48
— 1,49
0,0808
0793
0778
0764
0749
0735
0721
0708
0694
0681
15
15
14
15
14
14
13
14
13
13
— 1,80
— 1,81
— 1,82
— 1,83
— 1,84
— 1,85
— 1,86
— 1,87
— 1,88
-1 ,8 9
0,0359
0351
0344
0336
0329
0322
0314
0307
0301
0294
8
7
8
7
7
8
7
6
7
6
0,1357
1335
1314
1292
1271
1251
1230
1210
1190
1170
22
21
22
21
20
21
20
20
19
— 1,50
— 1,51
-1 ,5 2
— 1,53
— 1,54
— 1,55
-1 ,5 6
-1 ,5 7
-1 ,5 8
— 1,59
0,0668
0655
0643
0630
0618
0606
0594
0582
0571
0559
13
12
13
12
12
12
12
И
12
11
— 1,90
— 1,91
— 1,92
— 1,93
-1 ,9 4
— 1,95
— 1,96
— 1,97
— 1,98
— 1,99
0,0288
0281
0274
0268
0262
0256
0250
0244
0239
0233
7
7
6
6
6
6
6
5
6
5
0,1151
1131
1112
1093
1075
1056
1038
1020
1003
0985
20
19
19
18
19
18
18
17
18
17
— 1,60
—1,61
— 1,62
— 1,63
— 1,64
— 1,65
— 1,66
— 1,67
— 1,68
-— 1,69
0,0548
0537
0526
0516
0505
0495
0485
0475
0465
0455
И
11
10
11
10
10
10
10
10
9
—2,00
—2,10
—2,20
—2,?0
—2,40
—2,50
—2,60
—2,70
—2,80
— 2,90
0,0228
0179
0139
0107
0082
0062
0047
0035
0026
0019
49
40
32
25
20
15
12
9
7
5
20
— 1,30
— 1,31
— 1,32
— 1,33
— 1,34
1
563
П РИЛОЖ ЕНИЕ
П родолж ение табл. 1
д
X
Ф* иг»
д
38
38
38
38
37
38
37
37
37
37
0,70
0,71
0,72
0,73
0,74
0,75
0,76
0,77
0,78
0,79
0,7580
7611
7642
7673
7703
7734
7764
7794
7823
7852
31
31
31
30
0,6554
6591
6628
6664
6700
6736
6772
6808
6844
6879
37
37
36
36
36
36
36
36
35
36
0,80
0,81
0,82
0,83
0,84
0,85
0,86
0,87
0,88
0,89
0,7881
7910
7939
7967
7995
8023
8051
8078
8106
8133
29
29
28
28
28
28
27
28
27
26
0,6915
6950
6985
70197054
7088
7123
7157
7190
7224
35
35
34
35
34
35
34
33
34
33
0,90
0,91
0,92
0,93
0,94
0,95
0,96
0,97
0,98
0,99
0,8159
8186
8212
8238
8264
8289
8315
8340
8305
8389
27’
26
26
26
25
26
25
25
24
24
0,7257
7291
7324
7357
7389
7422
7454
7486
7517
7549
34
33
33
32
33
32
32
31
32
31
1,00
1,01
1,02
1,03
1,04
1,05
1,06
1,07
1,08
1,09
0,8413
8437
8461
8485
8508
8531
8554
8577
8599
8621
24
24
24
23
23
23
23
22
22
22
X
ф* «>
д
4
3
2
2
1
0
1
0
1
0,30
0,31
0,32
0,33
0,34
0,35
0,36
0,37
0,38
0,39
0,6179
6217
6255
6293
6331
6368
6406
6443
6480
6517
0,5000
5040
5080
5120
5160
5199
5239
5279
5319
5359
40
40
40
40
39
40
40
40
40
39
0,40
0,41
0,42
0,43
0,44
0,45
0,46
0,47
0,48
0,49
0,10
0,11
0,12
0,13
0,14
0,15
0,16
0,17
0,18
0,19
0,5398
5438
5478
5517
5557
5596
5636
5675
5714
5753
40
40
39
40
39
40
39
39
39
40
0,50
0,51
0,52
0,53
0,54
0,55
0,56
0,57
0,58
0,59
0,20
0,21
0,22
0,23
0,24
0,25
0,26
0,27
0,28
0,29
0,5793
5832
5871
5910
5948
5987
6026
6064
6103
6141
39
39
39
38
39
39
38
39
38
38
0,60
0,61
0,62
0,63
0,64
0,65
0,66
0,67
0,68
, 0,69
к
ф* и)
—3,00
—3,10
-3 ,2 0
-3 ,3 0
—3,40
—3,50
-3 ,6 0
—3,70
-3 ,8 0
-3 ,9 0
0,0014
0010
0007
0005
0003
0002
0002
0001
0001
0000
0,00
0,01
0,02
0,03
0,04
0,05
0.06
0,07
0,08
0,09
{
31
30
30
29
29
29
564
ПРИЛОЖ ЕНИЕ
П родолж ение табл /
X
1,10
1,11
1,12
1,13.
1,14
1,15
1,16
1,17
1,18
1,19
Ф* (X)
0,8643
8665
8686
•- 8708
8729
8749
8770
8790
8810
8830
&
X
22
21
22
21
20
21
20
20
20
19
1,50
1,51
1,52
1,53
1,54
1,55
1,56
1,57
1,58
1,59
Ф*
IX)
0,9332
9345
9357
9370
9382
9394
9406
9418
9429
9441
д
X
ф* {XI
й
13
12
13
12
12
12
12
И
12
И
1,90
0,9713
6
1,91
9719
7
1,92
9726
6
1,93
9732
6
1,94
9738
6
1,95
9744
6
1,96
9750
6
1,97
9756
5
1,20
1,21
1,22
1,23
1,24
1,25
1,26
1,27
1,28
1,29
0,8849
8869
8888
8907
8925
8944
8962
8980
8997
9015
20
19
19
18
19
18
18
17
18
17
1,60
1,61
1,62
1,63
1,64
1,65
1,66
1,67
1,68
1,69
0,9452
9463
9474
9484
9495
9505
9515
9525
9535
9545
11
11
1.0
И
10
10
10
10
10
9
1,30
1,31
1,32
1,33
1,34
1,35
1,36
1,37
1,38
1,39
0,9032 . 17
17
9049
16
9066
17
9082
16
9099
16
9115
16
' 9131 .
9147
15
15
9162
9177
15
1,70
1,71
1,72
1,73
1,74
1,75
1,76
1,77
1,78
1,79
0,^554
9564
9573
9582
9591
9599
9608
9616
9625,
9633
10
9
9
9
1,40
1,41
1,42
1,43
1,44
1,45
1,46
1,47
1,48
1,49
0,9192
9207
9222
9236
9251
9265
9279
9292
9306
9319
1,80
1,81
1,82
1,83
1,84
1,85
0,9641
9649
9656
9664
9671
9678
9686
9693
9699
9706
8
15
15
14
15
14
14
13
14
13
13
1,86
1,87
1,88
1,89
/
1,98
9761
6
1,99
9767
5
2,00
0,9772
49
2,10
9821
40
2,20
9861
32
2,30
9893
25
2,40
9918
20
2,50
9938
15
2,60
9953
12
2,70
9965
9
8
2,80
9974
7
9
2,90
9981
5
3,00
0,9986
4
3,10
9990
3
3,20
9993
2
3,30
9995
2
8
9
8
8
7
?
7
7
§
7
6
7
7
3,40
9997
1
3,50
9998
0
3,60
9998
1
3,70
9999
0
3,80
9999
1
3,90
1,0000
565
П РИ Л О Ж Е Н И Е
Таблиц а 2
Значения функции е ~ х
А
д
е -*
4
0,40
0,670
7
0,80
0,449
4
3,00
0,050
5
10
10
9
10
9
10
9
9
9
0,41
42
43
44
45
46
47
48
49
0,664
657
650
644
638
631
625
619
613
7
7
6
6
7
6
6
6
7
0,81
82
83
84
85
86
87
5
4
4
5
4
4
4
4
4
3,10
3,20
3,30
3,40
3,50
3,60
3,70
3,80
3,90
0,045
41
37
33
30
27
25
22
20
4
89
0,445
440
436
432
427
423
419
415
411
0.905
896
887
878
869
861
852
844
835
827
9
9
9
9
8
9
8
9
8
8
0.50
51
52
53
54
55
56
57
58
59
0,606
600
595
589
583
577
571
565
560
554
6
5
6
6
6
6
6
5
6
5
0,90
91
92
93
94
95
96
97
98
99
0,407
403
399
395
391
387
383
379
375
372
4
4
4
4
4
4
4
4
3
4
4,00
4,10
4,20
4,30
4,40
4,50
4,60
4,70
4,80
4,90
0,0183
166
150
136
123
111
101
0,0091
82
74
17
16
14
13
0,20
21
22
23
24
25
26
27
28
29
0,819
811
803
795
787
779
. 771
763
756
748
8
8
8
8
8
8
8
7
8
7
0,60
61
62
63
64
65
.66
67
68
69
0,549
543
538
533
527
522
517
512
507
502
6
5
5
6
5
5
5
5
5
5
1.00
1.10
1,20
1,30
1,40
1,50
1,60
1,70
1,80
1,90
0,368
333
302
273
247
223
202
183
165
150
35
31
29
26
24
21
19
18
15
15
5,00
5,10
5,20
5,30
5,40
5,50
5,60
5,70
5,80
5,90
0,0067
61
55
50
45
41
37
33
30
27
6
0,30
31
32
33
34
35
36
37
38
39
0.741
733
726
719
712
705
698
691
684
677
8
7
7
7
7
7
7
7
7
7
0,70
71
72
73
74
75
76
0,497
492
487
482'
477
472
468
463
458
454
5
5
5
5
5
4
5
5
4
5
2,00
2,10
2,20
2,30
2,40
2,50
2,60
2,70
2,80
2,90
0,135
122
111
100
0,091
82
74
67
61
55
13
И
11
9
9
8
7
6
6
5
6,00
6,10
6,20
6,30
6,40
6,50
6,60
6,70
6,80
6,90
0,0025
22
20
18
17
15
14
12
И
10
0,40
0,670
3,00
0,050
7,00
0,0009
е "*
4
0,00
1,000
10
0,01
02
03
04
05
06
07
08
09
0,990
980
970
961
951
942
932
923
914
0,10
11
12
13
14
15
16
17
18
19
X
X
77
78
79
0,80
0,449
X
88
X
4
4
3
3
2
3
2
2
12
10
10
9
8
7
6
5
5
4
4
4
3
3
2
3
2
2
1
2
1
2
1
1
1
ПРИЛОЖЕНИЕ
га
567
СОСЧЬ-СО.
00 00 СЧ^ Ю ЮСО—'0><0с00эс0*-чг-.с00©с000с000с0*'-с4с0*-*ю0>с01'2 2 2 2 8 ?! 3 8 & 8 3 й 35 £ Й £ 9 £ 9 $ £ % 3 й й £ 8 33 8 £
8
як
О
«о
(О
о*
0? СЧЙ СЧ8 00
СЧЬсГ) О 00 С') О Ф се Ф О го О О со о
СйГо?*-* со »л СО00 © — СОСО о? О СЧСО•**СО^ 00 С? »-*■СО^ 1С со' о> о '
^^^^^^(^СМСЧС^СЧ^СОСОСОСОСОСОСО'ЧГ^’ч р^'чГ^'^^и?
8
^•с^^ь-осос^г^-оо
^ООООХ>СО©СО*-«СОСЧСО*“« 10©СОСО©СОГ-*.©СО*'--©СОЬ*.©»“ '^Г'-.©
ю " о Г г-.,-н.--«*-*,-нг-.еЧСЧСЧСЧСЧСЧ04СОСОСОСОГОСОСО,
— со ЮСО~со"0>— сч ю со о©с т > « - Г с ч "чГтр,'5Р
с ч *гЬ
^Г'Ч
ю'*^?«т*«
со оо~
О
О
ф
***о> © г-» о г> *—сч »-*«со
00 © ОО^ ОЮО,Л © СОСОО
© со СОО —^ ^ 05 СЧ^ Г-. © г-* СО„сОоо
со ю 1>ГаГ»-Гсч ^ и5 со оо © — со и5 «5 г> оо о —' сч со цз со ^ со“ о" ~ Ысо
,-4,—
— СЧСЧСЧСЧСЧСЧСЧСОСОСОСОСОСОСОСО’'3'**'’^ ^
3
о
— ©ЮОО^’*£СЧ«000©С010»>-<
сц ^счсо © со^ © сч и ооо — со>о ооос^ ^ ф м о с ^ ^ ю ь ф ^ со
СЧ^ О *С© О СЧСО^ Ю1^ оо © V-?£•$СО^ СОЬ-" оо оГ© со ■*?ьо со г*-."о* с>
^^^^^^^^С^ецг^СЧСЧСЧСЧСЧОЗСОСОСОСОСОСОСО^
сч
^ с ч ^ © © с о © Ф ^ т р с О ’--'С010г-‘
со сч Ф а
оо © сч -Фсо со © *-* со ю (£>оо а> о с*--! со '<#со г- со © о *-•а
^ со ю
©~г^сч со ^ ю со со © © — е-Гсо ю со се о ? о *-*сч~пгиз со
— ^СЧСЧСЧ^СЧСЧСЧС^СЧСОСОСООСОСО
о
о"
о
о
к
V,
у2 в зависимости
от
0,30
^
со 00 со со 00 СЧсо ос © —' СЧСЧС4»СЧ*-<
©
<Х>© С1е^О ?П^ © © — СЧсо М*Ю50 !>•со ^О “ © -••'СЧСЧсо ^ьС ьо
^ сч со ^ со ^ оо © © ^ сч ^ ю со со © © ^ с^Гсо
^ оо“© ©"^~Ы“со
_
_ г-4 *- _и »-45ч СЧСЧСМс-) СЧСЧСЧ04 со со со со
43 >»С0101Л10^|,Ф,Фт^*!*|'Ч^т#*^,,«},,^ ,чй, ',?‘ *+<
1000Г
««г СОСО^со со со СОго СОсососососососососососососососососососо СОсо
© о? со п* 10 со ^ оо“0?©"Г-*
Я Й с5
(8 ^
й
8
О
ор со ^
^^-нсч©©со^соа)г*,*1ососос-1с'1счсо,^'10^оо© с^ -^
*-н
©об со^ю со Ы^ ©сл 00 ^ «о «5^сосч —<_^--<_©© сл 00 Г-О О Ю
© ©т-^с^ ^осо ^10 «э г^оо о? о> 2 ^ 2 2 2 ^12 ^5
2 8 с^?1сЗ ^1^}
8
о“
0,90
Значения
0,80
со Ю ©
ср^©^»т1,' ^ с ,4 © оооо© «-‘ сог>«'-'Ю©сосчоо':г —*а><от»*<м
© ^ О © со о оо южсо »-ч О) оо со «я ^ о.оо ^Ю'^*со—'© © а о 1> .© ю ^
©©
сч со со 1Г5©"со" г-Гоо” а> © т-Гсч сч со ^ ио со"г>Г00 ОО©" © 1-^ СЧсо
сч'мсчем
С
0
^
©
»-н»~«СОСр’—
<©СО©^СрОО©^'С^Ю—■ООгОиО^-^4,^, 1Л©Г^-©»—<^Г>.
© СЧЮ© со 00 -ч^1-н ООЮСО©^ЮСО©ООСО^(>1©ООСО^С^---'©1^.СО
© © © ^ 1-ТСЧ СО^ ^ 'О со *^Г(С 00 © © © Ысо ч£ ^
^°°"°°"®
4 « 5 ^ ^ ю
ю
0,95
© © и о ^ г^ со ^ со см ^ о р го ^ ^ -со со г^ ^ — ю ^ т н ф ю —<0ОЮСО*-н©
© — СО г^. 1-^ СО---^ со © Юс-1СО СЧ©_со со^— О С Ю со ©00 со со *—© ^
© © © © ^ ^ С Ч С Ч С О С 0 ^ 1 0 Ю С О ^ Ь ^ О О © © © Г ^ С Ч С О С О ^ Г‘- О С О © ‘ 1>ГОО‘
»—« © Ю 0 5 СЧ ^
© ^ О О ^ Ю С О ^ С О С О ' Р — 0 0 «О
^ -^
»/5 ©
—
© © ©
»—Г
СО СО
0,98
©_©
©
©©
©
0 0 » - ' С р » - < Ь - ’^ * С Ч © 0 > 0 > © * — М Ю К г н
©
со ^ г^.сооосяф иосм ф сосао^^^^аб^осо
1—
<СЧСЧ
V V Ю10 со г С оо"©" о" О г-Г—Гсч СО ^ 10 со
сч
со СО — 1- * С Ч с О с о о ^ © с О С ^ © о о с О с р г О '
оо^сч со © 1л © л *-*ссс^оо’^ © сос^о>»сс^оою с,4оои5с5о>
со'
1 0 Ю СО
Ь -" ОС СО © “ © © 1- Г 2 С^Г СО *ф ■•3*'
0,99
10 ^ ^
© ю
© С Ч4 1- Н © Ю ^ - . С О ^ ' © С О » Л ^ > —
© © ^ ^5^ 10
©
© ‘ © © — 1- ^ СЧ СЧ
СО ^ ^
1
©©
^7
л
/
/•
Г-«С^СО^'Ю©1Ч
-СО©©»--'СЧСО,^Ю©Г^ОО©©
СЧСО^ЮЧО^ОО©©
_ т-4 1-н — — —»1- 11-. »-* сч —
смС
ЧСЧСЧСЧСЧСЧ<мС4 со
566
П РИ Л О Ж Е Н И Е
Таблица 3
I
_£1
Значения функции / ( х) = — — е 2
У~2к
X
1
у
2
3
4
5
6
8
7
X
9
0,0 0,3989
0,1
3970
0,2
3910
0,3
3814
0,4
3683
3989 1 3989
3965 3961
3902 3894
3802 3790
3668 3653
3988
3956
3885
3778
3637
3986
3951
3876
3765
3621
3984
3945
3867
3752
3605
3982
3939
3857
3739
3589
3980
3932
3847
3726
3572
3977
3925
3836
3712
3555
0,5
0,6
0,7
0,8
0,9
3521
3332
3123
2897
2661
3503
3312
3101
2874
2637
3485
3292
3079
2850
2613
3467
3271
3056
2827
2589
3448
3251
3034
2803
2565
3429
3230
ЗОН
2780
2541
3410
3209
2989
2756
2516
3391
3187
2966
2732
2492
3372
3166
2943
2709
2468
1,0 0,2420
1.1
2179
1,2
1942
1.3
1714
1,4
1497
2396
2155
1919
1691
1476
3973 0,0
3918 0,1
3825 0.2
3697 0,3
3538 0,4
3352 0,5
3144 0,6
2920 0,7
2685 0,8
2444 0,9
2371
2131
1895
1669
1456
2347
2107
1872
1647
1435
2323
2083
1849
1626
1415
2299
2059
1826
1604
1394
2275
2036
1804
1582
1374
2251
2012
1781
1561
1354
2227
1989
1758
1539
1334
1,0
1.1
1.2
1.3
1.4
1295 1276
1109 1092
0940 0925
0790 0775
0656 0644
1257
1074
0909
0761
0632
2203
1965
1736
1518
1315
1238
1057
0893
0748
0620
1219
1040
0878
0734
0608
1200
1023
0863
0721
0596
1182
1006
0848
0707
0584
1163
0989
0833
0694
0573
1145
0973
0818
0681
0562
2.0 0,0540 0529 0519
2,1
0440 0431 0422
2,2
0355 0347 0339
2,3
0283 0277 -0270
2,4
0224 0219 0213
2.5
0175 0171 0167
2,6
0136 0132 0129
2,7
0104 0101 0099
2,8
0079 0077 0075
2,9
0060 0058 0056
3,0 0.0044 0043 0042
3,1
0033 0032 0031
3,2
0024 0023 0022
3.3
0017 0017 0016
3,4
0012 0012 0012
3,5
0009 0008 0008
3,6
0006 0006 0006
3,7
0004 0004 0004
3,8
0003 0003 0003
3,9
0002 0002 0002
1127
0957
0804
0669
0551
1,5
16
1.7
1.8
1.9
0508
0413
0332
0264
0208
0498
0404
0325
0258
0203
0488
0396
0317
0252
0198
0478
0388
0310
0246
0194
0468
0379
0303
0241
0189
0459
0371
0297
0235
0184
0449 2.0
0363 2.1
0290 2,2
0229 2.3
0180 2.4
0163
0126
0096
0073
0055
0158
0122
0093
0071
0053
0154
0119
0091
0069
0051
0151
0116
0088
0067
0050
0147
0113
0086
0065
0048
0143
0110
0084
0063
0047
0139 2.5
0107 2.6
0081 2.7
0061 2.8
0046 2.9
0040
0030
0022
0016
ООН
0039
0029
0021
0015
0011
0038
0028
0020
0015
0010
0037
0027
0020
0014
0010
0035
0025
0018
0013
0009
0034
0025
0018
0013
0009
0008
0005
0004
0003
0002
0008
0005
0004
0003
0002
0007
0005
0004
0002
0002
0007
0005
0003
0002
0002
0036
0026
0019
0014
0010
0007
0005
0003
0002
0002
0007
0005
0003
0002
0001
0006 3.5
0004 3.6
0003 3.7
0002 3.8
0001 3.9
3
4
5
6
7
8
1.5
1,6
1.7
1.8
1.9
0
*
1
1
2
9
3.0
3.1
3.2
3.3
3.4
X
568
ПРИЛОЖ ЕНИЕ
Значения
я
удовлетворяющие равенству
0,1
0,2
0,3
0,4
0,5
0,6
°,7
1
2
3
4
5
0,158
142
137
134
132
0,325
289
277
271
267
0,510
445
424
414
408
0,727
617
584
569
559
1,000
0,816
765
741
727
1,376
1,061
0,978
941
920
1,963
1,336
1,250
1,190
1,156
6
7
8
9
10
131
130
130
129
129
265
263
262
261
260
404
402
399
398
397
553
549
546
543
542
718
711
706
703
700
906
896
889
883
879
1,134
1,119
1,108
1,100
1.093
11
12
13
14
15
129
128
128
128
128
260
259
259
258
258
396
395
394 .
393
393
540
539
538
537
536
697
695
694
692
691
876
873
870
868
866
1,088
1,083
1,079
1,076
1,074
16
17
18
19
20
128.
128
127
127
127
258
257
257
257
257
392
392
392
391
391
535
534
534
533
533
690
689
688
688
687
865
863
862
861
860
1,071
1.069
1,067
1,066
1,064
21
22
23
24
25
127
127
127
127
127
257
256
256
256
256
391
390
390
390
390
532
532
532
531
531
686
686
685
685
684
859
858
858
857
856
1,063
1.061 ;
1,060 ;
1,059 :
1,058
26
27
28
29
30
127
127
127
127
127
256
256
256
256
. 256
390
389
389
389
389
531
531
530
530
530
684
684
683
683
683
856
855
855
854
854
1,058
1,057
1,056
1,055
1.055
40
60
120
126
126
126
0,126
255
254
254
0,253
388
387
386
0,385
529
527
526
0,524
681
679
677
0,674
851
848
845
0,842
1,050
1,046
1,041
1,036
0,2
0,3
0,5
0,6
0,7
я -1
оо
я -1
/ /
§
0,1
0,4
|
569
ПРИЛОЖЕНИЕ
Таблица 5
2^
о
|
1
5 „ _ 1(0 ^ = Э. в зависимости от р и и — 1
0,9
0,95
0,98
0,99
0,999
'1.038
1,533
1.476
6,31
2,92
2,35
2.13
2,02
12,71
4,30
3,18
2.77
2,57
31,8
6,96
4,54
3,75
3,36
63,7
9,92
5,84
4,60
4,03
636,6
31,6
12,94
8,61
6,86
1
2
3
4
5
1,440
1.415
1,397
1.383
1,372
1,943
1,895
1,860
1,833
1,812
2,45
2,36
2,31
2,26
. 2,23
3,14
3,00
2,90
2,82
2,76
3,71
3,50
3,36
3,25
3,17
5,96
5,40
5,04
4,78
4,59
■ 6
7
8
9
10
1,363
1.356
1.350
1,345
1,341
1,796
1,782
1,771
1,761
1,753
2,20
2,18
2,16
2,14
2,13
2,72
2,68
2,65
2.62
2,60
3,11
3,06
3,01
2,98
2,95
4,49
4,32
4,22
4,14
4,07
11
12
13
14
15
1,337
1,333
1,330
1,328
1,325
1,746
1,740
1,734
1,729
1,725
2.12
2,11
2,10
2.09
2,09
2,58
2,57
2,55
2,54
2.53
2,92
2,90
2,88
2,86
2,84
4,02
3,96
3,92
3,88
3,85
16
17
18
19
20
1,323
1,321
1,319
1,318
1,316
1,721
1.717
1.714
1.711
1,708
2,08
2.07
2,07
2,06
2.06
2.52
2.51
2,50
2,49
2,48
2,83
2,82
2,81
2,80
2,79
3,82
3,79
3,77
3,74
3,72
21
22
23
24
25
1,315
1,314
1,313
1,311
1.310
1,706
1,703
1,701
1,699
1,697
2,06
2,05
2,05
2,04
2,04
2,48
2,47
2,47
2,46
2,46
2,78
2,77
2,76
2,76
2.75
3,71
3,69
3,67
3,66
8,65
26
27
28
29
30
1.303
1,296
1,289
1,282
1,684
1,671
1,658
1,645
2.02
2,00
1,980
1.960
2,42
2,39
2,36
■ 2,33
2,70
2,66
2,62
2,58
3,55
3,46
3,37
3,29
40
60
120
0,99
0,999
0,8
3,03
1,886
0,8
0,9
0,95
0,98
!
оо
570
ПРИЛОЖЕНИЕ
Таблица
Таблица двоичных логарифмов целых чисел от 1 до 100
X
1ое*
X
1ов х
X
71
72
73
74
75
1
2
3
4
5
0,00000
1,00000
1,58496
2,00000.
2,32193
36
37
38
39
40
5,16993
5,20945
5,24793
5,28540
5,32193
6
7
8
9
10
2,58496
2,80735
3,00000
3,16993
3,32193
41
42
43
44
45
5,35755
5,39232
5,42626
5,45943
5,49185
11
12
13.
14
15
3,45943
3,58496
3,70044
3,80735
3,90689
46
47
48
49
50
5,52356
5,55459
5,58496
5,61471
5,64386
16
17
18
19
20
4,00000
4,08746
4,16993
4,24793
4,32193
51
52
53
54
55
5,67242
5,70044
5,72792
5,75489
5,78136
21
22
23
24
25
4,39232
4,45943
4,52356
4,58496
4,64386
56
57
58
59
60
5,80735
5,83289
5,85798
5,88264
5,90689
26
27
28
29
30
4,70044
4,75489
4,80735
4,85798
4,90689
61
62
63
64
65
5,93074
5,95420
5,97728
6,00000
6,02237
31
32
33
34
35
4,95420
5,00000
5,04439
5,08746
5,12928
66
67
68
69
70
6,04439
6,06609
6,08746
6,10852
6,12928
76
77
78
79
80
10£ X
6,14975
6,16992
6,18982
6,20945
6,22882
'
6,24793
6,26679
6,28540
6,30378
6,32193
81
82
83
84
85
6,33985
6,35755
6,37504
6,39232
6,40939
86
87
88
89
90
6,42626
6,44294
6,45943
6,47573
6,49185
91
92
93
94
95
6,50779
6,52356
6,53916
6,55459
6,56986
96
97
98
99
100
6,58496
6,59991
6,61471
6,62936
6,64386
6
571
ПРИЛОЖЕНИЕ
Таблица значений функции
Таблица
7
П(Р) = — Р10&Р
р
ч(/>)
0
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,10
0,11
0,12
0,13
0,14
0,15
0,16
0,17
0,18
0,19
0,20
0.21
0,22
0,23
0,24
0,25
0,26
0,27
0,28
0,29
0,30
0,31
0,32
0,33
0,34
0,35
0,36
0,37
0,38
0,39
0,40
0.41
0,42
0,43
0,44
0,45
0,46
0,47
0,48
0,49
0,50
0
0,0664
1128
1518
1858
2161
2435
2686
2915
3126
3322
3503
3671
3826
3971
4105
4230
4346
4453
4552
4644
4728
4806
4877
4941
5000
5053
5100
5142
5179
5211
5238
5260
5278
5292
5301
5306
5307
5305
5298
5288
5274
5256
5236
5210
5184
5153
5120
5083
5043
0,5000
-
д
664
464
390
340
303
274
251
229
211
196
181
168
155
145
134
125
116
107
99
92
84
78
71
67
59
53
47
42
37
32
27
22
18
14
9
5
1
—2
—7
— 10
— 14
— 18
—20
— 24
—26
— 29
—33
—37
—40
—43
р
0,50
0,51
0,52
0,53
0,54
0,55
0,56
0,57
0,58
0.59
0,60
0,61
0.62
0,63
0,64
0,65
0,66
0,67
0,68
0.69
0,70
0.71
0,72
0,73
0,74
0,75
0,76
0,77
0,78
0,79
0,80
0,81
0,82
0.83
0,84
0,85
0,86
0,87
0.88
0,89
0,90
0,91
0,92
0,93
0,94
0.95
0,96
0.97
0,98
0,99
1,00
Ч<Р>
0,5000
4954
4906
4854
4800
4744
4685
4623
4558
4491
4422
4350
4276
4199
4121
, 4040
3957
3871
3784
3694
3602
3508
3412
3314
3215
3113
3009
2903
2796
2687
2575
2462
2348
2231
2112
1992
1871
1748
1623
1496
1368
1238
0,1107
0,0974
839
703
565
426
286
144
0
д
—46
—48
—52
—54
—56
—59
—62
—65
—67
—69
—72
— 74
—77
—78
—81
—83
—86
—87
—90
—92
—94
—95
—98
—99
— 102
— 104
-1 0 6
— 107
— 109
— 112
— 113
-1 1 4
— 117
— 119
— 120
— 121
— 123
— 125
— 127
— 128 .
— 130
— 131
— 133
— 135
— 136
— 138
— 139
— 140
— 142
— 144
572
П РИ Л О Ж Е Н И Е
Таблица 8
Значения Р т =
т
а=
0
1
2
3
4
■5
6
т
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
0,1
ат
т
а = 0 ,2
а = 0 ,3
а = 0 ,4
0,9048
0,0905
0,0045
0,0002
0,8187
0,1638
0,0164
0,0019
0,0001
0,7408
0,2222
.0,0333
0,0033
0,0002
0= 1
а= 2
0,3679
0,3679
0,1839
0,0613
0,0.153
0,0031
0,0005
0,0001
0,1353
0,2707
0,2707
0,1804
0,0902
0,0361
0,0120
0,0037
0,0009
0,0002
е а (распределение Пуассона)
0 = 0,5
а = 0,6
а = 0,7
а = 0 ,8
0 = 0,9
0,6703
0,2681
0,0536
0,0072
0,0007
0,0001
0,6065
0,3033
0,0758
0,0126
0,0016
0,0002
0,5488
0,3293
0,0988
0,0198
0,0030
0,0004
0,4966
0,3476
0,1217
0,0284
0,0050
0,0007
0,0001
0,4493
0,3595
0,1438
0,0383
0,0077
0,0012
0,0002
0,4066
0,3659
0,1647
0,0494
0,0111
0,0020
0,0003
о=3
а= 4
а= 5
•
а= б
а= 7
а= 8
а = 9
а=10
0,0498
0,1494
0,2240
0,2240
0,1680
0,1008
0,0504
0,0216
0,0081
0,0027
0,0008
0,0002
0,0001
0,0183
0,0733
0,1465
0,1954
0,1954
0,1563
0,1042
0,0595
0,0298
0,0132
0,0053
0,0019
0,0006
0,0002
0,0001
0,0067
0,0337
0,0842
0,1404
0,1755
0,1755
0,1462
0,1044
0,0653
0,0363
0,0181
0,0082
0,0034
0,0013
0,0005
0,0002
0,0009
0,0064
0,0223
0,0521
0,0912
0,1277
0,1490
0,1490
0,1304
0,1014
0,0710
0,0452
0,0263
0,0142
0,0071
0,0033
0,0014
0,0006
0,0002
0,0001
0,0003
0,0027
0,0107
0,0286
0,0572
0,0916
0,1221
0,1396
0,1396
0,1241
0,0993
0,0722
0,0481
0,0296
0,0169
0,0090
0,0045
0,0021
0,0009
0,0004
0,0002
0,0001
0,0001
0,0011
0,0050
0,0150
0,0337
0,0607
0,0911
0,1171
0,1318
0,1318
0,1186
0,0970
0,0728
0,0504
0,0324
0,0194
0,0109
0,0058
0,0029
0,0014
0,0006
0,0003
0,0001
0,0000
0.С005
0,0023
0,0076
0,0189
0,0378
0,0631
0,0901
0,1126
0,1251
0,1251
0,1137
0,0948
0,0729
0,0521
0,0347
0,0217
0,0128
0,0071
0,0037
0,0019
0,0009
0,0004
0,0002
0,0001
0,0025
0,0149
0,0446
0,0892
0,1339
0,1606
0,1606
0,1377
0,1033
0,0688
0,0413
0,0225
0,0126
0,0052
0,0022
0,0009
0,0003
0,0001
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ
Интеграл вероятностей 122
— Ф урье 434
Информация 481
■— полная взаимная 486
■
-------- (средн яя) 486
— частная 489
Асимметрия 97
Вероятностная зависим ость 173
В ероятн ость доверительная 318
— собы тия 24
условная 46
— статистическая 29
В ы борка 142
Выравнивание
статистических
до в 143
ря­
Генеральная совок уп н ость 142
Гистограм м а 137
Главные оси рассеивания 194
— средние квадратические отклон е­
ния 194
Группа собы тий полная 25
Дисперсия 96, 403
— случайной функции 378
Д оверительны е границы 318
Доверительный интервал 318
Зависим ость случайных величин ли­
нейная 179
— стохастическая 173
Закон больш их чисел 88, 286, 290
— Гаусса 116
— П уассона 106
— равномерной плотности 103
— распределения 68, 182, 376
дифференциальный 80
— — интегральный 73
— — предельный 287
— — случайной функции 375
— — сумм ы 271
—
ус ловный 169
— — устойчивый 278
— редких явлений 113
— Симпсона 274
— треугольника 274
— Эрланга 532
К од 502
— двоичный 503
— Ш еннона — Ф ено 505
Кодирование 502
К омплекс 159
Композиция закон ов распределения
272
— нормальных законов 275
-------------- на плоскости 280
Корреляция отрицательная 180
— полож ительная 180
Коэффициент корреляции 178
Кривая распределения 80
Кривые П ирсона 145
— равной плотности 165
Критерии согласия 149
Критерий К олм огорова 156
— г 1 151
К руговое рассеивание
196
Линеаризация функций 252
Линия регрессии 192
М атематическая статистика 131
М атематическое ож идание 86, 218,
402
— — случаййой функции 377
-------- усл овн ое 192
Матрица корреляционная 185
-------- нормированная 186
М едиана 92
М ера точности 120
М етод мом ентов 145
■
— наименьших квадратов 354
М ногоугольник распределения 69
М ода 90
574
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ
М омент 92
— абсолютный 99
— корреляционный 176
— начальный 92, 93, 175
— нормального распределения 120
— связи 176
— системы случайных величин 175
— статистический 140
— центральный 94, 175, 176
Н епосредственный подсчет
вер оят­
ностей 25
Н еравенство Ч ебы ш ева 287
Нормальный закон 116, 280, 297
— — в п ространстве 205
—
теории стрельбы 297
— — , каноническая ф орма 194
— — на плоскости 188
— — .парам етр ы 117
О бра ботк а стрельб 347
О бъединение двух систем 475
Опыты независимые 59
Отклонение вероятное 127
— — главное 195
— срединное 127
— среднее арифметическое 99
— — квадратическое 96, 97
Оценка 313
— несмещенная 314
— состоятел ьн ая 313
— эффективная 314
Оценки для характеристик системы
339
П лотность вероятности 80
— дисперсии средняя 431
— потока мгновенная 527
заявок приведенная 545
— распределения 80, 164
— — системы двух величин 163
—
нескольких величин 182
— спектральная 432
--------- нормированная 434
П оверхн ость распределения 165
П оток Пальма 529
— собы тий 520
-------- без последействия 520, 521
-------- нестационарный пуассоновский
527
— — одн ородн ы х 520
-------- ' ординарный 520, 522
-------- простейший 520
-------- регулярный 520
-------- с ограниченным последействи­
ем 529
-------- стационарный 520, 521
— Эрланга 530—533
Правило трех сигма 125, 290
Преобразование Фурье 300, 434
•
------- обратное 300
Принцип практической уверенности
35
Произведение событий 39
Производительность . источника ин­
формации 508
Пропускная способность канала 508,
511
— — системы абсолютная 516
— — — относительная 516, 544
Простая
статистическая
совокуп­
ность 133, 134
Процесс без последействия 537
— марковский 537
— стохастический 20
Разложение корреляционной функ­
ции каноническое 412
— случайной функции 409
каноническое 412
— спектральное 430, 431
— — в комплексной форме 438
Распределение антимодальное 91
— биномиальное 61
■
— полимодальное 91
— Пуассона 106
Релея 200
— Стьюдента 325
Рассеивание 96, 176
Реализация случайной функции 371,
Ряд распределения 69
— статистический 136
простой 134
Свойство суперпозиции 409
Сетка рассеивания 202
Сечение случайной функции 374
Система случайных величин 159
Системы величин некоррелирован­
ное 187
— массового обслуживания 515
Скошенность 97
Случаи 26
■'— благоприятные 26
Случайная величина 32, 67
------- дискретная 32
------- комплексная 402
------- непрерывная 32
------- прерывная 32
------- смешанная 77
------- характеристическая 33
------- центрированная 93
— точка 159
— функция 370, 371
•------ - комплексная 404
575
ПРЕДМ ЕТНЫ Й УКАЗАТЕЛЬ
Случайная
функция
нормироваьная
383
— — , разлож ение 409
— — центрированная 382
— — элементарная 407
Случайное явление 11
Случайные векторы некоррелирован­
ные 187
— величины зависимые 172
-------- независимые 172, 183
— . — некоррелированные 178
— — несвязанные 178
— функции, слож ение 399
Случайный вектор 160
— процесс нестационарный 419
— —. стационарный 419
С обы тие 23
— д остовер н ое 24
— невозм ож н ое 24
С обы тия зависимые 46
— независимые 45, 48
— несовместные 26
— практически достоверн ы е 34
н евозм ож ны е 34
— противополож ны е 42 v
— равновозм ож ны е 26
Спектр дисперсий 431
— стационарной случайной функции
431
С тандарт 96
Статистическое среднее 140
Степень
неопределенности системы
469, 470
Сумма собы тий 38
С ходи м ость по вероятности 31
Теорема Бернулли 31, 36, 286, 295
— гипотез 56
— Лапласа 308
— М аркова 294
— о повторении опы тов 61, 63
— Пальма 530
— П уассона 296
__
— слож ения вероятностей 40
дисперсий 224
— — корреляционных матриц 230
— — — моментов 229
-------- математических ожиданий 221
— — энтропий 476
— умнож ения вероятностей 46
-------- законов распределения 170
-------- математических ож иданий 226
— центральная предельная 287, 297,
302, 303
— Чебышева обобщ ен н ая 293
Георема Ш еннона вторая 513
-------- первая 508
Теоремы предельные 287
Теория информации 468
Уравнения Эрланга 543
Условие Линдеберга 306
Устойчивость средних 88, 286
— частот 28, 29
Формула Бейеса 56
— полной вероятности 54
-- --------- интегральная 217, 218
Формулы Эрланга 546
Функция автокорреляционная 379
— корреляционная 379
— — взаимная 399
------- нормированная 381, 422
— Лапласа 128
приведенная 129
— производящая 62
— распределения 73
нормальная 123
------- системы двух величин 160
------------ нескольких величин 182
— — статистическая 134
— связи корреляционная 399
— характеристическая 299, 301
Характеристика частотная 449
Характеристики выборочные 142
— комплексной случайной величины
402
— положения 85
— рассеивания 96
— системы величин 184
— случайной функции 377
— числовые 85
------- функций случайных величин
210
Центр
рассеивания
118
Частота события 24, 28
Эксцесс 98
Элемент вероятности 81, 165
Эллипс равной плотности 194
— рассеивания 194
— единичный 195
— — полный 195
Энтропия 471, 481
—- приведенная 495
— условная 477
— частная условная 496
Эргодическое свойство 458
Учебное издание
Вентцель Елена Сергеевна
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Редактор Ж. И. Яковлева
Художественный редактор Ю. Э. Иванова
Технический редактор Л. А. Овчинникова
ЛР № 0 1 0 1 4 6 о т 2 5 .1 2 .9 6 . И зд. № Ф М -200. П од п . в п е ч а ть 26.04.99
Ф орм ат 60x88‘/ 16- Бум. газеты. Гарнитура «Л итературная». П ечать оф сетная
О б ъ е м : 35,28 уел. печ. л., 35,28 уел. к р .-отт., 33,72 уч.-изд. л.
Тираж 12000 экз. Заказ № 764
И здательство «Вы сш ая ш кола». 101430, М осква, ГС П -4, Неглинная ул., д. 29/14
О тпечатано в Г У П И П К «Ульяновский Д ом печати»
432601, г. Ульяновск, ул. Гончарова, 14
ISBN 5 - 0 6 - 0 0 3 6 5 0 - 2
9785060
Ö36f03
Download