Приложение 3 - Электронная библиотека КемТИПП

advertisement
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
КЕМЕРОВСКИЙ ТЕХНОЛОГИЧЕСКИЙ ИНСТИТУТ
ПИЩЕВОЙ ПРОМЫШЛЕННОСТИ
С.А. ИВАНОВА, В.А. ПАВСКИЙ
МАТЕМАТИКА
часть 3
Учебное пособие
Кемерово 2011
2
УДК: 519.21/25 (075)
ББК ….
И 21
Рецензенты:
Н.Н. Данилов, заведующий кафедрой
математической кибернетики КемГУ, д-р физ.-мат. наук,
профессор;
кафедрой прикладной математики и информатики КемТИПП
зав. каф., канд. физ.-мат. наук, доцент А.Г. Семенов
Рекомендовано редакционно-издательским советом Кемеровского технологического института пищевой промышленности
Иванова, С.А.
И 21
Математика: Учебное пособие, часть 3/ С.А. Иванова,
В.А. Павский. Кемеровский технологический институт пищевой
промышленности. – Кемерово, 2008. – 176 с.
ISBN
Учебное пособие составлено в соответствии с программой дисциплины «Математика» и предназначено для студентов всех
форм обучения.
ББК
П
ISBN 5-89289-142-9
© С.А. Иванова, В.А. Павский, 2011
© КемТИПП, 2011
3
СОДЕРЖАНИЕ
ВВЕДЕНИЕ ....................................................................................... 5
ОСНОВНЫЕ СИМВОЛЫ, ОБОЗНАЧЕНИЯ И СОКРАЩЕНИЯ6
ТЕОРИЯ ВЕРОЯТНОСТЕЙ ............................................................ 7
Понятие случайного события...................................................... 7
Действия над случайными событиями ....................................... 8
Вероятность события ................................................................. 14
Элементы комбинаторики ......................................................... 15
Формулы вычисления вероятностей ........................................ 22
Свойства вероятностей. Теорема сложения вероятностей ..... 27
Условная вероятность. Теорема умножения вероятностей.... 30
Формула полной вероятности. Формула Байеса ..................... 33
Последовательность независимых испытаний. Формула
Бернулли ..................................................................................... 36
Формула Пуассона ..................................................................... 42
Локальная теорема Муавра – Лапласа ..................................... 44
Интегральная теорема Муавра – Лапласа ................................ 46
Случайные величины ................................................................. 51
Дискретные случайные величины ............................................ 65
Числовые характеристики случайных величин....................... 69
Классические стандартные распределения.............................. 83
Функции от случайной величины ............................................. 95
Системы случайных величин .................................................... 98
Двумерные случайные величины ............................................. 99
Закон больших чисел ............................................................... 108
Центральные предельные теоремы ........................................ 113
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА ..................................... 115
Распределение выборки. Геометрическое представление
выборки ..................................................................................... 116
Статистические критерии согласия ........................................ 121
Основные характеристики выборки ....................................... 127
Интервальное оценивание ....................................................... 132
Линии регрессии ...................................................................... 137
МЕТОДИЧЕСКИЕ УКАЗАНИЯ, ПРАВИЛА ВЫПОЛНЕНИЯ
И ОФОРМЛЕНИЯ КОНТРОЛЬНЫХ РАБОТ ........................... 145
КОНТРОЛЬНАЯ РАБОТА .......................................................... 146
Приложение 1 ............................................................................... 159
Приложение 2 ............................................................................... 161
4
Приложение 3 ............................................................................... 163
Приложение 4 ............................................................................... 166
Приложение 5 ............................................................................... 168
Приложение 6 ............................................................................... 171
Приложение 7 ............................................................................... 173
СПИСОК ЛИТЕРАТУРЫ ............................................................ 175
5
ВВЕДЕНИЕ
Кафедра высшей математики Кемеровского технологического института пищевой промышленности предлагает курс математики для вузов, общим объемом 500 – 700 часов, адаптированный для студентов заочного обучения своего института.
Курс состоит из четырех комплексов, каждый из которых
рассчитан на один семестр и включает разделы математики, соответствующие программе семестра. Каждая часть является методическим комплексом, ориентированным на самостоятельное
изучение материала соответствующих разделов математики.
Представленный материал содержит минимум знаний, необходимых студенту при его дальнейшем обучении в вузе.
Настоящий методический комплекс предназначен студентам всех специальностей заочной формы обучения, в том числе
с применением дистанционной технологии. Комплекс состоит
из 2-х разделов: теории вероятностей и математической статистики.
Итогом изучения этого семестрового курса является выполнение контрольной работы и сдачи экзамена.
6
ОСНОВНЫЕ
СИМВОЛЫ,
СОКРАЩЕНИЯ
СИМВОЛ






N, Q, Z, R



, , \
n!
A, F
P( A)
Ank
Cnk


опр.
пр.
рис.
табл.
б.м.
б.б.
м.о.
ОБОЗНАЧЕНИЯ
И
ЗНАЧЕНИЕ
знак дизъюнкции (и)
знак конъюнкции (или)
знак логического следования (следовательно)
знак равносильности (тогда и только тогда, равносильно,
эквивалентно)
квантор всеобщности (всякий, любой (от нем. Alle))
квантор существования (существует, найдется (от анг.
Exists))
множества натуральных, рациональных, целых, целых
неотрицательных, действительных чисел
знак принадлежности элемента множеству
знак не принадлежности элемента множеству
знак принадлежности множества множеству
знаки пересечения, объединения и дополнения множеств
произведение 1 2  3  ...  n (эн-факториал)
алгебра и -алгебра событий
вероятность события A
символ числа размещений из n элементов по k,
k  N  {0} , n  N
символ числа сочетаний из n элементов по k, , k  N  {0}
n N
знак суммы
знак произведения
определение
пример
рисунок
таблица
бесконечно малая
бесконечно большая
математическое ожидание
7
ТЕОРИЯ ВЕРОЯТНОСТЕЙ
Теория вероятностей – наука о случайных событиях, явлениях. В основании теории вероятностей лежат понятия «случайное событие», «вероятность случайного события», которые в
рамках теории считаются интуитивно ясными.
Понятие случайного события
Под случайными будем понимать совокупность наблюдаемых событий, каждое из которых (при данном комплексе условий) в данном испытании обладает возможностью произойти,
однако происходит только одно из них.
Примеры случайных событий.
1. Из большого числа произведенных изделий выбираем
наудачу одно. Изделие оказалось бракованным, а могло
быть стандартным. Наудачу отобранное изделие оказалось бракованным – случайное событие.
2. На факультете обучаются - 1/3 юношей, остальные девушки. Для поздравления ветеранов выбирается группа
из 3-х человек. В выборке оказалось 3 молодых человека, а могло быть только 2, только 1 или ни одного. В выбранной группе из 3-х студентов оказалось 3 юноши –
случайное событие.
3. Билеты экзамена по математике содержат два теоретических вопроса. При подготовке к экзамену студент выучил не все вопросы. На экзамене, он взял билет, в котором все вопросы ему известны, а мог содержать оба неизвестных вопроса или только один известный. Наудачу
отобранный билет содержит два известных вопроса –
случайное событие.
Из примеров следует, что для всякого случайного события
важно знать не только факт его появления, но и как часто это
появление имеет место. Таким образом, всякое случайное событие обладает некоторой мерой своего появления. В теории вероятностей такой мерой принято считать действительные числа из
промежутка [0, 1] , чем число ближе к 1, тем чаще появляется
событие. Если при соблюдении одних и тех же условий при ис-
8
пытании событие появляется каждый раз, и в будущем, при сохранении тех же условиях, нет оснований считать, что событие
не будет появляться каждый раз, то такое событие считают достоверным и вероятность его появления считают равной 1.
Действия над случайными событиями
Всякий мыслимый результат (неразложимый исход) эксперимента (испытания) будем называть элементарным случайным событием или элементарным событием, и обозначать .
Пр. 1 Монета подбрасывается два раза. Неразложимый исход
эксперимента – возможные результаты двухкратного подбрасывания монеты (а не однократного, как может показаться на первый взгляд). Таким образом, неразложимый исход эксперимента
зависит от условий поставленной задачи.
Пространством  элементарных событий будем называть совокупность элементарных событий , для которых
1) в результате реализации эксперимента всегда происходит одно из элементарных событий ;
2) все элементарные события  взаимно исключают друг
друга.
Пространство элементарных событий   {} считается
заданным, если указаны все его элементы
  {1 ,  2 ,..., n }  { i : i  1,2,..., n}
или
  {1 ,  2 ,..., n ,...}  {i : i  1,2,...,n,...}.
Пр. 2 Монета подбрасывается два раза. Построить пространство
элементарных событий.
Решение. Будем считать, что при однократном подбрасывании
монеты возможно выпадение одной из ее сторон: либо «герб»,
либо «решетка» (ребро не учитываем). Рассмотрим всевозможные исходы реализации эксперимента, который состоит в подбрасывании монеты дважды:
1 – выпадение «герба» два раза;
2 – выпадение «герба» и «решетки»;
3 - выпадение «решетки» и «герба»;
4 – выпадение «решетки» два раза.
9
Других мыслимых результатов эксперимента нет. Таким
образом, пространство элементарных событий состоит из четырех элементарных событий
  {1 ,  2 , 3 ,  4 } .
Замечание. Почему события  2 и  3 следует считать различными? Искать логического объяснения, пожалуй, не стоит. Десятки и даже сотни тысяч экспериментов с монетой, да и не
только с ней, показали, что в подавляющем большинстве случаев, если не оговорено противное, разумно учитывать порядок, в
котором появляется то или иное событие.
Любое подмножество пространства элементарных событий будем называть случайным событием или просто событием
и обозначать буквами A, B, C, … . Событие A происходит, если
произошло какое – то одно из элементарных событий его составляющих.
Элементарные события, составляющие некоторое событие
A, называются элементарными событиями, благоприятствующими появлению события A.
Пр. 3 Событие A состоит в появлении не более 3-х очков при
однократном подбрасывании игральной кости. Построить пространство элементарных событий и описать событие A.
Решение. В данном случае, пространство элементарных событий
состоит
из
6
элементарных
событий
  {1 ,  2 , 3 ,  4 , 5 , 6 } , где  i – выпадение i очков (числа i)
при однократном подбрасывании игральной кости, i  1,2,...,6 .
Поскольку появление не более 3-х очков при подбрасывании
игральной кости равносильно появлению одной из 3-х граней
кости с цифрами 1, 2 или 3, то будем считать, что событие A состоит из трех элементарных событий
A  {1 ,  2 , 3 } .
Опр. Событие, которое всегда происходит, называется достоверным.
Достоверное событие содержит все элементарные события
пространства . Пространство элементарных событий  является достоверным событием, поэтому часто для обозначения достоверного события используется символ .
10
Опр. Событие, которое никогда не происходит, называется невозможным.
Невозможное событие не содержит ни одного элементарного события из . Не нарушая общности, можно считать, что
невозможное событие содержится в любом случайном событии.
Аналогично обозначениям, принятым в теории множеств, для
невозможного события принято использовать символ . Таким
образом, для любого события A выполняется   A   .
Замечание. Строго говоря, достоверное и невозможное события
не являются случайными, однако в теории вероятностей их рассматривают в целях конструктивности построения теории.
Пр. 4 Выпадение не более 6 очков при подбрасывании игральной кости – достоверное событие.
Пр. 5 Произведено 2 выстрела по мишени, при этом произошло
3 попадания – невозможное событие.
Для более отчетливого представления событий будем
изображать (рис. 1) пространство элементарных событий  в
виде некоторой области на плоскости. Элементарные события 
- точками, а события A, B, C, … – областями внутри .


A
Рис. 1.
Опр. Событие A принадлежит событию B (рис. 2), если событие
A состоит только из элементарных событий, принадлежащих
событию B, и обозначается A  B . Таким образом, появление
событие A всегда за собой влечет появление события B.
11

A
B
Рис. 2
Опр. События A и B называются равными (равносильными),
если они состоят из одних и тех же элементарных событий, что
записывается как A  B (рис. 3).

A, B
Рис. 3
Действия над событиями.
1.
Объединением (суммой) событий A и B (рис. 4) называется
событие, которое состоит из элементарных событий принадлежащих либо событию A, либо событию B, либо тому и другому
одновременно, и обозначается символом A  B (читается: A
объединение B). Говорят, что A  B появилось, если появилось
хотя бы одно из событий A или B.

A
B

Рис. 4.
12
2.
Пересечением (произведением) событий A и B (рис. 5)
называется событие, которое состоит из элементарных событий
принадлежащих и событию A, и событию B, и обозначается
символом A  B (читается: A пересечение B). Говорят, что событие A  B появилось, если появились одновременно события
A и B.

A
B

Рис. 5.
3.
Событие A (читается: A с чертой) называется противоположным к событию A (рис. 6), если оно состоит из тех элементарных событий, которые не принадлежат событию A. Таким
образом, событие A происходит тогда и только тогда, когда
событие A не происходит.

A
A
Рис. 6.
4.
Разностью событий A и B называется событие, которое
состоит из элементарных событий, принадлежащих событию A,
но не принадлежащих событию B, и обозначается A \ B (читается: A минус B).
13

B

A
Рис. 7.
Опр. События A и B называются несовместными, если они не
содержат общих элементарных событий, то есть, A  B  
(другими словами, появление A исключает появление B).

A
B

Рис. 8.
Опр. События A1, A2, …, An образуют полную группу событий,
если их объединение совпадает с пространством элементарных
n
событий
 A   . Если также эти события попарно несовместi
i 1
ны, т.е.
Ai  A j   , i  j , i, j  1,2,..., n ,
то события A1, A2, …, An образуют полную группу несовместных
событий.

An
A1
…
Рис. 9.
A2
14
Вероятность события
Зададим класс событий A   , являющийся некоторым
множеством подмножеств конечного пространства элементарных событий , удовлетворяющий условиям:
1)   A ;
2) если A  A , то A  A ;
3) если A, B  A , то A  B  A , A  B  A , A \ B  A .
Класс событий A , удовлетворяющий приведенным условиям для конечного числа событий, называется алгеброй событий.
Таким образом, алгеброй событий над пространством 
называется конечное множество, элементами которого являются
все подмножества пространства , включая само  и невозможное событие .
Алгебра событий F называется  - алгеброй, если
 An  F , n  1,2,... , следует, что An  F ,


n 1
An  F ,

A
n
F .
n 1
Если определено пространство элементарных событий  с
заданной в нем некоторой  - алгеброй его подмножеств, то говорят, что задано измеримое пространство {, F} […].
Опр. Число P( A)  p , определяющее меру объективной возможности события, называется вероятностью события A на измеримом пространстве {, F} , если оно удовлетворяет следующим аксиомам:
1)  A    P( A)  0 ;
2) P()  1 ;
3) если Ai  A j   , i  j , i, j  1,2,3,..., n , то
 n
 n
P Ai  
P( Ai ) .
 i 1  i 1
Опр. Пространство элементарных событий  с выделенной в
нем -алгеброй событий и определенной на измеримом про-


15
странстве {, F} вероятностной мерой P( A)  p , A  F , образуют вероятностное пространство {, F , P} .
Таким образом, в общем случае
а)
 – произвольное множество элементарных событий.
F – некоторая -алгебра подмножеств .
б)
в)
P – вероятность (или мера) определенная на -алгебре F ,
удовлетворяющая условию P()  1 .
Дальнейшие построения будем проводить на вероятностном пространстве. Обобщение аксиом на  - алгебру событий
вероятностного пространства {, F , P} приведет к формализации теории вероятностей, которая, в сущности, являясь разделом теории интегрирования в настоящее время выделилась в
самостоятельную математическую науку. Основные результаты
в этом направлении принадлежат Колмогорову Н.А. и его школе
….
Замечание. Под аксиоматикой Колмогорова понимается перечисление свойств объектов вероятностного пространства
{, F , P} в любой форме ….
В этой части теории вероятностей мы будем изучать конечное вероятностное пространство {, A, P} , за исключением
отдельных задач, являющихся естественным обобщением на
счетное число элементарных событий пространства
Прежде чем переходить к вычислению вероятностей случайных событий, напомним некоторые необходимые в дальнейшем сведения из комбинаторного анализа.
Элементы комбинаторики
Пусть задана некоторая конечная совокупность различных
элементов, которую будем называть генеральной совокупностью . Любой конечный набор, даже повторяющихся, элементов генеральной совокупности будем называть выборкой. Количество элементов, составляющих выборку, назовем ее объемом.
Задача состоит в нахождении числа всех выборок, заданного
объема, составленных из элементов данной генеральной совокупности, удовлетворяющих определенным условиям. Решени-
16
ем таких задач занимается раздел математики именуемый комбинаторикой ….
Рассмотрим два правила, часто используемых в комбинаторике.
Правило сложения. Если некоторое событие A может появиться n способами, а событие B – k способами, то событие A или B
может появиться n  k способами.
Пр. 6 Пусть в одном ящике находятся 3 шара, а в другом – 5
шаров. Сколькими способами можно извлечь один шар.
Решение. Один шар можно извлечь из 1-го или 2-го ящика, таким образом,
A – шар извлекается из 1-го ящика,
B – шар извлекается из 2-го ящика.
Причем событие A появляется при извлечении любого из 3
шаров, принадлежащих 1-му ящику, событие B – при извлечении любого из 5 шаров 2-го ящика, т.е. n  3 , k  5 . В соответствие с правилом сложения, событие A или B может появиться
n  k  3  5  8 способами.
Правило умножения. Если некоторое событие A может
появиться n способами, а событие B – k способами, то событие
A и B может появиться n  k способами.
Пр. 7 Между городами A и B существует 2 дороги, а между B и
C – 3 дороги. Сколькими способами можно добраться из города
A в C?
Решение. Если выбрать 1-ую дорогу между городами A и B, то
в город C можно добраться 3 способами, для 2-ой дороги аналогично (рис. 10). То есть, добраться из города A в город C можно
6 способами.
А
В
С
Рис. 10.
Воспользуемся правилом умножения, чтобы добраться из
города A в C, необходимо из города A добраться в город B (событие A) и из города B в город C (событие B), при этом, событие
A может произойти 2 способами, событие B – 3 способами, т.е.
17
n  2 , k  3 . Событие A и B может появиться n  k  2  3  6 способами (то есть из города A в город C можно попасть шесть способами).
Замечание. Правила сложения и умножения справедливы и в
теоретико-множественных преобразованиях: если в предложении между описаниями событий присутствует союз или/либо,
то имеет место объединение (сумма) событий, если – союз и, то
– пересечение (умножение) событий.
В зависимости от условий, которым подчиняются элементы выборки, обычно рассматриваются два способа выбора элементов: с возвращением, без возвращения. Выборка элементов
множества называется упорядоченной, если учитывается не
только состав выборки, но и порядок следования ее элементов.
В противном случае, выборка считается неупорядоченной. Таким образом, различают выборки: упорядоченные с возвращением и без, неупорядоченные – с возвращением и без.
На практике не всегда возможно и удобно выписывать все
выборки, чтобы определить их число, поэтому получим формулы, позволяющие определять число различных выборок элементов множества для различных способов выбора.
В качестве базовых при выводе различных формул пересчета введем размещения и перестановки.
Пусть задано множество, состоящее из конечного числа n
элементов, n  N .
Размещения.
Всякая упорядоченная выборка без возвращений, состоящая из k, k  0 , элементов этого множества, называется размещением без повторений из n элементов по k.
Число всех размещений из n элементов по k обозначается
символом Ank и равно произведению последовательных чисел от
n до n – k +1 включительно, то есть
Ank  n  (n  1)  (n  2)  ... (n  k  1) , k  0 .
(1)
Если k  n , то разделив и домножая правую часть последнего равенства на (n  k )! , получаем
n!
Ank 
, 0k n.
(2)
( n  k )!
18
Замечание. Напомним, что произведение всех натуральных чисел от 1 до n читается «эн – факториал» и обозначается символом
n! 1  2  3  ... n ,
причем 0! 1 , по определению.
Например, 5! 1  2  3  4  5  120 .
Пр. 8 Рассмотрим множество, элементами которого являются
числа 1, 2, 3. Составим всевозможные размещения из элементов
этого множества по два элемента без повторений.
Решение. Задано множество {1, 2, 3} . Размещения из 3-х элементов по 2 будут следующими: (1, 2) , (1, 3) , (2, 3) , (2, 1) , (3, 1) ,
(3, 2) . Таким образом, получилось 6 выборок.
Вычислим число выборок по формуле (1), полагая n  3 ,
k  2 , имеем
A32  3  2  6 .
Пр. 9 Вычислить
6
5
A20
 A20
.
4
A20
Решение. Воспользуемся формулой (1), имеем
6
5
A20
 A20
20  19  18  17  16  15  20  19  18  17  16


4
20  19  18  17
A20
20 19 18 17 16  (15  1)
 16 16  256 .
20 19 18 17
Перестановки.
Размещения из n элементов по n называются перестановками из n элементов.
Число перестановок Pn из n элементов можно получить из
формулы (1) или (2):
n!
(3)
Pn  Ann   n! .
0!
Пр. 10 Задано множество {1, 2, 3} . Перестановками из элементов
этого множества будут следующими: (1, 2, 3) , (1, 3, 2) , (2, 1, 3) ,
(2, 3, 1) , (3, 1, 2) , (3, 2, 1) . Таким образом, получилось 6 выборок.

19
Вычислим число выборок по формуле (3). Полагая n  3 ,
получаем
P3  3! 6 .
Сочетания.
Всякая неупорядоченная без возвращения выборка, состоящая из k, k  0 , элементов множества, называется сочетанием
из n элементов по k.
Число всех сочетаний из n элементов по k Cnk равно произведению последовательных чисел от n до n  k  1 включительно деленному на k !
n  (n  1)  (n  2)  ... (n  k  1)
, k 0.
(4)
Cnk 
k!
Из формулы (4) следует, что
n!
C nk 
, 0k n.
(5)
k!(n  k )!
k
При вычислении C n полезно пользоваться следующими
частными случаями:
1. Cn0  1 ;
2. Cn1  n ;
3. Cnn  1 ;
и свойствами:
I.
Cnk  Cnnk , 0  k  n ;
Доказательство.
Из формулы (5) следует
n!
n!
C nk 

 C nnk .
k!(n  k )! (n  k )!(n  (n  k ))!
II.
Cnk11  Cnk 1  Cnk , 0  k  n .
Доказательство.
Из формулы (5) имеем:
(n  1)!
(n  1)!
C nk11 


(k  1)!(n  1  k  1`)! (k  1)!(n  k )!
n!(n  1)
n!((n  k )  (k  1))



(k  1)!(n  k  1)!(n  k ) (k  1)!(n  k  1)!(n  k )
20
n!(n  k )
n!(k  1)


(k  1)!(n  k  1)!(n  k ) (k  1)!(n  k  1)!(n  k )
n!
n!


 C nk 1  C nk .
(k  1)!(n  (k  1))! k!(n  k )!
Пр. 11 Задано множество {1, 2, 3} . Сочетания из 3-х элементов
по 2 будут следующими: (1, 2) , (1, 3) , (2, 3) . Таким образом, получилось 3 выборок.
Вычислим число выборок по формуле (4):
3 2
C32 
 3.
2!
6!
Пр. 12 Вычислить 7  (C75  C73 ) .
A10
Решение.
6!
6!
 (C75  C73 ) 
 (C72  C73 ) 
7
10  9  8  7  6  5  4
A10

1 2  3  4  5  6  7  6 7  6  5 
1 2  3  4  5  6




10  9  8  7  6  5  4  2!
3!  10  9  8  7  6  5  4
8
1
 7  6  3  7  6  5  1 7  6  (3  5)


 .

3!

 10  3  4  7  6 10  3  4 15
Размещения с повторениями.
Всякая упорядоченная с возвращением выборка, состоящая из k, k  0 , элементов множества, причем каждый элемент
множества может повториться в выборке до k раз, называется
размещением с повторением из n элементов по k.
Число всех размещений с повторениями из n элементов по
k
k Bn равно произведению числа n на себя k раз

Bnk  n k .
(6)
Пр. 13 Рассмотрим множество, элементами которого являются
числа 1, 2, 3. Составим всевозможные размещения из элементов
этого множества по два элемента с повторениями.
Решение. Задано множество {1, 2, 3} . Размещения с повторениями из 3-х элементов по 2 будут следующими: (1, 1) , (1, 2) ,
21
(1, 3) , (2, 1) , (2, 2) , (2, 3) , (3, 1) , (3, 2) , (3, 3) . Таким образом,
получилось 9 выборок.
Вычислим число выборок по формуле (6):
B32  32  9 .
Перестановки с повторениями.
Всякая упорядоченная с возвращением выборка, в которую 1-ый элемент множества входит k1 раз, 2-ой - k 2 раз, n-ый k n , причем k1 , k 2 ,...,k n  0 , называется перестановкой с возвращением из n элементов.
~
Число всех перестановок с повторениями Pn из n элементов при условии, что k1  k 2  ...  k n  k , вычисляется по формуле
k!
~
, kN .
(7)
Pk1,k2 ,..., kn 
k1!k 2 !...  k n !
Доказательство.
В соответствие с определением получаем
~
Pk1 ,k2 ,..., kn  C kk1  C kk2 k1  ...  C kkn k11 k2 ... kn  2  C kkn k1 k2 ... kn 1 
k!(k  k1 )!
(k  k1 )!


 ... 
k1 !
k 2 !(k  k1  k 2 )!
(k 
n 1
 k )!
i
i 1
n 1
k n !(k 
 k )!
1 
i
i 1
k!(k  k1 )!(k  k1  k 2 )!...  (k 

n 1
 k )!
i
i 1
k1!(k  k1 )!k 2 !(k  k1  k 2 )!...  k n !(k 
n 1
 k )!

k!
.
k1!k 2 !...  k n !
i
i 1
Сочетания с повторениями.
Всякая неупорядоченная с возвращениями выборка, в которую 1-ый элемент множества входит k1 раз, 2-ой - k 2 раз,
n-ый - k n , причем k1  k 2  ...  k n  k , k1 , k 2 ,...,k n  0 , называется сочетанием с повторением из n элементов по k.
22
~
Число всех сочетаний с повторениями Cnk из n элементов
по k вычисляется по формуле
~
~
Cnk  Pk ,n1  Сnkk 1 , k  N .
(8)
Пр. 14 Число целых неотрицательных решений уравнения
k1  k 2  ...  k n  k вычисляется по формуле (8).
Формулы вычисления вероятностей
Классическое определение вероятности.
Пусть задано вероятностное пространство {, A, P} , в котором пространство элементарных событий состоит из конечного числа n элементов, то есть   {i : i  1,2,...,n} . Для каждого
элементарного события i пространства  существует вероятность pi , i  1,2,..., n , такая, что
1.
n
n
 P( )   p
i
i 1
i
1.
i 1
В случае если события i равновозможные, то
1
P(i )  , i  1,2,..., n .
n
Если событие A  {i1 ,i2 ,...,im } подразделяется на m
частных случаев, входящих в полную группу из n равновозможных и попарно несовместных событий, тогда по аксиоме 3
определения вероятности события вероятность события A вычисляется по формуле …
m
m
1 m
P( A) 
P(i j ) 
 ,
n
j 1
j 1 n


называемой классическим определением вероятности, то есть
вероятность события A равна отношению числа элементарных
событий, благоприятствующих появлению события A к общему
числу элементарных событий .
Замечание. Если пространство элементарных событий бесконечно или его элементарные события неравновозможны, то
формула классического определения вероятности не применима.
23
Пр. 15 В ящике 4 белых и 7 черных шаров. Какова вероятность
того, что наудачу вынутые 2 шара окажутся белыми?
Решение. Поскольку пространство элементарных событий 
конечное, его составляют равновозможные и несовместны элементарные события, соответствующие 4-м возможным результатам, то вероятность события A найдем по формуле классической вероятности
m
P( A)  .
n
Начнем решение задачи с описания события, вероятность
которого необходимо найти:
A – извлечение 2-х белых шаров.
Число элементарных событий пространства  и благоприятствующих появлению события A, определим с помощью формул из комбинаторики. При вычислении общего числа элементарных событий не учитывается свойство, которому они удовлетворяют. В нашем случае в ящике 11 шаров, необходимо
определить число способов извлечения любых двух из них. Так
как порядок следования элементов в выборке не важен, а сами
элементы не повторяются, то воспользуемся формулой (4)
11 10 11 10
2
n  C11


 55 .
2!
2
Теперь учтем то свойство, которому удовлетворяют элементы выборки, в нашем случае – это цвет. Чтобы при извлечении 2-х шаров появились 2 белых шара, необходимо их извлечь
именно из белых шаров, которых в ящике 4, а черные шары не
извлекать, которых 7. Аналогично, по формуле (4) имеем
43
m  C42  С70 
1  6 .
2!
Окончательно получаем
C2 C0
6
P ( A)  4 2 7 
.
55
C11
2.
Геометрическое определение вероятности.
Геометрическое определение вероятности является естественным обобщением классического определения вероятности
на более чем счетные множества.
24
Пусть в пространстве задана некоторая область G,
внутри которой выделена обG
ласть g (рис. 11). Из бесконечg
ности в область G бросается
точка (т.е. попадание точки в
любое место области G совместимо с условиями классичеРис. 11.
ского определения вероятности).
Если область G рассматривать как пространство элементарных событий, то в данном случае число элементарных событий бесконечно (более того, оно более чем счетно …) и формула классического определения вероятности не применима.
Однако если в качестве характеристики области использовать ее
меру, то идеи классического определения вероятности можно
применять и на геометрических образах.
Тогда вероятность попадания в область g  G наудачу
брошенной точки в область G равна отношению меры g к мере
G, то есть,
mesg
.
P( A) 
mesG
Замечание. Отметим, что мерой области в одномерном пространстве является длина, в двумерном – площадь, в трехмерном – объем и т.д.
Пр. 16 Два лица A и B условились встретиться в определенном
месте между двумя и тремя часами дня. Пришедший первым
ждет другого в течение 10 мин., после чего уходит. Чему равна
вероятность встречи этих лиц, если приход каждого из них в
течение указанного часа произойдет в любое время?
Решение.
Пусть
A – в течение указанного часа встреча состоится,
x – время прихода на встречу, в течение указанного часа,
лица A,
y – время прихода на встречу, в течение указанного часа,
лица B.
25
Так как первый пришедший ждет второго только 10 мин.
или 1/6 часа, то для их встречи необходимо, чтобы выполнялось
1
неравенство | x  y | , которое эквивалентно, в силу определе6
ния модуля, двум неравенствам
1
y  x ,
6
1
y  x .
6
Если x и y рассматривать как декартовые координаты плоскости
Oxy, то элементарные события, составляющие событие A, лежат
внутри квадрата со стороной равной 1 и являются элементами
S1 с двойной штриховкой (рис. 12).
y
yx+1/6
yx-1/6
1
S
0
S1
1/6
0
0
0 1/6
1
0
х
0
Рис. 12.
Вероятность события A найдем по формуле геометрической вероятности
mesg S1
P( A) 
 .
mesG S
26
Вычислим площади фигур S и S1 . Площадь квадрата
S  1 1  1 , для определения площади S1 фигуры вычислим
площади треугольников, расположенных выше и ниже фигуры
S1 , и вычтем из площади S
1 5 5
25 11
.
S1  1  2     1 

2 6 6
36 36
Окончательно
S1 11
.

S 36
3.
Статистическое определение вероятности.
Из аксиом, определяющих вероятность события, следует,
что для всякого события из  поставлено в соответствие единственное число, являющееся его вероятностной мерой. Однако
не всегда возможно построить пространство элементарных событий  и определить вероятность конкретного события,
например, при помощи формул классического или геометрического определения вероятности. Проще говоря, далеко не всегда
для вычисления вероятности события можно пользоваться теоретической схемой. Да и сама схема часто вызывает сомнения в
правомерности ее применения. В общем случае используют статистическую вероятность, опирающуюся на результаты эксперимента.
Пусть результатом эксперимента является появление одного из двух событий A или A . Проведем n независимых повторений эксперимента (т.е. все повторения эксперимента проводятся при одних и тех же условиях или хотя бы при субъективном ощущении неизменности этих условий) и подсчитаем количество m появлений события A.
Тогда отношение
m
Wn ( A) 
n
называется частотой или частостью появления события A.
При большом числе повторенных экспериментов ( n   ),
частота появления события обладает свойством устойчивости,
P( A) 
27
то есть редко сколько-нибудь значительно откланяется от некоторого числа, в среднем неуклонно приближаясь к нему, то есть
lim Wn ( A)  p ,
n
то число p называется статистической вероятностью события A.
Свойства вероятностей. Теорема сложения вероятностей
Пусть задано вероятностное пространство {, A, P} . Из
аксиом, определяющих вероятность события, получаем следующие свойства вероятностей событий:
1.
Пусть A   , тогда P( A)  P( A)  1 .
Доказательство.
Имеем A   , тогда A   . Так как A  A   и
A  A   , то по аксиоме 3 получаем
1  P()  P( A  A)  P( A)  P( A) ,
P( A)  P( A)  1 .
2.
P()  0 .
Доказательство.
Пусть A   . Так как A    A , а A     , то по аксиоме 3 получаем
P( A)  P( A  )  P( A)  P() ,
P()  P( A)  P( A)  0 .
3.
Для  A   ,  0  P( A)  1 .
Доказательство.
  A  ,
Пусть
Так
как
то
A  .
P()  P( A)  P() . Тогда по аксиоме 2 и свойству 2 получаем
0  P( A)  1 .
Если A   , то P( A)  P()  0 , а если A   , то
P( A)  P()  1 . Следовательно,
0  P( A)  1 .
28
4.
Пусть A1 , A2 ,..., An   образуют полную группу несовn
местных событий, то
 P( A )  1 .
i
i 1
Доказательство.
Пусть A1 , A2 ,..., An   образуют полную группу несовместных событий, тогда по определению Ai  A j   , i  j ,
i, j  1,2,..., n , и
n
 A   . Переходя к вероятностям в последнем
i
i 1
 n 
равенстве получаем P Ai   P()  1 . С учетом аксиомы 3
 i 1 
окончательно имеем
 n
 n
P Ai  
P ( Ai )  1 .
 i 1  i 1



5.
Теорема сложения вероятностей
Если A, B   , то P( A  B)  P( A)  P( B)  P( A  B) .
Доказательство.
A  B  A  ( B \ A) ,
Пусть
имеем
A, B   ,
B  ( B \ A)  ( A  B ) . Тогда по аксиоме 3 получаем
P( A  B)  P( A  ( B \ A))  P( A)  P( B \ A) ,
P( B)  P(( B \ A)  ( A  B))  P( B \ A)  P( A  B) .
Следовательно, P( A  B)  P( A)  P( B)  P( A  B) .
Замечание. Теорему сложения вероятностей можно распространить на любое число событий, например, теорема сложения вероятностей трех событий формулируется следующим образом
Если A, B, C   , то
P( A  B  C )  P( A)  P( B)  P(C )  P( A  B)  P( A  C ) 
 P( B  C )  P( A  B  C ) .
Пр. 17 В ящике 10 деталей, среди которых 2 нестандартные.
Найти вероятность того, что в наудачу отобранных 3 деталях
окажется не более одной нестандартной детали.
29
Решение. Пусть
A – из 3-х извлеченных деталей не более одной нестандартной,
A1 – из 3-х извлеченных деталей ноль нестандартных,
A2 – из 3-х извлеченных деталей одна нестандартная,
тогда A  A1  A2 , так как среди 3-х отобранных деталей будет
не более одной нестандартной только в том случае, если среди
отобранных 3-х деталей будет либо одна стандартная, либо не
будет ни одной (см с. 19, замечание). Переходя к вероятностям,
по теореме сложения вероятностей получаем
P( A)  P( A1  A2 )  P( A1 )  P( A2 )  P( A1  A2 ) .
Так как события A1, A2 несовместны, то P( A1  A2 )  0 и
C 20  C83 C21  C82


3
3
C10
C10
1 8  7  6  3! 2  8  7  3!
7
76
7 7 14




   .
10  9  8  3! 10  9  8  2! 5  3 10  9 15 15 15
Опр. События A, B   называются независимыми, если вероятность их совместного осуществления равна произведению вероятностей этих событий, т.е.
P( A  B)  P( A)  P( B) .
Пр. 18 Симметричная монета подбрасывается два раза. Пусть
события A – «герб» выпал один раз, B – «решетка» выпала один
раз. Выяснить независимость событий A и B.
Решение. Построим пространство элементарных событий, пространство элементарных событий состоит из четырех элементарных событий (см пр. 2)
  {1 ,  2 , 3 ,  4 } ,
где 1 – выпадение «герба» два раза; 2 – выпадение «герба» и
«решетки»; 3 - выпадение «решетки» и «герба»; 4 – выпадение «решетки» два раза. Тогда, используя классическое определение вероятности, получаем
2 1
2 1
2 1
P( A)   , P( B)   , P( A  B)   .
4 2
4 2
4 2
P( A)  P( A1  A2 )  P( A1 )  P( A2 ) 
30
1 1 1
Следовательно
  .
2 2 4
P( A  B)  P( A)  P( B) , т.е. события A и B зависимы, что видно
и непосредственно, так как появление каждого из элементарных
событий из A события определяют появление элементарных событий B.
Пр. 19 Игральная кость подбрасывается один раз. Событие A –
выпадение на верней грани игральной кости четного числа очков, B – выпадение на верней грани игральной кости числа очков кратного 3. Выяснить независимость событий A и B.
Решение. Пространство элементарных событий состоит из шести элементарных событий   {1 , 2 , 3 , 4 , 5 , 6 } , где i –
выпадение i очков (числа i) при подбрасывании игральной ко3 1
2 1
сти, i  1,2,...,6 . Тогда получаем P( A)   , P( B)   ,
6 2
6 3
1
1
P( A  B)  . С другой стороны P( A)  P( B)  . Следователь6
6
но, по определению события A и B являются независимыми.
Однако, явных причин, по которым события A и B можно было
бы считать зависимыми или независимыми, нет.
Такие курьезы случаются, впрочем, они не оказывают
влияния на дальнейшее построение теории и никак ей не противоречат, а скорее подтверждают ее.
Однако
P( A)  P( B) 
Условная вероятность. Теорема умножения вероятностей
При вычислении вероятностей случайных событий, часто
возникают ситуации, когда вся информация о случайном событии A содержится в некотором подмножестве пространства ,
не совпадающего с ним. В этом случае, считая это подмножество за новое пространство элементарных событий, можно более эффективно вычислить вероятность реализации события A в
пространстве .
Опр. Пусть дано вероятностное пространство {, A, P} и
A, B   . Если P( B)  0 , то условной вероятностью P( A / B)
31
появления события A, при условии, что событие B произошло,
называется число, определяемое формулой
P( A  B)
P( A / B) 
.
P( B)
Теорема (умножения вероятностей). Вероятность совместного наступления двух событий равна произведению вероятности
одного из них и соответствующей условной вероятности другого. То есть, если A, B   , то
P( A  B)  P( A)  P( B / A)  P( B)  P( A / B) .
Замечание. Аналогично формулируется теорема умножения
вероятностей для любого числа событий, например, если
A, B, C   , то
P( A  B  C )  P( A)  P( B / A)  P(C / A  B) .
Учитывая определение условной вероятности, для независимых событий A и B выполняются равенства
P( A / B)  P( A) и P( B / A)  P( B) .
Пр. 20 В ящике 10 деталей, среди которых 2 нестандартные.
Найти вероятность того, что среди 2-х отобранных деталей ни
одной нестандартной.
Решение.
Пусть
A – из 2-х отобранных деталей ни одной нестандартной,
A1 – 1-ая, из 2-х отобранных деталей, стандартная,
A2 – 2-ая, из 2-х отобранных деталей, стандартная,
тогда A  A1  A2 , поскольку из 2-х отобранных деталей не будет ни одной нестандартной только в том случае, если и 1-ая, и
2-ая отобранная деталь будут стандартными (см с. 19, замечание). По теореме умножения вероятностей получаем
8 7 28
.
P( A)  P( A1  A2 )  P( A1 )  P( A2 / A1 )   
10 9 45
Для вычисления вероятностей P ( A1 ) , P( A2 / A1 ) воспользуемся
формулой классической вероятности. Так как способов извлечь
1-ую деталь 10, а именно стандартную – 8, то получаем
8
P( A1 )  .
10
32
Поскольку событие A1 произошло, то есть, извлечена одна стандартная деталь, то способов извлечь 2-ую деталь - только 9, при
этом стандартную – уже 7, поэтому
7
P( A2 / A1 )  .
9
Пр. 21 Рабочий обслуживает четыре станка, работающих независимо друг от друга. Вероятность того, что в течение часа внимания рабочего потребует первый станок, равна 0,1, второй –
0,2, третий – 0,15 и четвертый – 0,12.Какова вероятность того,
что в течение часа ни один из станков не потребует внимания
рабочего?
Решение.
Пусть
A – в течение часа ни один из 4-х станков не потребует
внимания рабочего,
A1 – в течение часа 1-ый станок не потребует внимания рабочего,
A2 – в течение часа 2-ой станок не потребует внимания рабочего,
A3 – в течение часа 3-ий станок не потребует внимания рабочего,
A4 – в течение часа 4-ый станок не потребует внимания рабочего,
тогда A  A1  A2  A3  A4 , поскольку из 4-х станков ни один
не потребует внимания только в том случае, если и 1-ый, и 2-ой,
и 3-ий, и 4-ыйстанок не потребует внимания рабочего (см с. 19,
замечание). По теореме умножения вероятностей, с учетом независимости событий A1 , A2 , A3 , A4 , получаем
P( A)  P( A1  A2  A3  A4 )  P( A1 )  P( A2 )  P( A3 )  P( A4 ) 
 0,9  0,8  0,85  0,88  0,53856 ,
так как P( A1 )  1  P( A1 )  1  0,1  0,9 ,
P( A2 )  1  P( A2 )  1  0,2  0,8 ,
P( A3 )  1  P( A3 )  1  0,15  0,85 ,
P( A4 )  1  P( A4 )  1  0,12  0,88 .
33
Пр. 22 Устройство состоит из трех элементов, работающих
независимо. Вероятности безотказной работы первого, второго
и третьего элементов соответственно равны 0,6; 0,7; 0,8. Найти
вероятность того, что безотказно будут работать только два
элемента.
Решение.
Пусть
A – безотказно работают два элемента устройства,
A1 – безотказно работает 1-ый элемент устройства,
A2 – безотказно работает 2-ой элемент устройства,
A3 – безотказно работает 3-ий элемент устройства,
тогда A  ( A1  A2  A3 )  ( A1  A2  A3 )  ( A1  A2  A3 ) , поскольку из трех элементов устройства безотказно работают два
только в том случае, если 1-ый работает, и 2-ой работает, и 3-ий
не работает, либо 1-ый работает, и 2-ой не работает, и 3-ий работает, либо 1-ый не работает, и 2-ой работает, и 3-ий работает.
По теоремам сложения и умножения вероятностей, с учетом независимости событий A1 , A2 , A3 , получаем
P( A)  P(( A1  A2  A3 )  ( A1  A2  A3 )  ( A1  A2  A3 )) 
 P( A1  A2  A3 )  P( A1  A2  A3 )  P( A1  A2  A3 ) 
 P( A1 )  P( A2 )  P( A3 )  P( A1 )  P( A2 )  P( A3 ) 
 P( A1 )  P( A2 )  P( A3 )  P( A1 )  P( A2 )  (1  P( A3 )) 
 P( A1 )  (1  P( A2 ))  P( A3 )  (1  P( A1 ))  P( A2 )  P( A3 ) 
 0,6  0,7  (1  0,8)  0,6  (1  0,7)  0,8  (1  0,6)  0,7  0,8  0,452 ,
так как P( A1 )  0,6 , P ( A2 )  0,7 , P( A3 )  0,8 .
Формула полной вероятности. Формула Байеса
С формулой условной вероятности связана формула полной вероятности, основанная на разбиении события A на непересекающиеся части: A 
n
H
i
. Если событие A состоит из бес-
i 1
конечного числа элементарных событий, то допустимо разбие-
34
A
ние

H
i
.
Если
событие
A,
то
i 1
 n
 n
P H i  
P( H i )  1 .
 i 1  i 1
Теорема (формула полной вероятности).
Вероятность события A, которое может наступить только
в результате появления одного из несовместных событий H i ,


n
H
i
  , равна сумме произведений вероятностей этих собы-
i 1
тий на соответствующую условную вероятность события A, то
есть,
если для A, H1 , H 2 ,..., H n   выполняются условия
1) H i  H j   , i  j , i, j  1,2,..., n ;
2) A 
n
( A  H ) ; то
i
i 1
P( A)  P( H 1 ) P( A / H 1 )  P( H 2 ) P( A / H 2 )  ...  P( H n ) P( A / H n ) .
Доказательство.
Пусть для A, H1` , H 2 ,..., H n   выполняются условия
H i  H j   , тогда
A
n
( A  H )  ( A  H )  ( A  H
i
1
2 )  ...  ( A  H n ) .
i 1
Переходя к вероятностям в последнем равенстве, имеем
 n

P( A)  P ( A  H i )   P( A  H 1 )  ( A  H 2 )  ...  ( A  H n )  .
 i 1

Так как H1 , H 2 ,..., H n попарно несовместные события, то
события A  H 1 , A  H 2 , …, A  H n также несовместные. По
аксиоме 3 определения вероятности события и теореме умножения вероятностей получаем
P( A)  P( A  H 1 )  P( A  H 2 )  ...  P( A  H n ) 
 P( H1 )  P( A / H 1 )  P( H 2 )  P( A / H 2 )  ...  P( H n )  P( A / H n ) .

35
Замечание. Несовместные события H 1 , H 2 ,..., H n называются
априорными гипотезами, поскольку их вероятности задаются
n
до проведения эксперимента, а, так как
H
i
  , то сумма ве-
i 1
роятностей
гипотез
не
превосходит
единицы,
то
есть,
n
 P( H )  1 …. В общем случае имеет место
i
i 1
P ( A) 
n
 P( H )  1 .
i
i 1
Пусть в результате проведения эксперимента появилось
событие A. Если необходимо изучить, при условиях предыдущей теоремы, вклад каждого или какого-либо одного из событий H 1 , H 2 ,..., H n на реализацию события A, то используется
формула Байеса …
P( H j )  P( A / H j )
P ( H j / A)  n
, j  1,2,..., n .
P( H i )  P( A / H i )

i 1
Доказательство.
Пусть имеют место условия предыдущей теоремы. По
теореме умножения вероятностей для любого j  1,2,..., n имеем
P( H j  A)  P( H j )  P( A / H j )  P( A)  P( H j / A) .
Следовательно
P( H j )  P( A / H j )  P( A)  P( H j / A) ,
P( H j / A) 
P( H j )  P( A / H j )
,
P( A)
где вероятность P( A) находится по формуле полной вероятности
P( H j )  P( A / H j )
P ( H j / A)  n
.
P( H i )  P( A / H i )

i 1
36
«Условные» события A / H i , i  1,2,..., n , называются апостериорные гипотезы. Смысл такого названия станет понятен
из следующего примера.
Пр. 23 Поломка прибора может быть вызвана одной из трех
причин, вероятности наступления которых, соответственно,
равны 0,7; 0,2; 0,1. При наличии этих причин поломка прибора
происходит с вероятностью 0,1; 0,2; 0,99. Найти вероятность
того, что прибор вышел из строя, а также вероятность того, что
прибор вышел из строя в результате третьей причины.
Решение.
Пусть A – прибор вышел из строя,
H1 – имеет место 1-ая причина поломки,
H2 – имеет место 2-ая причина поломки,
H3 – имеет место 3-ая причина поломки,
тогда по формуле полной вероятности имеем
P( A)  P( H 1 )  P( A / H1 )  P( H 2 )  P( A / H 2 )  P( H 3 )  P( A / H 3 ) 
 0,7  0,1  0,2  0,2  0,1  0,99  0,209 ,
где P( H 1 )  0,7 , P( H 2 )  0,2 , P( H 3 )  0,1 , P( A / H1 )  0,1 ,
P ( A / H 2 )  0,2 , P( A / H 3 )  0,99 .
По формуле Байеса получаем
P( H 3 )  P( A / H 3 ) 0,1  0,99
P( H 3 / A) 

 0,474 .
P( A)
0,209
Последовательность независимых испытаний. Формула Бернулли
Пусть производится серия из n независимых повторений
эксперимента, в каждом из которых происходит либо событие A,
либо противоположное к нему  A . При этом вероятность появления события A в каждом испытании постоянна (равна p) и
не зависит от исходов других испытаний (соответственно, вероятность не наступления события A также постоянна и равна
1  p  q ). Такая последовательность независимых испытаний
называется испытаниями Бернулли. В силу идеализации условий, испытания Бернулли – схема теоретическая.
37
Вероятность появления события A ровно k раз в n испытаниях Бернулли вычисляется по формуле Бернулли
Pn (k )  Cnk  p k  q nk .
Доказательство.
Составим всевозможные выборки из n элементов, которые
соответствуют появлению события A k раз и события A n  k
раз, таких выборок может быть столько, сколько сочетаний из n
элементов по k …. По теореме умножения вероятностей для
каждого из полученных вариантов (где событие A появилось
ровно k раз) вероятность равна p k  q nk . Так как каждая цепочка из n символов есть результат эксперимента, по теореме сложения вероятностей, получаем
Pn (k )  p k  q nk  p k  q nk  ...  p k  q nk  Cnk  p k  q nk .
Пр. 24 Пусть вероятность поражения мишени при одном выстреле равна 1 / 3 . Найти вероятность того, что из 6 выстрелов
мишень поразят ровно 3.
Решение.
Пусть
A – поражение мишени 3 раза при 6 выстрелах,
тогда, так как вероятность поражения цели при каждом выстреле постоянна ( p  1/ 3 , q  1  p  1  1/ 3  2 / 3 ), по формуле Бернулли имеем
3
3
654 1 8
1  2
P( A)  P6 (3)  C 63  p 3  q 6 3  C 63       
 3 3 
3!
3 3
 3  3
160

 0,219 .
729
Так как всевозможные несовместные между собой исходы
n испытаний состоят в появлении события A 0, 1, 2, …, n раз, то
должно выполняться равенство
n
 P (k )  1 .
n
k 0
Доказательство. Пусть n  1 , тогда
1
 P (k )  P (0)  P (1) 
n
k 0
1
1
38
 C10  p 0  q1  C11  p1  q 0  q  p  1 ;
n2 
2
 P (k )  P (0)  P (1)  P (2)  C
n
2
2
2
0
2
 p0  q2 
k 0
 C 21  p1  q1  C 22  p 2  q 0  q 2  2  q  p  p 2 
 ( q  p) 2  1 ;
n  3, 
3
 P (k )  P (0)  P (1)  P (2)  P (3) 
n
3
3
3
3
k 0
 C30  p 0  q 3  C31  p1  q 2  C32  p 2  q1 
 C33  p 3  q 0  q 3  3  p  q 2  3  p 2  q  q 3 
 ( q  p) 3  1 ;
…
n
 P (k )  P (0)  P (1)  ...  P (n) 
n
n
n
n
k 0
 C n0  p 0  q n  C n1  p1  q n1  ...  C nn  p n  q 0 
 ( q  p) n  1 .
Исследуем поведение функции Pn (k ) при изменяющихся
k. Рассмотрим серию испытаний Бернулли, связанных с подбрасыванием монеты. Вычислим вероятности P6 (k ) , где
k  0,1,2,...,6 - число появления герба. Так как вероятность появления герба при однократном подбрасывании симметричной
1
монеты равна p  , то получаем
2
6
1
1
0
0
6
P6 (0)  C6  p  q  1  1    
;
64
2
5
P6 (1)  C61  p1  q 5  6 
1 1
6
  
;
2 2
64
2
P6 (2) 
C62
4
65  1  1
15
 p q 
    
;
2 2 2
64
2
4
39
3
3
P6 (3)  C63  p 3  q 3 
654  1   1 
20
    
;
3!
64
2 2
P6 (4)  C64  p 4  q 2 
65  1  1
15
    
;
2!  2   2 
64
4
2
5
1 1 6
P6 (5)  C65  p 5  q1  6     
;
 2  2 64
6
1
1
P6 (6)  C66  p 6  q 0  1     1 
.
2
64
 
Результаты вычислений отобразим на рис. 13. Наибольшее
значение вероятностей P6 (k ) соответствует k  3 . В общем
случае для любых n, k [0, n] функция Pn (k ) ведет себя аналогично, то есть имеет одно наибольшее значение, но не более чем
при двух значениях k. Определим то значение k  k 0 , для которого функция Pn (k ) принимает наибольшее значение.
Pn (k )
5/16
15/64
5/32
5/64
0
0
1
2
3
Рис. 13.
4
5
6
k
Так как Pn (k ) дискретна (определены значения только для
целых положительных значений аргумента k, k  0, 1, 2, ... ), то
40
рассмотрим отношение двух соседних значений
Pn (k  1)
Pn (k )
и
Pn (k  1) C nk 1  p k 1  q nk 1 C nk 1  p
n!k!(n  k )! p

 k


k
k
nk
Pn (k )
(n  k  1)!(k  1)!n!q
Cn  p  q
Cn  q
(n  k )  p
.
(k  1)  q
1). Наибольшее значение вероятности Pn (k ) достигается в
P (k  1)
точке k 0  k  1 , если n
 1 , то есть,
Pn (k )
(n  k )  p
 1,


(n  k )  p  (k  1)  q ,
(k  1)  q
(n  k  1  1)  p  (k  1)  q , 
(n  1)  p  (k  1)  p  (k  1)  q , 
(n  1)  p  (k  1)  (q  p) , 
(n  1)  p  (k  1) ,  k 0  n  p  p .
2). Наибольшее значение вероятности Pn (k ) достигается в
P (k  1)
точке k 0  k , если n
 1 , то есть,
Pn (k )
(n  k )  p
 1,


(n  k )  p  (k  1)  q ,
(k  1)  q
(n  k )  p  k  q  q , 
n  p  q  k  ( q  p) ,  k  n  p  q ,  k 0  n  p  q .
P (k  1)
3). Если n
 1 , то наибольшее значение вероятности
Pn (k )
Pn (k ) достигается в двух точках k 0  k , k  1 , то есть, имеем
(n  k )  p
 1,


(n  k )  p  (k  1)  q ,
(k  1)  q
k0  k  n  p  q ;
 n  p  p  k  1 ,  k0  k  1  n  p  p .
Других вариантов нет. Таким образом, получаем
41
n  p  q  k0  n  p  p .
Число k 0 называется наивероятнейшим числом появления события A в n испытаниях Бернулли.
Пр. 25 Отдел технического контроля проверяет партию из 12
3
деталей. Вероятность того, что деталь стандартная, равна .
4
Найти наивероятнейшее число деталей, которые будут признаны стандартными, и его вероятность.
Решение. Найдем наивероятнейшее число стандартных деталей
из неравенства n  p  q  k 0  n  p  p с учетом, что k 0 может
принимать только целые положительные значения, т.е.
3
n  12 ,
k 0  0, 1, 2, ... .
Для
нашей
задачи
p ,
4
3 1
q  1  p  1   , получаем
4 4
3 1
3 3
12    k0  12   ,
4 4
4 4
35
39
,
 k0 
4
4
3
3
8  k0  9 ,
4
4
k0  9 .
Пусть
A – из партии в 12 деталей стандартными признаны 9,
тогда по формуле Бернулли имеем
9
P( A)  P12 (9) 
9
C12
3
9
11  5  39
 3   1  12  11  10 3
    
 12 

3!
4
411
4 4
1082565
 0,258 .
4194304
Пр. 26 Вероятность того, что одно изделие будет бракованным
равна 0,002. Найти вероятность того, что из 1000 выбранных
изделий 5 будет бракованных.
Решение.
Пусть

42
A – из 1000 выбранных изделий бракованных 5,
тогда по формуле Бернулли имеем
5
P( A)  P1000 (5)  C1000
 0,002 5  (1  0,002) 995 
5
 C1000
 0,002 5  0,998 995 .
Очевидно, что вычисление вероятности, в данном случае, сопряжено с техническими сложностями. Поэтому для выполнения подобных вычислений желательно иметь формулы,
которые позволят определить значение искомой вероятности
пусть приближенно, но с наименьшей погрешностью.
Формула Пуассона
Пусть в испытаниях Бернулли вероятность появления события A мала ( p  0 ), число испытаний n велико, а произведение n  p в совокупности ограничено, то есть n  p    const .
Тогда для любого фиксированного k  0,1,..., n имеет место приближенная формула
Pn (k )  Vk ,
(9)
где Pn (k )  Cnk  p k  q nk , Vk 
k  e  
,   n p , n N .
k!
Формула (9) опирается на следующую теорему Пуассона
Теорема (формула Пуассона).
Пусть в независимых испытаниях вероятность появления событие A в испытании n равна P( A)  p(n) . Если при n   вероятность p(n)  0 , так что n  p(n)    0 ,   const , то для
каждого фиксированного k имеет место асимптотическая оценка
k  e  
Cnk  p k (n)  (1  p(n)) nk 

.
n
k!
Доказательство. По условию, при достаточно больших n, имеем
 1
1
p(n)   o  , где o  - б.м.
n
n
n
Для каждого фиксированного k имеем
тогда  k  0, 1, ... и достаточно больших n имеем
43
k
Cnk  p k (n)  (1  p(n)) nk 
n  (n  1)  ...  (n  k  1)  
 1 
   o   
k!
 n 
n
nk
 
 1 
 1   o   .
n
 n 

Далее, так как k фиксировано, то
k
1)
n  (n  1)  ...  (n  k  1)  
 1 
   o   
k!
 n 
n
n  (n  1)  ... (n  k  1)
1
 1
 k 1
 (  o(1)) k  1  1    ... 1 

k
k
!
n
n 
k!n



k
 (  o(1)) k 
при n   .
k!

nk
n
k
 
 
 1 
 1   
 1 
2) 1   o  
 1   o    1   o   
n
n
n
 n 
 n  
 n 




 e  1  e , при n   .
Окончательно имеем
k  e  
Cnk  p k (n)  (1  p(n)) nk 

,
n
k!
  0  const , k  0, 1, ...,n .
Полагая p  p(n) ,   n  p , получаем формулу (9).
Справедливость оценки (9) удивительно часто дает хорошее приближение уже при n  10 , p  0,1 .
Формула
Vk  k  e  / k! , k  0, 1, ...,n ,
называется формулой Пуассона, имеет исключительно важное
значение как в теоретических исследованиях, так и в приложениях.
Рассмотрим последовательность
V0 , V1 ,...,Vk ,... .
Каждый член последовательности является вероятностью
(формула Пуассона), а сумма ее членов равна 1. В самом деле
44


V  
k  e  
 e  
k

k
 k!  e   e   1 .

k!
k 0
Учитывая последнее, формула Пуассона рассматривается
как распределение вероятностей.
Замечание. Скорость сходимости вероятностей Pn (k ) к Vk ,
k  0, 1, ...,n , если n  p(n)   , при n   определяется оценкой
k 0
k 0

 | P (k )  V
n
k
|
k 0
2
 min( 2,  ) .
n
Оценка получена Ю.В. Прохоровым ….
Локальная теорема Муавра – Лапласа
1
 exp( x 2 / 2) , которая
Рассмотрим функцию вида y 
2
называется кривой Гаусса. График этой функции представлен на
рис. 14.
y
0,45
1/ 2
0,4
0,35
0,3
0,25
0,2
0,15
0,1
0,05
0
-5
-4
-3
-2
-1
0
1
2
3
4
5
x
Рис. 14.
Построим график функции Pn (k ) (с. 39). Сдвинем кривую
Гаусса на n  p единиц вправо и «сожмем» по вертикали в
n  p  q раз. Получим функцию от переменной k
45
1
y (k ) 
2  n  p  q


 exp  (k  n  p) 2 / 2  ( n  p  q ) 2 .
Построим график этой функции y (k ) в этой же системе координат (рис. 15). Из рисунка видно, что графики этих функций
приближенно совпадают.
Pn (k )
5/16
15/64
5/32
5/64
0
-2
-1
0
1
2
Рис. 15.
3
4
5
6
k
Теорема. При n   и 0  p  1 , для схемы Бернулли справедлива асимптотическая оценка
n  p  q  pn (k ) n
 ( x) ,

где  ( x) 
1
 exp( x 2 / 2) , x 
k n p
.
n pq
2
Значения функции  (x) определяются по таблице (приложение 2) с учетом четности этой функции, то есть
 ( x)   ( x) , при x  4 полагаем  ( x)  0 .
Для решения практических задач будем пользоваться приближенным равенством
 k n p 
1
.
Pn (k ) 
 
n  p  q  n  p  q 
Оценка вероятности Pn (k ) тем точнее, чем ближе p  1 / 2 .
46
Пр. 26 Вернемся к ранее рассмотренному примеру (с. 41)
5
P( A)  P1000 (5)  C1000
 0,002 5  (1  0,002) 995 
5
 C1000
 0,002 5  0,998 995 .
Искомую вероятность определим приближенно и по формуле
Пуассона, и по формуле Муавра – Лапласа.
1.
Воспользуемся
формулой
Пуассона,
тогда
  1000  0,002  2 , получаем
5  e  
0,002 5  e 0,002
 0,036089 .
5!
5!
2. Воспользуемся формулой Муавра - Лапласа
 5  1000  0,002 
1

P( A)  P1000 (5) 
 
1000  0,002  0,998  1000  0,002  0,998 
 3 
1
  0,0296 .


1,996  1,996 
Замечание. Если сравнить полученные приближенные значения
с точным значением вероятности, вычисленной по формуле
Бернулли P( A)  P1000 (5)  0,036017 , то меньшую погрешность,
в данном случае, дает формула Пуассона. Если n велико, p мало
и n  p   не мало, не велико, то используется формула Пуассона. Если  велико, то можно пользоваться и формулой Пуассона и локальной теоремой Муавра-Лапласа, что подтверждается многочисленными примерами.
P( A)  P1000 (5) 

Интегральная теорема Муавра – Лапласа
Кроме вышеописанных трудностей при вычислении вероятностей событий по формуле Бернулли иногда необходимо не
только вычислить эти значения, но и суммировать их, причем
число слагаемых в этой сумме может быть значительным. В
этом случае используют интегральную теорему Муавра –
Лапласа.
Теорема. Пусть в испытаниях Бернулли вероятность появления
события равна p ( 0  p  1 ). Тогда для любых действительных
чисел a  b имеет место сходимость
47
b
k n p
 b) n
  ( x)dx ,

n pq
a

P(a 
где  ( x) 
1
2
 ex
2
/2
.
Для практических расчетов будем использовать приближенное равенство
k n p


   k1  n  p  ,
Pn (k1 , k 2 )  P(k1  k  k 2 )   2
 n pq 
 n pq 




где 0  k1  k 2  n , k1 , k 2 - целые, а  ( x) 
1
2
x
 exp(t
2
/ 2)dt .

Построим график функции  (x) (рис. 16).
1
 (x)
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-5
-4
-3
-2
-1
0
1
2
3
4
5
x
Рис. 16.
Будем считать для х  3,5 ( x)  1 , для х  3,5 ( x)  0 ,
значения функции  (x) для x [3,5;3,5] определяются по
таблице (приложение 3) с учетом свойства, которому удовлетворяет эта функция
( x)  ( x)  1 .
48
Доказательство.
Пусть  ( x) 
1
2
x
 exp(t
/ 2)dt , тогда

1
2
 ( x)   ( x) 
2
x


t  u, dt  du
1
 t1  , u1    
2
t 2   x, u 2  x 


1
2
1
2
x

exp( u 2 / 2)du 


 exp(u
x
2
1
2
exp( t 2 / 2)dt 
/ 2)du 
1
2
1
2
x
 exp(t
2
/ 2)dt 

x
 exp(t
2
/ 2)dt 

x
 exp(t
2
/ 2)dt 
2
/ 2)dt 


 exp(t



2
 exp(t / 2)dt  2 -
1
 
 2  1 .

2



- интеграл Пуассона 
Пр. 27 Вероятность изготовления бракованной детали равна
0,015. Найти вероятность того, что из 5000, изготовленных на
станке, деталей бракованных не более 50.
Решение.
Если события
A – из 5000 деталей, изготовленных на станке, бракованных не более 50,
A0 –из 5000 деталей, изготовленных на станке, бракованных 0,
A1 –из 5000 деталей, изготовленных на станке, бракованных 1,
…
A50 – из 5000 деталей, изготовленных на станке, бракованных 50,
то A  A0  A1  ...  A50 .

49
Переходя к вероятностям, по теореме сложения вероятностей и аксиоме 3 вероятности для несовместных события, получаем
P( A)  P( A0  A1  ...  A50 )  P( A0 )  P( A1 )  ...  P( A50 ) 
0
 P5000 (0)  P5000 (1)  ...  P5000 (50)  C5000
 p 0  q 5000 
1
50
 C5000
 p1  q 4999  ...  C5000
 p 50  q 4950  P5000 (0; 50) 
 50  5000  0,015 


   0  5000  0,015  
 
 5000  0,015  0,985 
 5000  0,015  0,985 




  25 
  75 
  
   2,91   8,73 
 
 98 
 98 
 0,00181  0,00000  0,00181  0,002 .
Замечание. При использовании таблиц значений функции  (x)
из других литературных источников следует обращать внимание
как эта функция определяется, если ( x) 
1
2
x
 exp(t
2
/ 2)dt ,
0
то таблицы составлены для x [0, 5] . Для отрицательных x используется нечетность функции, то есть ( x)  ( x) .
Приложение интегральной теоремы Муавра – Лапласа.
Пусть в испытаниях Бернулли  - число появления события A в n испытаниях. Обозначим через

n
частоту появления


события A. Оценим вероятность P  p    , где >0. Вос n

пользуемся интегральной теоремой Муавра – Лапласа:
 k  n  p k  n  p k2  n  p 

Pn (k1 , k 2 )  P(k1  k  k 2 )  P 1


 n pq

n

p

q
n

p

q


k n p


   k1  n  p  .
  2
 n pq 
 n pq 




50
Имеем


 n p





P  p     P     p     P   

n
n




 n


 n p
 n
  n 
 P   n    n  p    n   P 




n pq
n pq
n  p  q 

  n 




      n   1  2      n  .
 
 n pq 


n  p  q 
n  p  q 




Таким образом искомая оценка имеет вид



n 
P  p     1  2     
.
p  q 
 n


Полученное трансцендентное уравнение всегда имеет
единственное решение, если известны значения всех параметров
кроме одного. Этим фактом подтверждается многочисленные
применения интегральной теоремы Муавра-Лапласа.
Пр. 28 Вероятность появления события в каждом из независимых испытаний равна 0,5. Найти число испытаний n, при котором с вероятностью =0,7698 можно ожидать, что относительная
частота появления события отклонится от его вероятности по
абсолютной величине не более чем на 0,02.
Решение. Из условия задачи следует, что имеет место схема испытаний Бернулли с p  0,5 , q  1  p  1  0,5  0,5 . Найдем
число испытаний n, при котором с вероятностью   0,7698
можно ожидать, что относительная частота

появления собыn
тия отклонится от его вероятности p  1 / 2 по абсолютной величине не более чем на   0,02 . Имеем цепочку равенств




  n 
0,02  n 
P  p     1  2   
 1  2   




n pq 
n  0,5  0,5 
 n



 0,7698 ,
 0,02  n 
  0,7698 ,
1  2   

0
,
5


51


1  0,7698
 0,1151 ,
2
 0,04  n  1,20 , n  30 , n  900 .
  0,04  n 
Случайные величины
Математической моделью стохастического (вероятностноэксперимента является вероятностное пространство
{, A , P} . Его объекты , A (или F ), P составляют аксиоматику Колмогорова:
1.  – пространство элементарных случайных событий
(выборочное пространство). Является начальным объектом при
формализации любого вероятностного эксперимента и, следовательно, не определяемым. Рассматривались , состоящие из конечного или счетного числа элементарных событий. В общем
случае, физическая природа элементарных событий пространства  для нас не существенна.
2. A – алгебра случайных событий. Элементы A - всевозможные подмножества (случайные события) пространства 
(включая невозможное событие  и само ). Если число элементов  счетно, то говорят о -алгебре F событий. Более
сложные случаи не рассматривались.
3. P – вероятностная мера или распределение вероятностей, заданная на подмножествах пространства . По определению P ()  1 (условие нормировки).
Для вероятности выполняется свойство аддитивности, т.е.
если события A1 , A2 , …, An  A попарно несовместны, то
го)
 n  n
P  Ai    P( Ai ) .
 i 1  i 1
Пр. 29 Симметричная монета подбрасывается n раз. Описать
вероятностное пространство.
Пространство
элементарных
событий
  { : i  (1 ,  2 ,...,  j ,...,  n )} , где  j принимает значение
1 (выпал герб) или 0 (не выпал герб). Элементарные события
52
интерпретируются как n-мерный вектор с координатами равными 0 и 1, число которых равно 2 n , i  1,2,3,...,2 n .
Алгебра A событий состоит из всех подмножеств проn
странства , число которых - 2 2 . Алгебра замкнута относительно основных теоретико-множественных операций (объединение, пересечение, разность и дополнение).
Распределение вероятностей P, в силу равновозможности
всех исходов, P() 
2n
2n
1
 P( )   2
i 1
i
i 1
n
 1 . Вероятностное про-
странство описано.
Из примера видно, что принципиальных проблем с построением вероятностного пространства для такого класса задач, за исключением технических трудностей, не возникает. В
сущности, здесь достаточно аксиомы 3, аддитивности вероятности. Сложности возникают тогда, когда появляются задачи с
очень большим числом возможных исходов эксперимента или
например, некоторые исходы эксперимента могут не представлять практического интереса, а их вероятности приходится вычислять, допустим, статистическим путем. Может оказаться, что
каждый такой исход имеет исчезающе малую вероятность, которую трудно оценить. Трудности становятся принципиальными, когда речь идет о задачах, в которых число возможных исходов эксперимента неограниченно. Наконец, число исходов
эксперимента может быть более чем счетно, например, иметь
мощность континуум и даже больше (как например, пространство всех случайных функций).
Пр. 30 Рассмотрим эксперимент с подбрасыванием симметричной монеты при n   . Пространство элементарных событий
  { : i  ( 1 ,  2 ,...,  n ,...)} . Элементарные события будем
интерпретировать как множество всех последовательностей,
члены которых равны 0 или 1.
Возьмем полуинтервал [0, 1) . Известно, что любое его
число однозначно представимо в двоичной системе последовательностью нулей и единиц. Но множество чисел из [0, 1) имеет
мощность континуум, следовательно, в силу взаимной одно-
53
значности, множество всех последовательностей также имеет
мощность континуум.
Таким образом, задача с бесконечным подбрасыванием
симметричной монеты свелась к задаче о случайном выборе
действительного числа из промежутка [0, 1) .
Имеем   [0, 1) ; положим P()  1 . Очевидно, что вероятность выбора конкретного числа из [0, 1) равна 0, то есть
   , p( )  0 . Ясно, что из такого подхода что-либо содержательное извлечь трудно.
Из примеров следует, что пространство  может состоять
из счетного (конечного или бесконечного) числа элементов,
иметь мощность континуум и даже больше, то есть множество
точек достаточно общего вида. Но и отказаться от модели случайного выбора точки из промежутка было бы неразумно, поскольку у нас есть алгебра случайных событий, элементами которой являются подмножества [0, 1) . Ясно, что обобщения состоят в рассмотрении не отдельных точек, а их множества (различных интервалов или полуинтервалов) [ ,  )  [0, 1] ,    ,
где каждый интервал содержит только те точки, которые объединены общим признаком. Тогда за вероятность можно взять
длину интервала. Это означает, что вероятность является функцией длины (меры) интервала. Заметим, что здесь мы имеем
отображение (функцию), элементами которого являются не точки, а множества точек.
Опр. Множество, элементами которого являются какие-либо
другие множества, называется системой множеств.
Алгебра и -алгебра событий являются примерами системы множеств.
Пр. 31 Пусть из промежутка [0, 1) случайно выбирается число.
Пространство элементарных событий   [0, 1) все действительные числа.
Пусть Q – множество рациональных чисел, а R \ Q - множество иррациональных чисел из . Какова вероятность, что
выбранное число из [0, 1) является одним из множества рациональных чисел (или иррациональных)?
54
В силу того, что мощности множеств разные, то с необходимостью получим P (Q )  0 , тогда P ( R \ Q )  1 . Ясно, что
никакого физического смысла в таком выводе нет, поскольку
результат любого измерения всегда есть рациональное число!
А что означает, например, фраза «длина отрезка равна
2 »? Можно конечно получить величину 2 опосредованно,
например длина гипотенузы прямоугольного треугольника, при
условии, что измерение двух других его сторон определило их
длины по единице. Однако, никакие измерительные приборы не
определят длину отрезка равного 2 ! Если взять за множество
 все рациональные числа, тогда, по-прежнему, можно положить P ()  1 , но тогда перестанут существовать иррациональные числа, и мы никогда не узнаем точного значения длины
гипотенузы.
Подведем некоторые итоги. Пространство элементарных
событий может быть достаточно общего вида. Задать вероятность каждого элементарного события либо невозможно, либо
нежелательно, например, в силу отсутствия содержательной информации. Естественным выходом является рассмотрение не
отдельных элементарных событий, а их множества с объединяющими общими признаками. Желательно, чтобы число непересекающихся подмножеств было не более чем счетно.
Пр. 32 Точка наудачу бросается в промежуток [0, 1] . Общий
признак - попадание в отрезок [0, 1 / 2) . Интуитивно ясно, что
вероятность такого события равна 1/2, хотя при прямом суммировании вероятностей всех элементарных событий из интервала
[0, 1 / 2) получим 0.
Для пространств  с более чем счетным числом точек для
вычисления вероятностей используется свойство непрерывности
интервала, а вероятность события есть функция длины того интервала, точки которого и образуют это событие (за исключением не более чем счетного числа точек). Ясно, что множества
(подынтервалы), на которых задаются вероятности, должны
быть
замкнуты
относительно
основных
теоретикомножественных операций (объединение, пересечение и дополнение). Кроме того, мы должны ввести понятие функции мно-
55
жеств, областью определения которой является система множеств (алгебра или -алгебра).
Пр. 33 Рассмотрим эксперимент, состоящий в n-кратном подбрасывании, вообще говоря, несимметричной монеты, с вероятностью выпадения герба – p. Из практических соображений
обычно нас интересует вероятность не выпадения, например, 2х гербов после 16-го и 19-го подбрасывания из 100, а просто выпадение 2-х или 3-х и так далее гербов в n испытаниях. Такой
подход позволяет задать на  функцию    ( ) , где значения
  k , k – число выпадений герба в n независимых испытаниях,
k  0,1,..., n . Выберем из алгебры A те подмножества (случайные события), которые соответствуют значению   k . Тогда
P(  k )  Cnk  p k  (1  p) nk . Введение функции    ( ) позволило значительно упростить вычисление вероятностей интересующих нас событий. В сущности, получив необходимую информацию из элементарных событий , построим другое пространство  , состоящее из (n+1) элемента с распределением
n
вероятностей P()   Cnk  p k  (1  p) nk  1 .
k 0
Введенная функция    ( ) обладает специфическим
свойством: по заданному значению функции (   k ) мы определяем множество Ak  {} значений аргумента (элементарных
событий, число которых, в нашем случае, равно
C nk , далее
находим P( Ak )  C nk  p k  (1  p ) n  k ). В теории вероятностей
такие функции имеют фундаментальное значение, относятся к
свойствам вероятностного пространства и называются случайными величинами.
Почему функции подобные случайным величинам требуют так много внимания? Дело в том, что уже в простых, на первый взгляд, ситуациях, пространство  может быть весьма неопределенным и задание распределения вероятностей обычно,
даже если предполагается независимость, труднодостижимо.
Кроме того, часто при построении вероятностной модели достаточно использовать несколько параметров от случайных вели-
56
чин, которые в ряде практически важных случаях дают достаточно полную, а иногда и единственную возможную модель реальной ситуации. К таким параметрам следует отнести математическое ожидание случайной величины, характеризующее ее в
среднем.
Кроме того, задание случайной величины позволяет из
пространства  и алгебры событий выделить необходимые элементарные события, которые существенно упрощают построение вероятностной модели, в частности, задание вероятности,
которая и порождает вероятностное пространство.
В связи со сказанным, перейдем к классу множеств, на которых определяются вероятности, и определению класса функций, которые являются случайными величинами.
Исследования показали, что рассмотрение алгебры событий дает слишком общую, и потому мало эффективную, модель.
Пришлось вводить ограничения как на классы рассматриваемых
подмножеств из пространства элементарных событий, так и на
классы допустимых вероятностных мер.
Опр. Система множеств F подмножеств  называется алгеброй, если она является алгеброй и выполняется
1)   F ;
2) если An  F , n N , то


n 1
An  F и

A
n
F;
n 1
3) если A  F , то A  F .
Опр. Пространство  и его -алгебра F называется измеримым
пространством и обозначается {, F} .
Опр. Мера P на алгебре A называется -аддитивной или вероятностью, если P ()  1 (условие нормировки) и для любых
непересекающихся множеств
An  A , n N , таких, что

 
P ( An ) .
An  A , следует P An  
 n1  n1
n1
Приведем ставшую общепринятой, систему аксиом Колмогорова …, составляющих вероятностное пространство.
Основное опр. Тройка {, F , P} ,




57
где а)  - множество точек ;
б) F - -алгебра подмножеств из ;
в) P – вероятность на F ,
называется вероятностной моделью или вероятностным
пространством.
Множество  называется выборочным пространством или
пространством элементарных событий, множества A  F событиями, а P( A) - вероятностью события A.
Если пространство  конечно или счетно, то случайная
величина задается произвольно. В более общих случаях возникают сложности, связанные с формальным построением алгебры.
Зададим -алгебру на интервале [0, 1) числовой прямой.
Формально, в нее мы включаем не только множество всех интервалов [ ,  ) , 0      1 , но и множества, которые получаются из этих интервалов счетным числом основных теоретико-множественных операций, а также те множества, которые
получаются над теми, которые получены счетным числом этих
операций из интервалов, и т.д.
Сказанное поясним на примере. Пусть имеем систему
множеств  - это множество, состоящее из одного элемента 
- пустое множество ( - множество не содержащее ни одного
элемента). По правилу построения системы множеств включаем
само множество в систему множеств, при этом получаем систему множеств, состоящую из двух элементов {,{}} - пустое
множество и множество, содержащее один элемент – пустое
множество. Продолжая процесс по индукции получим систему
множеств,
содержащую
счетное
число
элементов:
{,{},{,{}},...} . Ясно, что вся содержательная информация содержится во множестве {} . Это множество называется
наименьшим.
Опр. Борелевскими множествами на числовой прямой R называется наименьшая -алгебра, содержащая все интервалы
[ ,  )  R (или ( ,  ) , или ( ,  ] ). Борелевские множества
58
принадлежат классу измеримых множеств (конечность меры
не предполагается).
Пусть имеем [0, 1]  R . Определим для каждого интервала [ ,  )  [0, 1] , 0      1 , его вероятностную меру
P([ ,  ))     . Так определяемую меру назовем мерой Лебега (мерой Лебега также является площадь, определенный интеграл положительно определенной подынтегральной функции с
конечными пределами интегрирования, масса и др.).
Замечание. Мера Лебега, обладая определенными преимуществами перед другими мерами, имеет и недостатки. Одни недостатки можно преодолеть, например, понятие несобственного
интеграла для меры Лебега, вообще говоря, не существует, с
другими недостатками приходится мериться: пример с бросанием точки в интервал [0, 1] на множество рациональных точек,
где P(Q)  0 .
Вводя условие нормировки P( R)  1 , можно с помощью
1 1
функции   arctgx , x  R , отобразить числовую прямую на
2 
интервал [0, 1] , но при отображении такая функция интервала
как длина здесь лишена смысла. Этот недостаток преодолим,
если использовать -аддитивность меры. Для этого всю числовую прямую разделим на интервалы единичной длины, число
которых очевидно счетно и рассмотрим их по отдельности, а
далее воспользуемся свойствами -аддитивности вероятности.
В самом деле, рассмотрим числовую прямую R и пусть
интервал A  R . Если An 
n
[ ,  )
i
i
- первые n непересекаю-
i 1
щиеся интервалы из A, то при n   An  A . Т.е. при больших n длина An почти равна A. Если, например, значение вероятности находится статистически, то P( An )  P( A) . Счетная
аддитивность позволяет использовать свойство непрерывности,
то есть перейти к пределу поточечно и получить точное значе-
59
ние вероятности. Пусть P( R)  1 . Разделим числовую прямую
на полуинтервалы единичной длины, так как показано на рис. 17
… n -(n-1)
… -2
-1
0
1
2 … n-1
n …
Рис. 17
Для отрицательных n интервалу (n,(n  1)] поставим в
соответствие число 2( n1) , где  n - начало этого интервала.
Для положительных n интервалу (n, n  1] соответствует число
2  ( n2) , тогда
P( R) 
1

n
n 0
 2n1   2( n2)  1 .
В частности, для отрицательных действительных чисел
P( R  ) 
1
2
n  
n 1

  2 ( n  2 ) 
n 0
1
. Из примера следует, что не
2
важно на какие виды интервалов разбивается числовая прямая,
существенно лишь выполнение естественного условия непрерывности.
Итак, класс множеств, на которых определена вероятность, есть -алгебра борелевских множеств. Они несколько
уже, чем -алгебра множеств, измеримых по Лебегу …, но их
вполне хватает для удовлетворения потребностей смежных теорий и их практических приложений.
Определим теперь класс функций, которые являются случайными величинами.
Измеримые функции.
Пусть X и Y два произвольных множества, в которых выделены две системы подмножеств Fx и Fy , соответственно.
Опр. Абстрактная функция y  f (x) с областью определения X
со значениями из Y называется измеримой, если из B  Fy сле1
( B)  A  Fx .
Множество B  { y : y  f ( x)  Y } называется образом,
множество A  {x : x  X } прообразом (полным прообразом), а
дует, что f
60
функция f множеств A  X – отображением и записываются
как f : X  Y (в отличие от функции точки y  f (x) ). Здесь
функцию множеств будем записывать в прежних обозначениях
B  f ( A) .
Нас интересуют измеримые функции с точки зрения задания вероятности как функции меры.
Опр. Действительная функция f (x ) определенная на множестве X с -алгеброй Fx называется измеримой, если для любого
борелевского множества B  Fy числовой прямой множество
f 1 ( B)  Fx .
Теорема (об интегрируемости функции). Для того, чтобы действительная функция f (x ) была измеримой необходимо и достаточно, чтобы при любом действительном   R множество
{x : f ( x)  } было измеримым и принадлежало Fx .
Пр. 34 Если за X и Y взять числовую прямую R, а за Fx и Fy систему всех открытых (или замкнутых) подмножеств R получим, что определение измеримости сводится к определению
непрерывности.
Взяв за Fx и Fy систему всех борелевских множеств, получим измеримые по Борелю функции.
Уже отмечалось, что класс измеримых функций достаточно широк. Операция предельного перехода для последовательности измеримых функций дает измеримую функцию.
Элементарные функции измеримы, так как каждую из них
можно представить как предел последовательности многочленов
(которые, например, можно получить разложением функции по
формуле Тейлора) многочлены есть сумма одночленов, а одночлены измеримы по определению.
Из определения измеримой функции, следует, что из близости значений функции, находятся множества значений аргумента, которые могут иметь достаточно сложную структуру, так
что понятие непрерывности для таких функций может быть вообще лишено смысла.
61
Замечание. Класс измеримых функций является естественным
объектом для изучения после класса функций, непрерывных в
области, где они определены, поскольку никакого упрощения в
теории не достигается, если ограничиться менее сложными
классами.
Пусть {, F} - измеримое пространство и {R, B ( R )} числовая прямая с заданной на ней системой Борелевских множеств.
Опр. Действительная функция    ( ) определенная на измеримом пространстве {, F} называется измеримой или случайной величиной, если
B  B( R) : { :  ( )  B}  F
или
прообраз f 1 ( B)  { :  ( )  B}
является измеримым множеством в .
Требование измеримости случайной величины принципиально, так как, если на {, F} задана вероятностная мера P , то
имеет смысл говорить вероятности события { :  ( )  B} , то
есть значения случайной величины принадлежат некоторому
борелевскому множеству B.
Опр. Вероятностная мера P на {R, B ( R )} с вероятностью
P  P{ :  ( )  B} , B  B (R ) , называется распределением
вероятностей случайной величины  на измеримом пространстве {R, B( R)} .
Из теоремы об измеримости функции получаем, если положить B  (, x) , то получим следующее определение.
Опр. Функция
F ( x)  P( :  ( )  x) , x  R .
(10)
называется функцией распределения случайной величины
   ( ) .
Можно сказать, что измеримая функция называется случайной величиной, если для неё задана функция распределения,
62
то есть функция распределения однозначно задает случайную
величины.
Отсюда следует, что, пока мы имеем дело с отдельной
случайной величиной , мы можем забыть о выборочном пространстве  и считать, что вероятностное пространство есть
числовая прямая R с -алгеброй борелевских множеств и мерой
(вероятностью) индуцированной посредством функции распределения F (x) .
Рассмотрим классы функций распределения.
1. Дискретные функции распределения.
Функции F (x ) , определяющие меру дискретной случайной величины.
Функция F (x ) сосредоточена в точках: x1 , x2 ,..., xn ,... , мера P, определяется
P( xk )  F ( xk  0)  F ( xk  0)  0 , k  N , где

 P( x
k)
1.
k 1
Функция распределения имеет ступенчатый вид (см рис.
18).
F(x)
1
x1
0
x2
Рис. 18.
x3
x4 …
x
63
Часто задают таблицу значений случайной величины
x2 … x n …
 x1
(
pi  1 )
p2 … p n …
p p1
i
по которой и строят графики F (x ) .
Функция F (x ) является измеримой, поскольку ее можно
приблизить последовательностью многочленов, являющихся
непрерывными функциями (например, получить по формуле
Тейлора).
2. Непрерывные (абсолютно непрерывные) функции распределения.
Это функции распределения F (x ) , которые можно записать в виде

x
F ( x)    (t )dt , где  (x ) - некоторая неотрицательная непре
рывная функция.
Очевидно, что эти функции распределения измеримы.
3. Сингулярные функции распределения.
Это непрерывные функции, но точки их роста образуют
множество нулевой меры Лебега.
Опр. Распределение F (x ) называется сингулярным по отношению к вероятностной мере P, если оно сосредоточено на множестве N, таком, что P ( N )  0 .
В частности, каждое дискретное распределение является
сингулярным распределением по отношению к длине интервала
действительной прямой (мере Лебега).
Пр. 35 Пусть имеем математическую модель эксперимента, состоящего в случайном бросании точки на отрезок [0, 1] . Элементарные события – все действительные числа отрезка, события (подмножества) измеримые по Лебегу множества (интервалы), а вероятность совпадает с мерой Лебега (длиной интервала). При таком построении случайного эксперимента, с необходимостью, вероятность случайно попасть в число из множества
действительных чисел отрезка равна 0, а иррациональных – 1.
64
Ясно, что в таком выводе нет физического смысла (ведь в
реальности измерения всегда рациональное число!). Недостаток
модели – в том, что не всякие математически верные теоремы
допускают физическую интерпретацию, это непреодолимый недостаток счетно-аддитивной меры Лебега и с ним приходиться
мириться. Последнее означает, что если за пространство элементарных событий считать действительную прямую, то на ней
будем рассматривать только класс непрерывных функций.
По той же причине сингулярные распределения в дальнейшем исключаются из рассмотрения.
Установлено, что этими тремя типами распределений
(дискретные, непрерывные и сингулярные) исчерпываются
классы функций распределения ….
Свойства функции распределения.
1. Функция распределения случайной величины определена x  ( ,) .
2. Функция распределения F (x) – неубывающая функция, то есть
x1 , x2  R : x1  x2  F ( x1 )  F ( x2 ) .
3. Функция распределения F (x) непрерывна слева в
любой точке действительной оси, то есть
x0  R , lim F ( x)  F ( x0 ) .
xx0 0
4. Функция распределения случайной величины имеет не
более чем счетное число разрывов 1-го рода.
5. F ()  0 .
6.
F ( )  1 .
Всякая функция, удовлетворяющая перечисленным свойствам, является функцией распределения некоторой случайной
величины и наоборот.
Случайные величины будем обозначать буквами греческого алфавита , , , … .
Для применения функций распределения в инженерных и
практических расчетах, обычно, случайные величины: дискретные и непрерывные, - рассматривают независимо.
65
Пр. 36 Случайной величиной являются
1)
число выпавших очков на грани при подбрасывании
игральной кости – дискретная случайная величина;
2)
число выпадений герба при однократном подбрасывании монеты – дискретная случайная величина;
3)
время безотказной работы телевизора – непрерывная
случайная величина;
4)
погрешности измерений – непрерывная случайная
величина.
Дискретные случайные величины
Опр. Дискретной называется случайная величина, которая каждому элементарному событию  ставит в соответствие одно из
конечного или счетного набора
x1 , x2 ,..., xn , n  N  {1,2,3,...} .
Дискретная случайная величина полностью задается своим рядом распределения.
Опр. Пусть случайная величина  принимает значения
x1  x2  ...  x n или x1  x2  ...  x n  ... . Рядом распределения
(табл.1, 2)дискретной случайной величины называется таблица,
состоящая из двух строк: в верхней строке перечислены все
возможные значения x i случайной величины, а в нижней – вероятности pi  P(  xi ) того, что случайная величина  примет
эти значения, причем
p
i
1.
i
Таблица 1

x1
x2
p
p1
p2
…
…
n
xn
p
pn
i
1
i 1
или
Таблица 2

x1
x2
p
p1
p2
…
…
xn
pn
…
…

p
i 1
i
1
66
В дальнейшем будем рассматривать дискретные случайные величины, принимающие конечное число значений, кроме
специально оговоренных случаев.
Графическим представлением ряда распределения является многоугольник распределения. Если на плоскости построить
точки ( xi , pi ) , i  1,2,3,..., n , и соединить их отрезками прямых,
то полученная ломаная и называется многоугольником распределения дискретной случайной величины (рис. 19).
p
1
p2
p1
x1
x2
pn
0
xn x
Рис. 19.
Для вычисления функции распределения дискретной случайной величины, с учетом (10), имеем формулу
F ( x)  P(  x) 
pi ,
(11)

xi  x
то есть функция распределения дискретной случайной величины
разрывна, возрастает скачками и имеет ступенчатый вид (рис.
20).
67
F(x)
1
p1+p2
p1
x1
x2
0
xn
x
Рис. 20.
Непрерывные случайные величины
Опр. Непрерывной случайной величиной называют функцию
   ( ) , множеством значений которой является некоторый
числовой интервал ( a, b ) , a, b  R , a  b .
Опр. Функция  (x) называется плотностью распределения
вероятностей (или плотностью распределения) непрерывной
случайной величины , если она удовлетворяет условиям:
1) x R  ( x)  0 ;

2)
  ( x)dx  1 .

Легко показать, что
x
F ( x)     (t )dt .
(12)

Проверка свойств 1) - 6) функции распределения подтверждает формулу (12).
68
В самом деле, пусть  (x) − плотность распределения
вероятностей непрерывной случайной величины , тогда
условия 1) и 2) определения выполнены для любого
x  (, ) , отсюда
1) функция F (x) определена для x  (, ) ;
2)
x1 , x2  R : x1  x2 
x1
x2


   ( x)dx     ( x)dx ;
3) непрерывность слева следует из неравенства   x ;
4) следует из существования несобственного интеграла
Римана на действительной оси;

5) F ( ) 
  ( x)dx  0 ;


6) F () 
  ( x)dx  1 .

Дифференцируя (12), получаем
 ( x) 
dF ( x)
dx
.
(13)
Заметим, что если вероятностная мера сосредоточена на
конечном интервале, то в точках a и b производная (13) не существует.
Некоторые полезные следствия свойств и определения
функции распределения и плотности распределения вероятностей случайной величины:
1). 0  F ( x)  1 , x R ;
2). P(a    b)  F (b)  F (a) ;
b

3). P(a    b)   ( x)dx ;
a
4). P ( x    x  dx)   ( x)dx ;
5). P(  x)  F ( x  0)  F ( x  0) ;
69
6). P(  x)  F ( x  0) .
Замечание. Функция распределения есть вероятность и следовательно безразмерна, а плотность, как следует из формулы (13)
имеет размерность обратную времени. Кроме того, сравнивая
законы дискретных и непрерывных случайных величин, легко
заметить, что аналогом плотности является ряд распределения
дискретной случайной величины.
Именно поэтому в инженерных дисциплинах часто плотность называют законом распределения.
Числовые характеристики случайных величин
При анализе функционирования различных объектов, и не
только случайных, обычно, рассматривают две группы показателей: а) характеризующих поведение объекта с общих позиций,
в среднем, б) анализирующих его детально, по всем возможным
состояниям.
Ясно что, если показатели группы б) определены, то весь
набор интегральных показателей (из группы а)) можно выразить
через них. Однако, при построении вероятностного пространства, даже с конечным, но очень большим числом состояний
(например, прогноз развития региона, насчитывающего сотни
тысяч позиций) возникают трудности, связанные с построением
распределения вероятностей (даже, если предполагать независимость позиций, что не всегда оправдано). В тоже время, рассмотрение интегральных показателей, в силу их общности, не
только существенно упрощает путь к конечной цели, но и может
оказаться единственным способом ее достижения.
В теории вероятностей и смежных с ней теориях самыми
популярными из интегральных показателей является математическое ожидание, ассоциируемое со средним. Оно обладает
важными свойствами: удобством к аналитическим преобразованиям, около него группируются наиболее важные значения случайной величины (имеющие наибольшую вероятность), наконец
оно обладает устойчивостью к колебаниям статистических данных.
70
Рассмотрим произвольное вероятностное пространство
(, F, F ( x)) , где F (x) - функция распределения случайной величины    ( ) .
Опр. Математическим ожиданием случайной величины
   ( ) называется действительное число
M 
  ( )P(d ) ,
(14)

где
P(d )  1 .



Математическое ожидание существует, если существует
интеграл в (14), который называется интегралом Лебега (для его
существования достаточно задать случайную величину и меру
Лебега).
Основной недостаток интеграла Лебега в том, что, в общем случае, непонятно как его вычислять. Однако тот факт, что
он существует, позволяет получать формулы, которые, возможно, только так и можно записать. Поэтому при вычислении интеграла Лебега часто используется интуитивный подход.
Если случайная величина дискретна, то интеграл (14) сводится к сумме
 ( )P(d )   ( )P( ) , ( P( )  1 ), (15)






в предположении, что ряд сходится абсолютно. В противном
случае говорят, что интеграл и, тем самым, математическое
ожидание не существует.
Таким образом, если дискретная случайная величина  задается рядом распределения (табл. 1, 2), то ее математическое
ожидание вычисляется по формуле
M 
n
x  p
i
i 1
i
или M 

x  p
i
i
,
(16)
i 1
соответственно, при условии, что числовой ряд в правой части
второй формулы (дискретная случайная величина имеет счетное
число значений) сходится.
Если вероятностная мера задается на действительной оси,
то она определяется функцией распределения, непрерывна и
71
  ( )P(d )   x dF ( x) ,

(17)
x( a ,b )
где a  b , a, b  R .
Пусть функция F (x) дифференцируема (принято говорить абсолютна непрерывна), тогда, как следует из (13)
x dF ( x) 
x  ( x) dx ,


x( a ,b )
x( a ,b )
отсюда

M 
 x   ( x)dx .
(18)

Математическое ожидание существует, если несобственный интеграл правой части (18) сходится. Если несобственный
интеграл правой части равенства (18) расходится, то случайная
величина  не имеет конечного математического ожидания.
Замечание. Формулы (14), (15), (17) в дальнейшем не используются, содержащаяся в них информация выходит за рамки программы и носит общетеоретический характер.
Свойства математического ожидания.
Всегда считаем, что случайные величины  и  определены на одном и том же вероятностном пространстве.
Mc  c , если c  const .
1.
2.
M (c   )  c  M , если c  const .
3.
M (   )  M  M для любых случайных величин , .
Если математические ожидания M , M существуют, то
M (   ) существует.
4.
M (   )  M  M , если ,   независимые случайные
величины.
Если математические ожидания M , M существуют, то
M (   ) существует.
Геометрически математическое ожидание численно равно
абсциссе центра тяжести интеграла (18).
Опр. Случайные величины ,  называются независимыми, если
P(  x), (  y )   P(  x)  P(  y ) .
72
Пр. 37 Симметричная монета подбрасывается два раза, а симметричная игральная кость – один раз. Найти среднее число выпавших очков, если выпадению «герба» соответствует 1, а «решетки» – 0. Проверить свойства 3, 4 математического ожидания.
Решение. Пространство элементарных событий при двукратном
подбрасывании
монеты
состоит
из
четырех
точек
 M  {(0,0), (0,1), (1,0), (1,1)} , а пространство элементарных событий при одном бросании кости состоит из шести точек
 K  {(1), (2), (3), (4), (5), (6)} . Пространство    м   k состоит из 4  6  24 точек:
(1,0,0), …, (6,0,0),
(1,0,1), …, (6,0,1),
(1,1,0), …, (6,1,0),
(1,1,1), …, (6,1,1).
Учитывая симметричность монеты и кости, воспользуемся
классическим подходом. Каждому из элементарных событий
дадим вероятность 1 / 24 .
Пусть  – случайная величина, определяющая число i выпадений герба, i  0,1,2 , а  – выпадение грани с цифрой k,
k  1,2,3,4,5,6 . Считаем, что случайные величины ,  - независимы (следовательно pik  pi  p k ). Составим таблицу 3, где в
клетках находятся вероятности реализации пары ( , ) .
1

 y k )  pik   (0  1) 

24

i 0 k 1
1
1
1
1
1 
 (0  2)   (0  3)   (0  4)   (0  5)   (0  6)   
24
24
24
24
24 
2
2
2
2
2

  (1  1)   (1  2)   (1  3)  (1  4)   (1  5)  
24
24
24
24
24

2 
1
1
1
 (1  6)     (2  1) 
 (2  2) 
 (2  3) 

24  
24
24
24
1
1
1  1
 (2  4) 
 (2  5) 
 (2  6)   
 (1  2  3  4  5 
24
24
24  24
Свойство 3. а) M (   ) 
2
6
 ( x
i
73
2
1
 (2  3  4  5  6  7) 
 (3  4  5  6  7  8) 
24
24
21 2  27 33 108




 4,5 (свойство 1 выполнено);
24
24
24 24
Таблица 3

1
2
3
4
5
6

1
1
1
1
1
1
1
0
4
24
24
24
24
24
24
1
2
2
2
2
2
2
1
2
24
24
24
24
24
24
1
1
1
1
1
1
1
2
4
24
24
24
24
24
24
1
1
1
1
1
1
1
6
6
6
6
6
6
1
1
1 1 1
б) M  0   1  2     1  0 ,
4
2
4 2 2
1
1
1
1
1
1 21 7
M  1  2   3   4   5   6  
  3,5  0
6
6
6
6
6
6 6 2
(свойство 3 выполнено);
2
6
2
2

xi  y k  pik  1  1 
 1 2 

Свойство 4. а) M (  ) 
24
24

i 0 k 1
 6) 

2
2
2
2 
1
1
 1  4   1  5   1  6     2 1   2  2  
24
24
24
24  
24
24
1
1
1
1  2
  2  3 2  4   2  5  2  6   
 (1  2  3  4 
24
24
24
24  24
1
2  21 42 84
 5  6)   (2  4  6  8  10  12) 


 3,5 ,
24
24
24 24
M (   )  M  M  1  3,5  3,5 (свойство 4 выполнено).
Опр. Модой M o дискретной случайной величины называется ее
наиболее вероятное значение, непрерывной – значение, при котором плотность распределения вероятностей максимальна.
 1 3 
74
Опр. Медианой M e случайной величины  называется такое ее
значение, для которого одинаково вероятно окажется ли случайная величина меньше или больше этого значения, то есть,
P(  M e )  P(  M e ) .
Опр. Отклонением случайной величины  от ее среднего значения называется случайная величина     M .
Математическое ожидание отклонения любой случайной
величины равно нулю, то есть,
M (  M )  0 .
В самом деле, по 3 и 1 свойствам математического ожидания
имеем
(3)
(1)
M (  M )  M  M (M )  M  M  0 .
Опр. Дисперсией D случайной величины  называется математическое ожидание квадрата ее отклонения, то есть
D  M (  M ) 2 (если соответствующее математическое ожидание существует).
Воспользуемся свойствами математического ожидания
случайной величины и преобразуем формулу, определяющую
дисперсию:
( 3, 2 )
D  M (  M ) 2  M ( 2  2  M  M 2 )  M ( 2 ) 
(1)
 2M  M  M ( M 2 )  M ( 2 )  2M 2  M 2  M ( 2 )  M 2 ,
то есть, получаем
D  M ( 2 )  M 2 .
Тогда дисперсия случайной величины вычисляется по
формуле:
D 
n
x
2
i
 pi  M 2 , если  - дискретная случайная ве-
i 1
личина;

D 
x

величина.
2
  ( x)dx  M 2 , если  - непрерывная случайная
75
Свойства дисперсии.
1.
D  0 для любой случайной величины .
Dc  0 , если c  const .
2.
3.
D(c   )  c 2  D , если c  const .
4.
D(   )  D  D , если ,  - независимые случайные
величины.
Опр. Средним квадратическим отклонением  случайной величины  называется арифметический корень из ее дисперсии,
то есть,
  D .
Замечание. Математическое ожидание случайной величины
есть характеристика ее среднего значения, дисперсия – мера
рассеивания ее значений вокруг среднего.
Моменты распределения случайных величин.
Опр. Начальным моментом k-го порядка  k случайной величины  называется математическое ожидание k-ой степени этой
случайной величины, то есть
 k  M ( k ) , k  N .
Опр. Центральным моментом k-го порядка  k случайной величины  называется математическое ожидание k-ой степени отклонения этой случайной величины, то есть
 k  M (  M ) k , k  N .
Отметим, что начальный момент 1-го порядка случайной
величины есть математическое ожидание, центральный момент
2-го порядка – дисперсия.
Если распределение симметрично относительно математического ожидания, то все центральные момент нечетного порядка равны нулю. Поэтому центральные моменты нечетных
порядков могут служить характеристикой асимметрии («скошенности») распределения, мы рассмотрим в качестве такой
характеристики момент наименьшего порядка, то есть  3 - третий центральный момент. Для получения безразмерной характеристики рассматривают число
76
3
,
3
которое называется коэффициентом асимметрии.
Если кривая плотности распределения непрерывной случайной величины такова, что справа от моды расположена ее
«длинная часть», а слева – «короткая», то коэффициент асимметрии S k положителен.
Коэффициент асимметрии S k отрицателен, если «длинная
часть» кривой распределения расположена слева от моды (рис.
21).
Sk 
(x)
Sk  0
Sk  0
y=2(x)
y=1(x)
0
Mo(1)
Рис. 21.
Mo(2)
x
Четвертый центральный момент является характеристикой «крутости», то есть, «островершинности» или «плосковершинности» распределения. Величина
Ek 
4
3
4
называется эксцессом.
В качестве «эталонного» распределения случайной величины рассматривают нормальное распределение, с которым по-
4
 3 и Ek  0 , тогда кривые бо4
лее островершинные имеют Ek  0 , более плосковершинные 
Ek  0 (относительно нормированного нормального распределения).
знакомимся ниже. Для него
77
Пр. 38 Дан перечень возможных значений дискретной случайной величины : x1  1 , x2  0 , x3  1 , а также известны математические ожидания этой величины и ее квадрата: M  0,1 ;
M ( 2 )  0,9 . Найти вероятности p1 , p 2 , p 3 , соответствующие
возможным значениям x1 , x2 , x3 .
Решение.
Составим ряд распределения (табл. 4) случайной величины 
Таблица 4
0
1
 -1
p2
p 3 ( p1  p2  p3  1 )
p p1
В соответствие с определением математического ожидания дискретной случайной величины и начального момента 2-го
порядка получаем два уравнения:
 p1  p3  0,1;

 p1  p3  0,9.
Решив систему уравнений, получим p1  0,4 , p3  0,5 . Так
как сумма вероятностей, входящих в ряд распределения равна 1,
то p2  1  p1  p3  1  0,4  0,5  0,1 . Окончательно ряд распределения (табл. 5) случайной величины  имеет вид
Таблица 5
0
1
 -1
p
0,4
0,1
0,5
Пр. 39 В ящике среди 20 деталей находится 8 стандартных. Извлекается 3 детали. Случайная величина  - число нестандартных деталей в выборке. Требуется:
1) построить ряд распределения величины ;
2) найти функцию распределения F (x) , построить ее график;
3) найти M , D .
Решение. Так как случайная величина  – число нестандартных
деталей в выбранных 3-х деталях, то она может принимать
только значения 0, 1, 2, 3. Составим ряд распределения (табл. 6)
этой случайной величины
78
Таблица 6

0
1
2
3
p
p1
p2
p3
p4
( p1  p 2  p3  p 4  1 )
Вычислим вероятности, входящие в ряд распределения:
0
 0 нестандартных  C83  C12
 
p1  P(  0)  P

3
C 20
 деталей из трех 
8  7  6  3!
14
;


3!20  19  18 285
1
 1 нестандартная  C82  C12
 
p 2  P(  1)  P

3
C 20
 деталь из трех

8  7  12  3!
84
;


2!20  19  18 285
2
 2 нестандартные  C81  C12
 
p3  P(  2)  P детали из трех

3
C 20


8  12  11  3! 132
;


2!20  19  18 285
3
 3 нестандартные  C80  C12
 
p 4  P(  3)  P детали из трех

3
C 20


12  11  10  3! 55
.


3!20  19  18 285
Ряд распределения (табл. 7) случайной величины  имеет
вид
Таблица 7
0
1
2
3

14
84 132 55
14
84
132
55
p



1.
285 285 285 285
285
285
285
285
Найдем функцию распределения F (x) . По определению
имеем
F ( x)  P(  x) .
79
Значения случайной величины  разбивают действительную ось
на 5 интервалов. Будем фиксировать x в каждом из этих интервалов.
Пусть x  0 , тогда F ( x)  P(  x)  P()  0 ;
14
;
285
1  x  2 , тогда F ( x)  P(  x)  P(  0 или   1) 
0  x  1 , тогда F ( x)  P(  x)  P(  0) 
14
84
98
;


285 285 285
2  x  3 , тогда F ( x)  P(  x)  P(  0 или   1 или
 P(  0)  P(  1) 
или   2)  P(  0)  P(  1)  P(  2) 
14
84


285 285
132 230
;

285 285
x  3 , тогда F ( x)  P(  x)  P(  0 или   1 или
или   2 или   3)  P(  0)  P(  1)  P(  2) 
14
84 132 55
 P(  3) 



1.
285 285 285 285
Окончательно получаем (рис. 22)
x  0;
0,
14 / 285, 0  x  1;

F ( x)  98 / 285, 1  x  2;
230 / 285, 2  x  3;

1,
x  3.
80
F (x)
1
230 / 285
98 / 285
14 / 285
-1
0
1
2
3
4
5
x
Рис. 22.
Найдем (по определению) математическое ожидание и
дисперсию
4
14
84
132
55 513
M   xi  pi  0 
 1
 2
 3


285
285
285
285 285
i 1

3  19  9 9
  1,8 ;
3  19  5 5
D 
4
x
2
i
 pi  M 2  0 
i 1
2
14
84
132
55
 1
 4
 9

285
285
285
285
1107 81 3  41  9 81 41  9 81
9
  






285 25 3  19  5 25 19  5 5  5
5
41  9  5  81  19 306


 0,631 .
19  5  5
475
Пр. 40 Случайная величина  задана плотностью:
 0, x  0;

 ( x)  a  x, 0  x  2; .
 0, x  2.

Требуется:
1) найти коэффициент а, функцию распределения F (x) ; построить графики F (x) и  (x) ;
2) найти M , D ,  .
81
3) вычислить P(1,5    2,5) .

  ( x)dx  1 . Имеем
Решение. Найдем a из условия


0
2

2


0
2
0
   ( x)dx   0dx   a  xdx   0dx  a   xdx  a 
x2
2
2

0
a
 (4  0)  2  a  1 .
2
Отсюда a  1 / 2 , следовательно
 0, x  0;

 ( x)   x / 2, 0  x  2;
 0, x  2.

Построим график плотности распределения вероятностей
случайной величины  (рис. 23).

 (x)
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
-1
Найдем
0
1
функцию
2
Рис. 23.
3
4
распределения
5
x
F (x) ,
имеем
x
F ( x) 
  (t )dt .
Плотность распределения вероятностей слу-

чайной величины  определена различными элементарными
82
функциями на трех интервалах, будем фиксировать x в каждом
из этих интервалов.
x
Пусть x  0 , тогда F ( x) 
x
  (t )dt   0dt  0 ;

0  x  2 , тогда F ( x) 
0
x
2
t
4

0

x
0
x


0
t
2
   (t )dt   0dt   dt 
2
x
;
4
x
0
2
x
t
x  2 , тогда F ( x)    (t )dt  0dt 
dt  0dt 
2


0
2

0
2
t2
4



 0 1.
0
Имеем
 0, x  0;

F ( x)   x 2 / 4, 0  x  2;
 1, x  2.

Построим график функции распределения случайной величины  (рис. 24).
F (x)
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0,0
-1
0
1
2
Рис. 24.
3
4
5
x
83
Найдем (по определению) математическое ожидание, дисперсию и среднее квадратичное отклонение

0
2

2
x
1
M  x    ( x)dx  x  0dx  x  dx  x  0dx   x 2 dx 
2
2 0


0
2


x3
6
2

0




80 4
 ;
6
3

0
2
x
D  x    ( x)dx  M   x  0dx  x  dx 
2


0

2
2

2
2
1
x4
4
     x 3 dx 
2 0
8
3

2
0

2

2

x
2
 0dx 
2
16 2 4  0 16 16 16
1 1




 16     
9
8
9
8
9
8 9
9  8 16 4 2
 16 

  ;
72
72 18 9
2
2
  D 

 0,471 .
9
3
Вычислим P(1,5    2,5) , используя 1-ое следствие
свойств функции распределения и плотности распределения:
(1,5) 2
P(1,5    2,5)  P(1,5    2,5)  F (2,5)  F (1,5)  1 

4
 1  0,5625  0,4375 .
Классические стандартные распределения
Рассмотрим основные распределения случайных величин.
Дискретные распределения представим в виде таблиц, непрерывные – в виде плотностей и функций распределения. Вычислим их математические ожидания и дисперсии.
1). Биномиальное распределение.
Случайная величина  распределена по биномиальному
закону, если ее значения являются количеством наступлений
события A в схеме Бернулли из n испытаний, то есть, задается
следующим рядом распределения (табл. 8)
84
Таблица 8

0
p
q
…
1
Cn1
n
 pq
n1
…
k
Cnk
 p q
k
n k
…
n
…
pn
Общее число  появлений события A в n испытаниях складывается из числа появлений события в отдельных независимых испытаниях  i , i  1,2,..., n , где  i  случайная величина, равная
количеству наступлений события A в i-ом испытании, то есть,
распределение (табл. 9) каждой случайной величины  i имеет
следующий вид
Таблица 9
i
0
1
p
p
q
Отсюда M ( i ) 
2
x  p
i
i
 0  q  1 p  p ;
i 1
D( i ) 
2
x
2
i
 p i  M 2 ( i )  0 2  q  12  p  p 2  p  p 2 
i 1
 p  (1  p)  p  q .
Воспользуемся свойствами математического ожидания и дисперсии, получим
 n

M  M   i   M (1 )  M ( 2 )  ...  M ( n )  p  p  ...  p 
 i 1 
 n

 n  p , D  D  i   D(1 )  D( 2 )  ...  D( n ) 
 i 1 
 p  q  p  q  ...  p  q  n  p  q .


Геометрическое распределение.
Геометрическое распределение представляет собой распределение случайной величины  - числа независимых экспериментов, которое необходимо провести до первого появления
события A. Ряд распределения (табл. 10) случайной величины
имеет вид:
2).
85

1
p
p
2
q p
3
q p
2
Таблица 10
n
…
n 1
…
q p
…
…
Вычислим математическое ожидание:
M  1  p  2  q  p  3  q 2  p  ...  n  q n1  p  ... 
 p  (1  2  q  3  q 2  ...  n  q n 1  ...)  p 

nq
n 1

n 1
 



  n
  n
q
n
n 1 


q 
; q  
nq
 p   q  
 n 1

1  q  n 1  n 1
 n 1 



 q 
1 q 1
p
p
1
  p 
 p  

 2  ;
2
2
1

q
p
(1  q)
(1  q)
p


и дисперсию:
D  12  p  2 2  q  p  32  q 2  p  ...  n 2  q n1  p  ...  M 2 




1   2 n 1  
2
n 1
2
n 1
 p n q  2 
n  q  
n  q dq  
 n 1
p
n 1
 n 1




 



 







  n  q n    q  n  q n 1    q   q n   
 n 1
  n 1
   n 1  






2
  q    q  (1  q)  2(1  q)q 1  q 
   
  q  

 3 
(1  q) 4
p 
  1  q    (1  q) 2 


1 q 1 1 q 1 q
 p 3  2 
 2 .
p
p
p2
p
Стандартная интерпретация геометрического распределения – появление первого успеха через ( k  1 ) неудач.










86
Равномерное распределение.
Случайная величина  распределена равномерно на отрезке [a, b] (имеет равномерное распределение), если она определена плотностью распределения следующего вида
x  a;
0,
 1

 ( x)  
, a  x  b;
b  a
x  b.
0,
3).
Отрезок [a, b] называется отрезком концентрации равномерного распределения.
Найдем функцию распределения. Так как по определению
F ( x)  P(  x) , x  R , а плотность распределения  (x)
определена различными функциями на трех интервалах, то имеем
1) пусть x  a
F ( x) 
x
x


  (t )dt   0dt  0 ;
2) a  x  b
x
a
x
x
dt
t
F ( x)   (t )dt  0dt 

ba ba


a




xa
;
ba
a
3) x  b
x
a
b
x
dt
t
F ( x)   (t )dt  0dt 
 0dt 
ba b
ba


a



b

Получаем:
x  a;
0,
x  a

F ( x)  
, a  x  b;
b

a

x  b.
1,

a
ba
1 .
ba
87
Графики плотности распределения  (x) и функции распределения F (x) представлены на рис. 25.
F (x)
1
F ( x0 )
0
a
b
x0
x
 (x)
1
ba
F ( x0 )
x0
a
0
b
x
Рис. 25.
Из рисунка видно, что значение F ( x 0 )  ( x 0  a) /(b  a)
есть площадь области, ограниченной прямой x  x0 , то есть,
x
F ( x0 ) 
  (t )dt .

Вычислим основные числовые характеристики случайной
величины :

a
b

1
M  x    ( x)dx  x  0dx  x 
dx  x  0dx 
ba


a
b


b
1
1
x2

xdx 

ba a
ba 2

b


a

b2  a2 b  a
;

2(b  a)
2
88

D 

a
x 2    ( x)dx  M 2 


b

x 2  0dx  x 2 


2
a
1
dx 
ba
b
(b  a) 2
1
x3
b a
 x  0dx  
x 2 dx 

 
ba a
4
3(b  a)
 2 
b

b

2

a

(b  a) 2 b 3  a 3 (b  a ) 2 b 2  ab  a 2 b 2  2ab  a 2





4
3(b  a)
4
3
4

4b 2  4ab  4a 2  3b 2  6ab  3a 2 b 2  2ab  a 2 (b  a) 2


.
12
12
12
4). Нормальное распределение.
Случайная величина  распределена по нормальному закону (или имеет нормальное распределение), если ее плотность
распределения имеет вид
2
2
1
 ( x) 
 e ( xa ) / 2 .
  2
Кривая распределения называется кривой Гаусса или гауссовой кривой (рис. 26). Эта кривая достигает максимум в точке
1
x  a , причем   ( a ) 
.
  2
 (x)
1
  2
0
x-2
x-
Рис. 26.
a
x+ x+2
x
89
Параметр a характеризует положение кривой на плоскости,  - ее вид (рис. 27, 28).
 (x)
  0,5
 1
 2
a
0
x
Рис. 27.
 (x)
1
  2
0
a1
a2
x
Рис. 28.
Функция распределения случайной величины имеет вид:
90
F ( x) 
x
1
e
  2
( t  a ) 2 / 2 2

xa
dt  
.
  
Найдем математическое ожидание:


 x   ( x)dx   x  
M 

1

 e ( x  a )
2
2
/ 2 2
dx 
x  a
 
2
 t , x    t  a, 
1
 

 (  t  a)  e t / 2   dt 


 2
dx    dt

 



2
2

a
  t  e t / 2 dt 
  e t / 2 dt 
2 
2 


 t2 
2
2
b

a

  e t / 2 d    
 2  
 lim e t / 2 

a
2 
2
2 ba
 2


2
2


 lim (e b / 2  e  a / 2 )  a  
 (0  0)  a  a .

2 ba
2


a
Вычислим дисперсию:

D 


x 2   ( x)dx  M 2 

x
2


2
2
1
 e ( x a ) / 2 dx  a 2 
 2
x  a
 
2
 t , x    t  a,
1

 

 (  t  a) 2  e t / 2   dt 


 2
dx    dt

 

1
 a2 

2
2
2

 (

 t 2  2a    t  a 2 )  e t
 t e
t 2 / 2


dt 
2a  
2


 t e
/2
t 2 / 2
dt 

 t2
2
2
a 
  t  e t / 2 d  
2 
 2
2
2
dt  a 2 


2
2
a2
2


 e t
2
dt 

 2a    t 2 / 2  t 2

 e
d  

2 

 2

/2




91
du  dt
u  t ,

 2  a  

2
2
t / 2
2
d (t 2 / 2), v  e t / 2 
dv  e
a2


 2a  
2
b
2
2
b
2
 lim  t  e t / 2   e t / 2 dt  
 lim e t / 2  a 2  a 2 



a
a
2 ba
2 ba
a
 


b




2
2
2
2
2

 lim b  e b / 2  a  e  a / 2 
  e t / 2 dt 
a


2 b
2 

2a  
2
 lim (e b
a 
b
2
/2
 e a
2
/2
)
2
2
 (0  0) 
 2 
2
2
2a  
 ( 0  0)   2 .
2
Таким образом, параметр a является математическим ожиданием,  - средним квадратическим отклонением.
Вероятность попадания случайной величины, подчиненной нормальному распределению, в заданный интервал.
Пусть случайная величина  распределена по нормальному закону, тогда по свойству функции распределения получим
 a
  a 
P(     )  F ( )  F ( )  
  
.
  
  
Часто на практике необходимо найти вероятность, заданного отклонения
P(|   M |  )  P(    M   )  P(M      M   ) 

 a   a 
 a   a 
 P(a      a   )  
  







 
 
 
 
 
        1          1  2   .
 
 
 
 
 
 
P(|   M |  )  1  2   .
 
Правило трех сигм.
92
Пусть случайная величина  распределена нормально с
параметрами a и . Найдем вероятность того, что в очередном
испытании значение случайной величины будет находиться
внутри интервала |   a | k , k  N .
Имеем
 
P(|   a |  )  P(a      a   )  1  2    1  2(1) 
 
 1  2  0,1587  0,6826 ;
P(|   a | 2 )  1  2(2)  1  2  0,0228  0,9544 ;
P(|   a | 3 )  1  2(3)  1  2  0,0013  0,9973 ;
P(|   a | 4 )  1  2(4)  1  2  0,00015  0,9997 ;
P(|   a | 5 )  1  2(5)  1  2  0,000003  0,999994 .
Из вычислений видно, что интервалом практически значимых значений случайной величины будет интервал
(a  3 , a  3 ) , так как с увеличением интервала последующие
вероятности увеличиваются незначительно в абсолютных единицах. Таким образом, вероятность того, что абсолютная величина отклонений превысит утроенное среднее квадратическое
отклонение, часто считается пренебрежимо малым. В этом суть
правила «трех сигм». Следует заметить, что правило трех сигм
используется только для нормально распределенных случайных
величин.
5). Показательное (экспоненциальное) распределение.
Распределение случайной величины  называется показательным или экспоненциальным, если плотность распределения
случайной величины имеет вид:
x  0;
0,
 ( x)  
  x
  e , x  0,
где   0 - параметр экспоненциального распределения.
Найдем функцию распределения:
1) x  0 F ( x) 
x
x


  (t )dt   0dt  0 ;
93
x
2) x  0 F ( x) 
0
x

0
 t
  (t )dt   0dt     e dt 

x
x
0
0

 0  e  t d (  t )  e  t
 e  x  1 1  e  x .
Окончательно получаем
x  0;
0,
F ( x)  
  x
1  e , x  0,
Построим графики функции распределения и плотности
распределения вероятностей (рис. 29, 30).
Вычислим математическое ожидание и дисперсию:

M 

0
x   ( x)dx 




x  0dx  x    e   x dx 

0

u  x;
du  dx 

  x  e   x


lim

  x
  x

b


dv    e dx; v  e



1
 lim   b  e  b  0   e  x
b


b
0

 e   x dx  

0

b


  lim   b  1 (e b  1)   1 ;
 b e  b 
 
0
b
 (x)
2
2
1
 1
0
Рис. 29.
x
94
F (x)
1
0

D 
x

0
2
  ( x)dx  M  

x
Рис. 30.
2
x

2

 0dx  x 2    e  x dx 
0

 u  x2;
du  2 xdx

 lim   x 2  e x
  x
  x 

dv    e dx v  e  b
b
1
2


0
du  e    x dx 
 1  u  x;

 2 x  e dx   2  
1
 
dv  e   x dx v   e   x 

0




b
b

 x
 1
1
 lim   b 2  e b  0  2     e x   e x dx    2 
 
 
b
 0
0



b
2
 b
 1
2 b
 2
 lim    b    b  0   2  e   x   2 
 
b  
 e
 
0
 e
2
1
2
1
1
  2  lim (e b  1)  2  2  2  2 .
b




 

b

  x

Замечание. При построении законов распределения непрерывных случайных величин (под которыми понимаются плотности
распределения вероятностей или функции распределения) мы
95
задавали плотность распределения вероятностей, а затем находили функцию распределения. Это объясняется тем, что, если
плотность распределения вероятностей непрерывной случайной
величины существует, то всегда можно получить и функцию
распределения. Обратный процесс не всегда возможен, так как
функция распределения может быть хотя и непрерывной, но не
иметь производную. При построении теории мы шли в обратном
порядке. Сначала строили функцию распределения, а затем
находили либо ряд распределения, либо плотность распределения вероятностей соответствующей случайной величины.
Функции от случайной величины
1.
Рассмотрим непрерывную случайную величину  с функцией распределения F (x) и плотностью  (x) . Пусть случайные величины  и  связаны функционально:    ( ) .
Зададим функцию y   (x) , монотонно возрастающую и
дифференцируемую вместе со своей функцией обратной  1 ( y ) .
Определим функцию распределения случайной величины
:
F ( y)  P(  y)  P( ( )  y)  P(   1 ( y))  F ( 1 ( y)) .
Найдем плотность распределения вероятностей случайной
величины :

 ( y )  F ( y ) '  F ( 1 ( y ))

'
y
 F ' ( 1 ( y ))  ( 1 ( y )) ' 
  ( 1 ( y)  ( 1 ( y))' .
Пусть функцию y   (x)  монотонно убывающая функция.
Определим функцию распределения случайной величины
:
F ( y)  P(  y)  P( ( )  y)  P(   1 ( y)) 
 1  P(   1 ( y))  1  F ( 1 ( y)) .
96
Найдем плотность распределения вероятностей случайной
величины :


 ( y)  F ( y) '  1  F ( 1 ( y)) y   F ' ( 1 ( y))  ( 1 ( y)) ' 
'
  ( 1 ( y)  ( 1 ( y))' .
Замечание. В общем случае, для непрерывной функции выделяют «куски» монотонности и на каждом из них находится своя
часть функции распределения и плотности распределения вероятностей.
Пр. 41 Случайная величина  равномерно распределена на отрезке [1;2] . Найти плотность распределения вероятностей случайной величины    2 .
Решение. Случайная величина  распределена равномерно на
отрезке [1;2] , то есть, задается плотностью распределения или
функцией распределения вида:
x  1;
x  1;
0,
0,
1
x 1


 ( x)   ,  1  x  2;
F ( x)  
,  1  x  2;
3
 3
x  2.
x  2.
1,
0,
Случайная величина  связана функционально со случайной величиной :    2 . Функция y  x 2 определена для всех
x  (,) , обратная к ней  1 ( y )   y принимает значения
из интервала [0;) . Причем область значений можно разбить
на два интервала: [0;1] , которому соответствует x [1;1] , и
(1;)  x  (;1)  (1;) .
Пусть x [1;1] , функция y  x 2 на этом интервале немонотонна, определим функцию распределения случайной величины  для y  (0;1] :
F ( y)  P(  y)  P( 2  y)  P(|  | y)  P( y    y ) 
97
y 1
 F ( y )  F ( y ) 

 y 1

2 y
.
3
3
3
Если y  (;0] , то по определению получаем:
F ( y)  P(  y)  P()  0 .
Для x  (1;2] функция y  x 2 монотонно возрастающая,
для y  (1;4]  1 ( y ) 
y , тогда получаем:
 1 ( y)  1
y 1
.
3
3
Определим функцию распределения случайной величины
 для y  (4;) , который соответствует x  (;2) или
F ( y)  F ( 1 ( y)) 

x  (2;) . Если x  (;2) , то функция y  x 2 монотонно
убывает и  1 ( y )   y , если x  (2;) , то функция y  x 2
монотонно возрастает и  1 ( y ) 
y:
F ( y)  P(  y)  P(  y)  P( y    y ) 
2
 F ( y )  F ( y )  1  0  1 .
Таким образом, функция распределения случайной величины  имеет вид:
y  0;
0,

2 y / 3, 0  y  1;
F ( y )  
( y  1) / 3, 1  y  4;
1,
y  4.

Плотность распределения вероятностей случайной величины  найдем по свойству  ( y )  F ' ( y ) :
y  0;
0,

1 /(3 y ), 0  y  1;
 ( y )  
1 /(6 y ), 1  y  4;
0,
y  4.

98
2.
Рассмотрим дискретную случайную величину , заданную
радом распределения (табл. 11)
Таблица 11
x2 … xn …
 x1
p
p1

p2
…
…
pn
p
i
1.
i 1
Если функция y   (x)  монотонная функция, то случайная величина    ( ) имеет распределение (табл. 12)
Таблица 12
  ( x1 )  ( x 2 ) …  ( x n ) …

p
p1
p2
…
pn
…
p
i
1.
i 1
Замечание. Если в верхней строке ряда распределения появляются одинаковые значения  ( xi ) , то соответствующие столбцы
необходимо объединить в один, приписав им суммарную вероятность, так как значения случайной величины – события
несовместные.
Системы случайных величин
До сих пор мы рассматривали одну случайную величину.
Однако, на практике часто требуется рассматривать несколько
случайных величин и изучать их взаимное влияние. Это наиболее интересный раздел теории вероятностей, благодаря которому ее модели нашли применение практически в каждой отрасли
человеческих знаний.
Свойства случайных величин.
Пусть задана последовательность случайных величин
1 ,  2 ,..., n ,... , тогда
1) если   измеримая функция, то    (1 ,  2 ,..., n ) 
случайная величина;
99
2) если существует следующий предел, то   lim  n - слуn
чайная величина;
3)   max(1 ,  2 ,..., n )  случайная величина;
4)   min( 1 ,  2 ,..., n )  случайная величина.
Из приведенных свойств видна важность применения их в
теоретических исследованиях, но на практике они малопригодны. Отсутствие же ряда привычных свойств, связанных со сложением и умножением случайных величин, наводит на мысль,
что не все так просто. Покажем, например, что     2   .
Пр. 42 Случайная величина  задана рядом распределения (табл.
13)
Таблица 13
1
 0
p
1/2
1/2
Построим законы распределения (табл. 14, 15) случайных
величин    и 2   . Имеем
Таблица 14
Таблица 15
 
p
0
1/4
1
1/2
2
1/4
2 
p
0
1/2
2
1/2
Законы различны. В первом случае для суммы случайных
величин мы выполнили случайное действие: к случайной величине добавили случайную и, тем самым, перераспределили вероятности; во втором умножили случайную величину на неслучайную, а это не дает оснований для перераспределения вероятностей.
Двумерные случайные величины
Пусть на пространстве  заданы две случайные величины
, . Совокупность этих случайных величин ( , ) называется 2-
100
мерной случайной величиной. Множество возможных значений
2-мерной случайной величины ( , ) обозначим      .
Опр. Функцией распределения 2-мерной случайной величины
( , ) , рассматриваемой как функция переменных ( x, y )   , ,
называется вероятность следующего вида:
F , ( x, y)  P(  x,  y) .
Свойства функции распределения.
1.
Функция распределения 2-мерной случайной величины
удовлетворяет неравенству:
0  F , ( x, y)  1 , x, y  R .
2.
Функция распределения F , ( x, y) 2-мерной случайной
величины ( , ) является неубывающей функцией по каждому
из аргументов, то есть
x1 , x2  R : x1  x2  F , ( x1 , y)  F , ( x2 , y) ;
y1 , y 2  R : y1  y 2  F , ( x, y1 )  F , ( x, y2 ) .
3.
Функция распределения F , ( x, y) непрерывна слева в лю-
бой точке действительной оси по каждому из аргументов, то
есть
x0  R , lim F , ( x, y )  F , ( x0 , y ) ;
x x0
y0  R , lim F , ( x, y )  F , ( x, y0 )
x y0
4.
Для функции распределения F , ( x, y) двумерной случай-
ной величины справедливы предельные равенства:
F , (, y)  F , ( x,)  F , (,)  0 ; F , (,)  1 .
5.
Если один из аргументов функции распределения
F , ( x, y) 2-мерной случайной величины стремиться к +, то
она переходит в функцию распределения случайной величины,
соответствующей другому аргументу:
F , ( x,)  F ( x) , F , (, y)  F ( y) .
101
Опр. Плотностью распределения вероятностей 2-мерной случайной величины ( , ) называется функция  , ( x, y) , удовлетворяющая условиям:
1). x, y  R   , ( x, y )  0 ;
 
2).
    ( x, y)dxdy  1 .
,
 
Опр. Случайные величины ,  называются независимыми, если
F , ( x, y )  F ( x)  F ( y ) .
Аналогично, если ,   независимые, то для плотности
распределения вероятностей величины ( , ) выполняется аналогичное равенство
 , ( x, y)   ( x)   ( y) .
Распределение вероятностей 2-мерной случайной величины ( , ) полностью ее определяет. Если случайные величины
,  не являются независимыми, то о 2-мерной случайной величине ( , ) трудно что-либо сказать, если вид зависимости неизвестен. Обычно зависимость случайных величин ,  изучают
по их числовым характеристикам.
Опр. Начальным моментом порядка k  s двумерной случайной
величины ( , ) называется математическое ожидание произведения случайных величин ,  в соответствующих степенях, то
есть,
 k ,s  M ( k   s ) .
Начальные моменты порядка k  s вычисляются по
формулам:


 k ,s   xik  y sj  pij , если ,   дискретные случайные велиi 1 j 1
чины;
 
 k ,s 
 x
k
 y s   , ( x, y )dxdy , если ,   непрерывные слу-
 
чайные величины.
102
Опр. Центральным моментом порядка k  s двумерной случайной величины ( , ) называется математическое ожидание произведения отклонений случайных величин ,  в соответствующих степенях, то есть,
 k ,s  M ((  M ) k  (  M ) s ) .
Начальные моменты порядка k  s вычисляются по формулам:


 k ,s   ( xi  M ) k  ( y j  M ) s  pij , если ,   дискретные
i 1 j 1
случайные величины;
 
 k ,s 
  ( x  M )
k
 ( y  M ) s   , ( x, y )dxdy , если ,   не-
 
прерывные случайные величины.
Таким образом, математические ожидания и дисперсии
случайных величин ,  2-мерной случайной величины вычисляются по формулам:
если ,   дискретные случайные величины, тогда
M 



xi  pij , M 
i 1 j 1
D 





 y
j
 pij ,
i 1 j 1
( xi  M ) 2  pij , D 
i 1 j 1


 ( y
i
 M ) 2  pij ;
i 1 j 1
если ,   непрерывные случайные величины, тогда
 
M 

 
x   , ( x, y )dxdy , M 
 
 
D 
  ( x  M )
  y    ( x, y)dxdy,
,
 
2
  , ( x, y )dxdy ,
 
 
D 
  ( y  M )
2
   , ( x, y )dxdy .
  
Пусть ,  - зависимые случайные величины, тогда
103
D(   )  M (    M (   )) 2  M (    M  M ) 2 
 M ((  M )  (  M )) 2  M ((  M ) 2 
 2  (  M )  (  M )  (  M ) 2 )  M (  M ) 2 
 M (2  (  M )  (  M ))  M (  M ) 2  D  D 
 2  M ((  M )  (  M )) .
Опр. Ковариацией cov( , ) случайных величин ,  2-мерной
случайной величины ( , ) называется математическое ожидание произведения отклонений (см с. 67) этих случайных величин, то есть,
cov( , )  M ((  M )  (  M )) .
Ковариация является характеристикой зависимости случайных величин ,  и имеет размерность
Используя свойства математического ожидания, преобразуем ковариацию:
cov( , )  M ((  M )  (  M ))  M (      M    M 
 M  M )  M (   )  M (  M )  M (  M )  M (M  M ) 
 M (   )  M  M  M  M  M  M  M (   )  M  M .
cov( , )  M (   )  M  M .
Замечание. Если ,   независимые случайные величины, то
cov( , )  0 .
Действительно,
cov( , )  M (   )  M  M  M  M  M  M  0 .
Ковариация cov( , ) случайных величин ,  вычисляется по формулам:
cov( , ) 


 x
i
 y j  pij  M  M , если ,   дискретные
i 1 j 1
случайные величины;
 
cov( , ) 
  x  y    ( x, y)dxdy  M  M , если ,   непре,
 
рывные случайные величины.
104
Величина ковариации cov( , ) зависит от размерности
случайных величин , . Чтобы охарактеризовать меру связи
между  и  2-мерной случайной величины ( , ) переходят к
безразмерной характеристике.
Опр. Случайная величина  называется нормированной, если
M  0 , D  1 .
Любую случайную величину  можно нормировать заменой
  M
.
* 
D
Опр. Коэффициентом корреляции r ( , ) случайных величин ,
 2-мерной случайной величины называется нормированная ковариация:
   M   M 
.
r ( , )  M ( * *)  M 

 D
D 

Если ковариацию cov( , ) случайных величин ,  разделить на произведение средних квадратичных отклонений этих
случайных величин, получим равенство, связывающее ковариацию и коэффициент корреляции:
cov( , )
.
r ( , ) 
D  D
Свойства коэффициента корреляции.
1.
Коэффициент корреляции r ( , ) случайных величин , 
не зависит от выбора единиц измерения этих случайных величин, то есть, является безразмерной величиной.
2.
Абсолютная величина коэффициента корреляции любых
случайных величин ,  не превосходит единицы:
| r ( , ) | 1 .
3.
Если r ( , )  1 , то между случайными величинами , 
существует линейная функциональная зависимость, то есть,
      , ,  R .
105
4.
Если случайные величины ,   независимые, то
r ( , )  0 . Обратное, вообще говоря, неверно.
5.
Если | r ( , ) | 0 , то случайные величины ,   коррелированны, положительно или отрицательно соответственно знаку
«+» или «-» коэффициента корреляции.
Пр. 43 Случайная точка ( , ) на плоскости распределена по
закону (табл. 16):
Таблица 16

-1
0
1

0
1
0,10
0,15
0,15
0,25
0,20
0,15
Найти числовые характеристики.
Решение. Представим ряд распределения (табл. 17) 2-мерной
случайной величины ( , ) в следующем виде:
Таблица 17

pi  P(  xi )
-1
0
1

0
1
0,10
0,15
0,15
0,25
0,20
0,15
p j  P(  y j )
0,25
0,40
0,35
0,45
0,55
Вычислим числовые характеристики случайных величин 
и :
M  0  0,45  1 0,55  0,55 ; M  1  0,25  0  0,40  1  0,35  0,1 ;
D  0 2  0,45  12  0,55  0,55 2  0,2475 ;   0,2475  0,4975 ;
D  (1) 2  0,25  0 2  0,40  12  0,35  0,12  0,59 ;
  0,59  0,7681 ;
106
cov( , )  M ((  M )  (  M )) 
2
3
 ( x
i
 M )  ( y j  M )  pij 
i 1 j 1

2
(x
i
 M )  (( y1  M )  pi1  ( y 2  M )  pi 2  ( y3  M )  pi 3 ) 
i 1
 ( x1  M )  (( y1  M )  p11  ( y2  M )  p12  ( y3  M )  p13 ) 
 ( x2  M )  (( y1  M )  p21  ( y2  M )  p22  ( y3  M )  p23 ) 
 (0  0,55)  ((1  0,1)  0,1  (0  0,1)  0,15  (1  0,1)  0,2) 
 (1  0,55)  ((1  0,1)  0,15  (0  0,1)  0,25  (1  0,1)  0,15) 
 0,55  0,055  0,45  (0,055)  0,055 ;
cov( , )
 0,055
r ( , ) 

 0,144 .
  
0,4975  0,7681
Сказать что-либо конструктивное о математическом ожидании и дисперсии очень проблематично, если неизвестно какие
события описывает случайная величина. В то же время, по значению коэффициента корреляции кое-какие выводы сделать
можно. В нашем случае, зависимость между случайными величинами хоть и слабая, но есть (так как r ( , )  0,144 , т.е. близок к нулю). Кроме того, с увеличением значения одной случайной величины, значение другой, в среднем, убывает (об этом
говорит отрицательный знак r ( , ) ).
Опр. Условным законом распределения составляющей случайной величины  {или }, входящей в 2-мерную случайную величину ( , ) , называется ее распределение, определенное при
условии, что другая случайная величина  {или } приняла
определенное значение y {или x}, то есть
F ( x / y)  P(  x /  y) ,
{или F ( y / x)  P(  y /   x) }.
Условные функции распределения непрерывных случайных величин ,  вычисляются по формулам …:
x
1
F ( x / y) 
   , (t , y )dt ,
 ( y ) 

107
y
F ( y / x) 
1
  ( x, t )dt .
 ( x)   ,

Условные плотности распределения вероятностей случайных величин ,  2-мерной случайной величины ( , ) определяются формулами …:
 ( x, y )
  , ( x, y )
 ( x / y )   ,
,  ( y / x) 
.
 ( y )
  ( x)
Объединяя два последних равенства, получаем
 , ( x, y)   ( y)   ( x / y)   ( x)   ( y / x) .
Опр. Условным математическим ожиданием случайной величины  {или } 2-мерной случайной величины ( , ) при   y
{или   x } называется выражение вида:
M ( /  y ) 

y
j
 P( y j / x) ,
j 1
{или M ( /   x) 

 x  P( x / y) },
i
i
i 1
если ,   дискретные случайные величины;

M ( /   y ) 
 x   ( x / y)dx ,


{или M ( /   x) 
 y   ( y / x)dy },

если ,   непрерывные случайные величины.
Линии регрессии.
Из определения условного математического ожидания
следует, что при изменении значения y изменяется и значение
условного математического ожидания, то есть, условное математическое ожидание можно рассматривать как функцию аргумента y: M ( /  y)   ( y) . Эта функция называется функцией
регрессии случайной величины  на . Аналогично,
M ( /   x)   ( x) называется функцией регрессии случайной
108
величины  на . Уравнения M ( /  y)   ( y)
и
M ( /   x)   ( x) называются уравнениями регрессии, а линии, определяемые ими – линиями регрессии.
Простейшим случаем функции регрессии является линейная регрессия. Пусть между случайными величинами  и 
существует линейная функциональная зависимость, то есть,
 ( x)    x   ,  ,   const . Найдем коэффициенты , .
cov( , )
M (   )  M  M
Так как r ( , ) 
, то

  
D  D
    r ( , )  cov( , )  cov( ,     )  M (  (     )) 
 M  M (     )  M (   2     )  M  (  M   ) 
   M 2    M    M 2    M    ( M 2  M 2 ) 

 r ( , ) .
   D    ( ) 2 , то есть,  

С другой стороны,
M  M (     )    M   ,
  M    M .
Искомая функция имеет вид:
 ( x)    x      x  M    M  M    ( x  M )  M 


 r ( , )  ( x  M ) .


 r ( , )  ( y  M ) .
Аналогично,  ( y )  M 

Закон больших чисел
Под «законом больших чисел» в теории вероятностей понимается ряд математических теорем, в каждой из которых при
тех или иных условиях устанавливается факт приближения
средних характеристик большого числа опытов к некоторым
определенным постоянным.
Свойство случайных величин при определенных условиях
вести себя практически как не случайные позволяет уверенно
оперировать этими величинами, предсказывать результаты массовых случайных явлений почти с полной определенностью.
109
Приведем некоторые неравенства может быть слишком
грубые для применения на практике, но незаменимые в теоретических исследованиях.
Теорема (неравенство Маркова).
Для любой случайной величины  с заданной функцией
распределения F (x) и любых k  0 ,   0 имеет место следующее неравенство:
M |  |k
,  k {0,1,2,...} ,   0 .
k
Доказательство. Пусть  - случайная величина с функцией рас-
P(|  |  ) 
пределения F (x) и k  0 , тогда, воспользовавшись свойством
b

P{a    b}   ( x)dx , получаем
a
P(|  |  )  P(   )  (   )  
   ( x)dx 
{| | }


 
{| | }
| x |k

k
   ( x)dx 
1

k


так как |  |   | x |  
т.е. P{|  |  } 
M |  |k
k

 | x | k   ( x)dx 
| x|

1 
| x |k
k
1

k
 M |  |k ,
 1,
,  k {0,1,2,...} ,   0 .
Следствие 1. Если случайная величина  положительно определена, то
M
,   0 .
P(   ) 

Следствие 2 (неравенство Чебышева). Вероятность того, что
случайная величина  отклоняется от своего математического
ожидания не меньше любого положительного  ограничена
D
сверху величиной 2 , то есть,

110
P(|   M |  ) 
D
,   0 .
2
Следствие 3. Вероятность того, что случайная величина  отклоняется от своего математического ожидания меньше любого
D
положительного , ограничена снизу величиной 1  2 , то есть,

D
P(|   M |  )  1  2 ,   0 .

D
Доказательство. P(|   M |  )  1  P{|   M |  }  1  2 .

Теорема (Чебышева). Если 1 ,  2 ,..., n ,...  последовательность
независимых случайных величин с конечными математическими ожиданиями M i и дисперсиями D  i , ограниченными в совокупности, т.е. D i  c , c  const , то при возрастании n среднее арифметическое значение случайных величин  i , i  1,2,... ,
сходится по вероятности к среднему арифметическому их математических ожиданий, то есть,
1 n

1 n
lim P
i 
M i     1 ,   0 .


n
n i 1
 n i 1

Доказательство. Пусть 1 ,  2 ,..., n ,...  последовательность независимых случайных величин с конечными математическими
ожиданиями M i и дисперсиями D  i , ограниченными одним и
тем же числом, D i  c , c  const , i  1,2,... . Обозначим


1 n  1 n
1 n
     i , тогда M  M     i     M i . Соответn i 1
 n i 1  n i 1
ственно, так как дисперсии ограниченны, имеем
1 n  1 n
1 n
1
c
D  D   i   2   D i  2   c  2  n  c  .
n
n i 1
n
 n i 1  n i 1
Для фиксированного n и   0 по следствию 3 окончательно:
D
с
.
P(|   M |  )  1  2  1  2

 n
111
Переходя к пределу при n   и учитывая, что вероятность события не может превышать 1, получаем
1 n

1 n
lim P
i 
M i     1 ,   0 .

n  n
n i 1
 i 1



Замечание. Из теоремы следует, что среднее арифметическое
большого числа случайных величин (с ограниченными дисперсиями) устойчиво и сходится к некоторому числу.
Следствие 1 (теорема Хинчина). Если 1 ,  2 ,..., n ,...  последовательность независимых, одинаково распределенных случайных величин, имеющих конечные математические ожидания,
M i  a   , i  1,2,... , то
1 n

  0 lim P
i  a     1 .

n  n
 i 1

Следствие 2 (теорема Бернулли). При неограниченном увеличении числа n независимых испытаний относительная частота


появления события A, вероятность которого в каждом испыn
тании равна p, сходится по вероятности к вероятности p этого
события, то есть,


  0 lim P  p     1 .
n
 n

Доказательство. Рассмотрим независимые случайные величины  i - число появления события A в i-ом испытании, заданные
следующим рядом распределения (табл. 18):
Таблица 18
i
0
1
p
q
p
Математическое ожидание каждой из этих случайных величин
1
 i , i  1,2,..., n , равна M i  p , а дисперсии D i  p  q 
4
112
ограничены. Кроме того    
n

i
- число появления собы-
i 1
тия A в n независимых испытаниях, тогда

n

1

n
n

i
,
i 1
1 n
1
 M i   n  p  p .
n i 1
n
По теореме Чебышева получаем
1 n



1 n
lim P  p   lim P   i   M i     1 ,   0 .


n
n i 1
 n
 n  n i 1

Следствие 3 (теорема Пуассона). При неограниченном увеличении числа n независимых испытаний, в которых событие A
появляется с вероятностью p1 , p2 ,..., pn ,... , относительная частоM 


та


события A сходится по вероятности к средней вероятности
n
события, то есть,
 1 n

lim P 
pi     1 ,   0 .

n  n
n i 1


1
Доказательство. Так как M i  p , D i  pi  qi  , где  i 4
число появления события A в i-ом эксперименте, тогда получаем
частный случай теоремы Чебышева, дальнейшие рассуждения
аналогичны доказательству следствия 2.
Теорема (Маркова). Если для последовательности случайных
величин 1 ,  2 ,..., n ,...

 n 
1
 i   0 ,

D


n n 2
 i 1 
то при неограниченном возрастании n среднее арифметическое
значение случайных величин  i , i  1,2,... , сходится по вероятности к среднему арифметическому их математических ожиданий, то есть,
lim

113
1
  0 lim P
n  n

n
 i 
i 1
1
n
n
 M
i
i 1

    1.


Центральные предельные теоремы
При суммировании достаточно большого числа случайных
величин закон распределения суммы неограниченно приближается к нормальному распределению при соблюдении некоторых
условий. Эти условия по существу сводятся к требованию, чтобы влияние на сумму отдельных случайных величин было равномерно малым, то есть, чтобы в состав суммы не входили случайные величины, явно преобладающие над совокупностью
остальных по своему влиянию на рассеивание суммы. Группа
таких теорем носит общее название центральных предельных
теорем. В настоящее время существуют теоремы, где сходимость последовательности случайных величин определяется
другими распределениями (из класса безгранично делимых распределений) ….
Приведем две из таких теорем.
Теорема (Линдеберга-Леви).
Если 1 ,  2 ,..., n ,...  последовательность независимых случайных величин, имеющих один и тот же закон распределения с
математическими ожиданиями M i  a и дисперсиями
D i   2 , то при неограниченном возрастании n закон распреn
деления нормированной суммы  n

i 1
i
an
сходится по
 n
вероятности к нормальному закону с плотностью вероятностей
2
1
 (t ) 
 e t / 2 ,    t   , для которой a  0 ,   1 , то
2
есть,  ,  :    и n имеет место
114



P  



n

i
an
i 1
 n



   n
 (  )  ( ) ,




t
2
1
 e  x / 2 dx .
где  (t ) 
2 

Теорема (Ляпунова).
Если в последовательности независимые случайные величины
1 ,  2 ,..., n ,... имеют математические ожидания M i  ai , дисперсии D i   i 2 и конечные абсолютные центральные моменты 3-го порядка |  3 |i , i  1,2,... , удовлетворяющие условию
n
| 
3 |i
i 1
0,
3/ 2
 n 2 
  i


 i 1

то при неограниченном увеличении n закон распределения норlim
n

n
мированной суммы  n
n
  i   ai
i 1
i 1
n

сходится по вероятности к
2
i
i 1
нормальному закону с плотностью  (t ) 
1
2
 e t
2
/2
и n рав-
номерно по x имеет место
P  n  x  n


x
2
1
 e t / 2 dt .
2 

Замечание. В практических задачах центральную предельную
теорему часто используют для вычисления вероятности того,
что сумма нескольких случайных величин примет значение,
принадлежащие
некоторому
заданному
интервалу.
115
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Математическая статистика – раздел математики, посвященный математическим методам систематизации, обработки и
использования статистических данных для теоретических исследований и практических выводов.
Статистические данные – набор числовых значений, представленных в виде выборки из генеральной совокупности Г, являющейся отображением реального явления в числовое множество.
Математическая статистика не раздел теории вероятностей, а самостоятельная наука со своими понятиями, методами и
способами исследования. Изучает как случайные, так и детерминированные явления на основе более или менее обширного
статистического материала.
Образно говоря, теория вероятностей, зная все о генеральной совокупности, изучает состав ее выборок. Математическая
статистика решает обратную задачу: по изучению состава отдельных выборок пытается получить как можно больше информации о генеральной совокупности.
Основными понятиями математической статистики являются «генеральная совокупность», «выборка», «эмпирическая
функция распределения» и «параметры распределения».
Рассмотрим случайный эксперимент, который описывается одномерной случайной величиной . Множество всех возможных значений случайной величины  будем называть генеральной совокупностью . Осуществив n независимых повторений эксперимента, получим совокупность n значений случайной
величины , которые обозначим x1 , x2 , ..., xn . Заметим, что среди
этих чисел могут быть и равные.
Совокупность x1 , x2 , ..., xn , xi  Г , i  1,2,..., n , n  N ,
называется выборкой, а число элементов, входящих в выборку,
 ее объемом.
Если провести другую серию из n независимых повторений этого же эксперимента, то получится, вообще говоря, уже
другая выборка значений случайной величины . Поэтому в
116
теоретических исследованиях выборка n значений случайной
величины

представляется
случайным
вектором
  (1 ,  2 ,..., n ) , где  i , i  1,2,..., n , - независимые случайные
величины, заданные на одном и том же вероятностном пространстве и имеющие одну и ту же функцию распределения
F (x) , причем  i - одно из возможных, заранее неизвестных,
значений случайной величины  в i-ом повторении эксперимента.
Задачей исследования в математической статистике является построение математической модели случайного эксперимента, проверка адекватности модели изучаемому явлению и, в
случае положительного ответа, прогнозирование появления события, как части явления. При построении математической модели предполагается, что выборка репрезентативна, то есть,
любой элемент генеральной совокупности имеет одинаковую
вероятность попасть в выборку.
К основным задачам математической статистики относятся: 1) оценка функции распределения; 2) оценка неизвестных
параметров; 3) проверка априорных предположений или статистических гипотез.
Распределение выборки. Геометрическое представление выборки
Пусть задана выборка
x1 , x2 ,..., xn .
Элементы выборки, представленные в порядке неубывания элементов, x'1 , x'2 ,..., x'n , причем x'1  x'2  ...  x'n , образуют вариационный ряд.
Размахом выборки x1 , x2 ,..., xn называется величина равная разности наибольшего и наименьшего элементов выборки,
то есть,
R  xmax  xmin ,
где xmin  x'1 , xmax  x'n  x1 , x2 ,..., xn .
117
Пусть в выборке x1 , x2 ,..., xn k различных элементов
xi1  xi2  ...  xik . Числа xir , r  1,2,..., k , называются вариантами или наблюдениями. Число появлений варианты xir называется абсолютной частотой mr , r  1,2,..., k .
Варианты и соответствующие им абсолютные частоты
можно представить в виде таблицы (табл. 19), называемой статистическим рядом распределения (простой статистической
таблицей) абсолютных частот. Эта таблица является реализацией дискретной случайной величины.
Таблица 19
x i2
x ir
…
 x i1
k
m
m1
…
m2
mk
m
r
n
r 1
Если на плоскости построить точки ( x ir , m r ), r  1,2,..., k ,
и соединить их отрезками прямых, то полученная ломанная
называется полигоном абсолютных частот (рис. 31)
m
n
m2
m1
mn
xi1
xi2
0
xik x
Рис. 31.
Если   непрерывная случайная величина, то весь диапазон ее значений делят на k интервалов (длины которых опреде-
118
R
, k  5  lg n ) и подсчитывают количество
k
m i , i  1,2,..., k , вариант, попавших в данный интервал. По абсолютным частотам каждого из интервалов находят относительk
m
wi  1 .
ные частоты wi  i , i  1,2,..., k . Очевидно,
n
i 1
Полученные интервалы и соответствующие относительные частоты wi записывают в виде таблицы, называемой интервальным статистическим рядом распределения (интервальной статистической таблицей (табл. 20)).
Таблица 20
…

[ x i1 , x i2 )
[ x i2 , x i3 )
[ xik , xik 1 )
ляют по формуле h 

w
w1
…
w2
wk
Графическим представлением интервального статистического ряда является гистограмма (рис. 32).
h
1
h2
h1
hk
xi1
xi2
0
Рис. 32.
xik
x
119
Для ее построения по оси абсцисс откладывают интервалы
каждом из них строят прямоугольники высотой
wr
hr 
, r  1,2,..., k .
x ir 1  x ir
и
на
Площадь гистограммы равна 1. В теории вероятностей гистограмме соответствует график плотности распределения вероятностей.
Замечание. На основании гистограммы можно построить полигон частот (рис. 33). Для этого достаточно соединить середины
верхних сторон прямоугольников отрезками прямых. В этом
случае непрерывную случайную величину можно рассматривать
как дискретную, эмпирические значения которой совпадают с
 xi  xir

координатами  r 1
, hr  , r  1,2,..., k .
2


h
1
h2
h1
h
xi0 xi1
xi2
k
0
Рис. 33.
xik xik 1 x
120
Точки xi0 , x ik 1 добавлены искусственно в целях удобства исследования, при этом полагают xi  xi  xi  xi / 2 ,
1
xi
k 1
 xi  xi  xi
k
k
k 1
0
2
1
/2.
Гистограмму и полигон частот используют для подбора
модели распределения изучаемой случайной величины .
~
Опр. Эмпирической функцией распределения Fn ( x) называется
относительная частота события (   x ) в данной выборке значе-
m
~
ний случайной величины , то есть, Fn ( x)  P(  x) 
где m r  число xir меньших x, n  объем выборки.
xi  x
r
n
r
,
В силу закона больших чисел эмпирическая функция рас~
пределения Fn ( x) является оценкой подлинной функции рас~
пределения F (x) при n   , поэтому функция Fn ( x) обладает
свойствами в полнее аналогичными F (x) :
~
1) 0  Fn ( x)  1 , x  R ;
~
2) функция Fn ( x) является неубывающей функцией;
~
~
3) если x  xmin , то Fn ( x)  0 , если x  xmax , то Fn ( x)  1 .
~
Функция Fn ( x)  ступенчатая, возрастает скачками, которые соответствуют наблюдениям, и равны относительным частотам этих значений:
x  x i1 ;
0,

...
 r
~
1
Fn ( x)  
m s , x ir  x  x ir 1 , r  1,2,..., k  1;
 n s 1
...

x  x ik .
1,

121
Статистические критерии согласия
Пусть на некотором этапе исследования выборки из возможных значений случайной величины возникает предположение (статистическая гипотеза) о распределении генеральной совокупности. Истинность выдвинутой (основной) гипотезы H 0
проверятся в сравнении с альтернативными гипотезами H 1 , H 2 ,
H 3 , … . При этом, поскольку проверка осуществляется на основе выборки, а не всей генеральной совокупности, то все же существует, может и малая, вероятность того, что верная гипотеза
будет отвергнута (ошибка 1-го рода), или наоборот принимается
гипотеза, которая справедлива только для отдельной выборки и
не справедлива для всей генеральной совокупности (ошибка 2го рода). Поэтому гипотеза H 0 принимается или отвергается с
некоторой вероятностью (доверительной вероятностью), чаще
всего 0,9, 0,95, 0,99 и т.д.
Рассмотрим критерии согласия, которые применяются для
проверки гипотез о том, что распределение изучаемой случайной величины подчиняется некоторому известному распределению, то есть, случайная величина  задана функцией распределения F (x) .
Критерий Колмогорова.
Пусть имеется выборка x1 , x2 ,..., xn значений случайной
величины , по которой строится эмпирическая функция рас~
пределения Fn ( x) . Предположим, что случайная величина  задается функцией распределения F (x) .
Теорема. Если функция F (x) непрерывна, то
x  0;
0,
 
lim P n  Dn  x  K ( x)  
k
2 k 2 x 2
n
, x  0;
 (1)  e
k 



122
~
где Dn  max Fn ( x)  F ( x) , то есть, величина Dn определяет
x
наибольшую меру отклонения эмпирической функции распре~
деления Fn ( x) от теоретической F (x) .
Замечание. Из теоремы следует, что критерий Колмогорова
применим для оценки только непрерывных и полностью определенных, включая параметры, распределений и при достаточно
большом объеме статистических данных.
Пусть задана некоторая выборка, по которой на плоскости
строится ломаная линия. В этой же системе координат строим
график теоретической функции распределения (рис. 34).
Определяем Dn и полагаем x  n  Dn . Находим
P( x)  1  K ( x) , где P(x) - вероятность того, что за счет слу~
чайных причин максимальный разброс Fn ( x) и F (x) будет
меньше, чем фактически наблюдаемый. Если P(x) - мала (<0,2),
то F (x) не соответствует опытным данным, если P(x) - велика
(>0,2), то F (x) совместима с данными выборки.
~
Fn ( x)
1
F (x)
0,8
0,6
0,4
0,2
x i1
x i2
0
Рис. 34.
x ik
x
123
Критерий 2.
Пусть задан интервальный статистический ряд распределения случайной величины . По нему найдем теоретические
вероятности p r  P   [ x ir , x ir 1 ) , соответствующие столбцу r,


r  1,2,..., k . Предположим, что случайная величина  задается
функцией распределения F (x) . За меру отклонения между распределением выборки и теоретическим распределением принимается сумма квадратов разности между теоретическими и
опытными вероятностями:
2
m 

  ci   pi  i  ,
n 

i 1
k

где ci - некоторые коэффициенты.
n
Если положить ci 
, то закон распределения  не завиpi
сит от вида F (x) , числа опытов n и асимптотически сходится к
распределению 2 …,
k
m 
mi  n  pi  .
n 
  pi  i  или  2 
n 
n  pi
i 1 pi 
i 1
2
Распределение  имеет   k  r  1 число степеней свободы, где k – число интервалов, на которые разбито множество
наблюдений, r – число параметров теоретического распределения вероятностей 2.
2
По выборке вычисляется величина  эксп
, которая сравни-
k
2  
2

2
2
2
2
вается с  теор
, то считается, что гипо  2p, . Если  эксп
  теор
теза не согласуется с наблюдаемыми значениями случайной ве2
2
личины, если  эксп
, то гипотеза не противоречит опыт  теор
ным данным.
Замечание. Если критерий Колмогорова требует для своего
применения жестких условий (см с.122, замечание), то критерий
2 (Пирсона) либерален. Во-первых, он применяется при про-
124
верке гипотез как дискретных, так и непрерывных случайных
величин, и во-вторых, значения параметров могут быть вычислены из этих же статистических данных. Принято считать, что
для применения критерия достаточно, чтобы n  pi  10 .
Пр. 44 При концентрировании молочного сырья проницаемость
растворителя через мембрану является случайной величиной ,
распределенной по эмпирическому закону (табл. 21).
~
Fn ( )  P(   ) .
Требуется, используя критерий Колмогорова, подобрать
теоретическую функцию распределения случайной величины 
при числе опытов n  16 .
Таблица 21
~
~
~
~
,
,
,
,
Fn ( ) (мин) Fn ( ) (мин) Fn ( ) (мин) Fn ( )
(мин)
5
10
15
20
0,131
0,270
0,360
0,450
25
30
35
40
0,518
0,570
0,628
0,648
45
50
55
60
0,720
0,735
0,780
0,830
65
70
75
80
0,870
0,875
0,881
0,910
Решение. Из практических соображений есть основание считать, что искомой функцией является экспоненциальное распределение:
 1 
F ( )  1  e  ,   0,03 
.
 мин. 
Составим таблицу значений теоретической функции распределения (табл. 22).
Таблица 22
,

,

,

,
F ( )
F ( )
F ( )
F ( )
(мин)
5
10
15
20
0,139
0,259
0,362
0,451
(мин)
25
30
35
40
0,528
0,593
0,650
0,700
(мин)
45
50
55
60
0,741
0,777
0,808
0,835
(мин)
65
70
75
80
0,858
0,878
0,895
0,909
125
Максимальный разброс Dn при   40 мин. равен:
~
Dn | Fn ( )  F ( ) | 0,0508 , тогда z0  0,0508  16  0,2032 . По
таблице приложения 5 находим, при z 0  0,2032 , значение
 0  1 . Так как  0  1  0,2 , то гипотезу об экспоненциальности
распределения проницаемости принимаем.
Рис. 35 демонстрирует приближение эмпирической
~
функции Fn ( ) экспоненциальной.
Напомним еще раз, что критерий Колмогорова обладает
наглядностью и простотой, однако для его применения
необходимо знать не только вид теоретической функции
распределения, но и значения всех, входящих в неё, параметров.
Заметим, что такая ситуация редко встречается на практике.
Воспользуемся критерием  2 для проверки выдвинутой гипотезы о соответствии опытных данных экспоненциальному распределению. Объем выборки n  16 , число степеней
свободы   16  1  1  14 . Будем считать, что число интервалов
k  16 .
~
Fn ( x)
1
F (x)
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 , мин
Рис. 35.
126
Взяв середину интервалов из таблицы 22, получим таблицу 23, из неё находим  
16

i
~
pi  24,295 .
i 1
~
pi  wi
 i  ~pi
~
pi  wi
Таблица 23
 i  ~pi
 i , (мин)
 i , (мин)
2,5
0,131 0,3275
42,5
0,072 3,0600
7,5
0,139 1,0425
47,5
0,015 0,7125
12,5
0,060 0,7500
52,5
0,045 2,3625
17,5
0,120 2,1000
57,5
0,060 3,4500
22,5
0,068 1,5300
62,5
0,030 1,8750
27,5
0,052 1,4300
67,5
0,005 0,3375
32,5
0,058 1,8850
72,5
0,006 0,4350
37,5
0,020 0,7500
77,5
0,029 2,2475
Для
теоретической
функции
распределения
  
F ( )  1  e , где   1/   1/ 24,295  0,041 определим значения теоретических вероятностей pi , i  1,2,...,16 , по формулам:
p1  F ( 1 ) ,  1  2,5 ,
pi  F ( i )  F ( i 1 )
или
pi  (1  exp( 0,041   i ))  (1  exp( 0,041   i 1 )) 
 exp( 0,041   i 1 )  exp( 0,041   i ) , i  2,3,...,16 .
Результат приведем в таблице 24
Таблица 24
2
 i , (мин)
pi

p
,
(мин)
( pi  wi )
( pi  wi ) 2
i
i
pi
2,5
7,5
12,5
17,5
22,5
27,5
32,5
37,5
0,0974
0,1673
0,1363
0,1110
0,0904
0,0737
0,0600
0,0489
0,0116
0,0048
0,0427
0,0007
0,0056
0,0064
0,0001
0,0171
pi
42,5
47,5
52,5
57,5
62,5
67,5
72,5
77,5
0,0398
0,0325
0,0264
0,0215
0,0175
0,0143
0,0116
0,0095
0,0260
0,0094
0,0130
0,0687
0,0088
0,0060
0,0027
0,0401
127
Составим сумму
( pi  wi ) 2
 16  0,26373  4,220 .
pi
i 1
Зададим доверительную вероятность p  0,95 (0,99). По
таблице приложения 6 при   14 степени свободы определяем
2
2
2
значение  теор
 6,57 (4,66), а так как  эксп
 4,220   теор
 6,57
n
 '2эксп  n  
(4,66), то с вероятностью p  0,95 (0,99) гипотеза о соответствии эмпирической функции распределения экспоненциальной
принимается. Более того, как выяснилось, гипотеза справедлива
и при доверительной вероятности p  0,99 (соответствующие
значения указаны в скобках).
Замечание. Такая хорошая оценка очень редко встречается на
практике, поэтому возникают сомнения в том, что статистические данные получены из реального эксперимента, а не взяты
близкими к значениям теоретической функции. Подобные ситуации рекомендуется перепроверять.
Основные характеристики выборки
Рассмотрим случайный вектор
(1 ,  2 ,..., n ) ,
где  i , i  1,2,..., n , - случайные значения случайной величины .
Опр. Точечной оценкой называется числовая статистическая
характеристика a~  a~ (1 ,  2 ,..., n ) , служащая оценкой теоретического параметра a.
Наилучшей оценкой a~ параметра a является та, которая
удовлетворяет следующим свойствам: 1) несмещенность, 2) эффективность, 3) состоятельность.
Опр. Оценка a~ параметра a называется несмещенной, если
M (a~)  a , в противном случае, оценка является смещенной.
Опр. Оценка a~1 более эффективна, чем a~2 , если
M (a~  a) 2  M (a~  a) 2 ,
1
2
то есть, более эффективной считают ту оценку, дисперсия которой наименьшая.
Опр. Оценка a~ параметра a называется состоятельной, если
128
lim P( a~  a   )  1 ,   0 ,
то есть, при неограниченном возрастании n, a~ сходится (по вероятности) к параметру a .
Пусть задана выборка x1 , x2 ,..., xn из генеральной совокупности, по которой построен статистический ряд (табл. 25) относительных частот. Эту таблицу 25 можно рассматривать как закон распределения некоторой дискретной случайной величины
m
, а r - вероятности ее соответствующих значений.
n
Таблица 25
x i2 … x ik
x x i1
n
w
m1
n
m2
n
k

mk
n
…
r 1
mr
 1.
n
В качестве характеристик выборки значений случайной
величины  в статистике рассматриваются различные средние
(средняя гармоническая, средняя арифметическая, средняя
квадратическая и др.), а также мода и медиана.
Модой M 0 выборки значений случайной величины 
называется та варианта, которая наиболее часто встречается в
выборке.
Медианой M e выборки значений случайной величины 
называется варианта, расположенная в середине вариационного
ряда этой выборки. Если выборка состоит из четного числа членов, то медиана рассчитывается как средняя арифметическая
серединных элементов вариационного ряда.
Наилучшей оценкой математического ожидания случайной величины  является выборочная средняя (средняя арифме1 k
m r  xir , а дисперсии – выборочтическая взвешенная)  
n r 1

ная (статистическая) дисперсия S 2 
1
n
k
m
r 1
r
 ( x ir   ) 2 (при
129
n
 S 2 , хотя и при
n 1
«больших» n можно использовать и выборочную дисперсию).
Если выборочная средняя, мода и медиана совпадают, то
выборка симметрична.
малых n – исправленная дисперсия S12 
Пр. 45 Для исходной выборки: 6, 7, 6, 4, 6, 5, 7, 8, 6, 4, 2, 5, 2, 5,
4, 6, 6, 3, 5, 7
а) определить вариационный ряд и размах выборки;
б) построить простую статистическую таблицу и полигон
частот;
в) построить интервальную таблицу и гистограмму;
г) найти эмпирическую функцию распределения и построить ее график;
д) найти выборочную среднюю, выборочную и исправленную дисперсию, моду, медиану.
Решение.
Упорядочивая выборку значений случайной величины получаем вариационный ряд:
2, 2, 3, 4, 4, 4, 5, 5, 5, 5, 6, 6, 6, 6, 6, 6, 7, 7, 7, 8;
и находим размах выборки
R  xmax  xmin  8  2  6 .
От вариационного ряда переходим к простой статистической
таблице (табл. 26).
Таблица 26
x
m
2
2
3
1
4
3
5
4
6
6
Построим полигон частот (рис. 36).
7
3
8
1
n
7
m
i 1
i
 20
130
m
6
5
4
3
2
1
0
0
1
2
3
4
5
6
8x
7
Рис. 36.
Построим интервальную статистическую таблицу (табл.
27) и по ней гистограмму (рис. 37).
Таблица 27
x [2,3) [3,4) [4,5) [5,6) [6,7) [7,8) [8,9)
7
w 0,10
0,05
0,15
0,20
0,30
0,15
0,05
w
i
i 1
0,35
h
0,3
0,25
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
Рис. 37.
6
7
8
x
1
131
Найдем эмпирическую функцию распределения и построим ее
график (рис. 38)
x  2;
0,
0,10, 2  x  3;

0,15, 3  x  4;

~
0,30, 4  x  5;
Fn ( x )  
0,50, 5  x  6;
0,80, 6  x  7;

0,95, 7  x  8;
1,
x  8.

~
Fn ( x)
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-1
0
1
2
3
4
5
6
7
8
Рис. 38.
Вычислим выборочную среднюю
1 7
1
   mi  x i   ( 2  2  3  1  4  3  5  4  6  6 
n i 1
20

9
x
132
104
 5,2 ,
20
выборочную и исправленную дисперсию
1 7
1
S 2   ( x i   ) 2  mi 
 ((2  5,2) 2  2  (3  5,2) 2  1 
n i 1
20
 7  3  8  1) 

 (4  5,2) 2  3  (5  5,2) 2  4  (6  5,2) 2  6  (7  5,2) 2  3 
1
 (8  5,2) 2  1) 
 (20,48  4,84  4,32  0,16  3,84  9,72 
20
51,2
 7,84) 
 2,56 ,
20
n
20
51,2
S12 
 S2 
 2,56 
 2,69 .
n 1
19
19
Определим моду и медиану выборки
M0  6,
56
Me 
 5,5 .
2
Интервальное оценивание
Рассмотренные оценки a~  a~( ) , как правило, не совпадают с истинным значением параметра a. Следовательно, имеет
место некоторая погрешность при замене параметра его оценкой, то есть, | a~  a | 0 , хотя величина этой погрешности неизвестна. Чтобы получить представление о точности и надежности
оценки a~ неизвестного параметра a в математической статистике рассматривают оценку
P(| a~  a |  )  P(a~    a  a~   )  1   .
Вероятность того, что случайный интервал (a~   , a~   ) накроет неизвестный параметр a, равна 1   и называется доверительной вероятностью. Причем, чем меньше будет   0 для
заданной вероятности 1   , тем точнее оценка a~ . Заметим, что
если   0 , то    .
133
Опр. Случайный интервал, определяемый результатами наблюдений, который с заданной вероятностью 1   накрывает неизвестный параметр a, называется доверительным интервалом для
параметра a, соответствующим доверительной вероятности
1 .
Пусть задана выборка x1 , x2 ,..., xn значений случайной величины , распределенной по нормальному закону с плотностью
 ( x, a, ) , содержащей два неизвестных параметра a и . По
заданной выборке определим доверительный интервал параметра a  M , используя распределение Стьюдента.
Опр. Случайная величина  называется случайной величиной
Стьюдента с   n  1 - числом степеней свободы, если ее плотность распределения вероятностей имеет вид
  1 
( 1) / 2


 t2 
2 

,
 (t )  S (t ) 
 1  
 
 

     
2

где ( ) 
x
 1
 e  x dx - гамма-функция,   0 .
0
Теорема. Если 1 ,  2 ,..., n - независимые случайные величины
распределенные нормально с математическими ожиданиями a и
 a
дисперсиями  2 , то случайная величина T 
 n  1 имеS
ет распределение Стьюдента с   n  1 числом степеней свободы.
Чтобы определить доверительный интервал математического ожидания a, определим значение  для заданной доверительной вероятности 1   , для которого P(|   a |  )  1   . В
качестве доверительного интервала рассмотрим симметричный
интервал a  (   ,   ) , так как и нормальное распределение, и распределение Стьюдента симметричны (нормальное –
относительно M  a , Стьюдента – в силу четности).
Имеем
134
|  a | n
n 
P (|   a |  )  P
 

S1
S1 



 |  a | n 1
n
n
n 
  S12 
 S 2  S1 
 S   P
 
.
n 1
S
S1 
n  1 


 a
Поскольку T 
 n  1 , то P (| T | t )  1   , где
S
n
t   
.
S1
В соответствие с функцией распределения Стьюдента
x

P(| T | t )  2  S 1 (t )dt   (t ) .
0
x

Значения функции  ( x)  2  S 1 (t )dt приведены в таблице
0
приложения 7.
Полагая  
t  S1
, доверительный интервал математичеn
ского ожидания случайной величины распределенной по нормальному закону имеет вид:
1) если  - неизвестно, то
S
S
  t  1  a    t  1 , t  t (1   ,  n  1) ;
n
n
2) если  - известно, то
   

 a     

.
n
n
Зная число степеней свободы   n  1 и доверительную
вероятность  параметр t  находится по таблице (приложение
7), параметр  находится из уравнения ( ) 
x
( x) 
1
 exp(t 2 / 2)dt (приложение 3).
2 


2
, где
135
При увеличении объема выборки n   0 уменьшается при
этом распределение Стьюдента приближается к нормальному
распределению
1
 (t ) n

 exp(t 2 / 2) .

2
Для построения доверительного интервала дисперсии воспользуемся распределением  2 .
Опр. Пусть 1 ,  2 ,..., n - независимые случайные величины распределенные нормально с a  0 ,   1 . Случайная величина
n
 2    i2 называется случайной величиной с распределением
i 1
 с   n степенями свободы, для которой плотность распределения вероятностей имеет вид:

2
1
1
 ( 2 )   / 2
  2 2  e  / 2 ,  2  0 .
2   / 2 
2
 
Значения функции  (  )    , приведены в таблице
(приложение 6). Доверительный интервал для дисперсии случайной величины распределенной по нормальному закону имеет
вид:
S12  (n  1)
S12  (n  1)
2



.
2
2
2
2
 n1;(1 ) / 2
 n1;(1 ) / 2
Пр. 46 Найти доверительный интервал для оценки с надежностью 0,95 неизвестного математического ожидания нормально
распределенной случайной величины, представленной выборкой
объема n  25 , для которой найдены выборочное среднее
  14 , если известно, что среднее квадратичное отклонение
  5.
Решение. Поскольку для нормально распределенной случайной
величины известно среднее квадратичное отклонение, то воспользуемся формулой


   
 a     
,
n
n
136
где параметр  найдем из равенства ( ) 
  1  0,95  0,05 , получаем
 ( )  0,025 , т.е.   1,96 .

2
, при условии
Составим доверительный интервал
5
5
14  1,96 
 a  14  1,96 
,
25
25
14  1,96  a  14  1,96 ,
окончательно получаем
12,04  a  15,96 .
Пр. 47 Из генеральной совокупности извлечена выборка объема
n  10 (табл. 28):
Таблица 28
 i -2 1 2 3 4 5
mi 2 1 2 2 2 1
Оценить с доверительной вероятностью (надежностью)   0,95
математическое ожидание генеральной совокупности по выборочному среднему с помощью доверительного интервала.
Решение. Вычислим выборочное среднее  и исправленную
дисперсию S1
1
1
   (2  2  1  1  2  2  3  2  4  2  5  1)   (4  1  4 
10
10
25
 6  8  10) 
 2,5 ,
10
1
S 2   ((2  2,5) 2  2  (1  2,5) 2  1  (2  2,5) 2  2  (3  2,5) 2  2 
10
1
 (4  2,5) 2  2  (5  2,5) 2  1)   (40,5  2,25  0,5  0,5  4,5 
10
54,5
 6,25) 
 5,45 ;
10
n
10
54,5
54,5
S12 
 S 2   5,45 
 6,06 , S1  S12 
 2,46 ;
9
n 1
9
9
Найдем искомый доверительный интервал по формуле
137
  t 
S1
 a    t 
S1
,
n
n
где параметр t определим по таблице приложения 7
t  t ( , )  t (1   , n  1)  t (0,95;9)  2,26 . Вычисленные параметры подставим в формулу, определяющую доверительный
интервал
2,46
2,46
2,5  2,26 
 a  2,5  2,26 
,
10
10
0,742  a  4,258 .
Линии регрессии
Между случайными величинами может существовать не
только функциональная, но и стохастическая или статистическая зависимость. Под стохастической зависимостью случайных
величин ,  будем понимать такую, при которой изменение одной случайной величины  влечет за собой изменение закона
распределения другой случайной величины .
Если закон распределения случайной величины не известен, тогда переходят к изучению изменения числовых характеристик и рассматривают статистическую зависимость. На практике часто рассматривают изменение числовой характеристики
(моды, медианы, математического ожидания и т.п.) распределения случайной величины  при фиксированном значении случайной величины   x0 , которую обозначим y x0 . Если меняется значение случайной величины , то меняется и значение y x0 .
Обычно рассматривают изменение условного математического
ожидания.
Статистическая зависимость случайных величин, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой случайной величины,
называется корреляцией.
Корреляционная зависимость случайных величин бывает
прямая или обратная, линейная и нелинейная, характеризуется
по степени тесноты.
138
Корреляционная зависимость случайных величин описывается уравнением регрессии.
Обычно в качестве кривых регрессий рассматривают
класс многочленов заданной степени (на практике, обычно, не
выше 4-ой) и среди них выделяют многочлен с такими коэффициентами, который наилучшим образом, в смысле метода
наименьших квадратов, дает представление случайной величины . В этом случае решением задачи является не сама кривая
регрессии, а ее приближение многочленом.
Таким образом, поскольку в математической статистике
рассматривают не числовые характеристики случайных величин, а их оценки, то и вместо уравнений регрессии, связывающих случайные величины, рассматривают эмпирическое уравнение регрессии.
Эмпирическую регрессию случайной величины  на  и 
на  будем обозначать соответственно


y  M ( /   x) и x  M ( /  y) .
Замечание. Если кривая регрессии заменяется приближением ее
многочленом, то недопустимо сделать прогноз о поведении случайных величин за пределами корреляционного поля.
Метод наименьших квадратов.
Метод наименьших квадратов полезен для определения
коэффициентов функциональной зависимости y  f (x) между
переменными x и y. Пусть получено n пар значений ( x1 , y1 ) ,
( x2 , y2 ) , … , ( xn , yn ) и вид функции y  f (x) известен. Параметры функции y  f (x) выбираются таким образом, чтобы
функция  
n
(y
i
 f ( xi )) 2 достигала минимума.
i 1
Применение метода наименьших квадратов продемонстрируем при определения коэффициентов эмпирической регрессии.
Линейная регрессия.
Простейшим видом регрессии, описывающей корреляционную зависимость случайных величин, является линейная.
Степень тесноты линейной зависимости случайных величин , 
139
характеризует коэффициент корреляции, который в статистике
определяется формулой
K ( , )
,
r ( , ) 
2
S ( )  S 2 ( )
где S 2 ( ) , S 2 ( ) - выборочные дисперсии, K ( , ) - выборочная ковариация.
Диапазоном значений коэффициента корреляции является
[1, 1] , причем если r ( , )  0 , то между случайными величинами ,  существует прямая зависимость, r ( , )  0 , то между
случайными величинами ,  существует обратная зависимость,
если r ( , )  0 , случайные величины ,  не коррелированы.
Чем ближе абсолютная величина коэффициента корреляции к 1,
тем теснее связь между случайными величинами (табл. 29):
Таблица 29
r ( , ) 0,1 – 0,3 0,3 – 0,5
0,5 – 0,7 0,7 – 0,9 0,9 – 0,99
Теснота
связи
слабая
умеренная
заметная
высокая
весьма
высокая
Пусть в результате реализации эксперимента, описываемого двумерной случайной величиной ( , ) , получено n пар
значений ( xi , yi ) , i  1,2,..., n , с соответствующими относительными частотами 1 / n .
Корреляционным полем называется изображение n пар
значений наблюдений ( xi , yi ) , i  1,2,..., n , в виде точек в декартовой системе координат, где по оси абсцисс откладывают значения независимой переменной, по оси ординат – значения зависимой переменной.
Предположим, анализ расположения точек на корреляционном поле (рис. 39) позволяет утверждать, что между случайными величинами  и  существует линейная зависимость, тогда эмпирическое уравнение регрессии  на  будет иметь вид

yx      x ,  ,   R .
Искомой прямой будет та, которая наилучшим образом, в
смысле метода наименьших квадратов, расположена к точкам
( xi , yi ) , то есть, функция
140
1 n
1

 ( yi  y x ) 2  
n i 1
n
достигает минимум.
 ( ,  ) 

n
( y
i
     xi ) 2
i 1
y
yn
i
x1
x2
0
xn
y2
y1
Рис. 39.  i | yi      xi | , i  1,2,..., n .
Для нахождения ,  решим систему
 
   0,
 

 0.
 
Имеем
2
 
n

2 
n

или
n
( y
i
     xi )  (1)  0,
i
     xi )  ( xi )  0,
i 1
n
( y
i 1
x
141
 1
  
 n

  1 
 n

n

xi   
i 1
n
x
i
2
 
i 1
Используя
 
1

n
n
n
1

n
y ,
1

n
x
i
i 1
n
i

i 1
1

n
n
x  y .
i
i
i 1
стандартные
обозначения
n
    xi ,
1
n
i 1
n
 y ,     n   x  y , получим систему уравнений:
1
i
i 1
i
i
i 1
       ,

   2         .
Решим систему уравнений методом Крамера:



1
 2           2
       
; 
.


2
2
 1
 1
( )  
( ) 2   2
2 
2 
Подставляя ,  получаем эмпирическое уравнение регрессии
K ( , )

yx    2
 (x   ) .
S ( )

где S 2 ( )   2  ( ) 2 , K ( , )         .
Аналогично получаем эмпирического уравнения прямой
регрессии  на 
K ( , )

xy    2
 ( y  ) .
S ( )
Так как K ( , )  S 2 ( )  S 2 ( )  r ( , ) , получаем

yx   
S 2 ( )
S 2 ( )
 r ( , )  ( x   ) ,
142

xy   
S 2 ( )
S 2 ( )
Поскольку
 r ( , )  ( y   ) .
S 2 ( ) ,
S 2 ( ) являются оценками средних
квадратических отклонений случайных величин ,  соответственно, то последние полученные уравнения статистических
регрессий аналогичны уравнениям регрессий, полученным ранее при изучении зависимости случайных величин ,  (с. 108).
Пр. 48 По корреляционной таблице 30 найти уравнения прямых
регрессий  на  и  на . Построить корреляционное поле и
прямые регрессии. Оценить тесноту линейной связи в процентах.
Таблица 30

10
15
20
25
30
35

20
30
40
50
60
2
-
4
6
-
2
3
1
-
50
10
4
2
6
7
3
Решение. Определим объем выборки
n  2  4  6  2  3  50  2  1  10  6  4  7  3  100 .
Для определения коэффициентов линейной регрессии
найдем средние значения
1
 
(20  (2  4)  30  (6  2)  40  (3  50  2)  50  (1  10 
100
1
 6)  60  (4  7  3)) 
 (20  6  30  8  40  55  50  17 
100
4250
 60  14) 
 42,50 ;
100
1

(10  2  15  (4  6)  20  (2  3  1)  25  (50  10  4) 
100
1
 30  (2  6  7)  35  3) 
 (10  2  15  10  20  6  25  64 
100
143
 30  15  35  3) 
2445
 24,45 ,
100
1
(20 2  (2  4)  30 2  (6  2)  40 2  (3  50  2) 
100
1
2
 50  (1  10  6)  60 2  (4  7  3)) 
 (400  6  900  8 
100
190500
 1600  55  2500  17  3600  14) 
 1905 ;
100
2 
2 
1
(10 2  2  15 2  (4  6)  20 2  (2  3  1) 
100
1
 (100  2 
100
62025
 225  10  400  6  625  64  900  15  1225  3) 
 620,25 ;
100
1
  
(20  10  2  20  15  4  30  15  6  30  20  2  40  20  3 
100
 40  25  50  40  30  2  50  20  1  50  25  10  50  30  6 
1
 60  25  4  60  30  7  60  35  3) 
 (400  1200  2700 
100
 1200  2400  50000  2400  1000  12500  9000  6000 
107700
 12600  6300 ) 
 1077 ,
100
выборочные дисперсии
 25 2  (50  10  4)  30 2  (2  6  7)  35 2  3) 
S 2 ( )   2  ( ) 2  1905  (42,50) 2  98,75 ;
S 2 ( )   2  ( ) 2  620,25  (24,45) 2  22,4475 ,
выборочную ковариацию
K ( , )          1077  42,50  24,45  37,875 .
Тогда эмпирические уравнения регрессий имеют вид
K ( , )
37,875
yˆ x  2
 (x   )   
 ( x  42,50)  24,45 
98,75
S ( )
 0,384  x  8,149 ;
144
K ( , )
37,875
 ( y  )   
 ( x  24,45)  42,50 
2
22,4475
S ( )
 1,687  y  1,246 .
Для определения тесноты связи вычислим и оценим выборочный коэффициент корреляции
K ( , )
37,875
r ( , ) 

 0,8045 ,
2
2
98,75  22,4475
S ( )  S ( )
xˆ y 
поскольку 0,7  r ( , )  0,9 , то теснота связи – высокая, соответствует  81%, а зависимость прямая, почти линейная.
Построим корреляционное поле и найденные линии регрессии (рис. 40).
40
y
35
30
25
20
15
10
5
0
0
10
20
данные таблицы
30
40
y=0,384x+8,149
50
60
70x
x=1,687y+1,246
Рис. 40.
В заключении авторы настоятельно рекомендуют не ограничиваться только настоящим пособием, а использовать дополнительную литературу … и как можно больше решать задач
самостоятельно ….
145
МЕТОДИЧЕСКИЕ УКАЗАНИЯ, ПРАВИЛА
ВЫПОЛНЕНИЯ И ОФОРМЛЕНИЯ
КОНТРОЛЬНЫХ РАБОТ
Выполняется одна контрольная работа (задания 1 - 8), вариант следует выбирать по последней цифре номера зачетной
книжки. Если номер заканчивается 0, то он соответствует 10 варианту. Не следует приступать к выполнению контрольных работ, не изучив соответствующих разделов и не разобрав приведенных в них примеров. Возникшие вопросы можно задать связавшись с кафедрой (vm2@kemtipp.ru).
Контрольные работы оформляются в отдельной тетради,
оставляя поля для замечаний рецензента, либо в отдельном файле (в названии файла должны быть указаны предмет, город,
группа, ФИО студента), если Ваш населенный пункт расположен в ином городе, чем сам ВУЗ, в котором Вы обучаетесь.
Условие задачи должно быть переписано полностью. Решение
выполняется в логической последовательности с пояснениями и
краткими формулировками производимых действий.
Выполненные контрольные работы студентом доставляются в институт или отправляются по электронной почте на рецензирование (vm2@kemtipp.ru). Получив проверенную работу,
студенту необходимо исправить отмеченные ошибки и, если она
не зачтена, выслать на повторное рецензирование. Контрольные
работы, выполненные небрежно, без соблюдения предъявляемых требований или не своего варианта, не рассматриваются.
146
КОНТРОЛЬНАЯ РАБОТА
Задание№1. Классический подход к вычислению вероятностей событий.
1.
Студент знает 20 из 25 вопросов программы. Найти вероятность того, что он знает ответы не менее чем на 2 из 3-х, заданных преподавателем на экзамене.
2.
На практику на хладокомбинат из группы студентов, состоящей из 9 девушек и 7 юношей, отобрано 4 человека. Найти
вероятность того, что среди отобранных лиц будет хотя бы один
юноша.
3.
Работа каждого из четырех заочников может проверяться
одним из 7 преподавателей. Какова вероятность того, что все 4
работы проверены разными преподавателями?
4.
На складе магазина имеется 15 коробок мороженного, 5 из
них шоколадного. Найти вероятность того, что среди наудачу
взятых 5 коробок мороженного окажутся 2 шоколадного.
5.
В коробке - 5 одинаковых пакетов молока, 3 из них местного производства. Наудачу извлечены 3 пакета. Найти вероятность того, что среди извлеченных пакетов молока ровно 2
местного производства.
6.
В магазин завезли 22 коробки яблочного и 18 – апельсинового сока. Наудачу взяты 3 коробки. Найти вероятность того,
что среди них ровно 1 коробка апельсинового сока.
7.
В холодильную витрину выложены 30 пачек вареников с
картошкой и грибами и 20 пачек – только с картошкой. Покупатель извлекает 3 пачки. Какова вероятность того, что среди них
ровно 1 пачка вареников только с картошкой?
8.
На витрине представлены 25 бутылок минеральной воды,
среди которых 8 – без газа. Какова вероятность того, что среди
взятых на удачу 5 бутылок 2 окажутся без газа?
9.
В бухгалтерском отделе фирмы работает 12 человек, из
них 7 – с высшем образованием. В открывающийся филиал отбирается 3 человека. Найти вероятность того, что среди них будут 2 – с высшем образованием.
10. В группе 18 студентов, среди которых 7 студентов учатся
на «хорошо» и «отлично». По списку отобраны 7 студентов.
147
Найти вероятность того, что среди отобранных студентов 3 студента учатся на «хорошо» и «отлично».
Задание №2. Теоремы сложения и умножения вероятностей.
1.
Сыры проходят несколько стадий обработки: заквашивание, сушка, созревание, выдержка. Вероятность получения брака на 1-ой стадии равна 0,02, на 2-ой – 0,03, на 3-тьей – 0,02, на
4-ой – 0,05. Найти вероятность получения сыра без брака после
4-ой стадии, предполагая, что получение брака на отдельных
стадиях являются независимыми событиями.
2.
Студент разыскивает нужную ему формулу в трех справочниках. Вероятности того, что формула содержится в первом,
втором и третьем справочнике, соответственно равны 0,6; 0,7;
0,8. Найти вероятность того, что формула содержится во всех
трех справочниках
3.
Из партии изделий товаровед отбирает изделия высшего
сорта. Вероятность того, что наудачу взятое изделие окажется
высшего сорта, равна 0,8. Найти вероятность того, что, из трех
проверенных, изделий будет не менее 2 высшего сорта.
4.
В коробке конфет «Ассорти» находятся шоколадные конфеты с 4-мя видами начинок: «крем-брюле» – 50%, с орехами –
20%, с ликером – 20%, «пралине» – 10%. Какова вероятность
того, что взятая наудачу конфета окажется с ликером или орехами?
5.
На продуктовую ярмарку привезли мед в банках с трех
пасек, причем 60% банок поставила 1-ая пасека, 25% – 2-ая и
15% – 3-тья. Какова вероятность того, что купленная наугад
банка меда поставлена с 1-ой или 3-тьей пасеки.
6.
Имеются две коробки с апельсинами. В первой коробке
содержится 30 апельсинов, из них 7 – недозревших; во второй –
28 апельсинов, из них 9 – недозревших. Найти вероятность того,
что наудачу извлеченный апельсин из наудачу взятой коробки
будет созревшим.
7.
В библиотеке на полке стоит 20 книг, из которых 15 в
жестком переплете. Наудачу выбирается 3 книги. Найти вероятность того, что среди выбранных книг не менее одной будет в
жестком переплете.
148
8.
В коробке 15 пакетов с макаронными изделиями, одинаковыми по внешнему виду, но отличающимися по качеству, известно что 10 пакетов макаронных изделий высшего сорта и 5
пакетов – первого. Из коробки берут на удачу 6 пакета. Какова
вероятность того, что среди этих пакетов не менее 3-х – первого
сорта.
9.
Для сигнализации о несоблюдении рецептуры на линии
производства майонеза установлены два независимо работающих сигнализатора. Вероятность того, что при несоблюдении
рецептуры сработает 1-ый сигнализатор, равна 0,9 и 2-ой – 0,82.
Какова вероятность, что в сложившейся ситуации сработает хотя бы один сигнализатор?
10. На мясокомбинате установлено 4 холодильные установки.
Вероятность того, что в течение смены данная установка выйдет
из строя, равна соответственно 0,1; 0,05; 0,3; 0,14. Найти вероятность того, что за смену выйдет из строя не более одной холодильной установки.
Задание№3. Формула полной вероятности, формула Байеса.
1.
Печенье фасуется в коробки на трех конвейерных линиях.
На 1-ой линии фасуется 25%, на 2-ой – 30%, на 3-ей – 45% всего
печения. Вероятность, некондиционному печенью быть зафасованным на 1-ой линии, равна 0,3, на 2-ой – 0,3, на 3-тьей – 0,1.
Найти вероятность того, что взятое печенье из наудачу выбранной коробки окажется кондиционным.
2.
Изделие проверяется на стандартность одним из трех товароведов. Вероятность того, что изделие попадется к первому
товароведу, равна 0,25, ко второму – 0,26 и к третьему – 0,49.
Вероятность того, что изделие будет признано стандартным
первым товароведом, равна 0,95, вторым – 0,98, третьим – 0,97.
Наудачу взятое изделие признано стандартным. Найти вероятность того, что оно проверено вторым товароведом.
3.
Из 20 студентов, пришедших на экзамен, 8 подготовлены
отлично, 6 – хорошо, 4 – посредственно и 2 – плохо. В экзаменационных билетах имеется 40 вопросов. Студент, подготовленный отлично, знает все вопросы, хорошо – 35, посредственно
– 25 и плохо – 10 вопросов. Некоторый студент ответил на все
149
три вопроса билета. Найти вероятность того, что он подготовлен
хорошо.
4.
Макаронные изделия изготавливаются на трех хлебозаводах. Первый завод производит 45 % общего количества макаронных изделий, второй – 40%, третий – 15%. Продукция первого завода содержит 70% изделий высшего сорта, второго – 80%,
третьего 81%. В магазины поступают макаронные изделия со
всех трех заводов. Какова вероятность того, что купленные в
магазине макаронные изделия окажутся высшего сорта?
5.
В молочном магазине поровну бутылок с кефиром, ряженкой и молоком. Вероятности для бутылок быть проданными в
течение суток равны 0,7; 0,8; 0,9, соответственно. Найти вероятность того, что наудачу выбранный покупатель купил не кефир.
6.
Известно, что 92% выпускаемой продукции удовлетворяет
стандарту. Упрощенная схема контроля признает нестандартную продукцию с вероятностью 0,05, а стандартную – с 0,98.
известно, что изделие прошло упрощенный контроль. Какова
вероятность того, что изделие является стандартным?
7.
В первой урне находятся 18 шаров, из них 9 белых; во
второй – 20, из них 5 белые; в третьей – 5, из них 2 белых. Из
наудачу выбранной урны взятый шар оказался белым. Найти
вероятность того, что этот шар взят из 2-го ящика.
8.
Магазин продает сгущенное молоко трех молочноконсервных комбинатов, при этом 1-ый из них поставляет 1/6 всего
товара, 2-ой – 1/3 часть. Продукция высшего сорта для 1-го
комбината составляет 90%, для 2-го – 80%, а для 3-его – 95%.
Найти вероятность того, что купленная наугад банка сгущенного молока будет высшего сорта и приобретена у 2-го комбината.
9.
Для зачета подготовлено 50 задач: 30 по теории вероятностей и 20 по математической статистике. Для сдачи зачета студент должен решить первую попавшуюся ему задачу и одну из
теории вероятностей, заданную преподавателем. Какова вероятность, что студент получит зачет, если он знает 15 задач из теории вероятностей и 20 задач по математической статистике?
10. У рыбака есть три излюбленных места рыбалки. Эти места
он посещает с одинаковой вероятностью. Вероятность того, что
рыба клюнет в 1-ом месте – 1/3, во 2-ом – 1/2, в 3-тьем – 1/4. Известно, что рыбак забросил удочку 3 раза, а вытащил только од-
150
ну рыбу. Какова вероятность того, что рыбак рыбачил в 1-ом
месте?
Задание № 4. Формула Бернулли. Наивероятнейшее число.
Приближенные формулы.
1.
Вероятность того, что посетителю кофейни потребуется
растворимый кофе, равна 0,45. Найти вероятность того, что из 3х первых посетителей растворимый кофе потребуется хотя бы
одному.
2.
По статистике некоторого магазина в среднем 87% молочных продуктов покупается до истечения срока годности. Найти
вероятность того, что из 1000 единиц молочной продукции будет продано до истечения срока годности не менее 850.
3.
Для приготовления фарша приобретено 4 электромясорубки. Для каждой электромясорубки вероятность того, что потребуется ремонт в течение гарантийного срока, равна 1 / 6 . Какова
вероятность того, что в течение гарантийного срока ремонт потребуется не более чем одной электромясорубке?
4.
В среднем 30% изделий, выпускаемых предприятием,
высшего сорта. Найти вероятность того, что среди 800 окажется
не менее 5 и не более 280 изделий высшего сорта.
5.
На склад поступило 10 ящиков с растительным маслом.
Вероятность того, что в одном наудачу взятом ящике бутылки
масла окажутся целыми, равна 0,9. Найти наивероятнейшее число ящиков, в которых бутылки масла окажутся поврежденными
и его вероятность.
6.
Найти наивероятнейшее число изделий 1-го сорта среди
200 произведенных на фабрике и вероятность этого числа, если
вероятность, изделия быть первосортной, равна 0,75.
7.
Вероятность детали быть бракованной – 0,008. Найти вероятность того, что в партии из 1000 деталей не более 3-х бракованных.
8.
Тестовое задание состоит из 5 вопросов, на каждый из которых дается 4 варианта ответа, причем один из них правильный, а остальные нет. Студент выбирает ответы на удачу. Найти
вероятность того, что он даст не менее 3-х правильных ответов.
9.
Магазин получил 1000 бутылок минеральной воды. Вероятность того, что бутылка окажется разбитой, равна 0,003.
151
Найти вероятность того, что магазин получил разбитых бутылок
менее 2-х.
10. Эксперт проверяет детали на стандартность. Вероятность
того, что деталь будет признана нестандартной, равна 0,2. Найти
вероятность того, что в партии из 400 деталей нестандартных
будет не менее 60 и не более 80.
Задание № 5. Функции и законы распределения дискретных
случайных величин. Числовые характеристики.
Для заданной случайной величины  построить ряд распределения; найти функцию распределения F (x) и построить ее график; вычислить характеристики M , D ,  .
1.
В ящике среди 20 деталей находится 8 стандартных. Извлекается 3 детали. Случайная величина  - число нестандартных деталей в выборке.
2.
На экзамене студенту задано 3 вопроса. Вероятность ответить на каждый правильно – 0,6. Случайная величина  - число
ответченных вопросов из заданных.
3.
Рабочий обслуживает 3 независимо работающих станка.
Вероятность того, что в течение смены станок не потребует
внимания рабочего, равна для 1-го станка – 0,7, для 2-го – 0,8,
для 3-его – 0,9. Случайная величина  - число станков, потребующих внимание рабочего в течение смены.
4.
На зачете студент получил 3 задачи. Вероятность решить
каждую задачу равна 0,4. Случайная величина  - число решенных задач.
5.
В партии из 20 изделий, среди которых 5 бракованных,
выбраны 3 изделия для проверки их качества. Случайная величина  - число бракованных изделий в выборке.
6.
В магазине проводится рекламная акция. Вероятность того, что покупатель примет участие в этой акции, равна 0,3. Во
время проведения акции в магазине 3 покупателя. Случайная
величина  - число покупателей принявших участие в рекламной
акции из присутствующих.
152
7.
В среднем 70% деталей, выпускаемых предприятием,
высшего сорта. Эксперт отбирается 3 детали. Случайная величина  - число деталей высшего сорта в выборке.
8.
В коробке 15 пакетов с макаронными изделиями, одинаковыми по внешнему виду, но отличающимися сортом муки, из
которой изготовлены, причем 10 пакетов макаронных изделий
высшего сорта и 5 пакетов – 2-го. Из коробки берут на удачу 3
пакета. Случайная величина  - число пакетов с макаронными
изделиями 1-го сорта в выборке.
9.
Из партии изделий товаровед отбирает 3 изделия. Вероятность того, что наудачу взятое изделие окажется высшего сорта,
равна 0,8. Случайная величина  - число изделий высшего сорта
в выборке.
10. В коробке - 5 одинаковых пакетов молока, 3 из них местного производства. Наудачу извлечены 3 пакета Случайная величина  - число пакетов молока местного производства в выборке.
Задание № 6. Плотность. Функции распределения непрерывных случайных величин. Числовые характеристики.
Случайная величина  задана плотностью распределения вероятностей  (x) . Требуется определить постоянную C и найти
функцию распределения F (x) ; построить графики  (x) и
F (x) ; вычислить M , D ,  , P(     ) .
1.
 0, x  1;

 ( x)   x  C , 1  x  2;   0 ,   1,7 .
 0, x  2;

2.
 0, x  0;

 ( x)  C  x 2 , 0  x  1;   0,5 ,   0,5 .
 0, x  1;

153
3.

 0, x  0;

1
1
1

 ( x)  C  x  2, 0  x  ;    ,   .
3
3
6

1

 0, x  3 ;
4.
 0, x  0;

 ( x)  C  x 3 , 0  x  1;   2 ,   0,5 .
 0, x  1;

5.
 0, x  0;

 ( x)  C  3 x  x 2 , 0  x  3;   1 ,   2,5 .
 0, x  3;

6.
 0, x  1;

 ( x)  C  (2 x  1), 1  x  3;   1 ,   2,3 .
 0, x  3;

7.
8.
9.


 0, x  2;

 ( x)  C  x  22 , 2  x  3;   2,1 ,   2,6 .
 0, x  3;

 0, x  4;

 ( x)  C  x  43 , 4  x  5;   4,2 ,   4,8 .
 0, x  5;

 0, x  0;

 ( x)  C  (4 x  x 3 ), 0  x  2;   1 ,   1,7 .
 0, x  2;

154
10.
 0, x  2;

 ( x)  C  x  2, 2  x  3;   1 ,   2,5 .
 0, x  3;

Задание №7. Выборка. Гистограмма. Эмпирическая функция
распределения.
Для исходной выборки:
а) определить вариационный ряд и размах выборки;
б) построить простую статистическую таблицу и полигон частот;
в) построить интервальную таблицу и гистограмму;
г) найти эмпирическую функцию распределения и построить ее
график;
д) найти выборочную среднюю, выборочную и исправленную
дисперсию.
1.
Печенье фасуется по коробкам. Случайным образом отобраны 15 коробок, вес которых соответственно равен (кг): 4,98;
5,02; 5,00; 4,95; 5,10; 5,00; 4,90; 4,97;5,01; 4,98; 4,99; 5,02; 5,00;
4,99; 4,97.
2.
При производстве молочного продукта в его состав добавляется закваска молочнокислых бактерий. Для 15 партий было
измерено время, необходимо для готовности продукта, получены следующие результаты (ч.): 4,2; 4,8; 5,0; 4,5; 4,6; 4,8; 5,0; 4,4;
4,9; 4,7; 4,4; 5,0; 4,6; 4,7; 4,7.
3.
Собранные апельсины фасуются в коробки по 5 кг. На базе
для контроля случайным образом отобраны 15 коробок, количество апельсинов в которых соответственно равны (шт.): 48, 53,
61, 54, 60, 49, 50, 52, 57, 62, 59, 50, 58, 54, 56.
4.
Определялась жирность коровьего молока от 15 коров.
Были получены следующие результаты (%): 3,68; 3,66;3,76; 3,78;
3,94; 3,88; 3,86; 3,88; 3,94; 4,00; 3,90; 4,18; 3,96; 4,35; 3,70.
5.
Для определения остаточных знаний по математике через
год после окончания изучения курса было проведено тестирование 15 групп студентов технологических специальностей. Получены следующие результаты (средний процент студентов в
155
группе справившихся с тестом): 71,4; 73,3; 85,7; 87,5; 76,5; 75,0;
81,8; 90,9; 68,4; 87,5; 75,0; 90,5; 100,0; 95,0; 100,0.
6.
Проверяется соответствие кондиции (вес 100 г.) 15 сдобных булочек. Получены следующие результаты (г.): 98, 101, 100,
97, 95, 99, 102, 98, 100, 104, 97, 101, 96, 99, 97.
7.
После проведения очередной аттестации успеваемости в
группе из 15 студентов получены следующие результаты (средний %): 98, 56, 24, 38, 95, 62, 60, 71, 44, 56, 98, 78, 39, 25, 46.
8.
Для изучения спроса на товар фирма, его производящая,
проводит рекламную акцию в магазине в течение 15 дней. Количество покупателей по дням, принявших участие в рекламной
акции, следующее: 33, 46, 65, 58, 41, 40, 68, 59, 37, 72, 51, 49, 74,
62, 42.
9.
С целью нормоконтроля при определении времени установки 15 кондиционеров получены следующие результаты (ч.):
3,1; 2,9; 3,4; 2,6; 3,9; 4,0; 2,2; 3,0; 3,7; 3,8; 3,2; 3,8; 2,9; 3,1; 3,4.
10. Кондитерская фабрика представила на рынок новый вид
торта. Для изучения спроса в течение 15 дней выпекалось 30 кг
данного торта и фиксировалось количество проданного за сутки
(%): 15; 40; 32; 52; 25; 67; 95; 48; 58; 39; 74; 24; 65; 83; 71.
Задание №8. Линии регрессии.
По корреляционной таблице найти уравнения прямых
регрессий  на  и  на . Построить корреляционное поле и
прямые регрессии. Оценить тесноту линейной связи в процентах.
1.


45
55
65
75
85
5
2
-
10
4
3
-
15
5
5
2
-
20
35
8
4
25
5
17
7
30
3
156
2.


40
50
60
70
80
10
2
-
15
4
3
-
20
7
5
7
-
25
30
10
5
30
10
8
6
35
3
15
4
-
20
1
6
-
25
4
2
1
-
30
50
9
4
35
2
7
3
40
7
2
1
-
7
5
5
-
12
3
3
2
-
17
40
10
3
22
12
5
4
27
7
5
3
-
10
5
4
-
15
4
7
2
-
20
35
10
5
25
8
8
6
30
3
3.


15
25
35
45
55
4.


110
120
130
140
150
5.


10
20
65
75
85
157
6.


25
35
45
55
65
12
2
-
17
4
6
-
22
3
6
2
-
27
35
8
14
32
4
6
7
37
3
15
3
-
20
4
6
-
25
3
6
12
-
30
35
8
4
35
2
6
7
40
4
4
3
-
9
3
5
-
14
4
40
5
-
19
2
10
4
24
8
6
7
29
3
5
2
-
10
6
5
-
15
3
7
4
-
20
40
9
4
25
2
6
7
30
5
7.


25
35
45
55
65
8.


30
40
50
60
70
9.


30
40
50
60
70
158
10.


20
30
40
50
60
10
5
-
15
1
6
-
20
2
5
2
-
25
40
8
4
30
5
7
7
35
8
159
Приложение 1
Значения функции f ( x)  e x
x
exp( x)
x
exp( x)
x
exp( x)
x
exp( x)
0,00
1,000000
0,40
0,670320
0,80
0,449329
3,00
0,049787
0,02
0,980199
0,42
0,657047
0,82
0,440432
3,20
0,040762
0,04
0,960789
0,44
0,644036
0,84
0,431711
3,40
0,033373
0,06
0,941765
0,46
0,631284
0,86
0,423162
3,60
0,027324
0,08
0,923116
0,48
0,618783
0,88
0,414783
3,80
0,022371
0,10
0,904837
0,50
0,606531
0,90
0,406570
4,00
0,018316
0,12
0,886920
0,52
0,594521
0,92
0,398519
4,20
0,014996
0,14
0,869358
0,54
0,582748
0,94
0,390628
4,40
0,012277
0,16
0,852144
0,56
0,571209
0,96
0,382893
4,60
0,010052
0,18
0,835270
0,58
0,559898
0,98
0,375311
4,80
0,008230
0,20
0,818731
0,60
0,548812
1,00
0,367879
5,00
0,006738
0,22
0,802519
0,62
0,537944
1,20
0,301194
5,20
0,005517
0,24
0,786628
0,64
0,527292
1,40
0,246597
5,40
0,004517
0,26
0,771052
0,66
0,516851
1,60
0,201897
5,60
0,003698
0,28
0,755784
0,68
0,506617
1,80
0,165299
5,80
0,003028
0,30
0,740818
0,70
0,496585
2,00
0,135335
6,00
0,002479
160
0,32
0,726149
0,72
0,486752
2,20
0,110803
6,20
0,002029
0,34
0,711770
0,74
0,477114
2,40
0,090718
6,40
0,001662
0,36
0,697676
0,76
0,467666
2,60
0,074274
6,60
0,001360
0,38
0,683861
0,78
0,458406
2,80
0,060810
6,80
0,001114
7,00
0,000912
161
Приложение 2
Значения функции  ( x) 
x
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
1,1
1,2
1,3
1,4
1,5
1,6
1,7
0
0,3968
0,3907
0,3809
0,3677
0,3514
0,3325
0,3115
0,2890
0,2654
0,2413
0,2173
0,1937
0,1709
0,1494
0,1292
0,1107
0,0939
1
0,3965
0,3902
0,3802
0,3668
0,3503
0,3312
0,3101
0,2874
0,2637
0,2396
0,2155
0,1919
0,1691
0,1476
0,1276
0,1092
0,0925
2
0,3961
0,3894
0,3790
0,3653
0,3485
0,3292
0,3079
0,2850
0,2613
0,2371
0,2131
0,1895
0,1669
0,1456
0,1257
0,1074
0,0909
3
0,3956
0,3885
0,3778
0,3637
0,3467
0,3271
0,3056
0,2827
0,2589
0,2347
0,2107
0,1872
0,1647
0,1435
0,1238
0,1057
0,0893
4
0,3951
0,3876
0,3765
0,3621
0,3448
0,3251
0,3034
0,2803
0,2565
0,2323
0,2083
0,1849
0,1626
0,1415
0,1219
0,1040
0,0878
1
2
 e x
5
0,3945
0,3867
0,3752
0,3605
0,3429
0,3230
0,3011
0,2780
0,2541
0,2299
0,2059
0,1826
0,1604
0,1394
0,1200
0,1023
0,0863
2
/2
6
0,3939
0,3857
0,3739
0,3589
0,3410
0,3209
0,2989
0,2756
0,2516
0,2275
0,2036
0,1804
0,1582
0,1374
0,1182
0,1006
0,0848
7
0,3932
0,3847
0,3725
0,3572
0,3391
0,3187
0,2966
0,2732
0,2492
0,2251
0,2012
0,1781
0,1561
0,1354
0,1163
0,0989
0,0833
8
0,3925
0,3836
0,3712
0,3555
0,3372
0,3166
0,2943
0,2709
0,2468
0,2227
0,1989
0,1758
0,1539
0,1334
0,1145
0,0973
0,0818
9
0,3918
0,3825
0,3697
0,3538
0,3352
0,3144
0,2920
0,2685
0,2444
0,2203
0,1965
0,1736
0,1518
0,1315
0,1127
0,0957
0,0804
162
1,8
1,9
2
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
0,0788
0,0655
0,0539
0,0439
0,0354
0,0283
0,0224
0,0175
0,0136
0,0104
0,0079
0,0060
0,0044
0,0033
0,0024
0,0017
0,0012
0,0009
0,0006
0,0004
0,0003
0,0002
0,0775
0,0644
0,0529
0,0431
0,0347
0,0277
0,0219
0,0171
0,0132
0,0101
0,0077
0,0058
0,0043
0,0032
0,0023
0,0017
0,0012
0,0008
0,0006
0,0004
0,0003
0,0002
0,0761
0,0632
0,0519
0,0422
0,0339
0,0270
0,0213
0,0167
0,0129
0,0099
0,0075
0,0056
0,0042
0,0031
0,0022
0,0016
0,0012
0,0008
0,0006
0,0004
0,0003
0,0002
0,0748
0,0620
0,0508
0,0413
0,0332
0,0264
0,0208
0,0163
0,0126
0,0096
0,0073
0,0055
0,0040
0,0030
0,0022
0,0016
0,0011
0,0008
0,0005
0,0004
0,0003
0,0002
0,0734
0,0608
0,0498
0,0404
0,0325
0,0258
0,0203
0,0158
0,0122
0,0093
0,0071
0,0053
0,0039
0,0029
0,0021
0,0015
0,0011
0,0008
0,0005
0,0004
0,0003
0,0002
0,0721
0,0596
0,0488
0,0396
0,0317
0,0252
0,0198
0,0154
0,0119
0,0091
0,0069
0,0051
0,0038
0,0028
0,0020
0,0015
0,0010
0,0007
0,0005
0,0004
0,0002
0,0002
0,0707
0,0584
0,0478
0,0387
0,0310
0,0246
0,0194
0,0151
0,0116
0,0088
0,0067
0,0050
0,0037
0,0027
0,0020
0,0014
0,0010
0,0007
0,0005
0,0003
0,0002
0,0002
0,0694
0,0573
0,0468
0,0379
0,0303
0,0241
0,0189
0,0147
0,0113
0,0086
0,0065
0,0048
0,0036
0,0026
0,0019
0,0014
0,0010
0,0007
0,0005
0,0003
0,0002
0,0002
0,0681
0,0562
0,0459
0,0371
0,0297
0,0235
0,0184
0,0143
0,0110
0,0084
0,0063
0,0047
0,0035
0,0025
0,0018
0,0013
0,0009
0,0007
0,0005
0,0003
0,0002
0,0001
0,0669
0,0551
0,0449
0,0363
0,0290
0,0229
0,0180
0,0139
0,0107
0,0081
0,0061
0,0046
0,0034
0,0025
0,0018
0,0013
0,0009
0,0006
0,0004
0,0003
0,0002
0,0001
163
Приложение 3
x
Значения функции ( x) 
1
 exp(t 2 / 2)dt
2 

( x)  ( x)  1 , для x  3,98  ( x)  0
x
0,0
0
0,5000
1
0,4960
2
0,4920
3
0,4880
4
0,4840
5
0,4801
6
0,4761
7
0,4721
8
0,4681
9
0,4641
-0,1
0,4602
0,4562
0,4522
0,4483
0,4443
0,4404
0,4364
0,4325
0,4286
0,4247
-0,2
0,4207
0,4168
0,4129
0,4090
0,4052
0,4013
0,3974
0,3936
0,3897
0,3859
-0,3
0,3821
0,3783
0,3745
0,3707
0,3669
0,3632
0,3594
0,3557
0,3520
0,3483
-0,4
0,3446
0,3409
0,3372
0,3336
0,3300
0,3264
0,3228
0,3192
0,3156
0,3121
-0,5
0,3085
0,3050
0,3015
0,2981
0,2946
0,2912
0,2877
0,2843
0,2810
0,2776
-0,6
0,2743
0,2709
0,2676
0,2643
0,2611
0,2578
0,2546
0,2514
0,2483
0,2451
-0,7
0,2420
0,2389
0,2358
0,2327
0,2296
0,2266
0,2236
0,2206
0,2177
0,2148
-0,8
0,2119
0,2090
0,2061
0,2033
0,2005
0,1977
0,1949
0,1922
0,1894
0,1867
-0,9
0,1841
0,1814
0,1788
0,1762
0,1736
0,1711
0,1685
0,1660
0,1635
0,1611
-1,0
0,1587
0,1562
0,1539
0,1515
0,1492
0,1469
0,1446
0,1423
0,1401
0,1379
-1,1
0,1357
0,1335
0,1314
0,1292
0,1271
0,1251
0,1230
0,1210
0,1190
0,1170
-1,2
0,1151
0,1131
0,1112
0,1093
0,1075
0,1056
0,1038
0,1020
0,1003
0,0985
164
-1,3
0,0968
0,0951
0,0934
0,0918
0,0901
0,0885
0,0869
0,0853
0,0838
0,0823
-1,4
0,0808
0,0793
0,0778
0,0764
0,0749
0,0735
0,0721
0,0708
0,0694
0,0681
-1,5
0,0668
0,0655
0,0643
0,0630
0,0618
0,0606
0,0594
0,0582
0,0571
0,0559
-1,6
0,0548
0,0537
0,0526
0,0516
0,0505
0,0495
0,0485
0,0475
0,0465
0,0455
-1,7
0,0446
0,0436
0,0427
0,0418
0,0409
0,0401
0,0392
0,0384
0,0375
0,0367
-1,8
0,0359
0,0351
0,0344
0,0336
0,0329
0,0322
0,0314
0,0307
0,0301
0,0294
-1,9
0,0287
0,0281
0,0274
0,0268
0,0262
0,0256
0,0250
0,0244
0,0239
0,0233
-2,0
0,0228
0,0222
0,0217
0,0212
0,0207
0,0202
0,0197
0,0192
0,0188
0,0183
-2,1
0,0179
0,0174
0,0170
0,0166
0,0162
0,0158
0,0154
0,0150
0,0146
0,0143
-2,2
0,0139
0,0139
0,0132
0,0139
0,0125
0,0119
0,0119
0,0116
0,0113
0,0110
-2,3
0,0107
0,0104
0,0102
0,0099
0,0096
0,0094
0,0091
0,0089
0,0087
0,0084
-2,4
0,0082
0,0080
0,0078
0,0075
0,0073
0,0071
0,0069
0,0068
0,0066
0,0064
-2,5
0,0062
0,0060
0,0059
0,0057
0,0055
0,0054
0,0052
0,0051
0,0049
0,0048
-2,6
0,0047
0,0045
0,0044
0,0043
0,0041
0,0040
0,0039
0,0038
0,0037
0,0036
-2,7
0,0035
0,0034
0,0033
0,0032
0,0031
0,0030
0,0029
0,0028
0,0027
0,0026
-2,8
0,0026
0,0025
0,0024
0,0023
0,0023
0,0022
0,0021
0,0021
0,0020
0,0019
-2,9
0,0019
0,0018
0,0018
0,0017
0,0016
0,0016
0,0015
0,0015
0,0014
0,0014
-3,0
0,0013
0,0013
0,0013
0,0012
0,0012
0,0011
0,0011
0,0011
0,0010
0,0010
-3,1
0,0010
0,0009
0,0009
0,0009
0,0008
0,0008
0,0008
0,0008
0,0007
0,0007
-3,2
0,0007
0,0007
0,0006
0,0006
0,0006
0,0006
0,0006
0,0005
0,0005
0,0005
165
-3,3
0,0005
0,0005
0,0005
0,0004
0,0004
0,0004
0,0004
0,0004
0,0004
0,0003
-3,4
0,0003
0,0003
0,0003
0,0003
0,0003
0,0003
0,0003
0,0003
0,0003
0,0002
-3,5
0,0002
0,0002
0,0002
0,0002
0,0002
0,0002
0,0002
0,0002
0,0002
0,0002
-3,6
0,0002
0,0002
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
-3,7
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
-3,8
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
0,0001
-3,9
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
0,0000
166
Приложение 4
Значения функции Vk 

k
0
1
2
3
4
5

k
0
1
2
3
4
5
6
7
8
9
10
11
12

k
0
1
2
3
4
5
6
7
k  e  
k!
(распределение Пуассона)
0,1
0,2
0,3
0,4
0,5
0,6
0,9048
0,0905
0,0045
0,0002
0,8187
0,1638
0,0164
0,0011
0,0001
0,7408
0,2222
0,0333
0,0033
0,0002
0,6703
0,2681
0,0536
0,0072
0,0007
0,0001
0,6065
0,3033
0,0758
0,0126
0,0016
0,0002
0,5488
0,3293
0,0988
0,0198
0,0030
0,0004
0,7
0,8
0,9
1,0
2,0
3,0
0,4966
0,3476
0,1217
0,0284
0,0050
0,0007
0,0001
0,4493
0,3595
0,1438
0,0383
0,0077
0,0012
0,0002
0,4066
0,3659
0,1647
0,0494
0,0111
0,0020
0,0003
0,3679
0,3679
0,1839
0,0613
0,0153
0,0031
0,0005
0,0001
0,1353
0,2707
0,2707
0,1804
0,0902
0,0361
0,0120
0,0034
0,0009
0,0002
0,0498
0,1494
0,2240
0,2240
0,1680
0,1008
0,0504
0,0216
0,0081
0,0027
0,0008
0,0002
0,0001
4,0
5,0
6,0
7,0
8,0
9,0
0,0183
0,0733
0,1465
0,1954
0,1954
0,1563
0,1042
0,0595
0,0067
0,0337
0,0842
0,1404
0,1755
0,1755
0,1462
0,1044
0,0025
0,0149
0,0446
0,0892
0,1339
0,1606
0,1606
0,1377
0,0009
0,0064
0,0223
0,0521
0,0912
0,1277
0,1490
0,1490
0,0003
0,0027
0,0107
0,0286
0,0572
0,0916
0,1221
0,1396
0,0001
0,0011
0,0050
0,0150
0,0337
0,0607
0,0911
0,1171
167
8
9
10
11
12
13
14
15
16
17
0,0298
0,0132
0,0053
0,0019
0,0006
0,0002
0,0001
0,0653
0,0363
0,0181
0,0082
0,0034
0,0013
0,0005
0,0002
0,0001
0,1033
0,0688
0,0413
0,0225
0,0113
0,0052
0,0022
0,0009
0,0003
0,0001
0,1304
0,1014
0,0710
0,0452
0,0264
0,0142
0,0071
0,0033
0,0015
0,0006
0,1396
0,1241
0,0993
0,0722
0,0481
0,0296
0,0169
0,0090
0,0045
0,0021
0,1318
0,1318
0,1186
0,0970
0,0728
0,0504
0,0324
0,0194
0,0109
0,0058
168
Приложение 5
Значения K ( z ) 

 (1)
k
 e 2 k
2 2
z
, z0
k  
(распределение Колмогорова)
(для z  0,28  K ( z )  0  для z  3  K ( z )  1 )
z
K (z )
z
K (z )
z
K (z )
z
K (z )
z
K (z )
0,28
0,29
0,30
0,31
0,32
0,33
0,34
0,35
0,36
0,37
0,38
0,39
0,40
0,41
0,42
0,000001
0,000004
0,000009
0,000021
0,000046
0,000091
0,000171
0,000303
0,000511
0,000826
0,001285
0,001929
0,002808
0,003972
0,005476
0,43
0,44
0,45
0,46
0,47
0,48
0,49
0,50
0,51
0,52
0,53
0,54
0,55
0,56
0,57
0,007377
0,009730
0,012590
0,016005
0,020022
0,024682
0,030017
0,036055
0,042814
0,050306
0,058534
0,067497
0,077183
0,087577
0,098656
0,58
0,59
0,60
0,61
0,62
0,63
0,64
0,65
0,66
0,67
0,68
0,69
0,70
0,71
0,72
0,110395
0,122760
0,135718
0,149229
0,163225
0,177753
0,192677
0,207987
0,223637
0,239582
0,255780
0,272189
0,288765
0,305471
0,322265
0,73
0,74
0,75
0,76
0,77
0,78
0,79
0,80
0,81
0,82
0,83
0,84
0,85
0,86
0,87
0,339113
0,355981
0,372833
0,389640
0,406372
0,423002
0,439505
0,455857
0,472041
0,488030
0,503808
0,519366
0,534682
0,549744
0,564546
0,88
0,89
0,90
0,91
0,92
0,93
0,94
0,95
0,96
0,97
0,98
0,99
1,00
1,01
1,02
0,579070
0,593316
0,607270
0,620928
0,634286
0,647338
0,660082
0,672516
0,684636
0,696444
0,707940
0,719126
0,730000
0,740566
0,750826
169
z
K (z )
z
K (z )
z
K (z )
z
K (z )
z
K (z )
1,03
1,04
1,05
1,06
1,07
1,08
1,09
1,10
1,11
1,12
1,13
1,14
1,15
1,16
1,17
1,18
1,19
1,20
1,21
1,22
1,23
1,24
1,25
0,760780
0,770434
0,779794
0,788860
0,797636
0,806128
0,814342
0,822282
0,829950
0,837356
0,844502
0,851394
0,858038
0,864442
0,870612
0,876548
0,882258
0,887750
0,893030
0,898104
0,902972
0,907648
0,912132
1,26
1,27
1,28
1,29
1,30
1,31
1,32
1,33
1,34
1,35
1,36
1,37
1,38
1,39
1,40
1,41
1,42
1,43
1,44
1,45
1,46
1,47
1,48
0,916432
0,920556
0,924505
0,928288
0,931908
0,935370
0,938682
0,941848
0,944872
0,947756
0,950512
0,953142
0,955650
0,958040
0,960318
0,962486
0,964552
0,966516
0,968382
0,970158
0,971846
0,973448
0,974970
1,49
1,50
1,51
1,52
1,53
1,54
1,55
1,56
1,57
1,58
1,59
1,60
1,61
1,62
1,63
1,64
1,65
1,66
1,67
1,68
1,69
1,70
1,71
0,976412
0,977782
0,979080
0,980310
0,981476
0,982578
0,983622
0,984610
0,985544
0,986426
0,987260
0,988048
0,988791
0,989492
0,990154
0,990777
0,991364
0,991917
0,992438
0,992928
0,993389
0,993828
0,994230
1,72
1,73
1,74
1,75
1,76
1,77
1,78
1,79
1,80
1,81
1,82
1,83
1,84
1,85
1,86
1,87
1,88
1,89
1,90
1,91
1,92
1,93
1,94
0,994612
0,994972
0,995309
0,995625
0,995922
0,996200
0,996460
0,996704
0,996932
0,997146
0,997346
0,997533
0,997707
0,997870
0,998023
0,998145
0,998297
0,998421
0,998536
0,998644
0,998744
0,998837
0,998924
1,95
1,96
1,97
1,98
1,99
2,00
2,01
2,02
2,03
2,04
2,05
2,06
2,07
2,08
2,09
2,10
2,11
2,12
2,13
2,14
2,15
2,16
2,17
0,999004
0,999079
0,999149
0,999213
0,999273
0,999329
0,999380
0,999428
0,999474
0,999516
0,999552
0,999588
0,999620
0,999650
0,999680
0,999705
0,999723
0,999750
0,999770
0,999790
0,999806
0,999822
0,999838
170
z
K (z )
z
K (z )
z
K (z )
z
K (z )
z
K (z )
2,18
2,19
2,20
2,21
2,22
2,23
2,24
2,25
2,26
0,999852
0,999864
0,999874
0,999886
0,999896
0,999904
0,999912
0,999920
0,999926
2,27
2,28
2,29
2,30
2,31
2,32
2,33
2,34
2,35
0,999934
0,999940
0,999944
0,999949
0,999954
0,999958
0,999962
0,999965
0,999968
2,36
2,37
2,38
2,39
2,40
2,41
2,42
2,43
2,44
0,999970
0,000073
0,000076
0,000078
0,000080
0,999982
0,999984
0,999986
0,999987
2,45
2,46
2,47
2,48
2,49
2,50
2,55
2,60
2,65
0,999988
0,999989
0,999990
0,999991
0,999992
0,9999925
0,9999956
0,9999974
0,9999984
2,70
2,75
2,80
2,85
2,90
2,95
3,00
0,9999990
0,9999994
0,9999997
0,99999982
0,99999990
0,99999994
0,99999997
171
Приложение 6
Значения  2 решения уравнения
2
(1 n ) / 2
2
n 1
(( n 1) / 21)
 
 exp(  x / 2)dx  p ,
 x
2

 0
1 

для левого конца интервала при 2 p 1   , значение
 2   12 ,
для правого конца интервала при p  1  (1   ) / 2 , значение

p
0,99
0,98
0,95
0,90
0,80
0,70
0,50
0,30
0,20
0,10
0,05
0,02
0,01
0,001
0,000
0,020
0,115
0,297
0,554
0,872
1,239
1,646
2,09
2,56
3,05
0,001
0,040
0,185
0,429
0,752
1,134
1,564
2,03
2,53
3,06
3,61
0,004
0,103
0,352
0,711
1,145
1,635
2,17
2,73
3,32
3,94
4,58
0,016
0,211
0,584
1,064
1,610
2,20
2,83
3,49
4,17
4,86
5,58
0,064
0,446
1,005
1,649
2,34
3,07
3,82
4,59
5,38
6,18
6,99
0,148
0,713
1,424
2,20
3,00
3,83
4,67
5,53
6,39
7,27
8,15
0,455
1,386
2,37
3,36
4,35
5,35
6,35
7,34
8,34
9,34
10,34
1,074
2,41
3,66
4,88
6,06
7,23
8,38
9,52
10,66
11,78
12,90
1,642
3,22
4,64
5,99
7,29
8,56
9,80
11,03
12,24
13,44
14,63
2,71
4,60
6,25
7,78
9,24
10,64
12,02
13,36
14,68
15,99
17,28
3,84
5,99
7,82
9,49
11,07
12,59
14,07
15,51
16,92
18,31
19,68
5,41
7,82
9,84
11,67
13,39
15,03
16,62
18,17
19,68
21,2
22,6
6,64
9,21
11,34
13,28
15,09
16,81
18,48
20,1
21,7
23,2
24,7
10,83
13,82
16,27
18,46
20,5
22,5
24,3
26,1
27,9
29,6
31,3
110
1
2
3
4
5
6
7
8
9
10
11
 2   12 .
172
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
3,57
4,11
4,66
5,23
5,81
6,41
7,02
7,63
8,26
8,90
9,54
10,20
10,86
11,52
12,20
12,88
13,56
14,26
14,95
4,18
4,76
5,37
5,98
6,61
7,26
7,91
.8,57
9,24
9,92
10,60
11,29
11,99
12,70
13,41
14,12
14,85
15,57
16,31
5,23
5,89
6,57
7,26
7,96
8,67
9,39
10,11
10,85
11,59
12,34
13,09
13,85
14,61
15,38
16,15
16,93
17,71
18,49
6,30
7,04
7,79
8,55
9,31
10,08
10,86
11,65
12,44
13,24
14,04
14,85
15,66
16,47
17,29
18,11
18,94
19,77
20,6
7,81
8,63
9,47
10,31
11,15
12,00
12,86
13,72
14,58
15,44
16,31
17,19
18,06
18,94
19,82
20,7
21,6
22,5
23,4
9,03
9,93
10,82
11,72
12,62
13,53
14,44
15,35
16,27
17,18
18,10
19,02
19,94
20,9
21,8
22,7
23,6
24,6
25,5
11,34
12,34
13,34
14,34
15,34
16,34
17,34
18,34
19,34
20,3
21,3
22,3
23,3
24,3
25,3
26,3
27,3
28,3
29,3
14,01
15,12
16,22
17,32
18,42
19,51
20,6
21,7
22,8
23,9
24,9
26,0
27,1
28,2
29,2
30,3
31,4
32,5
33,5
15,81
16,98
18,15
19,31
20,5
21,6
22,8
23,9
25,0
26,2
27,3
28,4
29,6
30,7
31,8
32,9
34,0
35,1
36,2
18,55
19,81
21,1
22,3
23,5
24,8
26,0
27,2
28,4
29,6
30,8
32,0
33,2
34,4
35,6
36,7
37,9
39,1
40,3
21,0
22,4
23,7
25,0
26,3
27,6
28,9
30,1
31,4
32,7
33,9
35,2
36,4
37,7
38,9
40,1
41,3
42,6
43,8
24,1
25,5
26,9
28,3
29,6
31,0
32,3
33,7
35,0
36,3
37,7
39,0
40,3
41,7
42,9
44,1
45,4
46,7
48,0
26,2
27,7
29,1
30,6
32,0
33,4
34,8
36,2
37,6
38,9
40,3
41,6
43,0
44,3
45,6
47,0
48,3
49,6
50,9
32,9
34,6
36,1
37,7
39,3
40,8
42,3
43,8
45,3
46,8
48,3
49,7
51,2
52,6
54,1
55,5
56,9
58,3
59,7
173
Приложение 7
t

Значения t  , удовлетворяющие равенству 2 S n (t )dt   , в зависимости от  и n  1
0
1-
n-1
1
2
3
4
5
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,95
0,98
0,99
0,999
0,158
0,142
0,137
0,134
0,132
0,325
0,289
0,277
0,271
0,267
0,510
0,445
0,424
0,414
0,408
0,727
0,617
0,584
0,569
0,559
1,000
0,816
0,765
0,741
0,727
1,376
1,061
0,978
0,941
0,920
1,963
1,336
1,250
1,190
1,156
3,08
1,886
1,638
1,533
1,476
6,31
2,92
2,35
2,13
2,02
12,71
4,30
3,18
2,77
2,57
31,8
6,96
4,54
3,75
3,36
63,7
9,92
5,84
4,60
4,03
63,7
31,6
12,94
8,61
6,86
6
7
8
9
10
0,131
0,130
0,130
0,129
0,129
0,265
0,263
0,262
0,261
0,260
0,404
0,402
0,399
0,398
0,397
0,553
0,549
0,546
0,543
0,542
0,718
0,711
0,706
0,703
0,700
0,906
0,896
0,889
0,883
0,879
1,134
1,119
1,108
1,100
1,093
1,440
1,415
1,397
1,383
1,372
1,943
1,895
1,860
1,833
1,812
2,45
2,36
2,31
2,26
2,23
3,14
3,00
2,90
2,82
2,76
4,71
3,50
3,36
3,25
3,17
5,96
5,40
5,04
4,78
4,59
11
12
13
14
15
0,129
0,128
0,128
0,128
0,128
0,260
0,259
0,259
0,258
0,258
0,396
0,395
0,394
0,393
0,393
0,540
0,539
0,538
0,537
0,536
0,697
0,695
0,694
0,692
0,691
0,876
0,873
0,870
0,868
0,866
1,088
1,083
1,079
1,076
1,074
1,363
1,356
1,350
1,345
1,341
1,796
1,782
1,771
1,761
1,753
2,20
2,18
2,16
2,14
2,13
2,72
2,68
2,65
2,62
2,60
3,11
3,06
3,01
2,98
2,95
4,49
4,32
4,22
4,14
4,07
174
1-
n-1
16
17
18
19
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,95
0,98
0,99
0,999
0,128
0,128
0,127
0,127
0,258
0,257
0,257
0,257
0,392
0,392
0,392
0,391
0,535
0,534
0,534
0,533
0,690
0,689
0,688
0,688
0,865
0,863
0,862
0,861
1,071
1,069
1,067
1,066
1,337
1,333
1,330
1,328
1,746
1,740
1,734
1,729
2,12
2,11
2,10
2,09
2,58
2,57
2,55
2,54
2,92
2,90
2,88
2,86
4,02
3,96
3,92
3,88
20
21
22
23
24
25
0,127
0,127
0,127
0,127
0,127
0,127
0,257
0,257
0,256
0,256
0,256
0,256
0,391
0,391
0,390
0,390
0,390
0,390
0,533
0,532
0,532
0,532
0,531
0,531
0,687
0,686
0,686
0,685
0,685
0,684
0,860
0859
0,858
0,858
0,857
0,856
1,064
1,063
1,061
1,060
1,059
1,058
1,325
1,323
1,321
1,319
1,318
1,316
1,725
1,721
1,717
1,714
1,711
1,708
2,09
2,08
2,07
2,07
2,06
2,06
2,53
2,52
2,51
2,50
2,49
2,48
2,84
2,83
2,82
2,81
2,80
2,79
3,85
3,82
3,79
3,77
3,74
3,72
26
27
28
29
30
0,127
0,127
0,127
0,127
0,127
0,256
0,256
0,256
0,256
0,256
0,390
0,389
0,389
0,389
0,389
0,531
0,531
0,530
0,530
0,530
0,684
0,684
0,683
0,683
0,683
0,856
0,855
0,855
0,854
0,854
1,058
1,057
1,056
1,055
1,055
1,315
1,314
1,313
1,311
1,310
1,706
1,703
1,701
1,699
1,697
2,06
2,05
2,05
2,04
2,04
2,48
2,47
2,47
2,46
2,46
2,78
2,77
2,76
2,76
2,75
3,71
3,69
3,67
3,66
3,65
40
60
120

0,126
0,126
0,126
0,126
0,255
0,254
0,254
0,253
0,388
0,387
0,386
0,385
0,529
0,527
0,526
0,524
0,681
0,679
0,677
0,674
0,851
0,848
0,845
0,842
1,050
1,046
1,041
1,036
1,303
1,296
1,289
1,282
1,684
1,671
1,658
1,645
2,02
2,00
1,980
1,960
2,42
2,39
2,36
2,33
2,70
2,66
2,62
2,58
3,55
3,46
3,37
3,29
175
СПИСОК ЛИТЕРАТУРЫ
1.
Павский, В.А. Лекции по теории вероятностей и элементам математической статистики /В.А. Павский. – Кемерово:
КемТИПП, 2005. – 184 с.
2.
Ахназарова С.Л., Кафаров В.В. Методы оптимизации эксперимента в химической технологии. - М.: Высшая школа, 1985.
- 327 с.
3.
Боровков А.А. Теория вероятностей, - М.: УРСС, 2003. 472с.
4.
Вентцель Е.С. Теория вероятностей. - М.: Высшая школа,
2002. - 576 с.
5.
Гмурман В.Е. Теория вероятностей и математическая статистика. - М.: Высшая школа, 2002. - 479 с.
6.
Гнеденко Б.В. Курс теории вероятностей. - М.: Издательство ЛКИ, 2007. - 448 с.
7.
Карлин С. Основы теории случайных процессов. - М, Мир,
1971. – 536 с.
8.
Кафаров В.В., Дорохова И.Н., Арутюнов С.Ю. Системный
анализ процессов химической технологии. - М.: Наука, 1985. 440 с.
9.
Клейнрок Л. Теория массового обслуживания. - М.: Машиностроение, 1979. - 432 с.
10. Ширяев А.Н. Вероятность: Учебное пособие. - В 2-х книгах. - М.: Изд-во МНЦМО, 2007. - 968 с.
11.
УЧЕБНОЕ ИЗДАНИЕ
Иванова Светлана Анатольевна, Павский Валерий Алексеевич
МАТЕМАТИКА
Часть 3
Учебное пособие
Для студентов всех форм обучения
Зав. редакцией
Редактор
Технический редактор
Художественный редактор
ЛР №020524 от 02.06.97
Подписано в печать . . . Формат 60×841/16
Бумага типографская. Гарнитура Times.
Уч.-изд. л. …. Тираж
экз.
Заказ №
Оригинал-макет изготовлен в редакционно-издательском отделе
Кемеровского технологического института пищевой промышленности
650056, г. Кемерово, б-р Строителей, 47
ПЛД №44-09 от 10.10.99.
Отпечатано в лаборатории множительной техники
Кемеровского технологического института пищевой промышленности
650010, г. Кемерово, ул. Красноармейская, 52
Download