ЕН.Ф.1.2. Математика вероятность и статистика

advertisement
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ
Государственное образовательное учреждение высшего профессионального образования
“Мурманский государственный гуманитарный университет”
(МГГУ)
УЧЕБНО-МЕТОДИЧЕКИЙ КОМПЛЕКС
ДИСЦИПЛИНЫ
ЕН.Ф.1.2 МАТЕМАТИКА: ВЕРОЯТНОСТЬ И СТАТИСТИКА
СД.5: ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
Основная образовательная программа подготовки специалиста по специальностям
050201.00 – “Математика с дополнительной специальностью”
050202 – “Информатика”
Утверждено на заседании кафедры
математики и методики
обучения математике
ФМОИиП факультета
(протокол №1 от 12.09.2011 г.)
Зав. кафедрой
Мартынов О.М.
_______________________________
Структура учебно-методического комплекса дисциплины
1.1
1.2
1.3
РАЗДЕЛ 1. Программа учебной дисциплины
Структура программы учебной дисциплины
Автор программы: Побойкин Владимир Яковлевич, старший преподаватель кафедры
МиМОМ МГГУ
Рецензенты: Локоть Вадим Владимирович, кандидат физ.-мат. наук, доцент кафедры
математики и МОМ, Зубова Юлия Владимировна, кандидат физ.-мат. наук, научный
сотрудник кафедры физики МГТУ.
Пояснительная записка:
Цели: Ознакомление студентов с основами математического аппарата теории вероятностей и
математической статистики , необходимого для решения теоретических и практических
задач; развития логического мышления студентов; повышение общего уровня
математической культуры студентов.
Задачи: усвоение студентами основных понятий и положений теории вероятностей и
математической статистики; выработка умений (навыков) математического исследования
прикладных вопросов и перевода практических задач на математический язык.
Место курса в общей системе подготовки специалиста: Для учителей математики, физики и
информатики знание основ теории вероятностей и математической статистики должно быть
обязательным, поскольку они вместе с учителями химии и биологии при изучении своих
дисциплин должны закладывать у учащихся элементы теоретико-вероятностных
закономерностей и статистических концепций, знание которых в наши дни необходимо во
всех областях человеческой деятельности. Данный курс связан с курсами математического
анализа, алгебры и геометрии.
Требование к уровню освоения содержания дисциплины студентами Должны знать основные понятия и положения теории вероятностей и математической
статистики;
Должны уметь доказывать основные теоремы теории вероятностей и математической
статистики, решать задачи по изученному курсу теории вероятностей.
При подготовке использовалась авторская программа [7].
1.4 Извлечение (в виде ксерокопии) из ГОС ВПО.
Теория вероятностей и математическая статистика
Статистические закономерности. Статистическая устойчивость и
статистическое определение вероятности. Пространство элементарных
событий, события. Аксиомы теории вероятностей. Свойства вероятности.
Условная вероятность и ее свойства. Формула полной вероятности. Формулы
Байеса. Независимость двух и n событий. Определение случайной величины,
ее свойства. Дискретные случайные величины, закон распределения.
Основные дискретные распределения: биномиальные, распределение
Пуассона. Непрерывные случайные величины. Геометрические вероятности.
Понятие о методе Монте-Карло. Независимость испытаний. Независимые
испытания Бернулли. Предельные теоремы Пуассона и Лапласа. Практическое
использование приближенных формул. Математическое ожидание случайной
величины и его свойства. Дисперсия случайной величины и ее свойства.
Среднее квадратичное отклонение. Понятие о моментах. Неравенство
Чебышева. Теорема Чебышева. Теорема Бернулли. Понятие о центральной
предельной теореме. Задачи математической статистики. Оценка параметров
распределения. Доверительные интервалы. Задача об оценке независимой
вероятности событий по частоте. Понятие о критериях согласия. Понятие о
простейших случайных процессах.
1.5 Объем дисциплины и виды учебной работы.
№
п/п
1
2
Шифр и
наименование
специальности
050201.00 математика с
доп. спец.
050202.00 информатика
Курс
Семестр
Виды учебной работы в часах
Трудоем Всего
ЛК ПР/ ЛБ
Сам.
кость
аудит.
СМ
Работа
Вид
итогового
контроля
(форма
отчетности)
3
5, 6
112
78
38
40
-
34
Экзамен
3
6
96
48
22
26
-
48
Экзамен
1.6 Содержание дисциплины.
1.6.1 Разделы дисциплины и виды занятий (в часах). Примерное распределение учебного времени:
№
п/п
Наименование раздела, темы
Количество часов
Всего
ауд.
1.
2.
3.
4.
5.
Часть 1. Глава 1. Случайные
события и вероятности.
Глава 2. Случайные величины.
Распределение вероятностей.
Глава 3. Законы больших чисел и
предельные теоремы.
Глава 4. Аксиоматическое
построение теории вероятностей.
Глава 5. Двумерные случайные
Вариант 1
ЛК ПР/ ЛБ Сам.
СМ
Раб
Всего
ауд.
Вариант 2
ЛК ПР/ ЛБ
СМ
Сам.
раб
10
4
6
-
4
6
2
4
-
6
12
6
6
-
4
6
2
4
-
6
12
6
6
-
2
4
2
2
-
4
2
2
-
-
2
2
2
-
-
2
4
2
2
-
4
4
2
2
-
4
величины.
6. Часть 2. Глава 1. Основы
выборочного метода
7. Глава 2. Статистические оценки
параметров распределения
8. Глава 3. Методы расчета
характеристик выборки.
9. Глава 4. Элементы теории
корреляции.
10. Глава 5. Статистическая проверка
статистических гипотез.
11. ВСЕГО
6
4
2
-
2
4
2
2
-
4
10
4
6
-
4
6
3
3
-
6
8
4
4
-
2
4
2
2
-
4
8
4
4
-
4
6
3
3
-
6
6
2
4
-
6
6
2
4
-
6
78
38
40
-
34
48
22
26
-
48
Примечание: Вариант1 для специальности (050201.00 – математика с дополнительной спец.);
Вариант 2 для специальности (050202.00 - информатика).
1.6.2 Содержание разделов дисциплины.
Часть I. (Теория вероятностей).
Введение.
Предмет теории вероятностей. Краткая историческая справка.
Глава 1. Случайные события.
Понятие стохастического опыта и случайного события. Классификация событий. Полная
группа событий. Изображение событий. Операции над событиями. Классическое определение
вероятности случайного события. Свойства вероятности. Применение комбинаторики при
вычислении вероятностей. Относительная частота случайного события и ее свойства.
Статистическая вероятность. Геометрические вероятности.
Теорема сложения вероятностей несовместных событий, ее следствия. Независимые события.
Теорема умножения вероятностей независимых событий, ее следствия. Зависимые события.
Условная вероятность. Теорема умножения вероятностей зависимых событий. Теорема сложения
вероятностей совместных событий и ее следствия.
Формула полной вероятности. Вероятности гипотез. Формулы Байеса.
Повторные независимые испытания. Схема Бернулли и формула Бернулли. Формула
Пуассона. Простейший поток событий. Локальная и интегральная теоремы Лапласа. Вероятность
отклонения относительной частоты от постоянной вероятности в независимых испытаниях.
Понятие цепи Маркова.
Глава 2. Случайные величины.
Понятие случайной величины. Виды случайных величин. Дискретные случайные величины
(ДСВ). Закон распределения ДСВ. Биноминальное и пуассоновское распределения вероятностей
ДСВ. Операции над ДСВ. Числовые характеристики случайных величин. Математическое
ожидание ДСВ, его вероятностный смысл и его свойства. Дисперсия и среднее квадратическое
отклонение ДСВ и их свойства. Связь числовых характеристик среднего арифметического
взаимно-независимых и одинаково распределенных ДСВ с числовыми характеристиками каждой
из них. Моменты случайных величин.
Интегральная функция распределения вероятностей случайной величины и ее свойства.
Непрерывные случайные величины (НСВ).
Дифференциальная функция распределения вероятностей НСВ, ее вероятностный смысл и
свойства. Числовые характеристики НСВ.
Равномерное распределение вероятностей НСВ. Показательное распределение
вероятностей НСВ. Функция надежности. Показательный закон надежности. Нормированное и
нормальное распределения вероятностей НСВ. Вероятность попадания нормальной НСВ в
заданный интервал. Вычисление вероятности заданного отклонения нормальной случайной
величины. Правило трех сигм. Ассиметрия и эксцесс.
Глава 3. Закон больших чисел и предельные теоремы.
Неравенства Маркова и Чебышева. Теорема Чебышева и ее значение для практики. Теорема
Бернулли. Центральная предельная теорема Ляпунова.
Глава 4. Аксиоматическое построение теории вероятностей.
Понятие аксиоматизации теории. Пространство элементарных событий. Понятие события,
требования к событиям, классификация событий. Аксиомы А. Н. Колмогорова, задающие понятие
вероятности события. Вероятностные модели. Вероятностная модель стохастического опыта с
конечным числом исходов. Классическая вероятностная модель. Случайные величины.
Глава 5. Двумерные случайные величины.
Понятие n-мерной случайной величины. Геометрическое истолкование двумерной и
трехмерной случайной величины. Закон распределения вероятностей двумерной ДСВ.
Интегральная функция распределения двумерной случайной величины и ее свойства.
Дифференциальная функция двумерной НСВ, ее вероятностный смысл и ее свойства.
Часть II. Математическая статистика.
Введение. Понятие о математической статистике. Задачи математической
Историческая справка.
статистики.
Глава 1. Основы выборочного метода.
Генеральная и выборочная совокупности. Виды выборок. Способы отбора. Вариационный
ряд. Статистическое распределение выборки. Основные характеристики вариационного ряда.
Выборочная функция распределения. Полигоны и гистограммы.
Глава 2. Статистические оценки параметров распределения.
Понятие статистических оценок параметров распределения. Точечные статистические
оценки и их виды. Генеральная и выборочная средние. Оценка генеральной средней по
выборочной средней. Генеральная и выборочная дисперсии и средние квадратические отклонения
(с.к.о.). Оценка генеральной дисперсии. Оценка генерального с.к.о.
Интервальные оценки параметров распределения, их точность и надежность.
Доверительные интервалы. Доверительные интервалы для оценки математического ожидания
нормально распределенного признака X при известном и неизвестном (X). Доверительные
интервалы для оценки с.к.о. нормального распределения. Использование доверительных
интервалов при оценке истинного значения измеряемой величины и при оценке точности
измерений.
Глава 3. Методы расчета характеристик выборки.
Равноотстоящие и условные варианты. Сведение первоначальных вариант к
равноотстоящим. Обычные, начальные, центральные и условные эмпирические моменты и связь
между ними.
Метод произведений вычисления выборочной средней, выборочной дисперсии и
выборочного с.к.о.
Глава 4. Элементы теории корреляции.
Виды зависимостей между случайными величинами. Корреляционная зависимость.
Функция регрессии и линия регрессии. Задачи теории корреляции. Нахождение выборочного
уравнения прямой линии регрессии по несгруппированным данным с использованием метода
наименьших квадратов. Выборочный коэффициент регрессии. Корреляционная таблица.
Нахождение выборочного уравнения прямой линии регрессии по сгруппированным данным.
Выборочный коэффициент корреляции, его свойства и вычисление.
Простейшие случаи криволинейной корреляции. Понятие о множественной корреляции.
Понятие о ранговой корреляции.
Глава 5. Статистическая проверка статистических гипотез.
Понятие статистической гипотезы. Виды статистических гипотез. Ошибки, допускаемые
при статистической проверке статистических гипотез. Статистический критерий проверки
гипотезы. Область принятия гипотезы. Критическая область, критические точки. Виды
критических областей. Отыскание критической области и критических точек. Мощность критерия.
Сравнение двух генеральных средних нормальных генеральных совокупностей, дисперсии
которых известны. Сравнение двух генеральных средних произвольно распределенных
генеральных совокупностей при больших независимых выборках. Сравнение выборочной средней
и гипотетической генеральной средней нормальной совокупности.
Сравнение двух генеральных дисперсий нормальных совокупностей. Сравнение
наблюдаемой относительной частоты с гипотетической вероятностью появления события.
Критерии согласия. Критерий согласия Пирсона. Критерий согласия Колмогорова.
1.6.3
1.6.4
Темы для самостоятельного изучения.
№
п/п
Наименование раздела
Дисциплины.
Тема.
Глава 1. Случайные
события.
Форма самостоятельной
работы (рефераты)
2.
3.
4.
Глава 3. Законы больших
чисел и предельные
теоремы.
Глава 4. Аксиомы
построения теории
вероятностей
Глава 5. Двумерные
случайные величины.
5.
6.
7.
8.
Внеаудиторная
лабораторная работа №1
Глава 2. Статистические
оценки параметров
распределения
Внеаудиторная
лабораторная работа №2
Глава 3. Методы расчета
характеристик выборки.
Внеаудиторная
лабораторная работа №3
Глава 4. Элементы
теории корреляции.
Глава 5. Статистическая
10. проверка
статистических гипотез.
11.
Подготовка к ПР,
выполнение д.з.
Подготовка к кол. И КР.
Изучить и
законспектировать тему
“Простейший поток
событий”. Сам.
доказательство
некоторых свойств
числовых характеристик.
Самостоятельное
доказательство т.
Пуассона. Подготовка к
практическим занятиям
Самостоятельное
доказательство
некоторых утверждений
теории вероятностей.
Подготовка к ПР.
Доказательство
монотонности F(xy) по
обоим аргументам.
Глава 1. Основы
выборочного метода
9.
Контрольная работа по гл.
2-4
ВСЕГО:
Количество
Часов
Вариант 2
4
6
4
6
Подготовка к ПР,
выполнение д.з.
Подготовка к кол. И КР
1.
Глава 2. Случайные
величины.
Количество
Часов
Вариант 1
Подготовка к
коллоквиуму
Подготовка к
коллоквиуму
Подготовка к
контрольной работе
2
2
4
2
4
4
2
4
4
6
2
4
4
4
4
4
4
4
80
48
Форма контроля
выполнения
самостоятельной
работы
Проверка
домашних
заданий.
Коллоквиум. ИДЗ
№№ 1,2. –
индивидуальная
защита.
Проверка
домашних
заданий.
Коллоквиум 2.
Защита ИДЗ №3.
Проверка
домашних
заданий
Проверка
конспектов
лекций.
Проверка
домашних
заданий и
конспектов
лекций.
Индивидуальная
защита
лабораторной
работы №1
Индивидуальная
защита
лабораторной
работы №2
Индивидуальная
защита
лабораторной
работы №3
Индивидуальное
собеседование
Индивидуальное
собеседование
Защита
контрольной
работы. Экзамен
1.7
Методические рекомендации по организации изучения дисциплины.
1.7.1 Тематика и планы аудиторной работы на практических занятиях
Практическое занятие №1.
Тема: Понятие случайного события; классификация и алгебра
событий. Различные определения вероятности случайного события. Вычисление вероятностей.
План – указан в названии темы.
Вопросы для коллективного обсуждения – указаны в теме + основные понятия и
формулы комбинаторики.
Задание для самостоятельной работы студента: Задачник [2], №№ 3, 5, 6, 10, 13, 18, 20,
25, 27, 28, 29, 42, 44, 45; Литература: [1], [2], [3], [4],[6],[8].
Практическое занятие №2. Тема: Теоремы сложения и умножения вероятностей, их следствия.
План: 1) Теорема сложения вероятностей несовместных событий и ее следствия.
2) Теорема умножения вероятностей независимых событий и ее следствия.
3) Зависимые события, условная вероятность. Теорема умножения вероятностей
зависимых событий, следствия.
4) Теорема сложения вероятностей совместных событий и ее следствия.
Вопросы: Все определения, формулы по плану.
Задание для самостоятельной работы студента: Задачник [2], №№ 47, 54, 58, 59, 62, 63,
65, 70, 82, 87; Литература: [1] - [8].
Практическое занятие №3. Тема: Формула полной вероятности. Формулы Байеса.
План и вопросы для коллективного обсуждения: Формулировка и обсуждение формул
полной вероятности и Байеса.
Задание для самостоятельной работы студента: Задачник [2], №№ 90, 92, 94, 95, 99, 101,
107, 108, 109 + задача из лекций; Литература: [1] - [8].
Практическое занятие №4. Тема: Повторные независимые испытания. Формулы Бернулли и
Пуассона. Локальная и интегральная теоремы Лапласа.
План и вопросы для коллективного обсуждения – указаны в названии темы.
Задание для самостоятельной работы студента: Задачник [2], №№ 110, 111, 117, 126, 130,
134, 144, 148, 159, 180, 186; Литература: [1] - [4], [8], [7].
Практическое занятие №5.
Тема: Случайные величины их виды. Закон распределения д.с.в.
Биномиальное и Пуассоновское распределения д.с.в. Числовые характеристики д.с.в.
План и вопросы для коллективного обсуждения – указаны в названии темы.
Задание для самостоятельной работы студента: Задачник [2], №№ 169, 171, 173, 175, 182,
183, 193, 194, 207, 211а), 214, 216, 219; Литература: [1] - [8].
Практическое занятие №6.
Тема: Интегральная и дифференциальная функции распределения
с.в. и их свойства Числовые характеристики.
План и вопросы для коллективного обсуждения – указаны в названии темы.
Задание для самостоятельной работы студента: Задачник [2], №№ 254, 255, 257, 259, 261,
266, 270, 274, 281, 293; Литература: [1] - [8].
Практическое занятие №7. Тема: Основные (типы) законы распределения н.с.в..
План и вопросы для обсуждения: Равномерное распределение, показательное
распределение, нормальное распределение и их свойства, их числовые характеристики.
Задание для самостоятельной работы студента: Задачник [2], №№ 309, 311, 312, 317, 320,
329, 330, 333, 335, 370; Литература: [1] - [8].
Практическое занятие №8. Тема: Контрольная работа по материалу гл.1 и гл.2.
План и вопросы: Индивидуальная защита ИДЗ-1, ИДЗ-2, ИДЗ-3.
Литература: [4].
Практическое занятие №9. Тема: предельные теоремы вероятностей.
План и вопросы для обсуждения: Неравенства Маркова и Чебышева. Теорема Чебышева.
Теоремы Бернулли и Пуассона.
Задание для самостоятельной работы студента: Задачник [2], №№ 239, 240, 242, 244, 246,
249, 251; Литература: [1], [2].
Практическое занятие №10. Тема: двумерные случайные величины.
План и вопросы для обсуждения: Понятие n-мерной случайной величины.
Геометрическое истолкование двумерной и трехмерной случайной величины. Закон
распределения двумерной д.с.в. Интегральная функция и ее свойства.
Дифференциальная функция двумерной случайной величины, ее вероятностный смысл и
свойства.
Задание для самостоятельной работы студента: Задачник [2], №№ 409, 411, 413, 414, 415,
420, 424; Литература: [1], [2].
Практическое занятие № 11 Тема: Статическое распределение выборки и его характеристики
План и вопросы для обсуждения: Генеральная и выборочная совокупности. Виды
выборок. Вариационный ряд. Статистическое распределение выборки. Эмпирическая
функция распределения. Полигоны и гистограммы.
Задание для самостоятельной работы студента: Задачник [2], №№440, 442, 444, 445, 447,
449; Литература: [1], [3], [10], [9].
Практическое занятие № 12 Тема: Статистические точечные оценки параметров распределения
План и вопросы для обсуждения: Понятие С.Т.О. Виды С.Т.О. Характеристики
вариационного ряда. Оценки основных характеристик генеральной совокупности по
соответствующим характеристикам выборки.
Задание для самостоятельной работы студента: Задачник [2], №№451, 454, 456, 458, 459,
461, 464, 469, 470; Литература: [1], [3], [10], [9].
Практическое занятие № 13 Тема: Интервальные оценки параметров распределения
План и вопросы для обсуждения: Понятие интервальной оценки, их точность и
надёжность. Доверительные интервалы, доверительные интервалы для M(X) и (X).
Задание для самостоятельной работы студента: Задачник [2], №№502, 503, 507, 509, 511,
513, 515; Литература: [1], [3], [9], [11].
Практическое занятие № 14 Тема: Метод произведений вычисления основных характеристик
выборки
План и вопросы для обсуждения: Равноотстоящие и условные варианты. Сведение
первоначальных вариант к равноотстоящим. Эмпирические моменты и связь между
ними. Метод произведений при вычислении X B , DB, B.
Задание для самостоятельной работы студента: Задачник [2], №№524, 527, 528;
Литература: [1], №№1,2 с.249; [3]
Практическое занятие № 15 Тема: Нахождение выборочных уравнений прямых линий регрессий
План и вопросы для обсуждения: Понятие корреляции, зависимости между С.В. Задачи
теории корреляции. Нахождение выборочного уравнения прямой линии регрессии по
несгруппированным данным с использованием метода наименьших интервалов.
Выборочный коэффициент регрессии. Корреляционная таблица. Нахождение
выборочного уравнения прямой линии регрессии по сгруппированным данным.
Выборочный коэффициент корреляции, его свойства и вычисление.
Задание для самостоятельной работы студента: Задачник [1], №№535, 536(а, б) [1], пр.
с.254; №№1,2 с.280-281 [11],[10]
Практическое занятие № 16 Тема: Статистическая проверка статистических гипотез
План и вопросы для обсуждения: Понятие и виды статистических гипотез.
Статистический критерий, ОПГ, КО, критические точки, мощность критерия. Сравнение
двух выборочных средних нормальных генеральных совокупностей. Сравнение
выборочной средней и гипотетической генеральной средней нормальной генеральной
совокупности. Сравнение двух генеральных дисперсий нормальных совокупностей.
Сравнение наблюденной относительной частоты с гипотетической вероятностью
появлений события.
Задание для самостоятельной работы студента. Задачник [2], №№ 555, 559; 568, 569; 575,
580; 586, 589.
1.8
1.8.1
Учебно-методическое обеспечение дисциплины.
Рекомендуемая литература, учебные издания: Учебники и учебные пособия:
Основная:
[1]. Гмурман В.Е. Теория вероятностей и математическая статистика: Учебное пособие для
студентов ВУЗов. - М. ВШ, 2000. - 479с.
[2]. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической
статистике: Учебное пособие для студентов ВУЗов. - М. ВШ, 2000. - 400с.
[3]. Солодовников А. С. Теория вероятностей: для студентов педагогических институтов по
математическим специальностям. – М.: Просвещение, 1983. – 207с.
[4]. Зотиков С. В., Зотикова Н. Н. Задачник-практикум по теории вероятностей: Учебнометодическое пособие для студентов ФМФ МГПУ. – Мурманск, МГПУ. – 2003. –45с.
[5]. Чистяков В. П. Курс теории вероятностей. – М.: ”Агар”, 1996, - 256с.
[6]. Андрухаев Х. М. Сборник задач по теории вероятностей: Учебное пособие для студентов
педагогических институтов по математическим специальностям. – М.: Просвещение, 1985. –
160с.
[7]. Зотиков С.В. Программа учебной дисциплины «Теория вероятностей и математическая
статистика».- Авторская программа.- Базис: Сборник научно – методических работ и
нормативных документов кафедры математического анализа и методики преподавания
математики МГПУ.- Мурманск: МГПУ, 2005, том 1, с. 6 – 10.
Дополнительная:
[8]. Виленкин Н. Я., Потапов В. Г. Задачник-практикум по теории вероятностей с
элементами комбинаторики и математической статистики: Учебное пособие для студентовзаочников физико-математического факультета педагогических институтов. – М.:
Просвещение, 1979. – 111с.
[9] Пытьев Ю.П., Шишкарев И.А. Курс теории вероятностей и математической статистики
для физиков: Учебное пособие. - М.: МГУ, 1983. - 256с.
[10] Данко П.Е., Попов А.Г., Кожевникова Т.Я. Высшая математика в упражнениях и
задачах, т. II. - М..: “Высшая школа”, 2000. - 415с.
[11] Ватутин В.А., Ивченко Г.И., Медведев Ю.И., Чистяков В.П. Теория вероятностей и
математическая статистика в задачах. - М.: “Агар”, 2003. - 328с.
1.9 Материально-техническое обеспечение дисциплины.
Не предусмотрено учебным планом.
1.10 Примерные зачетные тестовые задания: см. пункт 1.7.1
1.11 Примерный перечень вопросов к зачету: см. пункт 1.6.3
1.12 Комплект экзаменационных билетов:
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №1
Вопрос 1. Понятие случайного события. Виды событий. Алгебра событий.
Вопрос 2. Генеральная и выборочная совокупности. Виды выборок, способы отбора.
Вариационный ряд. Статистическое распределение выборки. Характеристики выборки.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №2
Вопрос 1. Различные определения вероятности случайного события: классическое,
статистическое, геометрическое.
Вопрос 2. Понятие стат. оценок параметров распределения. Точечные стат. оценки и их виды.
Генеральная и выборочная средние. Оценка генер. средней по выбор. средней.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №3
Вопрос 1. Элементы комбинаторики.
Вопрос 2. Генеральная и выборочная совокупности. Виды выборок, способы отбора.
Вариационный ряд. Статистическое распределение выборки. Характеристики выборки.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №4
Вопрос 1. Теоремы сложения вероятностей несовместных и совместных событий и их следствия.
Вопрос 2. Генеральные и выборочные дисперсии и с.к.о. Исправленные выб. дисперсия и с.к.о.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №5
Вопрос 1. Теоремы умножения вероятностей независимых и зависимых событий и их следствия.
Вопрос 2. Интервальные оценки параметров распределения, их точность и надёжность.
Доверительные интервалы для оценки м.о. норм. распределения при известном и неизвестном
с.к.о. Доверительный интервал для оценки с.к.о. нормального распределения.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №6
Вопрос 1. Формула полной вероятности. Формулы Байеса.
Вопрос 2. Эмпирическая функция распределения, её свойства. Полигоны и гистограммы.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №7
Вопрос 1. Повторные независимые испытания. Формулы Бернулли и Пуассона. Простейший
поток событий.
Вопрос 2. Метод произведений вычисления выбор. средней, дисперсии и с.к.о. Сведение нач.
вариант к равноотстоящим.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №8
Вопрос 1. Повторные независимые испытания. Локальная и интегральная теоремы Лапласа.
Следствие из интегральной теоремы Лапласа.
Вопрос 2. Условные варианты. Обычные, начальные, центральные и условные эмпир. моменты.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №9
Вопрос 1. Понятие и виды случайных величин. Закон распределения д.с.в. Биномиальное и
пуассоновское распределения вероятностей д.с.в.
Вопрос 2. Корреляционная зависимость между с.в. Функция, уравнение и линия регрессии.
Нахождение выбор. уравнения прямой линии регрессии по несгруппированным данным.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №10
Вопрос 1. Операции над д.с.в. Математическое ожидание д.с.в., его вероятностный смысл и его
свойства.
Вопрос 2. Нахождение выбор. уравнения прямой линии регрессии по сгруппированным данным.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №11
Вопрос 1. Операции над д.с.в. Дисперсия и с.к.о. д.с.в. и их свойства.
Вопрос 2. Выбор. коэффициент корреляции, его свойства. Понятие о крив., множ. и ранг.
корреляциях.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №12
Вопрос 1. Связь числовых характеристик среднего арифметического взаимно-независимых и
одинакова распределенных д.с.в. с числовыми характеристиками каждой из них. Моменты
случайных величин.
Вопрос 2. Понятие и виды стат. гипотез. Ошибки, доп. при стат. проверке стат. гипотез. Стат.
критерий проверки стат. гипотезы. Область принятия гипотезы, критич. область, критич. точка.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №13
Вопрос 1. Непрерывные с.в. Интегральная функция распределения вероятностей с.в. и ее свойства.
Вопрос 2. Отыскание критич. областей и критических точек. Мощность критерия.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №14
Вопрос 1. Дифференциальная функция распределения вероятностей н.с.в., ее вероятностный
смысл и свойства.
Вопрос 2. Критерий согласия Пирсона и Колмогорова.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №15
Вопрос 1. Числовые характеристики непрерывных случайных величин.
Вопрос 2. Сравнение двух ген. средних норм. генер. совокупностей, дисперсии которых известны
(I случай).
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №16
Вопрос 1. Равномерное распределение вероятностей н.с.в.
Вопрос 2. Сравнение двух генер. дисперсий нормальных генеральных совокупностей, дисперсии
которых известны (II и III случаи).
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №17
Вопрос 1. Элементы комбинаторики.
Вопрос 2. Генеральная и выборочная совокупности. Виды выборок, способы отбора.
Вариационный ряд. Статистическое распределение выборки. Характеристики выборки.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №18
Вопрос 1. Нормированное распределение вероятностей н.с.в.
Вопрос 2. Сравнение наблюдаемой относительной частоты случ. события с гипотетич.
вероятностью этого события.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №19
Вопрос 1. Нормальное распределение вероятностей н.с.в.
Вопрос 2. Метод произведений вычисления выбор. средней, дисперсии и с.к.о. Сведение нач.
вариант к равноотстоящим.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №20
Вопрос 1. Вероятность попадания в заданный интервал нормальной с.в. Вычисление вероятности
заданного отклонения нормальной с.в. Правило трех сигм.
Вопрос 2. Эмпирическая функция распределения, её свойства. Полигоны и гистограммы.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №21
Вопрос 1. Предельные теоремы теории вероятностей: неравенство Маркова, неравенство и
теорема Чебышева, теорема Бернулли, понятие о теореме Ляпунова.
Вопрос 2. Выбор. коэффициент корреляции, его свойства. Понятие о крив., множ. и ранг.
корреляциях.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №22
Вопрос 1. Аксиоматическое построение теории вероятностей.
Вопрос 2. Критерий согласия Пирсона и Колмогорова.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №23
Вопрос 1. Двумерные случайные величины.
Вопрос 2. Генеральная и выборочная совокупности. Виды выборок, способы отбора.
Вариационный ряд. Статистическое распределение выборки. Характеристики выборки.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ
Государственное образовательное учреждение высшего профессионального
образования “Мурманский государственный гуманитарный университет”
(МГГУ)
2011/2012 учебный год
Кафедра: Математики и методики обучения математики
Наименование дисциплины: Теория вероятностей и математическая статистика
Экзаменационный билет №24
Вопрос 1. Элементы комбинаторики.
Вопрос 2. Генеральная и выборочная совокупности. Виды выборок, способы отбора.
Вариационный ряд. Статистическое распределение выборки. Характеристики выборки.
Зав. кафедрой М и МОМ
________________________
(Мартынов О. М.)
Декан ФМФ
______________________
(Мартынов О. М.)
Утверждено на заседании кафедры. Протокол №___ от “___” __________ 20____г.
1.13 Примерная тематика рефератов.
Указано в пункте 1.6.3
1.14 Примерная тематика курсовых работ:
Не предусмотрено учебным планом.
1.15 Примерная тематика квалификационных (дипломных) работ:
Не предусмотрено учебным планом.
1.16 Методика исследования – изучение студентами рекомендуемой литературы и консультации
с преподавателем.
1.17 Бально-рейтинговая система, используемая преподавателем для оценивания знаний
студентов по данной дисциплине: “отлично ”, “хорошо”, ”удовлетворительно”,
”неудовлетворительно”.
РАЗДЕЛ 2. Методические указания по изучению дисциплины и контрольные
задания для студентов заочной формы обучения.
Данная дисциплина не предусмотрена для заочной формы обучения.
РАЗДЕЛ 3. Содержательный компонент теоретического материала
Лекция 1.
Предмет теории вероятностей. Случайные события. Алгебра событий. Относитель-ная
частота и вероятность случайного события. Полная группа событий. Классичес-кое
определение вероятности. Основные свойства вероятности. Основные формулы
комбинаторики.
В различных разделах науки и техники нередко возникают ситуации, когда результат каждого из
многих проводимых опытов заранее предугадать невозможно, однако можно исследовать
закономерности, возникающие при проведении серии опытов. Нельзя, напри-мер, точно сказать,
какая сторона монеты окажется сверху при данном броске: герб или цифра – но при большом
количестве бросков число выпадений герба приближается к по-ловине количества бросков; нельзя
заранее предсказать результат одного выстрела из дан-ного орудия по данной цели, но при
большом числе выстрелов частота попадания прибли-жается к некоторому постоянному числу.
Исследование вероятностных закономерностей массовых однородных явлений составляет предмет
теории вероятностей.
Основным интуитивным понятием классической теории вероятностей является случайное
событие. События, которые могут произойти в результате опыта, можно подразделить на три
вида:
а) достоверное событие – событие, которое всегда происходит при проведении опыта;
б) невозможное событие – событие, которое в результате опыта произойти не может;
в) случайное событие – событие, которое может либо произойти, либо не произойти. Например,
при броске игральной кости достоверным событием является выпадение числа очков, не
превышающего 6, невозможным – выпадение 10 очков, а случайным – выпадение 3 очков.
Алгебра событий.
Определение 1.1. Суммой А+В двух событий А и В называют событие, состоящее в том, что
произошло хотя бы одно из событий А и В. Суммой нескольких событий, соответ-ственно,
называется событие, заключающееся в том, что произошло хотя бы одно из этих событий.
Пример 1. Два стрелка делают по одному выстрелу по мишени. Если событие А – попадание
первого стрелка, а событие В – второго, то сумма А+В – это хотя бы одно попадание при двух
выстрелах.
Пример 2. Если при броске игральной кости событием Аi назвать выпадение i очков, то
выпадение нечетного числа очков является суммой событий А1+А2+А3.
Назовем все возможные результаты данного опыта его исходами и предположим, что множество
этих исходов, при которых происходит событие А (исходов, благоприятных событию А), можно
представить в виде некоторой области на плоскости. Тогда множество исходов, при которых
произойдет событие А+В, является объединением множеств исходов, благоприятных событиям А
или В (рис. 1).
А
В
А+В
Рис.1.
Определение 1.2. Произведением АВ событий А и В называется событие, состоящее в том, что
произошло и событие А, и событие В. Аналогично произведением нескольких событий
называется событие, заключающееся в том, что произошли все эти события.
Пример 3. В примере 1 ( два выстрела по мишени) событием АВ будет попадание обоих стрелков.
Пример 4. Если событие А состоит в том, что из колоды карт извлечена карта пиковой масти, а
событие В – в том, что из колоды вынута дама, то событием АВ будет извлечение из колоды дамы
пик.
Геометрической иллюстрацией множества исходов опыта, благоприятных появлению
произведения событий А и В, является пересечение областей, соответствующих исходам,
благоприятным А и В.
А
В
АВ
Рис.2.
Определение 1.3. Разностью А\B событий А и В называется событие, состоящее в том, что А
произошло, а В – нет.
Пример 5. Вернемся к примеру 1, где А\ В – попадание первого стрелка при промахе второго.
Пример 6. В примере 4 А\В – извлечение из колоды любой карты пиковой масти, кроме дамы.
Наоборот, В \А – извлечение дамы любой масти, кроме пик.
А
В
А-В
Рис.3.
Введем еще несколько категорий событий.
Определение 1.4. События А и В называются совместными, если они могут произойти оба в
результате одного опыта. В противном случае (то есть если они не могут произойти
одновременно) события называются несовместными.
Примеры: совместными событиями являются попадания двух стрелков в примере 1 и появление
карты пиковой масти и дамы в примере 4; несовместными – события А1 – А6 в примере 2.
Замечание 1. Если изобразить графически области исходов опыта, благоприятных несовместным
событиям, то они не будут иметь общих точек.
Замечание 2. Из определения несовместных событий следует, что их произведение является
невозможным событием.
Определение 1.5. Говорят, что события А1, А2,…,Ап образуют полную группу, если в результате
опыта обязательно произойдет хотя бы одно из событий этой группы.
Замечание. В частности, если события, образующие полную группу, попарно несовмест-ны, то в
результате опыта произойдет одно и только одно из них. Такие события называют
элементарными событиями.
Пример. В примере 2 события А1 – А6 (выпадение одного, двух,…, шести очков при одном броске
игральной кости) образуют полную группу несовместных событий.
Определение 1.6. События называются равновозможными, если нет оснований считать, что одно
из них является более возможным, чем другое.
Примеры: выпадение любого числа очков при броске игральной кости, появление любой карты
при случайном извлечении из колоды, выпадение герба или цифры при броске монеты и т.п.
Классическое определение вероятности.
При изучении случайных событий возникает необходимость количественно сравнивать
возможность их появления в результате опыта. Например, при последовательном извлечении из
колоды пяти карт более возможна ситуация, когда появились карты разных мастей, чем появление
пяти карт одной масти; при десяти бросках монеты более возможно чередование гербов и цифр,
нежели выпадение подряд десяти гербов, и т.д. Поэтому с каждым таким событием связывают по
определенному правилу некоторое число, которое тем больше, чем более возможно событие. Это
число называется вероятностью события и является вторым основным понятием теории
вероятностей.
Отметим, что само понятие вероятности, как и понятие случайного события, является
аксиоматическим и поэтому не поддается строгому определению. То, что в дальнейшем будет
называться различными определениями вероятности, представляет собой способы вычисления
этой величины.
Определение 1.7. Если все события, которые могут произойти в результате данного опыта,
а) попарно несовместны;
б) равновозможны;
в) образуют полную группу,
то говорят, что имеет место схема случаев.
Можно считать, что случаи представляют собой все множество исходов опыта. Пусть их число
равно п ( число возможных исходов), а при т из них происходит некоторое событие А (число
благоприятных исходов).
Определение 1.8. Вероятностью события А называется отношение числа исходов опыта,
благоприятных этому событию, к числу возможных исходов:
т
р(А) 
(1.1)
п
- классическое определение вероятности.
Свойства вероятности.
Из определения 1.8 вытекают следующие свойства вероятности:
Свойство 1. Вероятность достоверного события равна единице.
Доказательство. Так как достоверное событие всегда происходит в результате опыта, то все
исходы этого опыта являются для него благоприятными, то есть т = п, следовательно,
Р(А) = 1.
Свойство 2. Вероятность невозможного события равна нулю.
Доказательство. Для невозможного события ни один исход опыта не является благопри-ятным,
поэтому т = 0 и р(А) = 0.
Свойство 3. Вероятность случайного события есть положительное число, заключенное между
нулем и единицей.
Доказательство. Случайное событие происходит при некоторых исходах опыта, но не при всех,
следовательно, 0 < m < n, и из (1.1) следует, что 0 < p(A) < 1.
Пример. Из урны, содержащей 6 белых и 4 черных шара, наудачу вынут шар. Найти вероятность
того, что он белый.
Решение. Будем считать элементарными событиями, или исходами опыта, извлечение из урны
каждого из имеющихся в ней шаров. Очевидно, что эти события удовлетворяют всем условиям,
позволяющим считать их схемой случаев. Следовательно, число возможных исходов равно 10, а
число исходов, благоприятных событию А (появлению белого шара) – 6 (таково количество белых
шаров в урне). Значит,
т6
р
(А
)  
0
,6
.
п 10
Относительная частота. Статистическое определение вероятности.
Классическое определение вероятности применимо только для очень узкого класса задач, где все
возможные исходы опыта можно свести к схеме случаев. В большинстве реальных задач эта схема
неприменима. В таких ситуациях требуется определять вероятность собы-тия иным образом. Для
этого введем вначале понятие относительной частоты W(A) события A как отношения числа
опытов, в которых наблюдалось событие А, к общему количеству проведенных испытаний:
M
W(A)  ,
(1.2)
N
где N – общее число опытов, М – число появлений события А.
Большое количество экспериментов показало, что если опыты проводятся в одинаковых условиях,
то для большого количества испытаний относительная частота изменяется мало, колеблясь около
некоторого постоянного числа. Это число можно считать вероятностью рассматриваемого
события.
Определение 1.9. Статистической вероятностью события считают его относительную частоту
или число, близкое к ней.
Замечание 1. Из формулы (1.2) следует, что свойства вероятности, доказанные для ее
классического определения, справедливы и для статистического определения вероят-ности.
Замечание 2. Для существования статистической вероятности события А требуется:
1) возможность производить неограниченное число испытаний;
2) устойчивость относительных частот появления А в различных сериях достаточно большого
числа опытов.
Замечание 3. Недостатком статистического определения является неоднозначность
статистической вероятности.
Пример. Если в задаче задается вероятность попадания в мишень для данного стрелка (скажем, р =
0,7), то эта величина получена в результате изучения статистики большого количества серий
выстрелов, в которых этот стрелок попадал в мишень около семидесяти раз из каждой сотни
выстрелов.
Основные формулы комбинаторики.
При вычислении вероятностей часто приходится использовать некоторые формулы
комбинаторики – науки, изучающей комбинации, которые можно составить по определенным
правилам из элементов некоторого конечного множества. Определим основные такие комбинации.
Определение 1.10. Перестановки – это комбинации, составленные из всех п элементов данного
множества и отличающиеся только порядком их расположения. Число всех возможных
перестановок
Рп = п!
(1.3)
Пример. Сколько различных списков (отличающихся порядком фамилий) можно составить из 7
различных фамилий?
Решение. Р7 = 7! = 2·3·4·5·6·7 = 5040.
Определение 1.11. Размещения – комбинации из т элементов множества, содержащего п
различных элементов, отличающиеся либо составом элементов, либо их порядком. Число всех
возможных размещений
т
А

п
(
п

1
)(
п

2
)...(
п

т

1
).
(1.4)
п
Пример. Сколько возможно различных вариантов пьедестала почета (первое, второе, третье
места), если в соревнованиях принимают участие 10 человек?
3

10
9
8

720
.
Решение. А
10
Определение 1.12. Сочетания – неупорядоченные наборы из т элементов множества,
содержащего п различных элементов (то есть наборы, отличающиеся только составом элементов).
Число сочетаний
п
!
т
С
.
(1.5)
п 
т
!(пт
)!
Пример. В отборочных соревнованиях принимают участие 10 человек, из которых в финал
выходят трое. Сколько может быть различных троек финалистов?
Решение. В отличие от предыдущего примера, здесь не важен порядок финалистов, следовательно,
ищем число сочетаний из 10 по 3:
! 8
9

10
3 10
С
 

120
.
10
3
!

7
! 6
Лекция 2.
Геометрические вероятности. Теорема сложения вероятностей. Противоположные
события. Условные вероятности. Теорема умножения вероятностей. Независимые события.
Вероятность появления хотя бы одного события.
Одним из недостатков классического определения вероятности является то, что оно
неприменимо к испытаниям с бесконечным количеством исходов. В таких случаях можно
воспользоваться понятием геометрической вероятности.
Пусть на отрезок L наудачу брошена точка. Это означает, что точка обязательно попадет на
отрезок L и с равной возможностью может совпасть с любой точкой этого отрезка. При этом
вероятность попадания точки на любую часть отрезка L не зависит от расположения этой части на
отрезке и пропорциональна его длине. Тогда вероятность того, что брошен-ная точка попадет на
отрезок l, являющийся частью отрезка L, вычисляется по формуле:
l
p ,
(2.1)
L
где l – длина отрезка l, а L – длина отрезка L.
Можно дать аналогичную постановку задачи для точки, брошенной на плоскую область S и
вероятности того, что она попадет на часть этой области s:
s
p ,
(2.1`)
S
где s – площадь части области, а S – площадь всей области.
В трехмерном случае вероятность того, что точка, случайным образом расположенная в теле V,
попадет в его часть v, задается формулой:
v
p ,
(2.1``)
V
где v – объем части тела, а V – объем всего тела.
Пример 1. Найти вероятность того, что точка, наудачу брошенная в круг, не попадет в правильный
шестиугольник, вписанный в него.
Решение. Пусть радиус круга равен R , тогда сторона шестиугольника тоже равна R. При этом
33 2
2
площадь круга S  R , а площадь шестиугольника s
R .Следовательно,
2
3
23
2
R
R
S

s

3
3
2
p
 


0
,
174
.
2
S
2
R
Пример 2. На отрезок АВ случайным образом брошены три точки: С, D и М. Найти вероятность
того, что из отрезков АС, АD и АМ можно построить треугольник.
Решение. Обозначим длины отрезков АС, АD и АМ через x, y и z и рассмотрим в качестве
возможных исходов множество точек трехмерного пространства с координатами (х, у, z). Если
принять длину отрезка равной 1, то эти множество возможных исходов представляет собой куб с
ребром, равным 1. Тогда множество благоприятных исходов состоит из точек, для координат
которых выполнены неравенства треугольника: x + y > z, x + z > y,
y + z > x. Это часть
куба, отрезанная от него плоскостями x + y = z, x + z = y, y + z = x


х


Рис.1.
(одна из них, плоскость x + y = z, проведена на рис.1). Каждая такая плоскость отделяет от куба
1 1
1
пирамиду, объем которой равен  1 . Следовательно, объем оставшейся части
3 2
6
1 1
v 1
1
v13  . Тогда p  :1
.
6 2
V 2
2
Теорема сложения вероятностей.
Теорема 2.1 (теорема сложения). Вероятность р(А + В) суммы событий А и В равна
Р (А + В ) = р (А) + р (В) – р (АВ).
(2.2)
Доказательство.
Докажем теорему сложения для схемы случаев. Пусть п – число возможных исходов опыта, тА –
число исходов, благоприятных событию А, тВ – число исходов, благопри-ятных событию В, а тАВ
– число исходов опыта, при которых происходят оба события (то есть исходов, благоприятных
произведению АВ). Тогда число исходов, при которых имеет место событие А + В, равно тА + тВ
– тАВ (так как в сумме (тА + тВ) тАВ учтено дважды: как исходы, благоприятные А, и исходы,
благоприятные В). Следовательно, вероятность суммы можно определить по формуле (1.1):
т

т

т
т
т
т
А
В
АВ
А
В
АВ
р
(
А

В
)





р
(
А
)

р
(
В
)

р
(
АВ
),
п п
п
п
что и требовалось доказать.
Следствие 1. Теорему 2.1 можно распространить на случай суммы любого числа событий.
Например, для суммы трех событий А, В и С
Р(А + В + С) = р(А) + р(В) + р(С) – р(АВ) – р(АС) – р(ВС) + р(АВС)
(2.3)
и т.д.
Следствие 2. Если события А и В несовместны, то тАВ = 0, и, следовательно, вероятность суммы
несовместных событий равна сумме их вероятностей:
Р(А + В) = р(А) + р(В).
(2.4)
Определение 2.1. Противоположными событиями называют два несовместных события, сумма
которых равна достоверному событию. Если одно из них назвать А, то второе принято обозначать
через А .
Замечание. Таким образом, А заключается в том, что событие А не произошло.
Теорема 2.2. Сумма вероятностей противоположных событий равна 1:
р(А) + р( А ) = 1.
(2.5)
Доказательство.
Так как А и А - противоположные события, то одно из них обязательно произойдет в результате
опыта, то есть событие А + А является достоверным. Следовательно,
Р( А + А ) = 1. Но, так как А и А несовместны, из (2.4) следует, что Р(А + А ) = р(А) + р( А ). Значит,
р(А) + р( А ) = 1, что и требовалось доказать.
Замечание. В ряде задач проще искать не вероятность заданного события, а вероятность события,
противоположного ему, а затем найти требуемую вероятность по формуле (2.5).
Пример. Из урны, содержащей 2 белых и 6 черных шаров, случайным образом извлека-ются 5
шаров. Найти вероятность того, что вынуты шары разных цветов.
Решение. Событие А , противоположное заданному, заключается в том, что из урны вынуто 5
шаров одного цвета, а так как белых шаров в ней всего два, то этот цвет может быть только
черным. Множество возможных исходов опыта найдем по формуле (1.5):
8
! 6

7

8
5
п

С

56
,
8 
5
!

3
! 6
а множество исходов, благоприятных событию А - это число возможных наборов по 5 шаров
только из шести черных:
тА С65 6.
6 3
3 25
(А
)  , а р
(А
)
1
  .
Тогда р
5628
2828
Теорема умножения вероятностей.
Определение 2.2. Назовем условной вероятностью р(В/А) события В вероятность события В при
условии, что событие А произошло.
Замечание. Понятие условной вероятности используется в основном в случаях, когда
осуществление события А изменяет вероятность события В.
Примеры:
1) пусть событие А – извлечение из колоды в 32 карты туза, а событие В – то, что и вторая
вынутая из колоды карта окажется тузом. Тогда, если после первого раза карта была
возвращена в колоду, то вероятность вынуть вторично туз не меняется:
41
р
(
В
)

р
(
А
)
 
0
,
125
.Если же первая карта в колоду не возвращается, то
32
8
осуществление события А приводит к тому, что в колоде осталась 31 карта, из которых
3
(
В
/А
) 
0
,097
.
только 3 туза. Поэтому р
31
2) если событие А – попадание в самолет противника при первом выстреле из орудия, а В –
при втором, то первое попадание уменьшает маневренность самолета, поэтому р(В/А)
увеличится по сравнению с р(А).
Теорема 2.3 (теорема умножения). Вероятность произведения двух событий равна
произведению вероятности одного из них на условную вероятность другого при условии, что
первое событие произошло:
р (АВ) = р (А) · р (В/А).
(2.6)
Доказательство.
Воспользуемся обозначениями теоремы 2.1. Тогда для вычисления р(В/А) множеством возможных
исходов нужно считать тА (так как А произошло), а множеством благоприятных исходов – те, при
которых произошли и А, и В ( тАВ ). Следовательно,
т
т
п
АВ
АВ
р
(
В
/
А
)


 
р
(
АВ
)
:
р
(
А
),
откуда следует утверждение теоремы.
т
т
А п
А
Пример. Для поражения цели необходимо попасть в нее дважды. Вероятность первого попадания
равна 0,2, затем она не меняется при промахах, но после первого попадания увеличивается вдвое.
Найти вероятность того, что цель будет поражена первыми двумя выстрелами.
Решение. Пусть событие А – попадание при первом выстреле, а событие В – попадание при
втором. Тогда р (А) = 0,2, р (В/А) = 0,4, р (АВ) = 0,2·0,4 = 0,08.
Следствие. Если подобным образом вычислить вероятность события ВА, совпадающего с
событием АВ, то получим, что р (ВА) = р (В) · р (А/В). Следовательно,
р (А) · р (В/А) = р (В) · р (А/В).
(2.7)
Определение 2.3. Событие В называется независимым от события А, если появление события А не
изменяет вероятности В, то есть р (В/А) = р (В).
Замечание. Если событие В не зависит от А, то и А не зависит от В. Действительно, из (2.7) следует
при этом, что р (А) · р (В) = р (В) · р (А/В), откуда р (А/В) = р (А). Значит, свойство независимости
событий взаимно.
Теорема умножения для независимых событий имеет вид:
р (АВ) = р (А) · р (В) ,
(2.8)
то есть вероятность произведения независимых событий равна произведению их вероят-ностей.
При решении задач теоремы сложения и умножения обычно применяются вместе.
Пример. Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания при
одном выстреле равны соответственно 0,6 и 0,7. Найти вероятности следующих событий:
А – хотя бы одно попадание при двух выстрелах;
В – ровно одно попадание при двух выстрелах;
С – два попадания;
D – ни одного попадания.
Решение. Пусть событие Н1 – попадание первого стрелка, Н2 – попадание второго. Тогда
Н

Н
Н
,D

H
H
.События Н и Н совместны и
2
1Н
2, С
1
2
1
2
А = Н + Н , В =Н Н
1
2
1
1
2
независимы, поэтому теорема сложения применяется в общем виде, а теорема умножения – в виде
(2.8). Следовательно, р(С) = 0,6·0,7 = 0,42,
р(А) = 0,6 + 0,7 – 0,42 = 0,88,
р(B) = 0,6·0,3 + 0,7·0,4 = 0,46 (так как события Н 1  Н 2 и Н 1  Н 2 несовместны),
р(D) = 0,4·0,3 = 0,12. Заметим, что события А и D являются противоположными, поэтому
р(А) = 1 – р(D).
Вероятность появления хотя бы одного события.
Теорема 2.4. Вероятность появления хотя бы одного из попарно независимых событий
А1, А2,…, Ап равна
р (А) = 1 – q1q2…qn ,
(2.9)
где qi – вероятность события Аi , противоположного событию Аi .
Доказательство.
Если событие А заключается в появлении хотя бы одного события из А1, А2,…, Ап, то события А и
А1 А2...Ап противоположны, поэтому по теореме 2.2 сумма их вероятностей равна 1. Кроме того,
Ап, следовательно, р( А1 А2...Ап ) =
поскольку А1, А2,…, Ап независимы, то независимы и А1, А2,...,
р
(
А
)
р
(
А
)...
р
(
А
)

q
q
...
q
. Отсюда следует справедливость формулы (2.9).
1
2
п
1
2
n
Пример. Сколько нужно произвести бросков монеты, чтобы с вероятностью не менее 0,9 выпал
хотя бы один герб?
Решение. Вероятность выпадения герба при одном броске равна вероятности противоположного
события (выпадения цифры) и равна 0,5. Тогда вероятность выпадения хотя бы одного герба при п
выстрелах равна 1- (0,5)п . Тогда из решения неравенства 1- (0,5)п > 0,9
следует, что п > log210 ≥ 4.
Лекция 3.
Формула полной вероятности и формулы Байеса. Схема и формула Бернулли.
Формула Пуассона. Локальная и интегральная теоремы Лапласа.
Определение 3.1. Пусть событие А может произойти только совместно с одним из событий Н1,
Н2,…, Нп, образующих полную группу несовместных событий. Тогда события Н1, Н2,…, Нп
называются гипотезами.
Теорема 3.1. Вероятность события А, наступающего совместно с гипотезами Н1, Н2,…, Нп, равна:
n
р
(
А
)

p
(
H
p
(
A
/H

i)
i),
(3.1)
i

1
где p(Hi) – вероятность i- й гипотезы, а p(A/Hi) – вероятность события А при условии реализации
этой гипотезы. Формула (3.1) носит название формулы полной вероятности.
Доказательство.
Можно считать событие А суммой попарно несовместных событий АН1, АН2,…, АНп. Тогда из
теорем сложения и умножения следует, что
n
р
(
А
)

р
(
АН

АН

...

АН
)

р
(
АН
)

р
(
АН
)

...

р
(
АН
)

p
(
H
)
p
(
A
/
H
),

1
2
п
1
2
п
i
i
i

1
что и требовалось доказать.
Пример. Имеются три одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во
второй – 2 белых и 5 черных, в третьей – 10 черных шаров. Из случайно выбранной урны наудачу
вынут шар. Найти вероятность того, что он белый.
Решение. Будем считать гипотезами Н1, Н2 и Н3 выбор урны с соответствующим номером. Так как
1
(
Н
)

р
(
Н
)

р
(
Н
)

.Найдем
по условию задачи все гипотезы равновозможны, то р
1
2
3
3
3
условную вероятность А при реализации каждой гипотезы: р(А/Н
1) ,
7
2
1
3
1
2
1 5
р
(
А
/
Н
)

,р
(
А
/
Н
)

0
.Тогда р
(
А
)




0


0
,
238
.
2
3
7
3
7
3
7
3 21
Формулы Байеса (теорема гипотез).
Пусть известен результат опыта, а именно то, что произошло событие А. Этот факт может
изменить априорные (то есть известные до опыта) вероятности гипотез. Например, в предыдущем
примере извлечение из урны белого шара говорит о том, что этой урной не могла быть третья, в
которой нет белых шаров, то есть р (Н3/А) = 0. Для переоценки вероятностей гипотез при
известном результате опыта используется формулы Байеса:
p
(
H
)
p
(
A
/
H
i)
р
(
Н
A
)
 i
.
, i=1,2,... ,n.
(3.2)
i/
p
(
A
)
(
A
)
p
(
H
A
)

p
(
H
)
p
(
A
/
H
),
Действительно, из (2.7) получим, что p
откуда следует
i/
i
i
справедливость формул (3.2).
Пример. После двух выстрелов двух стрелков, вероятности попаданий которых равны 0,6 и 0,7, в
мишени оказалась одна пробоина. Найти вероятность того, что попал первый стрелок.
Решение. Пусть событие А – одно попадание при двух выстрелах, а гипотезы: Н1 – первый попал, а
второй промахнулся, Н2 – первый промахнулся, а второй попал, Н3 – оба попали, Н4 – оба
промахнулись. Вероятности гипотез: р(Н1) = 0,6·0,3 = 0,18, р(Н2) = 0,4·0,7 = 0,28, р(Н3) = 0,6·0,7 =
0,42, р(Н4) = 0,4·0,3 = 0,12. Тогда р(А/Н1) = р(А/Н2) = 1,
р(А/Н3) = р(А/Н4) = 0.
Следовательно, полная вероятность р(А) = 0,18·1 + 0,28·1 + 0,42·0 + 0,12·0 = 0,46. Применяя
формулу Байеса, получим:
0
,
18

19
р
(
Н
/
А
)
 
0
,
391
.
1
0
,
46
23
Схема повторения испытаний. Формула Бернулли.
Рассмотрим серию из п испытаний, в каждом из которых событие А появляется с одной и той же
вероятностью р, причем результат каждого испытания не зависит от результатов остальных.
Подобная постановка задачи называется схемой повторения испытаний. Найдем вероятность
того, что в такой серии событие А произойдет ровно к раз (неважно, в какой последовательности).
Интересующее нас событие представляет собой сумму равно-вероятных несовместных событий,
заключающихся в том, что А произошло в некоторых к испытаниях и не произошло в остальных п
к
– к испытаниях. Число таких событий равно числу сочетаний из п по к, то есть С п , а вероятность
каждого из них: pkqn-k, где q = 1 – p – вероятность того, что в данном опыте А не произошло.
Применяя теорему сложения для несовместных событий, получим формулу Бернулли:
k
k
n

k
p
(
k
)
C
(3.3)
n
npq .
Пример. Для получения приза нужно собрать 5 изделий с особым знаком на этикетке. Найти
вероятность того, что придется купить 10 изделий, если этикетки с этим знаком имеют 5%
изделий.
Решение. Из постановки задачи следует, что последнее купленное изделие имеет особый знак.
Следовательно, из предыдущих девяти эти знаки имели 4 изделия. Найдем вероят-ность этого по
4
4
5
(
4
)

C

(
0
,
05
)

(
0
,
95
)

0
,
0006092
.
формуле Бернулли: p
Тогда
9
9
р = 0,0006092·0,05 = 0,0000304.
Приближение Пуассона для схемы Бернулли.
Формула Бернулли требует громоздких расчетов при большом количестве испытаний. Можно
получить более удобную для расчетов приближенную формулу, если при большом числе
испытаний вероятность появления А в одном опыте мала, а произведение пр = λ сохраняет
постоянное значение для разных серий опытов ( то есть среднее число появле-ний события А в
разных сериях испытаний остается неизменным). Применим формулу Бернулли:







n

k
n
(
n

1
)(
n

2
)...(
n

k

1
)
n
(
n

1
)...(
n

k

1
)




k n

k
p
(
k
)

p
(
1

p
)

1

.




n
k
!
k
!
n
n



Найдем предел полученного выражения при n   :
n

k
n
k
k
k
k


1
2
k

1














p
(
k
)

lim
1

1

1

...
1

1


lim
1

1



e

1
.












n


n


n


k
!
n
n
n
n
k
!
n
n
k
!














Таким образом, формула Пуассона
ke
pn(k)
(3.4)
k!
позволяет найти вероятность к появлений события А для массовых (п велико) и редких (р мало)
событий.
k

Лекция 4.
Случайные величины и их виды. Закон распределения и функция распределения дискретной
случайной величины. Биномиальное распределение и распределение Пуассона. Операции над
д.с.в. Числовые характеристики д.с.в. и их свойства.
Наряду с понятием случайного события в теории вероятности используется и более удобное
понятие случайной величины.
Определение 4.1. Случайной величиной называется величина, принимающая в результате опыта
одно из своих возможных значений, причем заранее неизвестно, какое именно.
Будем обозначать случайные величины заглавными буквами латинского алфавита (Х, Y,Z,…), а их
возможные значения – соответствующими малыми буквами (xi, yi,…).
Примеры: число очков, выпавших при броске игральной кости; число появлений герба при 10
бросках монеты; число выстрелов до первого попадания в цель; расстояние от центра мишени до
пробоины при попадании.
Можно заметить, что множество возможных значений для перечисленных случайных величин
имеет разный вид: для первых двух величин оно конечно ( соответственно 6 и 11 значений), для
третьей величины множество значений бесконечно и представляет собой множество натуральных
чисел, а для четвертой – все точки отрезка, длина которого равна радиусу мишени. Таким образом,
для первых трех величин множество значений из отдельных (дискретных), изолированных друг от
друга значений, а для четвертой оно представляет собой непрерывную область. По этому
показателю случайные величины подразделяются на две группы: дискретные и непрерывные.
Определение 4.2. Случайная величина называется дискретной, если она принимает отдельные,
изолированные возможные значения с определенными вероятностями.
Определение 4.3. Случайная величина называется непрерывной, если множество ее возможных
значений целиком заполняет некоторый конечный или бесконечный промежуток.
Дискретные случайные величины.
Для задания дискретной случайной величины нужно знать ее возможные значения и вероятности,
с которыми принимаются эти значения. Соответствие между ними называется законом
распределения случайной величины. Он может иметь вид таблицы, формулы или графика.
Таблица, в которой перечислены возможные значения дискретной случайной величины и
соответствующие им вероятности, называется рядом распределения:
xi
pi
x1
p1
x2
p2
…
…
xn
pn
…
…
Заметим, что событие, заключающееся в том, что случайная величина примет одно из своих
n()
возможных значений, является достоверным, поэтому
p 1.
i1
i
Пример. . Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания при
одном выстреле равны соответственно 0,6 и 0,7. Составить ряд распределения случайной
величины Х – числа попаданий после двух выстрелов.
Решение. Очевидно, что Х может принимать три значения: 0, 1 и 2. Их вероятности найдены в
примере, рассмотренном в лекции 3. Следовательно, ряд распределения имеет вид:
хi 0
1
2
pi 0,12 0,46 0,42
Графически закон распределения дискретной случайной величины можно представить в виде
многоугольника распределения – ломаной, соединяющей точки плоскости с координатами (xi,
pi).
x1
x2 x3
x4
x5
Функция распределения.
Определение 4.4. Функцией распределения F(x) случайной величины Х называется вероятность
того, что случайная величина примет значение, меньшее х:
F (x) = p (X < x).
(4.1)
Свойства функции распределения.
1) 0 ≤ F(x) ≤ 1.
Действительно, так
как функция распределения представляет собой вероятность, она может принимать только
те значения, которые принимает вероятность.
2) Функция распределения является неубывающей функцией, то есть F(x2) ≥ F(x1) при х2 > x1.
Это следует из того, что F(x2) = p(X < x2) = p(X < x1) + p(x1 ≤ X < x2) ≥ F(x1).
F
(
x
)

0
, lim
F
(
x
)

1
. В частности, если все возможные значения Х лежат на
3) lim
x


x


интервале [a, b], то F(x) = 0 при х ≤ а и F(x) = 1 при х ≥ b. Действительно, X < a – событие
невозможное, а X < b – достоверное.
4) Вероятность того, что случайная величина примет значение из интервала [a, b], равна
разности значений функции распределения на концах интервала:
p ( a < X < b ) = F(b) – F(a).
Справедливость этого утверждения следует из определения функции распределения (см.
свойство 2).
Для дискретной случайной величины значение F(x) в каждой точке представляет собой сумму
вероятностей тех ее возможных значений, которые меньше аргумента функции.
Пример. Найдем F(x) для предыдущего примера:

0
, x
0

0
,12
, 0x
1

F
(x
)

0
,12

0
,46

0
,58
,1
x
2


,58

0
,42

1
, x
2
 0
Соответственно график функции распределения имеет ступенчатый вид:
Биномиальное распределение.
Вернемся к схеме независимых испытаний и найдем закон распределения случайной величины Х –
числа появлений события А в серии из п испытаний. Возможные значения А: 0, 1, …, п.
Соответствующие им вероятности можно вычислить по формуле Бернулли:
k k n
k
p
(
Х

k
)
C
q
(4.2)
np
( p – вероятность появления А в каждом испытании).
Такой закон распределения называют биномиальным, поскольку правую часть равенства (4.2)
можно рассматривать как общий член разложения бинома Ньютона:
nn
nn

1
n

1
k
k
n

k
0
n
(
p

q
)

C
p

C
p
q

...

C
p
q

...

C
q
.
n
n
n
n
Пример. Составим ряд распределения случайной величины Х – числа попаданий при 5 выстрелах,
если вероятность попадания при одном выстреле равна 0,8.
р(Х=0) = 1·(0,2)5 = 0,00032; р(Х=1) = 5·0,8·(0,2)4 = 0,0064; р(Х=2) = 10·(0,8)2·(0,2)3 = 0,0512; р(Х=3)
= 10·(0,8)3·(0,2)2 = 0,2048; р(Х=4) = 5·(0,8)4·0,2 = 0,4096; р(Х=5) = 1·(0,8)5 = 0,32768. Таким образом,
ряд распределения имеет вид:
х 0
1
2
3
4
5
р 0.00032 0.0064 0.0512 0.2048 0.4096 0.32728
Распределение Пуассона.
Рассмотрим дискретную случайную величину Х, принимающую только целые неотрицательные
значения (0, 1, 2,…, т,…), последовательность которых не ограничена. Такая случайная величина
называется распределенной по закону Пуассона, если вероятность того, что она примет значение
т, выражается формулой:
т
а

а
р
(Х

т
) е
,
(4.3)
т
!
где а – некоторая положительная величина, называемая параметром закона Пуассона.
Покажем, что сумма всех вероятностей равна 1:
т



а а 
аа
р
(
Х

т
)

е

е

е

1


т
!
т

0
т

0
(использовано разложение в ряд Тейлора функции ех).
Рассмотрим типичную задачу, приводящую к распределению Пуассона. Пусть на оси абсцисс
случайным образом распределяются точки, причем их распределение удовлет-воряет следующим
условиям:
1) вероятность попадания некоторого количества точек на отрезок длины l зависит только от
длины отрезка и не зависит от его расположения на оси ( то есть точки распределены с
одинаковой средней плотностью);
2) точки распределяются независимо друг от друга ( вероятность попадания какого-либо
числа точек на данный отрезок не зависит от количества точек, попавший на любой другой
отрезок);
3) практическая невозможность совпадения двух или более точек.
Тогда случайная величина Х – число точек, попадающих на отрезок длины l – распре-делена по
закону Пуассона, где а – среднее число точек, приходящееся на отрезок длины l.
Замечание. В лекции 3 говорилось о том, что формула Пуассона выражает биномиальное
распределение при большом числе опытов и малой вероятности события. Поэтому закон Пуассона
часто называют законом редких явлений.
Лекция 5.
Функция распределения и плотность распределения непрерывной случайной
величины, их взаимосвязь и свойства. Равномерное и показательное распределение
вероятностей. Функция надёжности. Показательный закон надёжности.
Определение и свойства функции распределения сохраняются и для непрерывной случайной
величины, для которой функцию распределения можно считать одним из видов задания закона
распределения. Но для непрерывной случайной величины вероятность каждого отдельного ее
значения равна 0. Это следует из свойства 4 функции распределения: р(Х = а) = F(a) – F(a) = 0.
Поэтому для такой случайной величины имеет смысл говорить только о вероятности ее попадания
в некоторый интервал.
Вторым способом задания закона распределения непрерывной случайной величины является так
называемая плотность распределения (плотность вероятности, дифферен-циальная функция).
Определение 5.1. Функция f(x), называемая плотностью распределения непрерывной случайной
величины, определяется по формуле:
f (x) = F′(x),
(5.1)
то есть является производной функции распределения.
Свойства плотности распределения.
1) f(x) ≥ 0, так как функция распределения является неубывающей.
x
(x)f(t)dt
2) F
, что следует из определения плотности распределения.


3)
Вероятность попадания случайной величины в интервал (а, b) определяется формулой
b
р
(
а

X

b
)
)
dx
.
f(x
Действительно,
a
b
a
b
р
(
а

X

b
)

F
(
b
)

F
(
a
)

f
(
x
)
dx

f
(
x
)
dx

f
(
x
)
dx
.






4)


a
 f (x)dx1(условие нормировки). Его справедливость следует из того, что


F(x)1.

F
(
),а lim
f(x)dx
x



f(x)0, так как F(x)
const
5) xlim
при x  .


Таким образом, график плотности распределения представляет собой кривую, располо-женную
выше оси Ох, причем эта ось является ее горизонтальной асимптотой при x   (последнее
справедливо только для случайных величин, множеством возможных значений которых является
все множество действительных чисел). Площадь криволинейной трапеции, ограниченной
графиком этой функции, равна единице.
Замечание. Если все возможные значения непрерывной случайной величины сосредоточе-ны на
интервале [a, b], то все интегралы вычисляются в этих пределах, а вне интервала [a, b] f(x) ≡ 0.
Пример 1. Плотность распределения непрерывной случайной величины задана формулой
C
f
(
x
)
 2,

x


.
1

x
Найти: а) значение константы С; б) вид функции распределения; в) p(-1 < x < 1).
Решение. а) значение константы С найдем из свойства 4:




С
1
 
dx

Сarctgx

C

C

1
,откуда C  .


2

22
1

х







 



x
x
1
1 1
1
1 1


(
x
)

dt

arctg
t 
arctgx


arctgx

.


б) F
2

2
2
1

t











1
1
11 1
1
 
(

1

x

1
)

dx

arctgx



0
,
5
.


в) p
2

4
4
1

x



1

1
Пример 2. Функция распределения непрерывной случайной величины имеет вид:
 0, x2

x2
F(x)
, 2x4
2

, x4.
 1
Найти плотность распределения.
Решение.

 0
,x

2
0
,x

2


x

2




f(
x
)

x

4

0
,
5
,2

x

4

,2


 2

0

4
.
 ,x

,x

4
 1



Равномерный закон распределения.
Часто на практике мы имеем дело со случайными величинами, распределенными определенным
типовым образом, то есть такими, закон распределения которых имеет некоторую стандартную
форму. В прошлой лекции были рассмотрены примеры таких законов распределения для
дискретных случайных величин (биномиальный и Пуассона). Для непрерывных случайных
величин тоже существуют часто встречающиеся виды закона распределения, и в качестве первого
из них рассмотрим равномерный закон.
Определение 5.2. Закон распределения непрерывной случайной величины называется
равномерным, если на интервале, которому принадлежат все возможные значения случайной
величины, плотность распределения сохраняет постоянное значение ( f(x) = const при a ≤ x ≤ b, f(x)
= 0 при x < a, x > b.
Найдем значение, которое принимает f(x) при x[a, b]. Из условия нормировки следует, что
b
b
1
f
(
x
)
dx

cdx

c
(
b

a
)

1
,откуда f(x)c
.


ba
a
a
Вероятность попадания равномерно распределенной случайной величины на интервал

1


dx

.
[

,
](
a




b
)равна при этом 

a
b

a
b
Вид функции распределения для нормального закона:
 0
, xa

xa
F(x)
, axb
ba

, xb
.
 1
Пример. Автобусы некоторого маршрута идут с интервалом 5 минут. Найти вероятность того, что
пришедшему на остановку пассажиру придется ожидать автобуса не более 2 минут.
Решение. Время ожидания является случайной величиной, равномерно распределенной в
1
2
(
x
)

,p
(
0

x

2
)


0
,
4
.
интервале [0, 5]. Тогда f
5
5
Показательное распределение.
Определение 5.3. Показательным (экспоненциальным) называют распределение вероятностей
непрерывной случайной величины Х, которое описывается плотностью
0
,x

0
f(
x
)
(5.2.)


x

e ,x

0
.

В отличие от нормального распределения, показательный закон определяется только одним
параметром λ. В этом его преимущество, так как обычно параметры распределения заранее не
известны и их приходится оценивать приближенно. Понятно, что оценить один параметр проще,
чем несколько.
Найдем функцию распределения показательного закона:



t


x
F
(
x
)

f
(
t
)
dt

0

dt

e
dt

1

e
.
Следовательно,



x


0


x
0
0
,x

0
F
(
x
)
(5.3.)
 
x
1

e
,x

0
.

Теперь можно найти вероятность попадания показательно распределенной случайной величины в
интервал (а, b):


a


b
p
(
a

x

b
)
e

e
.
(5.4.)
-х
Значения функции е можно найти из таблиц.
Функция надежности.
Пусть элемент (то есть некоторое устройство) начинает работать в момент времени t0 = 0 и
должен проработать в течение периода времени t. Обозначим за Т непрерывную случайную
величину – время безотказной работы элемента, тогда функция
F(t) = p(T < t) определяет
вероятность отказа за время t. Следовательно, вероятность безотказной работы за это же время
равна
R(t) = p(T > t) = 1 – F(t).
(5.5.)
Эта функция называется функцией надежности.
Показательный закон надежности.
Часто длительность безотказной работы элемента имеет показательное распределение, то есть
F(t) = 1 – e-λt .
Следовательно, функция надежности в этом случае имеет вид:
R(t) = 1 – F(t) = 1 – (1 – e-λt) = e-λt .
Определение 5.4. Показательным законом надежности называют функцию надежности,
определяемую равенством
R(t) = e-λt ,
(5.6.)
где λ – интенсивность отказов.
Пример. Пусть время безотказной работы элемента распределено по показательному закону с
плотностью распределения f(t) = 0,1 e-0,1t при t ≥ 0. Найти вероятность того, что элемент
проработает безотказно в течение 10 часов.
Решение. Так как λ = 0,1, R(10) = e-0,1·10 = e-1 = 0,368.
Лекция 6.
Нормальный закон распределения вероятностей. Нормальная кривая. Функция Лапласа.
Вычисление вероятности попадания в заданный интервал нормальной случайной величины.
Правило трех сигм.
Закон больших чисел.
Неравенство Чебышёва. Теоремы
Чебышёва и Бернулли.
Определение 6.1. Непрерывная случайная величина называется распределенной по нормальному
закону, если ее плотность распределения имеет вид:
f(
x
)
1
2
(x

a
)
 2
2

e
2

.
(6.1)
Замечание. Таким образом, нормальное распределение определяется двумя параметрами: а и σ.
График плотности нормального распределения называют нормальной кривой (кривой Гаусса).
Выясним, какой вид имеет эта кривая, для чего исследуем функцию (6.1).
1) Область определения этой функции: (-∞, +∞).
2) f(x) > 0 при любом х (следовательно, весь график расположен выше оси Ох).
f(x)0, то есть ось Ох служит горизонтальной асимптотой графика при x  .
3) lim
|x|

2
(
x

a
)
x

a2
2


4) f
при х = а; f (x)  0 при x > a, f (x)  0 при x < a.
(
x
)


e

0
3

2


1 

Следовательно, 
a,
 - точка максимума.
  2 
5) F(x – a) = f(a – x), то есть график симметричен относительно прямой х = а.
(
x

a
)
2

1 
(

1
x

a
)
2
2

,





(
x
)


e
1


0 x  a  , то есть точки 
6) f
a
2  при

3
2
e
2




являются точками перегиба.
Примерный вид кривой Гаусса изображен на рис.1.
2


х
Рис.1.
Найдем вид функции распределения для нормального закона:
2
t

a
)
x(
x
1 
2
2

F
(
x
)

f
(
t
)
dt
 
e
dt
.
(6.2)

2




Перед нами так называемый «неберущийся» интеграл, который невозможно выразить через
элементарные функции. Поэтому для вычисления значений F(x) приходится пользоваться
таблицами. Они составлены для случая, когда а = 0, а σ = 1.
Определение 6.2. Нормальное распределение с параметрами а = 0, σ = 1 называется
нормированным, а его функция распределения

1
х
t2

2
е dt
(6.3)

2


- функцией Лапласа.
Замечание. Функцию распределения для произвольных параметров можно выразить через
Ф
(х
)
функцию Лапласа, если сделать замену: t 
x a
x

a
1

t2

2
.
е dt
2


Найдем вероятность попадания нормально распределенной случайной величины на заданный
интервал:

a

a




p
(

x

)

F
(
)

F
(
)




.


(6.4)


Пример. Случайная величина Х имеет нормальное распределение с параметрами а = 3, σ = 2.
Найти вероятность того, что она примет значение из интервала (4, 8).
Решение.
8

3
4

3




p
(
4

x

8
)

F
(
8
)

F
(
4
)




.


(
2
,
5
)


(
0
,
5
)

0
,
993

0
,
69

0
,
30
.




2
2




Правило «трех сигм».
Найдем вероятность того, что нормально распределенная случайная величина примет значение из
интервала (а - 3σ, а + 3σ):




p
(
а

3

x

а

3
)


3



3

0
,
9986

0
,
0014

0
.
9973
.
Следовательно, вероятность того, что значение случайной величины окажется вне этого интервала,
равна 0,0027, то есть составляет 0,27% и может считаться пренебрежимо малой. Таким образом, на
практике можно считать, что все возможные значения нормально распределенной случайной
величины лежат в интервале (а - 3σ, а + 3σ). Полученный результат позволяет сформулировать
правило «трех сигм»: если случайная величина распределена нормально, то модуль ее отклонения
от х = а не превосходит 3σ.
Изучение статистических закономерностей позволило установить, что при некоторых условиях
суммарное поведение большого количества случайных величин почти утрачи-вает случайный
характер и становится закономерным (иначе говоря, случайные отклоне-ния от некоторого
среднего поведения взаимно погашаются). В частности, если влияние на сумму отдельных

, тогда F
(х
)




слагаемых является равномерно малым, закон распределения суммы приближается к
нормальному. Математическая формулировка этого утверждения дается в группе теорем,
называемой законом больших чисел.
Неравенство Чебышева.
Неравенство Чебышева, используемое для доказательства дальнейших теорем, справед-ливо как
для непрерывных, так и для дискретных случайных величин. Докажем его для дискретных
случайных величин.
Теорема 6.1. (неравенство Чебышева). p( | X – M(X)| < ε ) ≥ D(X) / ε².
Доказательство. Пусть Х задается рядом распределения
Х
х1
х2
…
р
р1
р2
…
(6.5.)
хп
рп
Так как события |X – M(X)| < ε и |X – M(X)| ≥ ε противоположны, то р ( |X – M(X)| < ε ) + + р ( |X –
M(X)| ≥ ε ) = 1, следовательно, р ( |X – M(X)| < ε ) = 1 - р ( |X – M(X)| ≥ ε ). Найдем р ( |X – M(X)| ≥ ε
).
D(X) = (x1 – M(X))²p1 + (x2 – M(X))²p2 + … + (xn – M(X))²pn . Исключим из этой суммы те слагаемые,
для которых |X – M(X)| < ε. При этом сумма может только уменьшиться, так как все входящие в
нее слагаемые неотрицательны. Для определенности будем считать, что отброшены первые k
слагаемых. Тогда
D(X) ≥ (xk+1 – M(X))²pk+1 + (xk+2 – M(X))²pk+2 + … + (xn – M(X))²pn ≥ ε² (pk+1 + pk+2 + … + pn).
Отметим, что pk+1 + pk+2 + … + pn есть вероятность того, что |X – M(X)| ≥ ε, так как это сумма
вероятностей всех возможных значений Х, для которых это неравенство справедливо.
Следовательно, D(X) ≥ ε² р(|X – M(X)| ≥ ε), или р (|X – M(X)| ≥ ε) ≤ D(X) / ε². Тогда вероятность
противоположного события p( | X – M(X)| < ε ) ≥ D(X) / ε², что и требо-валось доказать.
Теоремы Чебышева и Бернулли.
Теорема 6.2 (теорема Чебышева). Если Х1, Х2,…, Хп – попарно независимые случайные
величины, дисперсии которых равномерно ограничены ( D(Xi) ≤ C), то для сколь угодно малого
числа ε вероятность неравенства
Х

Х

...

Х
М
(
Х
)

М
(
Х
)

...

М
(
Х
)
1
2
п
1
2
п


п
п
будет сколь угодно близка к 1, если число случайных величин достаточно велико.
Замечание. Иначе говоря, при выполнении этих условий
Х

Х

...

Х
М
(
Х
)

М
(
Х
)

...

М
(
Х
)
1
2
п
1
2
п
lim
p
(


)

1
.
n


п
п
X

X
...

X
n
1 2
Доказательство. Рассмотрим новую случайную величину X
и найдем ее
n
математическое ожидание. Используя свойства математического ожидания, получим, что
Х

Х

...

Х
М
(
Х
)

М
(
Х
)

...

М
(
Х
)


1
2
п
1
2
п
М



. Применим к Х неравенство Чебышева:
п
 п 


X

X

...

X


1
2
n
D


Х

Х

...

Х
М
(
Х
)

М
(
Х
)

...

М
(
Х
)
n
Так как

1
2
п
1
2
п
p
(


)

1
 2
.
п
п
рассматриваемые случайные величины независимы, то, учитывая условие теоремы, имеем:


X

X

...

X
D
(
X
)

D
(
X
)

...

D
(
X
)
Cn
C


1
2
n
1
2
n
D



.


2
2 Используя этот результат,
n
n
n
 n
представим предыдущее неравенство в виде:
Х

Х

...

Х
М
(
Х
)

М
(
Х
)

...

М
(
Х
)
С
1
2
п
1
2
п
p
(


)

1

.
Перейдем к пределу при
2
п
п
п



Х

Х

...

Х
М
(
Х
)

М
(
Х
)

...

М
(
Х
)
1
2
п
1
2
п
п   : lim
p
(


)

1
.
Поскольку вероятность
n


п
п
не может быть больше 1, можно утверждать, что
Х

Х

...

Х
М
(
Х
)

М
(
Х
)

...

М
(
Х
)
1
2
п
1
2
п
lim
p
(


)

1
.
Теорема доказана.
n


п
п
Следствие.
Если Х1, Х2, …, Хп – попарно независимые случайные величины с равномерно ограничен-ными
дисперсиями, имеющие одинаковое математическое ожидание, равное а, то для любого сколь
Х

Х

...

Х
1
2
п

а

будет как угодно близка к
угодно малого ε > 0 вероятность неравенства
п
1, если число случайных величин достаточно велико. Иначе говоря,
Х

Х

...

Х
п
lim
p
(1 2

а

)

1
.
n


п
Вывод: среднее арифметическое достаточно большого числа случайных величин прини-мает
значения, близкие к сумме их математических ожиданий, то есть утрачивает характер случайной
величины. Например, если проводится серия измерений какой-либо физической величины,
причем: а) результат каждого измерения не зависит от результатов остальных, то есть все
результаты представляют собой попарно независимые случайные величины; б) измерения
производятся без систематических ошибок (их математические ожидания равны между собой и
равны истинному значению а измеряемой величины); в) обеспечена определенная точность
измерений, следовательно, дисперсии рассматривае-мых случайных величин равномерно
ограничены; то при достаточно большом числе измерений их среднее арифметическое окажется
сколь угодно близким к истинному значению измеряемой величины.
Теорема Бернулли.

Теорема 6.3 (теорема Бернулли). Если в каждом из п независимых опытов вероятность р
появления события А постоянна, то при достаточно большом числе испытаний вероят-ность того,
что модуль отклонения относительной частоты появлений А в п опытах от р будет сколь угодно
малым, как угодно близка к 1:
m

lim
p


p



1
.
(6.6.)


n

 n


Доказательство. Введем случайные величины Х1, Х2, …, Хп, где Xi – число появлений А в i-м
опыте. При этом Xi могут принимать только два значения: 1(с вероятностью р) и 0 (с вероятностью
q = 1 – p). Кроме того, рассматриваемые случайные величины попарно независимы и их
дисперсии равномерно ограничены (так как D(Xi) = pq, p + q = 1, откуда pq ≤ ¼ ). Следовательно, к
ним можно применить теорему Чебышева при Mi = p:
Х

Х

...

Х
п
lim
p
(1 2

р

)

1
.
n


п

Х

Х
...

Х
1
2
п т
 , так как Xi принимает значение, равное 1, при появлении А в данном
п
п
опыте, и значение, равное 0, если А не произошло. Таким образом,
m

lim
p


p



1
,


n

 n


что и требовалось доказать.
m
 p. Речь идет лишь о вероятно-сти того,
Замечание. Из теоремы Бернулли не следует, что lim
n n
что разность относительной частоты и вероятности по модулю может стать сколь угодно малой.
Разница заключается в следующем: при обычной сходимости, рассматриваемой в математическом
т
р  выполняется всегда;
анализе, для всех п, начиная с некоторого значения, неравенство
п
в нашем случае могут найтись такие значения п, при которых это неравенство неверно. Этот вид
сходимости называют сходимостью по вероятности.
Но
Лекция 7.
Системы случайных величин.
Закон распределения вероятностей дискретной
двумерной случайной величины. Функция распределения и плотность распределения
двумерной случайной величины, их свойства. Вероятность попадания случайной точки в
произвольную область. Отыскание плотностей вероятности составляющих двумерной
случайной величины
Наряду с одномерными случайными величинами, возможные значения которых определяют-ся
одним числом, теория вероятностей рассматривает и многомерные случайные величины. Каждое
возможное значение такой величины представляет собой упорядоченный набор нескольких чисел.
Геометрической иллюстрацией этого понятия служат точки п-мерного пространства, каждая
координата которых является случайной величиной (дискретной или непрерывной), или п-мерные
векторы. Поэтому многомерные случайные величины называют еще случайными векторами.
Двумерные случайные величины.
1. Дискретные двумерные случайные величины.
Закон распределения дискретной двумерной случайной величины (Х, Y) имеет вид таблицы с
двойным входом, задающей перечень возможных значений каждой компоненты и вероятности
p(xi, yj), с которыми величина принимает значение (xi, yj):
Y
Х
x1
x2
…
xi
…
xn
y1
p(x1, y1)
p(x2, y1)
…
p(xi, y1)
…
p(xn, y1)
…
…
…
…
…
…
…
yj
p(x1, yj)
p(x2, yj)
…
p(xi, yj)
…
p(xn, yj)
…
…
…
…
…
…
…
ym
p(x1, ym)
p(x2, ym)
…
p(xi, ym)
…
p(xn, ym)
При этом сумма вероятностей, стоящих во всех клетках таблицы, равна 1.
Зная закон распределения двумерной случайной величины, можно найти законы распреде-ления
ее составляющих. Действительно, событие Х = х1 представляется собой сумму несовместных
событий (X = x1, Y = y1), (X = x1, Y = y2),…, (X = x1, Y = ym), поэтому
р(Х = х1) = p(x1, y1) + p(x1, y2) +…+ p(x1, ym) (в правой части находится сумма вероятностей,
стоящих в столбце, соответствующем Х = х1). Так же можно найти вероятности остальных
возможных значений Х. Для определения вероятностей возможных значений Y нужно сложить
вероятности, стоящие в строке таблицы, соответствующей Y = yj.
Пример 1. Дан закон распределения двумерной случайной величины:
Y
X
-2
3
6
-0,8
0,1
0,3
0,1
-0,5
0,15
0,25
0,1
Найти законы распределения составляющих.
Решение. Складывая стоящие в таблице вероятности «по столбцам», получим ряд распре-деления
для Х:
Х
-2
3
6
р
0,25
0,55
0,2
Складывая те же вероятности «по строкам», найдем ряд распределения для Y:
Y
-0,8
-0,5
p
0,5
0,5
2. Непрерывные двумерные случайные величины.
Определение 7.1. Функцией распределения F(x, y) двумерной случайной величины (X, Y)
называется вероятность того, что X < x, a Y < y:
F( х, у ) = p ( X < x, Y < y ).
(7.1)
y
Рис.1.
Это означает, что точка (X, Y) попадет в область, заштрихованную на рис. 1, если вершина
прямого угла располагается в точке (х, у).
Замечание. Определение функции распределения справедливо как для непрерывной, так и для
дискретной двумерной случайной величины.
Свойства функции распределения.
0 ≤ F(x, y) ≤ 1 (так как F(x, y) является вероятностью).
1) F(x, y) есть неубывающая функция по каждому аргументу:
F(x2, y) ≥ F(x1, y), если x2 > x1;
F(x, y2) ≥ F(x, y1), если y2 > y1.
Доказательство. F(x2, y) = p(X < x2, Y < y) = p(X < x1, Y < y) + p(x1 ≤ X < x2, Y < y) ≥
≥ p(X < x1, Y < y) = F(x1, y). Аналогично доказывается и второе утверждение.
2) Имеют место предельные соотношения:
а) F(-∞, y) = 0;
b) F(x, - ∞) = 0;
c) F(- ∞, -∞) = 0;
d) F( ∞, ∞) = 1.
Доказательство. События а), b) и с) невозможны ( так как невозможно событие Х<- ∞ или Y <- ∞),
а событие d) достоверно, откуда следует справедливость приведенных равенств.
При у = ∞ функция распределения двумерной случайной величины становится функцией
распределения составляющей Х:
F(x, ∞) = F1(x).
При х = ∞ функция распределения двумерной случайной величины становится функцией
распределения составляющей Y :
F( ∞, y) = F2(y).
Доказательство. Так как событие Y < ∞ достоверно, то F(x, ∞) = р(Х < x) = F1(x). Аналогично
доказывается второе утверждение.
Определение 7.2. Плотностью совместного распределения вероятностей (двумер-ной
плотностью вероятности) непрерывной двумерной случайной величины называ-ется смешанная
частная производная 2-го порядка от функции распределения:
2

F
(x
,y
)
f(x
,y
)
.

x

y
(7.2)
Замечание. Двумерная плотность вероятности представляет собой предел отношения вероятности
попадания случайной точки в прямоугольник со сторонами Δх и Δу к площади этого
х
0
,
у
0
.
прямоугольника при 
Свойства двумерной плотности вероятности.
1) f(x, y) ≥ 0 (см. предыдущее замечание: вероятность попадания точки в прямоуголь-ник
неотрицательна, площадь этого прямоугольника положительна, следовательно, предел их
отношения неотрицателен).
yx
(
x
,y
)

,y
)
dxdy
2) F
(cледует из определения двумерной плотности вероятно-сти).
f(x





3)

1(поскольку это вероятность того, что точка попадет на плос-кость Оху,
f(x,y)dxdy




то есть достоверного события).
Вероятность попадания случайной точки в произвольную область.
Пусть в плоскости Оху задана произвольная область D. Найдем вероятность того, что точка,
координаты которой представляют собой систему двух случайных величин (двумерную
случайную величину) с плотностью распределения f(x, y), попадет в область D. Разобьем эту
область прямыми, параллельными осям координат, на прямоугольники со сторонами Δх и Δу.
x
y, где ( i , i ) Вероятность попадания в каждый такой прямоугольник равна f(i,i)
координаты точки, принадлежащей прямоугольнику. Тогда вероятность попадания точки в
n
область D есть предел интегральной суммы

i 1
f(i,i)
x
y, то есть
p
((
X
,
Y
)

D
)

f
(
x
,
y
)
dxdy
.

(7.3)
D
Отыскание плотностей вероятности составляющих
двумерной случайной величины.
Выше было сказано, как найти функцию распределения каждой составляющей, зная двумерную
функцию распределения. Тогда по определению плотности распределения
x





d
f
(
x
,
y
)




dF
(
x
)dF
(
x
,

) 





1
f
(
x
)
 


f
(
x
,
y
)
dy
.
1

dxdx dx

(7.4)

Аналогично находится
f2(y
)f(x
,y
)
dx
.


Лекция 8.
Основные понятия математической статистики. Генеральная совокупность и выборка.
Дискретный вариационный ряд, статистическое распределение выборки. Интервальный
вариационный ряд. Полигоны частот и гистограммы. Выборочная функция распределения и
её свойства. Числовые характеристики статистического распределения: выборочное
среднее, выборочная дисперсия, выборочное среднее квадратическое отклонение, мода и
медиана.
Математическая статистика занимается установлением закономерностей, которым подчинены
массовые случайные явления, на основе обработки статистических данных, полученных в
результате наблюдений. Двумя основными задачами математической статистики являются:
- определение способов сбора и группировки этих статистических данных;
- разработка методов анализа полученных данных в зависимости от целей исследования, к
которым относятся:
а) оценка неизвестной вероятности события; оценка неизвестной функции распределения; оценка
параметров распределения, вид которого известен; оценка зависимости от других случайных
величин и т.д.;
б) проверка статистических гипотез о виде неизвестного распределения или о значениях
параметров известного распределения.
Для решения этих задач необходимо выбрать из большой совокупности однородных объектов
ограниченное количество объектов, по результатам изучения которых можно сделать прогноз
относительно исследуемого признака этих объектов.
Определим основные понятия математической статистики.
Генеральная совокупность – все множество имеющихся объектов.
Выборка – набор объектов, случайно отобранных из генеральной совокупности.
Объем генеральной совокупности N и объем выборки n – число объектов в рассматривае-мой
совокупности.
Виды выборки:
Повторная – каждый отобранный объект перед выбором следующего возвращается в
генеральную совокупность;
Бесповторная – отобранный объект в генеральную совокупность не возвращается.
Замечание. Для того, чтобы по исследованию выборки можно было сделать выводы о поведе-нии
интересующего нас признака генеральной совокупности, нужно, чтобы выборка правиль-но
представляла пропорции генеральной совокупности, то есть была репрезентативной
(представительной). Учитывая закон больших чисел, можно утверждать, что это условие
выполняется, если каждый объект выбран случайно, причем для любого объекта вероятность
попасть в выборку одинакова.
Первичная обработка результатов.
Пусть интересующая нас случайная величина Х принимает в выборке значение х1 п1 раз, х2 – п2
k
раз, …, хк – пк раз, причем
n
i1
k
 n, где п – объем выборки. Тогда наблюдаемые значения
случайной величины х1, х2,…, хк называют вариантами, а п1, п2,…, пк – частотами. Если
разделить каждую частоту на объем выборки, то получим относительные частоты wi 
ni
.
n
Последовательность вариант, записанных в порядке возрастания, называют дискретным
вариационным рядом, а перечень вариант и соответствующих им частот или относительных
частот – статистическим рядом или статистическим распределением выборки:
xi
x1
x2
…
xk
ni
n1
n2
…
nk
wi
w1
w2
…
wk
Пример.
При проведении 20 серий из 10 бросков игральной кости число выпадений шести очков оказалось
равным 1,1,4,0,1,2,1,2,2,0,5,3,3,1,0,2,2,3,4,1.Составим вариационный ряд: 0,1,2,3,4,5.
Статистический ряд для абсолютных и относительных частот имеет вид:
xi
0
1
2
3
4
5
ni
3
6
5
3
2
1
wi
0,15
0,3
0,25
0,15
0,1
0,05
Если исследуется некоторый непрерывный признак, то вариационный ряд может состоять из
очень большого количества чисел. В этом случае удобнее использовать группированную
выборку. Для ее получения интервал, в котором заключены все наблюдаемые значения признака,
разбивают на несколько равных частичных интервалов длиной h, а затем находят для каждого
частичного интервала ni – сумму частот вариант, попавших в i-й интервал. Составленная по этим
результатам таблица называется группированным статистическим рядом или интервальным
вариационным рядом:
Номера
1
2
…
k
интервалов
Границы
(a, a + h)
(a + h, a + 2h)
…
(b – h, b)
интервалов
Сумма частот
вариант, попавn1
n2
…
nk
ших в интервал
Полигоны частот. Выборочная функция распределения и гистограммы.
Для наглядного представления о поведении исследуемой случайной величины в выборке можно
строить различные графики. Один из них – полигон частот: ломаная, отрезки которой соединяют
точки с координатами (x1, n1), (x2, n2),…, (xk, nk), где xi откладываются на оси абсцисс, а ni – на оси
ординат. Если на оси ординат откладывать не абсолютные (ni), а относительные (wi) частоты, то
получим полигон относительных частот (рис.1).
Рис. 1.
По аналогии с функцией распределения случайной величины можно задать некоторую функцию,
относительную частоту события X < x.
Определение 8.1. Выборочной (эмпирической) функцией распределения называют функцию
F*(x), определяющую для каждого значения х относительную частоту события
X < x. Таким
образом,
n
F*(x)  x ,
(8.1)
n
где пх – число вариант, меньших х, п – объем выборки.
Замечание. В отличие от эмпирической функции распределения, найденной опытным путем,
функцию распределения F(x) генеральной совокупности называют теоретической функцией
распределения. F(x) определяет вероятность события X < x, а F*(x) – его относительную частоту.
При достаточно больших п, как следует из теоремы Бернулли, F*(x) стремится по вероятности к
F(x).
Из определения эмпирической функции распределения видно, что ее свойства совпадают со
свойствами F(x), а именно:
1) 0 ≤ F*(x) ≤ 1.
2) F*(x) – неубывающая функция.
3) Если х1 – наименьшая варианта, то F*(x) = 0 при х≤ х1; если хк – наибольшая варианта, то F*(x) =
1 при х > хк .
Для непрерывного признака графической иллюстрацией служат гистограммы, то есть
ступенчатые фигуры, состоящие из прямоугольников, основаниями которых служат частичные
интервалы длиной h, а высотами – отрезки длиной ni /h (гистограмма частот) или wi /h
(гистограмма относительных частот). В первом случае площадь гистограммы равна объему
выборки, во втором – единице (рис.2).
Одна из задач математической статистики: по имеющейся выборке оценить значения
числовых характеристик исследуемой случайной величины или признака.
Определение 8.2. Выборочным средним называется среднее арифметическое значений случайной
величины, принимаемых в выборке:
k
n
x
х

х

...

хn
x

n
x

...

n
x
,
х

В

п 1
12
2
12
ii
k
k i

1

n
(8.2.)
п
n
где xi – варианты, ni - частоты.
Замечание. Выборочное среднее служит для оценки математического ожидания исследуемой
случайной величины. В дальнейшем будет рассмотрен вопрос, насколько точной является такая
оценка.
Определение 8.3. Выборочной дисперсией называется
n
k
2
2
(
x
x
)
n
(
x
x
)


i
B
i
i
B
i

1
i

1
D


B
n
n
а выборочным средним квадратическим отклонением –
В  DB.
(8.3.)
Так же, как в теории случайных величин, можно доказать, что справедлива следующая формула
для вычисления выборочной дисперсии:
(8.4.)
Dx2 (x)2.
Пример 1. Найдем числовые характеристики выборки, заданной статистическим рядом
xi
2
5
7
8
ni
3
8
7
2

2

3

5

8

7

7

8

24

3

25

8

49

7

64

2
2
х


5
,
55
;
D


5
,
55

3
,
34
;

3
,
3

1
,
8
.
В
B
B
20
20
Другими характеристиками вариационного ряда являются:
- мода М0 – варианта, имеющая наибольшую частоту (в предыдущем примере М0 = 5 ).
- медиана те - варианта, которая делит вариационный ряд на две части, равные по числу вариант.
xk xk1
Если число вариант нечетно ( n = 2k + 1 ), то me = xk+1, а при четном n =2k т
.В
е
2
57
6.
частности, в примере 1 m
e
2
Лекция 9.
Точечные статистические оценки и их виды. Оценки основных параметров генеральной
совокупности с помощью выборочных характеристик. Интервальное оценивание
неизвестных
параметров. Точность оценки, доверительная вероятность (надежность),
доверительный интервал. Построение доверительных интервалов для оценки
математического ожидания нормального распределения при известной и при неизвестной
дисперсии. Доверительные интервалы для оценки среднего квадратического отклонения
нормального распределения.
Одна из задач математической статистики: по имеющейся выборке оценить значения числовых
характеристик исследуемой случайной величины или признака.
Получив статистические оценки параметров распределения (выборочное среднее, выбороч-ную
дисперсию и т.д.), нужно убедиться, что они в достаточной степени служат приближе-нием
соответствующих характеристик генеральной совокупности. Определим требования, которые
должны при этом выполняться.
Пусть Θ* - статистическая оценка неизвестного параметра Θ теоретического распределения.
Извлечем из генеральной совокупности несколько выборок одного и того же объема п и вычислим
*
*
*

для каждой из них оценку параметра Θ: 
1,
2,...,
k. Тогда оценку Θ* можно рассматривать как
*
*
*

случайную величину, принимающую возможные значения 
1,
2,...,
k. Если математическое
ожидание Θ* не равно оцениваемому параметру, мы будем получать при вычислении оценок
систематические ошибки одного знака (с избытком, если М( Θ*) >Θ, и с недостатком, если М(Θ*)
< Θ). Следовательно, необходимым условием отсутствия систе-матических ошибок является
требование М(Θ*) = Θ.
Определение 9.1. Статистическая оценка Θ* называется несмещенной, если ее математичес-кое
ожидание равно оцениваемому параметру Θ при любом объеме выборки:
М(Θ*) = Θ.
(9.1.)
Смещенной называют оценку, математическое ожидание которой не равно оцениваемому
параметру.
Однако несмещенность не является достаточным условием хорошего приближения к истин-ному
значению оцениваемого параметра. Если при этом возможные значения Θ* могут значительно
отклоняться от среднего значения, то есть дисперсия Θ* велика, то значение, найденное по
данным одной выборки, может значительно отличаться от оцениваемого параметра.
Следовательно, требуется наложить ограничения на дисперсию.
Определение 9.2. Статистическая оценка называется эффективной, если она при заданном объеме
выборки п имеет наименьшую возможную дисперсию.
При рассмотрении выборок большого объема к статистическим оценкам предъявляется еще и
требование состоятельности.
Определение 9.3. Состоятельной называется статистическая оценка, которая при п→∞ стре-мится
по вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет
состоятельной, если при п→∞ ее дисперсия стремится к 0).
Убедимся, что х В представляет собой несмещенную оценку математического ожидания М(Х).
Будем рассматривать х В как случайную величину, а х1, х2,…, хп, то есть значения исследуемой
случайной величины, составляющие выборку, – как независимые, одинаково распределенные
случайные величины Х1, Х2,…, Хп, имеющие математическое ожидание а. Из свойств
математического ожидания следует, что
Х

Х

...

Х


п
М
(
Х
)

М

а
.
1 2

В
п


Но, поскольку каждая из величин Х1, Х2,…, Хп имеет такое же распределение, что и генеральная
совокупность, а = М(Х), то есть М( Х В ) = М(Х), что и требовалось доказать. Выборочное среднее
является не только несмещенной, но и состоятельной оценкой математического ожидания. Если
предположить, что Х1, Х2,…, Хп имеют ограниченные дисперсии, то из теоремы Чебышева
следует, что их среднее арифметическое, то есть Х В , при увеличении п стремится по вероятности
к математическому ожиданию а каждой их величин, то есть к М(Х). Следовательно, выборочное
среднее есть состоятельная оценка математического ожидания.
В отличие от выборочного среднего, выборочная дисперсия является смещенной оценкой
дисперсии генеральной совокупности. Можно доказать, что
n
1
М
(D
)
D
(9.2.)
B
Г,
n
где DГ – истинное значение дисперсии генеральной совокупности. Можно предложить другую
оценку дисперсии – исправленную дисперсию s², вычисляемую по формуле
k
n
(
x
x)

.
i
i
2
B
n
2
i

1
s
 D

B
n

1
n

1
(9.3)
Такая оценка будет являться несмещенной. Ей соответствует исправленное среднее
квадратическое отклонение
k
n
(x
x)

.
2
1
s s
 i
i
i
2
B
(9.4)
n

1
При выборке малого объема точечная оценка может значительно отличаться от оцениваемого
параметра, что приводит к грубым ошибкам. Поэтому в таком случае лучше пользоваться
интервальными оценками, то есть указывать интервал, в который с заданной вероятностью
попадает истинное значение оцениваемого параметра. Разумеется, чем меньше длина этого
интервала, тем точнее оценка параметра. Поэтому, если для оценки Θ* некоторого параметра Θ
справедливо неравенство | Θ* - Θ | < δ, число δ > 0 характеризует точность оценки ( чем меньше
δ, тем точнее оценка). Но статистические методы позволяют говорить только о том, что это
неравенство выполняется с некоторой вероятностью.
Определение 9. 4. Надежностью (доверительной вероятностью) оценки Θ* параметра Θ
называется вероятность γ того, что выполняется неравенство | Θ* - Θ | < δ. Если заменить это
неравенство двойным неравенством – δ < Θ* - Θ < δ, то получим:
p ( Θ* - δ < Θ < Θ* + δ ) = γ.
Таким образом, γ есть вероятность того, что Θ попадает в интервал ( Θ* - δ, Θ* + δ).
Определение 9.5. Доверительным называется интервал, в который попадает неизвестный
параметр с заданной надежностью γ.
1. Доверительный интервал для оценки математического ожидания нормального распределения
при известной дисперсии.
Пусть исследуемая случайная величина Х распределена по нормальному закону с известным
средним квадратическим σ, и требуется по значению выборочного среднего х В оценить ее
математическое ожидание а. Будем рассматривать выборочное среднее х В как случайную
величину Х , а значения вариант выборки х1, х2,…, хп как одинаково распределенные независимые
случайные величины Х1, Х2,…, Хп, каждая из которых имеет математическое ожидание а и среднее
квадратическое отклонение σ. При этом М( Х ) = а, (Х) 

(используем свойства
п
математического ожидания и дисперсии суммы независимых случайных величин). Оценим
вероятность выполнения неравенства | X a| . Применим формулу для вероятности попадания
нормально распределенной случайной величины в заданный интервал:
 п 

 
=
р ( | X a| ) = 2Ф   . Тогда , с учетом того, что (Х) 
, р ( | X a| ) = 2Ф 


п
 


t
 n
=2Ф( t ), где t 
. Отсюда  
, и предыдущее равенство можно переписать так:
n

 t
t
p

x

a

x



2

(
t
)

.
(9.5)
B
B


n
 n

Итак, значение математического ожидания а с вероятностью (надежностью) γ попадает в интервал


t
t

x
, где значение t определяется из таблиц для функции Лапласа так, чтобы
B ;
B 
x

n
n


выполнялось равенство 2Ф(t) = γ.



Пример. Найдем доверительный интервал для математического ожидания нормально распределенной случайной величины, если объем выборки п = 49, xB  2,8, σ = 1,4, а доверительная
вероятность γ = 0,9.
Определим t, при котором Ф(t) = 0,9:2 = 0,45: t = 1,645. Тогда
1
,
645

1
,
4
1
,
645

1
,
4
2
,
8


a

2
,
8

, или 2,471 < a < 3,129. Найден доверительный интервал, в
49
14
который попадает а с надежностью 0,9.
2. Доверительный интервал для оценки математического ожидания нормального распределения
при неизвестной дисперсии.
Если известно, что исследуемая случайная величина Х распределена по нормальному закону с
неизвестным средним квадратическим отклонением, то доверительный интервал для ее
t
t
s
s
 
a

x
 .
математического ожидания имеет вид x
B
B
n
n
x
где B - выборочное среднее, s – исправленная дисперсия, п – объем выборки.
Таким образом, получен доверительный интервал для а, где tγ можно найти по соответствующей
таблице при заданных п и γ.
Пример. Пусть объем выборки п = 25, х В = 3, s = 1,5. Найдем доверительный интервал для а при γ
2
,
797

1
,
5
2
,
797

1
,
5


a

3

= 0,99. Из таблицы находим, что tγ (п = 25, γ = 0,99) = 2,797. Тогда 3
,
25
25
или 2,161< a < 3,839 – доверительный интервал, в который попадает а с вероятностью 0,99.
3. Доверительный интервал для оценки среднего квадратического отклонения нормального
распределения имеет вид


.
s
1

q
s
1

q
Замечание. Если q > 1, то с учетом условия σ > 0 доверительный интервал для σ будет иметь
границы
0s(1q).
Пример.
Пусть п = 20, s = 1,3. Найдем доверительный интервал для σ при заданной надежности γ = 0,95. Из
соответствующей таблицы находим q (n = 20, γ = 0,95 ) = 0,37. Следовательно, границы
доверительного интервала: 1,3(1-0,37) = 0,819 и 1,3(1+0,37) = 1,781. Итак, 0,819 < σ < 1,781 с
вероятностью 0,95.
Лекция 10. Элементы теории корреляции. Нахождение выборочных уравнений
прямых линий регрессии по несгруппированным данным и по корреляционной таблице.
Рассмотрим выборку двумерной случайной величины (Х, Y) . Примем в качестве оценок условных
математических ожиданий компонент их условные средние значения, а именно: условным
средним у х назовем среднее арифметическое наблюдавшихся значений Y, соответствующих Х = х.
Аналогично условное среднее х у - среднее арифметическое наблюдавшихся значений Х,
соответствующих Y = y. Уравнения регрессии Y на Х и Х на Y
имеют вид :
у х = f*(x) - выборочное уравнение регрессии Y на Х,
х у = φ*(у) - выборочное уравнение регрессии Х на Y.
Соответственно функции f*(x) и φ*(у) называются выборочной регрессией Y на Х и Х на Y , а их
графики – выборочными линиями регрессии.
Выясним, как
определять параметры выборочных уравнений регрессии, если сам вид этих уравнений известен.
Пусть изучается двумерная случайная величина (Х, Y), и получена выборка из п пар чисел (х1, у1),
(х2, у2),…, (хп, уп). Будем искать параметры прямой линии регрессии Y на Х вида
Y = ρyxx + b ,
(10.1)
подбирая параметры ρух и b так, чтобы точки на плоскости с координатами (х1, у1), (х2, у2), …, (хп,
уп) лежали как можно ближе к прямой (10.1). Используем для этого метод наименьших квадратов
и найдем минимум функции


n
n
i

1
i

1
2
2
F
(
,
b
)

(
Y

y
)

(
x

b

y
)
.


i
i
i
i
(10.2)
Приравняем нулю соответствующие частные производные:

F n
2 (
x
by
x
0
i
i)
i

 
i
1
.

F n
2
(
x
by
0

i
i)

b i1
В результате получим систему двух линейных уравнений относительно ρ и b:
2



х


х
b

xy




.
(10.3)


x


nb

y




 
Ее решение позволяет найти искомые параметры в виде:
2
n
xy

x

y
x

y

x

xy







;
b

xy
.
(10.4)
2
2
2
2


n
x

x
n
x

x





При этом предполагалось, что все значения Х и Y наблюдались по одному разу.
Теперь рассмотрим случай, когда имеется достаточно большая выборка (не менее 50 значений), и
данные сгруппированы в виде корреляционной таблицы:
Y
X
x1
x2
… xk
ny
y1 n11
n21
… nk1
n11+n21+…+nk1
y2 n12
n22
… nk2
n12+n22+…+nk2
… …
…
… …
……………..
ym n1m
n2m
… nkm
n1m+n2m+…+nkm
nx n11+n12+…+n1m n21+n22+…+n2m … nk1+nk2+…+nkm n=∑nx = ∑ny
Здесь nij – число появлений в выборке пары чисел (xi, yj).
2
x 
y2 
x

Поскольку x
 ,y
 ,x
 , заменим в системе (10.3) x  nx,
n
n
n
2
2
y

n
y
,
x

n
x
,
xy

n
xy
, где пху – число появлений пары чисел (х, у). Тогда


xy
система (10.3) примет вид:
2

(
n
x
)


(
n
x
)
b

n
xy


yx
xy

.
(10.5)
(
x
)


b

y

yx

Можно решить эту систему и найти параметры ρух и b, определяющие выборочное уравнение
прямой линии регрессии:
ух уххb.
Но чаще уравнение регрессии записывают в ином виде, вводя выборочный коэффициент
корреляции. Выразим b из второго уравнения системы (10.5):
bуухх.
y

(x
x
). Из (10.4)
Подставим это выражение в уравнение регрессии: y
x
yx
n
xy

n
x
y
n
xy

n
x
y



 ~ ,
n

xy
yx
xy
n
(
x

(
x
)
)
2
2
2
x
(10.6)
~2 x2 (x)2. Введем понятие выборочного коэффициента корреляции
где 
x
nxy

n
x
y

r
B
xy
~
~
n


x
y
~ x
и умножим равенство (4.12) на ~ :

y
~
~


yx ~x rB, откуда yx rB ~y . Используя это
y
x
соотношение, получим выборочное уравнение прямой линии регрессии Y на Х вида
~

y
y

y

r
(
x

x
).
(10.7)
x
B~

x
Лекция 11.
Статистическая проверка статистических гипотез. Общие принципы проверки гипотез.
Понятия статистической гипотезы (простой и сложной), нулевой и конкурирующей
гипотезы, ошибок первого и второго рода, уровня значимости, статистического критерия,
критической области, области принятия гипотезы. Наблюдаемое значение критерия.
Критические точки. Мощность критерия. Критерии для проверки гипотезы о вероятности
события.
Определение 11.1. Статистической гипотезой называют гипотезу о виде неизвестного
распределения генеральной совокупности или о параметрах известных распределений.
Определение 11.2. Нулевой (основной) называют выдвинутую гипотезу Н0. Конкурирую-щей
(альтернативной) называют гипотезу Н1, которая противоречит нулевой.
Пример. Пусть Н0 заключается в том, что математическое ожидание генеральной совокупности а =
3. Тогда возможные варианты Н1: а) а ≠ 3; б) а > 3; в) а < 3.
Определение 11.3. Простой называют гипотезу, содержащую только одно предположение,
сложной – гипотезу, состоящую из конечного или бесконечного числа простых гипотез.
Пример. Для показательного распределения гипотеза Н0: λ = 2 – простая, Н0: λ > 2 – сложная,
состоящая из бесконечного числа простых ( вида λ = с, где с – любое число, большее 2).
В результате проверки правильности выдвинутой нулевой гипотезы ( такая проверка называется
статистической, так как производится с применением методов математичес-кой статистики)
возможны ошибки двух видов: ошибка первого рода, состоящая в том, что будет отвергнута
правильная нулевая гипотеза, и ошибка второго рода, заключаю-щаяся в том, что будет принята
неверная гипотеза.
Замечание. Какая из ошибок является на практике более опасной, зависит от конкретной задачи.
Например, если проверяется правильность выбора метода лечения больного, то ошибка первого
рода означает отказ от правильной методики, что может замедлить лече-ние, а ошибка второго
рода (применение неправильной методики) чревата ухудшением состояния больного и является
более опасной.
Определение 11.4. Вероятность ошибки первого рода называется уровнем значимости α.
Основной прием проверки статистических гипотез заключается в том, что по имеющейся
выборке вычисляется значение некоторой случайной величины, имеющей известный закон
распределения.
Определение 11.5. Статистическим критерием называется случайная величина К с известным
законом распределения, служащая для проверки нулевой гипотезы.
Определение 11.6. Критической областью называют область значений критерия, при которых
нулевую гипотезу отвергают, областью принятия гипотезы – область значений критерия, при
которых гипотезу принимают.
Итак, процесс проверки гипотезы состоит из следующих этапов:
1) выбирается статистический критерий К;
2) вычисляется его наблюдаемое значение Кнабл по имеющейся выборке;
3) поскольку закон распределения К известен, определяется (по известному уровню
значимости α) критическое значение kкр, разделяющее критическую область и область
принятия гипотезы (например, если р(К > kкр) = α, то справа от kкр распо-лагается
критическая область, а слева – область принятия гипотезы);
4) если вычисленное значение Кнабл попадает в область принятия гипотезы, то нулевая
гипотеза принимается, если в критическую область – нулевая гипотеза отвергается.
Различают разные виды критических областей:
- правостороннюю критическую область, определяемую неравенством K > kкр ( kкр > 0);
- левостороннюю критическую область, определяемую неравенством K < kкр ( kкр < 0);
- двустороннюю критическую область, определяемую неравенствами K < k1, K > k2
(k2 > k1).
Определение 11.7. Мощностью критерия называют вероятность попадания критерия в
критическую область при условии, что верна конкурирующая гипотеза.
Если обозначить вероятность ошибки второго рода (принятия неправильной нулевой гипотезы) β,
то мощность критерия равна 1 – β. Следовательно, чем больше мощность критерия, тем меньше
вероятность совершить ошибку второго рода. Поэтому после выбора уровня значимости следует
строить критическую область так, чтобы мощность критерия была максимальной.
Критерий для проверки гипотезы о вероятности события.
Пусть проведено п независимых испытаний (п – достаточно большое число), в каждом из которых
некоторое событие А появляется с одной и той же, но неизвестной вероятностью р, и найдена
т
относительная частота
появлений А в этой серии испытаний. Проверим при заданном уровне
п
значимости α нулевую гипотезу Н0, состоящую в том, что вероятность р равна некоторому
значению р0.
Примем в качестве статистического критерия случайную величину
M

 p0 n
n
 ,
(11.1)
U
p0q0
имеющую нормальное распределение с параметрами M(U) = 0, σ(U) = 1 (то есть нормиро-ванную).
Здесь q0 = 1 – p0. Вывод о нормальном распределении критерия следует из теоремы Лапласа (при
достаточно большом п относительную частоту можно приближенно считать нормально
pq
распределенной с математическим ожиданием р и средним квадрати-ческим отклонением
).
n
Критическая область строится в зависимости от вида конкурирующей гипотезы.
1) Если Н0: р = р0, а Н1: р ≠ р0, то критическую область нужно построить так, чтобы
вероятность попадания критерия в эту область равнялась заданному уровню значимости α.
При этом наибольшая мощность критерия достигается тогда, когда критическая область
состоит из двух интервалов, вероятность попадания в каждый из которых равна

.
2
Поскольку U симметрична относительно оси Оу, вероятность ее попадания в интервалы (∞; 0) и (0; +∞) равна 0,5, следовательно, критическая область тоже должна быть
симметрична относительно Оу. Поэтому икр определяется по таблице значений функции
1

;
и
)
(
и
;
).
(икр)
Лапласа из условия Ф
, а критическая область имеет вид (
кр
кр
2
Замечание. Предполагается, что используется таблица значений функции Лапласа, заданной в
х
t2

2
(х)е dt, где нижний предел интегрирования равен 0, а не -∞. Функция Лапласа,
виде Ф
0
заданная таким образом, является нечетной, а ее значения на 0,5 меньше, чем значения
стандартной функции Ф(х) (см. лекцию 6).
Далее нужно вычислить наблюдаемое значение критерия:
т

 p0 n
n

.
U

набл
p0q0
Если |Uнабл| < uкр, то нулевая гипотеза принимается.
Если |Uнабл| > uкр, то нулевая гипотеза отвергается.
(11.2)
2) Если конкурирующая гипотеза Н1: р > p0, то критическая область определяется неравенством U
> uкр, то есть является правосторонней, причем р(U > uкр) = α. Тогда
1 1

2
р
(
0

U

u
)


 . Следовательно, икр можно найти по таблице значений функции
кр
2
2
12

(икр)
Лапласа из условия, что Ф
. Вычислим наблюдаемое значение критерия по формуле
2
(19.2).
Если Uнабл < uкр, то нулевая гипотеза принимается.
Если Uнабл > uкр, то нулевая гипотеза отвергается.
 
3) Для конкурирующей гипотезы Н1: р < p0 критическая область является левосторонней и
задается неравенством U <- uкр, где икр вычисляется так же, как в предыдущем случае.
Если Uнабл > - uкр, то нулевая гипотеза принимается.
Если Uнабл < - uкр, то нулевая гипотеза отвергается.
Пример. Пусть проведено 50 независимых испытаний, и относительная частота появления
события А оказалась равной 0,12. Проверим при уровне значимости α = 0,01 нулевую гипотезу Н0:
(
0
,
12

0
,
1
)50


0
,
471
.
р = 0,1 при конкурирующей гипотезе Н1: р > 0,1. Найдем U
набл
0
,
1

0
,
9
Критическая область является правосторонней, а икр нахо-дим из равенства Ф(икр) =
1

2
0
,01
0
,49
.Из таблицы значений функции Лапласа определяем икр = 2,33. Итак, Uнабл < uкр, и
2
гипотеза о том, что р = 0,1, принимается.
Лекция 12.
Критерии согласия. Критерий Пирсона для проверки гипотезы о виде закона распределения
случайной величины. Проверка гипотезы о нормальном распределении по критерию Пирсона.
Критерий Колмогорова.
Выше рассматривались гипотезы, в которых закон распределения генеральной совокупности
предполагался известным. Теперь займемся проверкой гипотез о предполагаемом законе
неизвестного распределения, то есть будем проверять нулевую гипотезу о том, что генеральная
совокупность распределена по некоторому известному закону. Обычно статистические критерии
для проверки таких гипотез называются критериями согласия.
Критерий Пирсона.
Достоинством критерия Пирсона является его универсальность: с его помощью можно проверять
гипотезы о различных законах распределения.
1. Проверка гипотезы о нормальном распределении.
Пусть получена выборка достаточно большого объема п с большим количеством различ-ных
значений вариант. Доя удобства ее обработки разделим интервал от наименьшего до наибольшего
из значений вариант на s равных частей и будем считать, что значения вари
ант, попавших в каждый интервал, приближенно равны числу, задающему середину интервала.
Подсчитав число вариант, попавших в каждый интервал, составим так называе-мую
сгруппированную выборку:
варианты………..х1 х2 … хs
частоты………….п1 п2 … пs ,
где хi – значения середин интервалов, а пi – число вариант, попавших в i-й интервал (эмпирические частоты).
По полученным данным можно вычислить выборочное среднее х В и выборочное среднее
квадратическое отклонение σВ. Проверим предположение, что генеральная совокупность
2
распределена по нормальному закону с параметрами M(X) = х В , D(X) =  В . Тогда можно найти
количество чисел из выборки объема п, которое должно оказаться в каждом интер-вале при этом
предположении (то есть теоретические частоты). Для этого по таблице значений функции Лапласа
найдем вероятность попадания в i-й интервал:

 

b
a
x
i x
B
i
B




p



,
i




 B  B 
где аi и bi - границы i-го интервала. Умножив полученные вероятности на объем выборки п,
найдем теоретические частоты: пi =n·pi. Наша цель – сравнить эмпирические и теоретические
частоты, которые, конечно, отличаются друг от друга, и выяснить, являются ли эти различия
несущественными, не опровергающими гипотезу о нормальном распределении исследуемой
случайной величины, или они настолько велики, что противоречат этой гипотезе. Для этого
используется критерий в виде случайной величины


2
(n
n
i)
.
(12.1)

n
i
1
i
Смысл ее очевиден: суммируются части, которые квадраты отклонений эмпирических частот от
теоретических составляют от соответствующих теоретических частот. Можно доказать, что вне
зависимости от реального закона распределения генеральной совокупно-сти закон распределения
2
случайной величины (20.1) при п   стремится к закону распределения  (см. лекцию 12) с
числом степеней свободы k = s – 1 – r, где r – число параметров предполагаемого распределения,
оцененных по данным выборки. Нормальное распределение характеризуется двумя параметрами,
поэтому k = s – 3. Для выбранного критерия строится правосторонняя критическая область,
определяемая условием
2
2
p
(



(

,k
))


,
(12.2)
kp
где α – уровень значимости. Следовательно, критическая область задается неравенством
2
2
2 kp
(
,k),а область принятия гипотезы - 2 kp
(,k).
Итак, для проверки нулевой гипотезы Н0: генеральная совокупность распределена нормально –
нужно вычислить по выборке наблюдаемое значение критерия:
s
2
(
n
n
2
i
i)


,
(12.1`)

набл

n
i
1
i
s
2i
2
а по таблице критических точек распределения χ2 найти критическую точку кр(, k) , используя
2
2
2
2
известные значения α и k = s – 3. Если набл kp - нулевую гипотезу принимают, при набл kp
ее отвергают.
Критерий Колмогорова.
Этот критерий применяется для проверки простой гипотезы Н0 о том, что независимые одинаково
распределенные случайные величины Х1, Х2, …, Хп имеют заданную непрерыв-ную функцию
распределения F(x).
Найдем функцию эмпирического распределения Fn(x) и будем искать границы двусторон-ней
критической области, определяемой условием
D

sup
|F
(
x
)

F
(
x
)
|


n
n
n
.
(12.3)
|x
|


А.Н.Колмогоров доказал, что в случае справедливости гипотезы Н0 распределение статистики Dn
не зависит от функции F(x), и при п  
p
(n
D

)

K
(),
0
,
n
 

где
m
m

K
(

)
(

1
)
e2

22
m


(12.4)
- критерий Колмогорова, значения которого можно найти в соответствующих таблицах.
Критическое значение критерия λп(α) вычисляется по заданному уровню значимости α как корень
).
уравнения p(D
n 
РАЗДЕЛ 4. Словарь терминов (глоссарий).
Событием называется всякий факт, который может произойти или не произойти в
результате опыта.
Достоверным событием называется событие, которое наверняка произойдет в результате
опыта. Событие называется невозможным, если оно никогда не произойдет в результате опыта.
Полной группой событий называется совокупность всех возможных результатов опыта.
Элементарными исходами опыта называются такие результаты опыта, которые взаимно
исключают друг друга и в результате опыта происходит одно из этих событий, также каково бы ни
было событие А, по наступившему элементарному исходу можно судить о том, происходит или не
происходит это событие.
Совокупность всех элементарных исходов опыта называется пространством
элементарных событий.
События называются равновозможными, если нет оснований считать, что одно из них
появится в результате опыта с большей возможностью.
События называются несовместными, если появление одного из них исключает появление
других.
Вероятностью события А называется математическая оценка возможности появления этого
события в результате опыта. Вероятность события А равна отношению числа
благоприятствующих событию А исходов опыта к общему числу попарно несовместных исходов
опыта, образующих полную группу событий.
P(A) 
m
n
Исход опыта является благоприятствующим событию А, если появление в результате опыта этого исхода влечет
за собой появление события А.
Относительной частотой события А называется отношение числа опытов, в результате
которых произошло событие А к общему числу опытов.
Статистической вероятностью события А наз. относительную частоту этого события .
Геометрические вероятности - вероятности попадания точки в какой – либо отрезок или
часть плоскости (пространства).
Так если на отрезке длиной L выделен отрезок длины l, то вероятность попадания наугад взятой
точки в отрезок l равна отношению l/L.
События А и В называются равными, если осуществление события А влечет за собой
осуществление события В и наоборот.
Суммой событий Аk называется событие A, которое означает появление хотя бы одного из
событий Аk.
Произведением событий Ak называется событие А, которое заключается в осуществлении всех
событий Ak.
Разностью событий А и В называется событие С, которое означает, что происходит событие А,
но не происходит событие В.
Противоположным к событию А называется событие А ,означающее,что событие А не
происходит.
Событие А называется независимым от события В, если вероятность события А не зависит от
того, произошло событие В или нет. Событие А называется зависимым от события В, если
вероятность события А меняется в зависимости от того, произошло
1
событие В или нет.
Вероятность события В, вычисленная при условии, что имело место событие А, называется
условной вероятностью события В.
Если производится некоторое количество испытаний, в результате которых может произойти
или не произойти событие А, и вероятность появления этого события в каждом из испытаний не
зависит от результатов остальных испытаний, то такие испытания называются независимыми
относительно события А.
Случайной величиной называется величина, которая в результате опыта может принимать то
или иное значение, причем заранее не известно какое именно.
Дискретной случайной величиной называется такая величина, которая в результате опыта
может принимать определенные значения с определенной вероятностью, образующие счетное
множество (множество, элементы которого могут быть занумерованы).
Непрерывной случайной величиной называется такая величина, которая может принимать
любые значения из некоторого конечного или бесконечного промежутка.
Соотношение между возможными значениями случайной величины и их вероятностями
называется законом распределения дискретной случайной величины.
Закон распределения может быть задан аналитически, в виде таблицы или графически.
Таблица соответствия значений случайной величины и их вероятностей называется рядом
распределения.
Графическое представление этой таблицы называется многоугольником распределения.
При этом сумма все ординат многоугольника распределения представляет собой вероятность всех
возможных значений случайной величины, а, следовательно, равна единице.
Числовыми характеристиками случайной величины называются величины , которые
определяют некоторое среднее значение, вокруг которого группируются значения случайной
величины, и степень их разбросанности вокруг этого среднего значения.
Математическим ожиданием дискретной случайной величины называется сумма
произведений всех возможных значений случайной величины на их вероятности.
n
m

M
(
X
)

x
p

x
p

...

x
p

x
p

x
1
1
2
2
n
n
i
i
i

1
Математическое ожидание существует, если ряд, стоящий в правой части равенства,
сходится абсолютно. Математическое ожидание приближенно равно среднему арифметическому
наблюдаемых значений случайной величины.
Дисперсией (рассеиванием) дискретной случайной величины называется математическое
ожидание квадрата отклонения случайной величины от ее математического ожидания.
2
X

D
(
X
)
M

M
(
X
)
Средним квадратическим отклонением случайной величины Х называется квадратный

(X) D
(X)
корень из дисперсии
Функцией распределения называют функцию F(x), определяющую вероятность того, что
случайная величина Х в результате испытания примет значение, меньшее х.
F
(x
)P
(Xx
)
Функцию распределения также называют интегральной функцией.
Функция распределения существует как для непрерывных, так и для дискретных случайных
величин. Она полностью характеризует случайную величину и является одной из форм закона
распределения.
Для дискретной случайной величины функция распределения имеет вид:
F
(x
)
P
(X

x

i)
x
x
i
Знак неравенства под знаком суммы показывает, что суммирование распространяется на те
возможные значения случайной величины, которые меньше аргумента х.
Функция распределения дискретной случайной величины Х разрывна и возрастает
скачками при переходе через каждое значение хi.
Плотностью распределения вероятностей непрерывной случайной
называется функция f(x) – первая производная от функции распределения F(x).
f(x)F(x).
величины
Х
Плотность распределения также называют дифференциальной функцией. Для описания
дискретной случайной величины плотность распределения неприемлема.
После введения функций распределения и плотности распределения можно дать
следующее определение непрерывной случайной величины.
Случайная величина Х называется непрерывной, если ее функция распределения F(x)
непрерывна на всей оси ОХ, а плотность распределения f(x) существует везде, за исключением,
может быть, конечного числа точек.
Математическим ожиданием непрерывной случайной величины Х, возможные значения
которой принадлежат отрезку [a,b], называется определенный интеграл
b
M
(X
)xf
(x
)dx
a
Если возможные значения случайной величины рассматриваются на всей числовой оси, то
математическое ожидание находится по формуле:

M
(X
)xf
(x
)dx


При этом предполагается, что несобственный интеграл сходится.
Дисперсией непрерывной случайной величины называется математическое ожидание
квадрата ее отклонения.

2
D
(
X
)

[
x

M
(
X
)]
f
(
x
)
dx



По аналогии с дисперсией дискретной случайной величины, для практического вычисления
дисперсии используется формула:

2
2
D
(
X
)

x
f
(
x
)
dx

[
M
(
X
)]



Средним квадратическим отклонением называется квадратный корень из дисперсии.

(X) D
(X)
Модой М0 дискретной случайной величины называется ее наиболее вероятное значение.
Для непрерывной случайной величины мода – такое значение случайной величины, при
которой плотность распределения имеет максимум.
f(M
.
0)max
Медианой MD случайной величины Х называется такое ее значение, относительно
которого равновероятно получение большего или меньшего значения случайной величины
P
(
X

M
)

P
(
X

M
)
D
D
Геометрически медиана – абсцисса точки, в которой площадь, ограниченная кривой
распределения делится пополам.
Начальным моментом порядка k случайной величины Х называется математическое
[Xk].
ожидание величины Х . : k M
k
n
xik pi .
Для дискретной случайной величины: k 
i1

xkf(x
)dx
Для непрерывной случайной величины: 
.
k 


Центральным моментом порядка k случайной величины Х называется математическое
k
k

M
[(
X

m
ожидание величины (Xmx ) .:
k
x)]
n
(
x
m
)kp
Для дискретной случайной величины: 

k
i
x
i.
i
1

k
m
)
f(
x
)
dx
Для непрерывной случайной величины: 
.
k
x
(x


Отношение центрального момента третьего порядка к среднему квадратическому

ax  33
отклонению в третьей степени называется коэффициентом асимметрии.
x
Для характеристики островершинности и плосковершинности распределения используется
4
величина, называемая эксцессом. Cx  4 3
x
Непрерывная случайная величина имеет равномерное распределение на отрезке [a, b], если
на этом отрезке плотность распределения случайной величины постоянна, а вне него равна нулю
0
, xa


C
, axb
: f(x)

0
, xb

Показательным (экспоненциальным) называется распределение вероятностей
непрерывной случайной величины Х, которое описывается плотностью
0
, при
x

0

f(
x
)



x

e
, при
x

0

где  - положительное число.
Функцией надежности R(t) называют функцию, определяющую вероятность безотказной
работы устройства в течение времени t.
Функция надежности для какого- либо устройства при показательном законе распределения
равна:


t
R
(
t)
1

F
(
t)
e
.
Данное соотношение называют показательным законом надежности.
Нормальным называется распределение вероятностей непрерывной случайной величины,
1
2
(x

m
)
x
 2
2

x
x
)
e
;
которое описывается плотностью вероятности f(


x 2
Нормальный закон распределения также называется законом Гаусса.
График плотности нормального распределения называется нормальной кривой или
кривой Гаусса.
x
2 t2
(x
) e dt
Функция 
называется функцией Лапласа или интегралом вероятностей.
0
Значения этой функции при различных значениях х посчитаны и приводятся в специальных
таблицах.
Функцию Лапласа также называют функцией ошибок и обозначают erf x.
Еще используется нормированная функция Лапласа, которая связана с функцией Лапласа
x
2
1
x

 1
t
/
2

(
x
)


 
e
dt
;

соотношением:
2

2
 2
0
При рассмотрении нормального закона распределения выделяется важный частный случай,
известный как правило трех сигм.
P
(
X

m

3

)

2

(
3
)

2

0
,
49865

0
,
9973
,
т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на
величину, большую , чем утроенное среднее квадратическое отклонение практически равна нулю.
Законом распределения системы случайных величин называется соотношение,
устанавливающее связь между областями возможных значений системы случайных величин и
вероятностями появления системы в этих областях.
Функцией распределения системы двух случайных величин называется функция двух
аргументов F(x, y), равная вероятности совместного выполнения двух неравенств X<x, Y<y.:
F
(
x
,y
)

P
(
X

x
,
Y

y
)
Плотностью совместного распределения вероятностей двумерной случайной величины
(X, Y) называется вторая смешанная частная производная от функции распределения :
2

F
(x
,y
)
f(x
,y
)

x

y
Математическая статистика – раздел математики, в котором изучаются методы сбора,
систематизации и обработки результатов наблюдений массовых случайных явлений для
выявления существующих закономерностей
Генеральная
совокупность
–
совокупность
всех
подлежащих
изучению
объектов относительно некоторого признака (с.в.) Х.
Выборочная совокупность ( выборка ) – ограниченная совокупность объектов. отобранных
случайным образом из генеральной совокупности.
Выборка наз. репрезентативной, если она достаточно хорошо представляет изучаемый
признак Х объектов генеральной совокупности.
Объём генеральной или выборочной совокупности – число объектов (наблюдений) в
соответствующей совокупности.
Варианты x1, x2,...,xn – значения изучаемого признака (с.в.) Х.
Ранжирование статистических данных – операция расположения вариант по неубыванию.
Вариационный ряд - последовательность вариант, записанных в неубывающем порядке.
Частота варианты xi - число ni , показывающее, сколько раз встречается эта варианта в
ряде наблюдений.
Относительная частота варианты wi - отношение частоты варианты к объёму выборки.
Статистическим распределением выборки
называется
перечень вариант и
соответствующих им частот или относительных частот.
Эмпирической ( выборочной ) функцией распределения называется функция ,
определяемая соотношением
Fn* ( x)  W(X<x).
Полигон частот - ломаная с вершинами в точках ( хi , ni ).
Полигон относительных частот - ломаная с вершинами в точках ( xi . wi ).
Гистограмма частот (относительных частот) - ступенчатая фигура, состоящая из
прямоугольников, основаниями которых служат частичные интервалы длины h , а высоты равны

ni
wi
плотностям частот
( плотностям относительных частот
). Выборочная средняя
xв h
h
среднее арифметическое всех вариант выборки.
Выборочная дисперсия Dв среднее арифметическое квадратов отклонений всех вариант от
выборочной средней.
Выборочное среднее квадратическое отклонение (с.к.о.)  в есть квадратный корень из
выборочной дисперсии.
Исправленная выборочная дисперсия. S 2 определяется соотношением
n
Dв
S2 
n 1
Исправленное выборочное с.к.о. S есть квадратный корень из исправленной выборочной
дисперсии.
Размах вариации R - разность между наибольшей и наименьшей вариантами
Мода M 0 вариационного ряда - варианта, имеющая наибольшую частоту.
Медиана me - варианта, стоящая в середине вариационного ряда.
Статистикой
называют всякую функцию результатов наблюдений, т.е. любую функцию
*
Xn)
выборки   ( X1,X2,...,
Статистической оценкой  * неизвестного параметра  теоретического распределения
изучаемого признака Х называется статистика  * , которая в определённом смысле близка к
истинному значению  .
Точечная статистическая оценка (т.с.о.) есть стат. оценка  * , определяемая одним
числом.
*
Т.с.о.  * называется несмещённой т.с.о. параметра  , если M() .
В противном случае, т.с.о.  * называется смещённой т.с.о. параметра  .
Т.с.о.  * параметра  называется состоятельной, если она сходится по вероятности к
оцениваемому параметру.
Т.с.о.  * параметра  называется эффективной, если её дисперсия минимальна.
Оценка неизвестного параметра  называется интервальной, если она
Определяется двумя числами - концами интервала, в котором находится  .
*
*
Интервал ( 1 ,  2 ), покрывающий с заданной вероятностью  истинное

значение параметра  , называется доверительным интервалом, а вероятность
надёжностью оценки или доверительной вероятностью.
Случайные величины X и Y называются независимыми, если изменение любой из них не
влечёт изменение распределения другой.
Если изменение хотя бы одной из случайных величин X или Y влечёт изменение распределения
другой, то зависимость между Х и Y называется
статистической.
Статистическая зависимость, при которой изменение одной с.в. влечёт
среднего значения другой с.в. наз. корреляционной.
изменение
Условным средним y x наз. среднее арифметическое значений с.в. Y, соответствующих
значению с.в. Х: Х=х
Корреляционной зависимостью с. в. Y от с. в. Х наз. функциональную
y x = f(x).
зависимость условной средней y x от х:
Соотношение y x = f(x) наз. уравнением регрессии с.в. Y на с.в. X.
Функцию f(x) наз. функцией регрессии с.в. Y на с.в. X.
График Функции f(x) наз. линией регрессии с.в. Y на с.в. X.
Аналогично определяются уравнение регрессии с.в. X на с.в. Y,
функция g(y) регрессии с.в.. X на с.в. Y, линия регрессии с.в. X на с.в. Y.
Если обе функции регрессии f(x) и g(y) - линейны, то корреляцию наз.
линейной; в противном случае – нелинейной корреляцией.
Уравнения линий регрессии, найденные по результатам выборки, наз.
выборочными уравнениями регрессии.
Статистической гипотезой (или просто гипотезой) называется всякое предположение о
виде распределения изучаемого признака или о неизвестных параметрах известного
распределения изучаемого признака.
Выдвинутую гипотезу H 0 называют нулевой или основной
Конкурирующей или альтернативной называют гипотезу H 1 , которая противоречит
основной гипотезе.
Гипотезу, содержащую только одно предположение, называют простой,
в противном случае - сложной.
При стат. проверке стат.
гипотезы могут быть допущены ошибки двух родов:
Ошибка первого рода состоит в том, что отвергается нулевая гипотеза, когда она на самом деле
верна. Ошибка второго рода состоит в том, что отвергается альтернативная гипотеза, когда она
на самом деле верна.
Вероятность ошибки первого рода называется уровнем значимости и обозначается через
.
Специально подобранная случайная величина K , которая служит для проверки нулевой
гипотезы,
наз. статистическим критерием или просто критерием.
Наблюдаемое значение статистического критерия K набл - это значение стат. критерия,
вычисленное по произведённой выборке.
Критическая область - это множество возможных значений стат. критерия, при которых
нулевая гипотеза отвергается.
Область принятия гипотезы – это множество возможных значений стат. критерия , при
которых нулевая гипотеза принимается.
Критические точки k кр , или квантили - это точки, которые разграничивают критическую
область и область принятия гипотезы.
Правосторонняя критическая область определяется неравенством K> k кр1 >0 .
Левосторонняя критическая область определяется неравенством K< k кр 2 <0 .
Двусторонняя критическая область определяется совокупностью указанных выше
неравенств.
Критерием согласия наз. стат. критерий проверки гипотезы о предполагаемом законе
распределения изучаемого признака генеральной совокупности.
РАЗДЕЛ 5. Практикум по решению задач по темам лекций.
Примеры решения задач.
Пример 1. Найти вероятность того, что точка, наудачу брошенная в круг, не попадет в правильный
шестиугольник, вписанный в него.
Решение. Пусть радиус круга равен R , тогда сторона шестиугольника тоже равна R. При этом
33 2
2
площадь круга S  R , а площадь шестиугольника s
R .Следовательно,
2
3
23
2
R
R
S

s

3
3
2 
p
 

0
,
174
.
2
S
2
R
Пример 2. На отрезок АВ случайным образом брошены три точки: С, D и М. Найти вероятность
того, что из отрезков АС, АD и АМ можно построить треугольник.
Решение. Обозначим длины отрезков АС, АD и АМ через x, y и z и рассмотрим в качестве
возможных исходов множество точек трехмерного пространства с координатами (х, у, z). Если
принять длину отрезка равной 1, то эти множество возможных исходов представляет собой куб с
ребром, равным 1. Тогда множество благоприятных исходов состоит из точек, для координат
которых выполнены неравенства треугольника: x + y > z, x + z > y,
y + z > x. Это часть
куба, отрезанная от него плоскостями x + y = z, x + z = y, y + z = x




хРис.1.
(одна из них, плоскость x + y = z, проведена на рис.1). Каждая такая плоскость отделяет от куба
1 1
1
пирамиду, объем которой равен  1 . Следовательно, объем оставшейся части
3 2
6
1 1
v 1
1
v13  . Тогда p  :1
.
6 2
V 2
2
Пример 3. Из урны, содержащей 2 белых и 6 черных шаров, случайным образом извлекаются 5
шаров. Найти вероятность того, что вынуты шары разных цветов.
Решение. Событие А , противоположное заданному, заключается в том, что из урны вынуто 5
шаров одного цвета, а так как белых шаров в ней всего два, то этот цвет может быть только
черным. Множество возможных исходов опыта найдем по формуле (1.5):
8
! 6

7

8
5
п

С

56
,
8 
5
!

3
! 6
а множество исходов, благоприятных событию А - это число возможных наборов по 5 шаров
только из шести черных:
тА С65 6.
6 3
3 25
(А
)  , а р
(А
)
1
  .
Тогда р
5628
2828
Пример 4. Пусть событие А – извлечение из колоды в 32 карты туза, а событие В – то, что и
вторая вынутая из колоды карта окажется тузом. Тогда, если после первого раза карта была
возвращена в колоду, то вероятность вынуть вторично туз не меняется:
41
р
(
В
)

р
(
А
)
 
0
,
125
.Если же первая карта в колоду не возвращается, то осуществление
32
8
события А приводит к тому, что в колоде осталась 31 карта, из которых только 3 туза. Поэтому
3
р
(
В
/А
) 
0
,097
.
31
Пример 5. Для поражения цели необходимо попасть в нее дважды. Вероятность первого
попадания равна 0,2, затем она не меняется при промахах, но после первого попадания
увеличивается вдвое. Найти вероятность того, что цель будет поражена первыми двумя
выстрелами.
Решение. Пусть событие А – попадание при первом выстреле, а событие В – попадание при
втором. Тогда р (А) = 0,2, р (В/А) = 0,4, р (АВ) = 0,2·0,4 = 0,08.
Пример 6. Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания при
одном выстреле равны соответственно 0,6 и 0,7. Найти вероятности следующих событий:
А – хотя бы одно попадание при двух выстрелах;
В – ровно одно попадание при двух выстрелах;
С – два попадания;
D – ни одного попадания.
Решение. Пусть событие Н1 – попадание первого стрелка, Н2 – попадание второго. Тогда
Н

Н
Н
,D

H
H
.События Н1 и Н2 совместны и
2
1Н
2, С
1
2
1
2
А = Н1 + Н2, В =Н1 Н
независимы, поэтому теорема сложения применяется в общем виде, а теорема умножения – в виде
(2.8). Следовательно, р(С) = 0,6·0,7 = 0,42,
р(А) = 0,6 + 0,7 – 0,42 = 0,88,
р(B) = 0,6·0,3 + 0,7·0,4 = 0,46 (так как события Н 1  Н 2 и Н 1  Н 2 несовместны),
р(D) = 0,4·0,3 = 0,12. Заметим, что события А и D являются противоположными, поэтому
р(А) = 1 – р(D).
Пример 7. Имеются три одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во
второй – 2 белых и 5 черных, в третьей – 10 черных шаров. Из случайно выбранной урны наудачу
вынут шар. Найти вероятность того, что он белый.
Решение. Будем считать гипотезами Н1, Н2 и Н3 выбор урны с соответствующим номером. Так как
1
(
Н
)

р
(
Н
)

р
(
Н
)

.Найдем
по условию задачи все гипотезы равновозможны, то р
1
2
3
3
3
условную вероятность А при реализации каждой гипотезы: р(А/Н
1) ,
7
2
1
3
1
2
1 5
р
(
А
/
Н
)

,р
(
А
/
Н
)

0
.Тогда р
(
А
)




0


0
,
238
.
2
3
7
3
7
3
7
3 21
Пример 8. После двух выстрелов двух стрелков, вероятности попаданий которых равны 0,6 и 0,7, в
мишени оказалась одна пробоина. Найти вероятность того, что попал первый стрелок.
Решение. Пусть событие А – одно попадание при двух выстрелах, а гипотезы: Н1 – первый попал, а
второй промахнулся, Н2 – первый промахнулся, а второй попал, Н3 – оба попали, Н4 – оба
промахнулись. Вероятности гипотез: р(Н1) = 0,6·0,3 = 0,18, р(Н2) = 0,4·0,7 = 0,28, р(Н3) = 0,6·0,7 =
0,42, р(Н4) = 0,4·0,3 = 0,12. Тогда р(А/Н1) = р(А/Н2) = 1,
р(А/Н3) = р(А/Н4) = 0.
Следовательно, полная вероятность р(А) = 0,18·1 + 0,28·1 + 0,42·0 + 0,12·0 = 0,46. Применяя
формулу Байеса, получим:
0
,
18

19
р
(
Н
/
А
)
 
0
,
391
.
1
0
,
46
23
Пример 9 .При проведении 20 серий из 10 бросков игральной кости число выпадений шести очков
оказалось равным 1,1,4,0,1,2,1,2,2,0,5,3,3,1,0,2,2,3,4,1.Составим вариационный ряд: 0,1,2,3,4,5.
Статистический ряд для абсолютных и относительных частот имеет вид:
xi
0
1
2
3
4
5
ni
3
6
5
3
2
1
wi
0,15
0,3
0,25
0,15
0,1
0,05
Пример 10. Найдем числовые характеристики выборки, заданной статистическим рядом
xi
ni
2
3
5
8
7
7
8
2

2

3

5

8

7

7

8

24

3

25

8

49

7

64

2
2
х


5
,
55
;
D


5
,
55

3
,
34
;

3
,
3

1
,
8
.
В
B
B
20
20
Другими характеристиками вариационного ряда являются:
- мода М0 – варианта, имеющая наибольшую частоту (в предыдущем примере М0 = 5 ).
- медиана те - варианта, которая делит вариационный ряд на две части, равные по числу вариант.
xk xk1
Если число вариант нечетно ( n = 2k + 1 ), то me = xk+1, а при четном n =2k т
.В
е
2
57
6.
частности, в примере 1 m
e
2
Пример 11. Найдем доверительный интервал для математического ожидания нормально распределенной случайной величины, если объем выборки п = 49, xB  2,8, σ = 1,4, а доверительная
вероятность γ = 0,9.
Определим t, при котором Ф(t) = 0,9:2 = 0,45: t = 1,645. Тогда
1
,
645

1
,
4
1
,
645

1
,
4
2
,
8


a

2
,
8

, или 2,471 < a < 3,129. Найден доверительный интервал, в
49
14
который попадает а с надежностью 0,9.
Пример 12. Пусть объем выборки п = 25, х В = 3, s = 1,5. Найдем доверительный интервал для а при
γ = 0,99.
2
,
797

1
,
5
2
,
797

1
,
5


a

3

Из таблицы находим, что tγ (п = 25, γ = 0,99) = 2,797. Тогда 3
, или
25
25
2,161< a < 3,839 – доверительный интервал, в который попадает а с вероятностью 0,99.
Пример 13. Пусть п = 20, s = 1,3. Найдем доверительный интервал для σ при заданной надежности
γ = 0,95.
Из соответствующей таблицы находим q (n = 20, γ = 0,95 ) = 0,37. Следовательно, границы
доверительного интервала: 1,3(1-0,37) = 0,819 и 1,3(1+0,37) = 1,781. Итак, 0,819 < σ < 1,781 с
вероятностью 0,95.
Пример 14. Пусть проведено 50 независимых испытаний, и относительная частота появления
события А оказалась равной 0,12. Проверим при уровне значимости α = 0,01 нулевую гипотезу Н0:
р = 0,1 при конкурирующей гипотезе Н1: р > 0,1.
(
0
,
12

0
,
1
)50


0
,
471
.Критическая область является правосторонней, а икр
Найдем U
набл
0
,
1

0
,
9
1

2
0
,01
0
,49
.Из таблицы значений функции Лапласа
находим из равенства Ф(икр) =
2
определяем икр = 2,33. Итак, Uнабл < uкр, и гипотеза о том, что р = 0,1, принимается.
Тексты задач для самостоятельного решения.
Задача №1.
Для изучения количественного признака X из генеральной совокупности извлечена выборка:
xi 130 140 150 160 170 180 190
ni 5
10 30 25 15 10
5,
(где xi - выборочные варианты, а ni - соответствующие частоты признака X)
Требуется:
1) Найти точечные оценки генеральной средней, генеральной дисперсии и генерального C.К.О.
2) Указать какие из найденных оценок являются смещенными, а какие - несмещенными.
3) Считая, что признак X распределен нормально, найти доверительный интервал для оценки его
математического ожидания с надежностью =0,95.
Задача №2.
Найти выборочные уравнения прямых линий регрессии признаков Y на X и X на Y по данной
выборке:
(x,y)
(4;10)
(9;10)
(9;20)
(14;20)
(14;30)
(14;40)
nxy
2
3
7
3
2
1
(19;30)
50
(19;40)
10
(19;50)
4
(24;30)
2
(24;40)
6
(24;50)
7
(29;50)
3
Начертить график этих уравнений в одной системе координат. Сделать вывод о силе
зависимости между X и Y.
Задача №3.
По выборкам объемов n=60 и m=50, извлеченным из нормальных генеральных совокупностей
X и Y, дисперсии которых D(X)=96, D(Y)=120, найдены выборочные средние x =13,8 и y =17,1.
Требуется при уровне значимости =0,05 установить, значимо или незначимо различаются
выборочные средние.
Ответы:
Задача №1:
1,2) xB =158,5 - несмещённая точечная статистическая оценка для xГ
DB=212,75 - смещённая точечная статистическая оценка для DГ
в=14,59 - смещённая точечная статистическая оценка для г
3) 155,6<a<161,4 - доверительный интервал для a=M(X)
Задача №2:
y x =1,67x+1,6; x y =0,4y+5,45. Линейная зависимость между X и Y достаточно сильная, т.к.
rв=0,82 - близок к 1.
Задача №3:
Выборочные средние
x =13,8 и
y =17,1 отличаются незначимо.
РАЗДЕЛ 6. Изменения в рабочей программе, которые произошли после утверждения
программы.
Характер
изменений в
программе
Не было
Номер и дата
протокола заседания
кафедры, на котором
было принято
данное решение
-
Подпись заведующего
кафедрой,
утверждающего
внесенное изменение
-
Подпись декана
факультета (проректора
по учебной работе),
утверждающего данное
изменение
-
РАЗДЕЛ 7. Учебные занятия по дисциплине ведут:
Ф.И.О., ученое
звание и степень
преподавателя
Кандидат физ.-мат.
наук, доцент
Зотиков С.С.
Учебный
год
Факультет
2007-2008
ФМФ
Специальность
050201.00 – математика-физика, 3 курс,
050202.00 –информатика, 3 курс.
Мартынов
Олег
Михайлович,
кандидат
физикоматематических
наук, доцент
2010-2011
ФМОИиП 050201.00 “Математика с дополнительной
специальностью информатика”
Побойкин Владимир
Яковлевич
2011-2012
ФМОИиП 050201.00 “Математика с дополнительной
специальностью информатика”
Download