Методичекские рекомендации по дисциплине Б2.Б.5 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА по направлению

advertisement
Методичекские рекомендации
по дисциплине Б2.Б.5 ТЕОРИЯ ВЕРОЯТНОСТЕЙ И
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
по направлению
080100.62 Экономика, профиль Экономика предприятий и
организаций
1. Программа учебной дисциплины
4. Цели освоения дисциплины
Целями освоения дисциплины Теория вероятностей и математическая статистика
являются:
 Освоение материала, лежащего в основе математического подхода к анализу
процессов, происходящих в обществе и предсказанию их динамики.
 изучение методов обработки результатов опытов и получение обоснованных выводов о закономерностях стохастических явлений.
 введение студентов в методологию, подходы, математические методы анализа
явлений и процессов в условиях неопределенности
 формирование в общей системе знаний обучающихся по гуманитарным
специальностям профессиональной культуры и специального вероятностного
мышления, необходимого для успешной исследовательской и аналитической
работы во многих современных областях науки.
 формирование представлений о математических методах сбора, систематизации,
обработки и интерпретации результатов наблюдений для выявления
статистических закономерностей.
 изучение методов математической статистики, используемых при решении
практических задач.
Успешное изучение данной дисциплины вносит вклад в решение таких
профессиональных задач, как участие в подготовке и проведении фундаментальных и
прикладных исследований на этапах планирования, сбора, обработки и анализа данных;
обработка социальной, экономической и другой релевантной эмпирической информации с
привлечением широкого круга источников на основе использования современных
научных методов и технологий; участие в подготовке обзоров и аннотаций;
интерпретация данных исследований и другой эмпирической информации; участие в
подготовке отчетов, аналитических записок, профессиональных публикаций,
информационных материалов по результатам исследовательских работ; участие в
разработке методического инструментария, нормативных документов, информационных
материалов для осуществления исследовательской, аналитической и консалтинговой
проектной деятельности; участие в разработке и проведении исследований по
диагностике, оценке, оптимизации экономических показателей, процессов и отношений;
участие в разработке, реализации и распространении результатов проектов; техническое и
информационное обеспечение исследований; формирование и анализ информационных
массивов.
5. Место дисциплины в структуре ООП ВПО
Дисциплина Теория вероятностей и математическая статистика относится к базовой части
математического и естественно-научного цикла Б2.
Изучение дисциплины направлено на развитие у обучающихся навыков по работе с
математическим аппаратом теории вероятностей и математической статистики, на
подготовку их к системному восприятию дальнейших дисциплин из учебного плана,
использующих методы вероятностно-статистического анализа; на получение
представлений об основных идеях и методах и развитие способностей сознательно
использовать материал курса, умение разбираться в существующих математических
методах и моделях и условиях их применения на практике.
Специальные требования к входным знаниям, умениям и компетенциям студента не
предусматриваются. Является предшествующей для математических дисциплин,
изучаемых в дальнейшем.
6. Компетенции обучающегося, формируемые в результате освоения дисциплины
(модуля) * ПК-19, ПК-20.
В результате освоения дисциплины обучающийся должен:
1) Знать: понятия и утверждения, входящие в содержание дисциплины, доказательства
теорем. В частности, знать понятия: вероятность (классическая и статистическая),
распределение вероятности и его характеристики, случайная величина и её
характеристики, схема независимых испытаний, теоремы Муавра и Пуассона, цепь
Маркова, законы больших чисел, центральная предельная теорема, генеральная
совокупность, выборка, выборочные характеристики, вариационный ряд, порядковые
статистики, оценивание параметров, точечные оценки, интервальные оценки; знать
количественные методы оценки случайных событий, величин, систем величин;
2)
Уметь: формально ставить задачи определения вероятностей, применять методы
обработки результатов наблюдений, решать задачи по разделам курса, применяя
теоретический материал, творчески подходить к решению профессиональных задач,
ориентироваться в нестандартных условиях и ситуациях, анализировать возникающие
проблемы.
3)
Владеть: математическим аппаратом обработки статистических данных
7. Объем дисциплины (модуля) и виды учебной работы
Общая трудоемкость дисциплины (модуля) составляет 5 зачетных единиц
(из расчета 1 ЗЕТ= 36 часов);

ЛК
180/5
72
10
30
ПР/
СМ
Л
Б
42/118
0
Часы на СРС
. (для дисц-н с экзаменом,
включая часы на экзамен)*
Часов в интеракт.форме. (из
ауд.)
3
Всего аудит.
2
Трудоемкость в
часах/ЗЕТ
экономика
1
Семестр
№
п/п
Курс
Шифр и наименование
направления с указанием
профиля (названием
магистерской программы),
формы обучения
Виды учебной работы в часах
108
Вид итогового контроля (форма
отчетности)
180 часов.
экзамен
Общее количество часов по СРС в данной таблице для дисциплин с формой контроля
«Экзамен» высчитывается так же как и для дисциплин с формой контроля «Зачёт», где
общее количество часов на СРС равно разности общей трудоёмкости по дисциплине и
общего количества аудиторной работы.
8. Содержание дисциплины (модуля)
2
Разделы дисциплины (модуля) и виды занятий (в часах). Примерное распределение
учебного времени:
Количество часов
№
п/
п
Вариант 1
Наименование
раздела, темы
Основные
понятия и теоремы
теории
вероятностей.
Повторные
независимые
испытания.
Случайные
величины.
Основные законы
распределения.
Многомерные
случайные
величины.
Закон больших
чисел и
предельные
теоремы.
Элементы теории
случайных
процессов
Вариационные
ряды и их
характеристики.
Теория
выборочного
метода.
Проверка
статистических
гипотез.
Дисперсионный
анализ.
Корреляционный
анализ.
1
2
3
4
5
6
7
8
9
Вариант 2
Всего
ауд.ч./в
интеракт
.ф.
Л
К
12/0
6
8/20
20
14/2
6
10/20
20
8/2
4
4/11
11
4/2
2
2/11
11
4/2
2
2/11
11
6/2
6
6/2
2
4/2
2
6/4
4
2/2
2
4/2
2
2/2
2
2/2
2
ПР/
СМ
Л
Б
Часо
в на
СРС
Всего
ауд.ч./в
интеракт.ф
.
Л
К
ПР
/
СМ
Л
Б
Часо
в на
СРС
Содержание разделов дисциплины (модуля) (указать краткое содержание раздела
(темы) с обязательным указанием номера раздела (темы).
№
Наименование раздела
Содержание раздела дисциплины
п/п
дисциплины
Основные понятия и Опыт, множество элементарных исходов опыта,
теоремы
теории событие. Классическое, статистическое (частотное),
1
вероятностей.
геометрическое
определение
вероятности.
Повторные независимые Субъективная
вероятность.
Математическое
9.
3
испытания.
2
Случайные величины.
Основные
законы
распределения.
3
Многомерные
случайные величины.
4
Закон больших чисел и
предельные теоремы.
5
Элементы
теории
случайных процкссов.
6
Вариационные ряды и
их
характеристики.
Теория
выборочного
метода.
определение вероятности. Исчисление событий.
Вероятности
как
«эмпирические
частоты».
Использование
методов
комбинаторики
для
вычисления
вероятностей.
Доля
объектов
«генеральной совокупности», обладающих заданным
свойством. Понятия числа сочетаний, размещений и
перестановок,
их
свойства.
Совместные
и
несовместные
события.
Правила
исчисления
теоретико-множественной
суммы
(объединения)
событий. Теорема сложения вероятностей. Правила
исчисления теоретико-множественного произведения
(пересечения)
событий.
Теорема
умножения
вероятностей. Условная вероятность. Зависимые и
независимые события. Причинно-следственная и
вероятностная
зависимость.
Формула
полной
вероятности. Формула Байеса (теорема гипотез).
Концепция случайной величины. Случайная величина
как функция от элементарных исходов опыта.
Случайная величина как функция, определенная на
вероятностном пространстве. Функция распределения
случайной величины. Дискретные и непрерывные
случайные
величины.
Функция
плотности
распределения
вероятностей.
Математическое
ожидание и дисперсия случайной величины. Моменты
случайной величины. Мода, медиана, асимметрия,
эксцесс. Последовательности испытаний. Случайная
величина Бернулли. Схема независимых испытаний
Бернулли.
Биномиальная
случайная
величина.
Предельная теорема Пуассона и случайная величина
Пуассона. Предельные теоремы Муавра – Лапласа и
случайная величина Гаусса (нормальная случайная
величина). Показательное распределение. Равномерное
и
нормальное
распределения.
Табулирование
распределений.
Основные понятия. Понятие плотности вероятности
многомерных
случайных
величин.
Законы
распределения многомерных СВ. Условные законы
распределения. Числовые характеристики.
Закон больших чисел. Неравенство Чебышёва.
Теоремы Хинчина и Чебышёва,
теорема Бернулли. Центральная предельная теорема
для одинаково
распределенных независимых случайных величин.
Интегральная теорема
Муавра – Лапласа.
Основные понятия случайных процессов. Цепи
Маркова.
Дискретные и интервальные вариационные ряды, их
графическое
изображение.
Средние
величины,
показатели вариации. Способы
вычисления средней арифметической и дисперсии.
Начальный и центральные моменты. Выборочная и
4
7
8
9
генеральная совокупности. Оценка параметров.
Основные методы нахождения оценок. Оценка
параметров генеральной совокупности. Определение
эффективных оценок.
Интервальное оценивание.
Понятие статистической гипотезы. Общий алгоритм
Проверка
проверки статистической гипотезы. Проверка гипотез
статистических гипотез.
о законах распределения и о параметрах совокупности.
Однофакторный и двухфакторный дисперсионный
Дисперсионный
анализ.
анализ.
Предпосылки
дисперсионного
анализа.
Дисперсионные модели.
Функциональная, статистическая, корреляционная
зависимости.
Коэффициент корреляции. Основные положения
Корреляционный
и корреляционного анализа. Проверка значимости и
регрессионный анализ.
интервальная оценка. Многомерный корреляционный
анализ. Основные положения регрессионного анализа.
Интервальная оценка функции регрессии. Нелинейная
регрессия. Множественный регрессионный анализ.
10. Темы для самостоятельного изучения
№
п/п
Наименование раздела
дисциплины (модуля)
1
Основные понятия и
теоремы
теории
вероятностей. Повторные
независимые испытания.
2
3
4
5
Случайные
Основные
распределения.
величины.
законы
Многомерные случайные
величины.
Закон больших чисел и
предельные теоремы.
Элементы
теории
случайных процкссов.
Форма самостоятельной
работы
- вопросы для
самостоятельного изучения
- рефераты
- презентация
- выполнение домашних
заданий
- вопросы для
самостоятельного изучения
- рефераты
- контрольные работы
- презентация
- выполнение домашних
заданий
- вопросы для
самостоятельного изучения
- рефераты
- презентация
- вопросы для
самостоятельного изучения
- рефераты
- презентация
- выполнение домашних
заданий
- вопросы для
самостоятельного изучения
- рефераты
- контрольные работы
- тестирование
- презентация
- выполнение домашних
5
Кол-во
часов
20
20
11
11
11
Форма контроля
выполнения
самостоятельной работы
- защита рефератов
- защита презентации
- проверка домашних
заданий
- защита рефератов
- проверка контрольных
работ
- защита презентации
- проверка домашних
заданий
- защита рефератов
- защита презентации
- проверка домашних работ
- защита рефератов
- защита презентации
- проверка домашних
заданий
- выполнение тестов
- защита рефератов
- проверка контрольных
работ
- анализ итогов
тестирования
- защита презентации
6
7
8
9
Вариационные ряды и их
характеристики.
Теория
выборочного метода.
Проверка статистических
гипотез.
- проверка домашних
заданий
- вопросы для
самостоятельного изучения
- рефераты
- контрольные работы
- презентация
- выполнение домашних
заданий
- вопросы для
самостоятельного изучения
- рефераты
- контрольные работы
- тестирование
- презентация
- выполнение домашних
заданий
- проверка домашних
заданий
- защита рефератов
- проверка контрольных
работ
- защита презентации
- вопросы для
самостоятельного изучения
- рефераты
- презентация
Дисперсионный анализ.
Корреляционный
регрессионный анализ.
заданий
и
- вопросы для
самостоятельного изучения
- рефераты
- презентация
2
4
2
2
- выполнение тестов
- защита рефератов
- проверка контрольных
работ
- анализ итогов
тестирования
- защита презентации
- проверка домашних
заданий
- защита рефератов
- проверка контрольных
работ
- защита презентации
- выполнение тестов
- защита рефератов
- защита презентации
11. Образовательные технологии
Интерактивные формы занятий:
№
раздела
Формы
(темы)
1. групповые обсуждения, учебные дискуссии
2. групповые обсуждения, учебные дискуссии
3. групповые обсуждения, учебные дискуссии
4. групповые обсуждения, учебные дискуссии
5. групповые обсуждения, учебные дискуссии
6. групповые обсуждения, учебные дискуссии
7. групповые обсуждения, учебные дискуссии
8. Решение кейс-задач
9. Решение кейс-задач
12. Методические рекомендации по организации изучения дисциплины (модуля)
12.1 ТЕМЫ И ПЛАН ЛЕКЦИЙ
12.1.1 Введение. Предмет теории вероятностей.
Предмет теории вероятностей и ее роль в естествознании. Выдающийся вклад
отечественных ученых в обоснование и развитие теории вероятностей. Случайные
6
события, операции над событиями. Вероятность событий и способы ее определения.
Аксиоматическое построение теории вероятностей.
Основные теоремы теории вероятностей
Теорема сложения вероятностей. Условная вероятность. Независимость событий.
Теоремы умножения вероятностей. Формула полной вероятности и теорема гипотез
(Байеса). Независимые испытания. Схема испытаний Бернулли, формула Бернулли.
Теоремы Муавра-Лапласа.
12.1.2 Случайные величины
Случайные величины, определение и примеры случайных величин. Функция
распределения, её свойства. Дискретные случайные величины. Понятие о биномиальном
законе распределения и распределении Пуассона. Непрерывные случайные величины.
Плотность вероятности и ее свойства.Важнейшие числовые характеристики случайной
величины: математическое ожидание, дисперсия, среднеквадратическое отклонение, их
свойства. Понятие о начальных и центральных моментах. Функции случайных величин.
Основные законы распределения непрерывных случайных величин. Понятие о
нормальном законе распределения, его роль и место в теории вероятностей. Равномерный
и показательный (экспоненциальный) законы распределения.
12.1.3 Закон больших чисел и предельные теоремы теории вероятностей.
Закон больших чисел. Теоремы Чебышева и Бернулли. Понятие о центральной
предельной теореме.
12.1.4 Математическая статистика и ее основные задачи
Предмет, задачи и основные понятия математической статистики. Выборочный метод.
Вариационный ряд и выборочная функция распределения. Группированная выборка,
гистограмма.
12.1.5 Точечное и интервальное оценивание
Оценивание параметров закона распределения. Общие требования к оценкам.
Состоятельные, несмещенные оценки математического ожидания и дисперсии. Метод
моментов. Оценивание числовых характеристик системы двух случайных величин.
Доверительный интервал и доверительная вероятность. Понятие о распределениях
Стьюдента и хи-квадрат. Построение доверительных интервалов для математического
ожидания и дисперсии нормально распределенной случайной величины.
12.1.6 Проверка статистических гипотез
Проверка статистических гипотез, примеры. Общая схема проверки гипотез. Критическая
область, уровень значимости. Ошибки первого и второго рода. Проверка гипотезы о
равенстве математических ожиданий нормально распределенных случайных величин и
гипотезы о виде закона распределения. Критерии Колмогорова и Пирсона.
12.1.7 Основы дисперсионного анализа
Однофакторный дисперсионный анализ. Двухфакторный дисперсионный анализ.
12.1.8 Корреляционный и регрессионный анализ.
Коэффициент корреляции. Функции и коэффициенты регрессии. Оценивание
коэффициентов и функции регрессии по методу наименьших квадратов. Построение
доверительных интервалов для коэффициентов и значений функции регрессии.
12.2 ТЕМЫ И ПЛАН ПРАКТИЧЕСКИХ ЗАНЯТИЙ
На практических занятиях студенты приобретают умения и навыки использования
соответствующих вероятностно-статистических методов. По каждой из основных тем
выдаются индивидуальные расчетные задания с последующей проверкой и обсуждением
полученных результатов.
Темы занятий
12.2.1 Введение. Предмет теории вероятностей. Основные теоремы теории вероятностей.
Элементы комбинаторики.
7
12.2.2 Теорема сложения вероятностей. Условная вероятность. Независимость событий.
Теоремы умножения вероятностей. Формула полной вероятности и теорема гипотез
(Байеса). Независимые испытания. Схема испытаний Бернулли, формула Бернулли.
Теоремы Муавра-Лапласа.
12.2.3 Случайные величины
12.2.4 Закон больших чисел и предельные теоремы теории вероятностей.
12.2.5 Вариационные ряды и их характеристики. Теория выборочного метода. Точечные и
интервальные оценки.
12.2.6 Проверка статистических гипотез
12.2.7 Основы дисперсионного анализа
12.2.8 Корреляционный и регрессионный анализ.
12.3 САМОСТОЯТЕЛЬНАЯ РАБОТА
Самостоятельная работа, предусмотренная программой в общем объеме 83 часа,
выполняется по указанным в программе темам. Она включает подготовку к практическим
занятиям, выполнение расчётных заданий, а также углубленное изучение вопросов,
предложенных преподавателем.
Вопросы для самостоятельного изучения
Все основные темы, необходимые для усвоения дисциплины в объеме, предусмотренном
программой, излагаются на лекциях. Однако, с целью стимулирования более активного
подхода к её изучению, часть вопросов, по усмотрению лектора, может предлагаться для
углубленного самостоятельного изучения. К ним относятся следующие:
1. Вывод формулы Бернулли
2. Теоремы Муавра-Лапласа
3. Распределение функций случайных величин
4. Свойства биномиального закона распределения
5. Распределение Пуассона
6. Показательный (экспоненциальный) закон распределения,
7. Распределение хи-квадрат
8. Распределение Стьюдента
9. Группированная выборка, гистограмма и кумулята
10.Марковские процессы
13. Учебно-методическое обеспечение и информационное обеспечение дисциплины
Литература (основная, дополнительная)
 основная литература (учебники и учебные пособия)
1. Вентцель Е. С. Теория вероятностей. – М.: Высшая школа, 2006.
2. Федоткин М. А. Основы прикладной теории вероятностей и статистики. – М.:
Высшая
школа, 2006.
3. Б. В. Гнеденко. Курс теории вероятностей. – М.: ЛКИ, 2007.
4. Кремер Н. Ш. Теория вероятностей и математическая статистика. Учебник. – М.:
Юнити-Дана, 2006.
5. Боровков А. А. Теория вероятностей. – М.: Едиториал УРСС, 2002.
6. Гмурман В. Е. Теория вероятностей и математическая статистика. – М.: Высшая
школа,
2003.
7. Гнеденко Б. В., Хинчин А. Я. Элементарное введение в теорию вероятностей. – М.:
Едиториал УРСС, 2003.
8. Кибзун А. И., Горяинова Е. Р., Наумов А. В. Теория вероятностей и математическая
статистика. Базовый курс с примерами и задачами. – М.: ФИЗМАТЛИТ, 2007.
8
 дополнительная литература:
1. Вентцель Е. С., Овчаров Л. А. Задачи и упражнения по теории вероятностей. – М.:
Высшая
школа, 2006.
2. Кибзун А. И., Горяинова Е. Р., Наумов А. В. Теория вероятностей и математическая
статистика. Базовый курс с примерами и задачами. – М.: ФИЗМАТЛИТ, 2007.
3. Артамонов Н. В. Теория вероятностей и математическая статистика. Углубленный
курс.
– М.: П МГИМО-Университет, 2008.
4. Ивашев-Мусатов О.С. Теория вероятностей и математическая статистика. – М.:
Наука,
1979.
5. Колемаев В. А., Калинина В. Н. Теория вероятностей и математическая статистика.
Учебник. – М.: Юнити-Дана, 2003.
6. Гмурман В. Е. Руководство к решению задач по теории вероятностей и
математической
статистике. – М.: Высшее образование, 2006.
7. Фадеева Л. Н. Математика для экономистов. Теория вероятностей и математическая
статистика. Курс лекций. – М.: Эксмо, 2006.
8. Айвазян С. А., Мхитарян В. С. Прикладная статистика. Основы эконометрики. Том 1.
Теория вероятностей и прикладная статистика. – М.: Юнити-Дана, 2001.
 электронные образовательные ресурсы (ЭОР)
http://www.mshu.edu.ru/lms/course/ - сайт системы управления обучением факультета
ФМОИиП, разработанный электронный курс «Теория вероятностей и математическая
статистика» для очной и заочной форм обучения.
 электронно-библиотечные системы (ЭБС), базы данных, информационносправочные и поисковые системы
http://www.biblioclub.ru/
http://www.iprbookshop.ru/
http://www.book.ru
 программное обеспечение
Microsoft Office, Statistica, VBA
Перечень используемых технических средств.
Персональные компьютеры на базе процессора Intel Celeron 1.10 Гц, 512 МВ ОЗУ с
установленными программами.
14. Материально-техническое обеспечение дисциплины (модуля)
 перечень используемых технических средств
Персональные компьютеры на базе процессора Intel Celeron 1.10 Гц, 512 МВ ОЗУ.
Курс сопровожден электронными разработками в системе управления обучением
факультета ФМОИиП. Студенты имеют неограниченный доступ к теории, практическим
заданиям. Разработаны электронные тесты. Разработаны электронные презентации для
проведения лекционных занятий.
15. Оценочные средства для текущего контроля успеваемости, промежуточной
аттестации по итогам освоения дисциплины и учебно-методическое обеспечение
самостоятельной работы студентов для оценки сформированности компетенций по
дисциплине, заявленных в п. 6:
 Примерные зачетные тестовые задания.
Теория вероятностей
9
1. Игральная кость брошена 1 раз. Какова вероятность, что выпало:
а) 3 очка?;
б) менее 5 очков?;
в) не более 3 очков?;
г) нечетное число очков?;
д) число очков, кратное трем?;
е) менее 8 очков?
2.Участники жеребьевки тянут из ящика наугад жетоны, на которых написаны
натуральные числа от 1 до 100. Какова вероятность, что номер наугад взятого жетона не
содержит цифры 5?
3.На четырех карточках написаны буквы О, М, Т, С. Они перемешиваются и наугад
раскладываются в ряд. Какова вероятность, что получилось слово "МОСТ"?
4. Студент выучил 25 экзаменационных вопросов из 30. Какова вероятность, что он не
ответит на произвольно взятый вопрос?
5. Отделом технического контроля завода установлено, что 2% изготавливаемых деталей
- бракованные. Найти вероятность того, что произвольно взятая с конвейера деталь
является годной.
6. В урне 12 черных шаров и 4 белых. Наугад извлекаются 3 шара. Найти вероятность
того, что все они - черные.
7. К концу дня в магазине осталось 20 арбузов, из которых 15 - спелые. Покупатель
выбирает 2 арбуза. Какова вероятность, что хотя бы один из них спелый?
8. Два стрелка стреляют в одну и ту же мишень по одному разу. Вероятности их
попадания соответственно равны 0,8 и 0,7. Найти вероятность того, что в мишени
окажется ровно одна пробоина.
9. В комоде перемешаны 8 белых и 6 красных шнурков. Что вероятнее вытащить наугад:
2 красных или 3 белых?
10. Из колоды в 36 карт наугад выбирают 4 карты. Какова вероятность, что: а) все они тузы?; б) все они - бубновой масти?
11. В игре "Спортлото" участник зачеркивает 5 номеров из 36. После розыгрыша
объявляются 5 выигрышных номеров. Найти вероятность того, что игрок угадает 3
номера.
12. Баскетболист из 20 штрафных бросков в среднем забрасывает 16. Производится 1
бросок. Какова вероятность, что он промахнется?
13. Бросают две игральных кости. Найти вероятность того, что выпала: а) сумма очков,
равная 7?; б) сумма очков, меньшая 6?
14. Из колоды в 36 карт игрок выбирает наудачу 4 карты. Какова вероятность, что все они
- разных мастей?
15. В ящике т черных шаров и п белых. Наугад вынимаем т шаров. Найти вероятность
того, что все они - черные.
16. В ящике а стандартных деталей и b бракованных. (b >1). Выбирают наугад 5 деталей.
Какова вероятность, что ровно 2 из них - бракованные?
17. Найти вероятность выпадения трех гербов при бросании трех монет.
18. Вероятность для студента сдать экзамен равна 0,7, а сдать зачет - 0,8. Какова
вероятность, что он не сдаст ни зачета, ни экзамена?
19. В комоде перемешаны 8 черных и 6 зеленых носков. В темноте, наугад надеваем два
носка. Что вероятнее: что они - одного цвета или - разных цветов?
20. Три стрелка с вероятностями попадания 0,9; 0,8 и 0,7 стреляют в одну и ту же мишень
по одному разу. Найти вероятность того, что в мишени окажется ровно 2 пробоины.
21. Два сильных студента выучили по 25 экзаменационных билета из 30, а слабый только 10 билетов. Какова вероятность того, что слабый сдаст экзамен, а один из сильных
- не сдаст?
22. Три охотника стреляют в кабана по одному разу. Вероятность того, что первый
10
охотник поразит цель, равна 0,9, второй - 0,7, третий - 0,4. Вычислить вероятность того,
что кабан будет убит.
23. В 1-й урне 8 белых и 6 черных шаров, а во второй - 4 белых и 2 черных. Из 1-й урны
во вторую перекладывают один шар, а затем вынимают один шар из второй урны. Какова
вероятность, что он - белый?
24. Студент выучил 25 экзаменационных билетов из 30. Когда вероятность сдать экзамен
больше: если он идет брать билет первым или вторым?
25. Две машинистки печатают текст из 6 страниц, причем, первые 2 страницы печатает
первая машинистка, а остальные 4 - вторая. Вероятность ошибки первой 0,1 , а второй 0,2. Найти вероятность того, что в тексте будет допущена ошибка?
26. На карточках написаны буквы, образующие слово "комбинаторика", но 2 карточки из
этого набора утеряны. Наудачу извлекается одна карточка. Найти вероятность того, что
на ней - гласная буква.
27. Вероятность попадания в цель при одном выстреле равна 0,8. Найти вероятность 5
попаданий при 6 выстрелах.
28. В семье 6 детей. Считая рождение мальчика и девочки равновероятными, найти
вероятность того, что в этой семье 3 девочки и 3 мальчика.
29.В квартире 4 электролампочки. Для каждой из них вероятность того, что она останется
исправной в течение года, равна. Какова вероятность, что в течение года придется
заменить не менее половины лампочек?
30. Вероятность отказа каждого прибора при испытании равна 0,4. Что вероятнее: отказ
двух приборов при испытании четырех или отказ трех из шести?
31. Монета подбрасывается 4 раза. Составить закон распределения случайной величины
Х - числа появлений герба, найти математическое ожидание и дисперсию.
32. На пути автомобиля расположено 5 светофоров, каждый из которых пропустит его с
вероятностью 0,6. Найти закон распределения случайной величины Х - числа светофоров
до первой остановки машины.
Математическая статистика
Вариационные ряды и их характеристики.
Вариант 1
1. В статистических задачах распределение считается …
1) неизвестным
2) известным
2. К методам математической статистики относят:
1) описательные
2) логические
3) дидактические
4) аналитические
3. Различные значения признака (случайной величины) называются:
1) законом распределения
2) частотами
3) частостями
4) вариантами
4. Ранжирование производится в порядке:
1) возрастания
2) убывания
11
5. Вариационным рядом называется:
1) ранжированный ряд вариантов без соответствующих им весов (частот или
частостей)
2) ряд вариантов с соответствующими им весами (частотами или частостями)
3) ранжированный в порядке возрастания или убывания ряд вариантов с
соответствующими им весами (частотами или частостями)
6. Для изображения дискретного вариационного ряда, как правило, используют:
1) гистограмму
2) кумуляту
3) полигон
7. Для изображения интервального вариационного ряда, как правило, используют:
1) полигон
2) гистограмму
3) кумуляту
8. Для изображения и дискретного, и интервального вариационных рядов можно
использовать:
1) полигон
2) гистограмму
3) кумуляту
9. Для дискретного вариационного ряда эмпирическая функция распределения
представляет собой:
1) непрерывную функцию
2) разрывную ступенчатую функцию
10. К структурным средним величинам относятся:
1) медиана
2) мода
3) средняя арифметическая
4) средняя степенная
5) средняя гармоническая
6) средняя геометрическая
7) средняя квадратическая
m
11. Верно ли, что x   xii ?
i 1
1) да
2) нет
12. Значение признака, приходящееся на середину ранжированного ряда наблюдений,
называется:
1) модой
2) медианой
m
13. Через формулу
x n
i 1
k
i i
n
1) начальный момент
выражается:
12
2) центральный момент
3) коэффициент асимметрии
4) эксцесс
m
 (x  x )
i 1
14. Через формулу
k
i
ni
n
начальный момент
центральный момент
коэффициент асимметрии
эксцесс
1)
2)
3)
4)
выражается:
m
 (x  x ) n
3
i 1
15. Через формулу
i
i
выражается:
ns3
коэффициент асимметрии
начальный момент
центральный момент
эксцесс
Теория выборочного метода.
Вариант 1
1)
2)
3)
4)
1. Оценка является случайной величиной, зависящей от:
1) числа случайных величин
2) закона распределения и числа случайных величин
3) закона распределения случайной величины
2. Основное условие, которому должна удовлетворять наилучшая оценка  n параметра  :
1) выражение M ( n   ) должно быть минимальным
2) выражение M ( n   ) должно быть максимальным
3) выражение M ( n   ) 2 должно быть максимальным
4) выражение M ( n   ) 2 должно быть минимальным
3. Оценка  n параметра  называется несмещенной, если:
 
1) M  n  
2) M ( n   ) 2  
3) M ( n   )  
4. Оценка  n параметра  называется состоятельной, если:


1) lim P  n      1
n 
 
2) M  n  
3) M ( n   ) 2  


4) lim P  n      1
n 
5. Оценка для параметра  закона Пуассона равна:
13
1)
2)
3)
4)
генеральной средней
параметру 
выборочной средней
выборочной дисперсии
6. Функция правдоподобия есть:
n
1) L  x1 ,
, xn ;      xi ; 
2) L  x1 ,
, xn ;      xi ; 
3) L  x1 ,
, xn ;        xi 
i 1
n
i 1
n
i 1
n
4) L  x1 , , xn ;        xi 
i 1
m
бесповторной выборки есть несмещенная и состоятельная
n
M
оценка генеральной доли p 
, причем ее дисперсия равна:
N
pq
1)
n
pq  N  n 
2)


n  N 1 
pq  N  n 
3)


n  M 1
7. Выборочная доля  
8. Выборочная средняя x повторной выборки есть несмещенная и состоятельная оценка
генеральной средней x0 , причем дисперсия выборочной средней равна:
1)
2
n
2  N n


n  N 1 
2  N n
3)


n  M 1
2)
9. В случае бесповторной выборки несмещенной и состоятельной оценкой генеральной
дисперсии  2 является:
1) ŝ
2) ŝ 2
3) s 2
4) s
Проверка статистических гипотез.
Вариант 1
1. Статистической гипотезой называется любое предположение о …
1) виде неизвестного закона распределения
14
2) параметрах неизвестного закона распределения
3) подходят оба варианта
2. Полностью определяет теоретическую функцию распределения случайной величины:
1) сложная гипотеза
2) простая гипотеза
3) нет правильного ответа
3. Множество возможных значений статистики критерия  n есть:
1) объединение критической области и области допустимых значений
2) критическая область
3) область допустимых значений
4) пересечение критической области и области допустимых значений
4. Если фактически наблюдаемое значение статистики критерия  n попадает в
критическую область, то гипотезу:
1) отвергают
2) принимают
5. Ошибка 1 рода возникает, когда:
1) нулевая гипотеза неверна и не принимается
2) нулевая гипотеза верна и отвергается
3) нулевая гипотеза неверна и принимается
6. Уровнем значимости критерия называется вероятность:
1) допустить ошибку 1 рода
2) допустить ошибку 2 рода
3) не допустить ошибку 1 рода
4) не допустить ошибку 2 рода
7. Мощностью критерия называется вероятность:
1) допустить ошибку 1 рода
2) допустить ошибку 2 рода
3) не допустить ошибку 1 рода
4) не допустить ошибку 2 рода
8. Если закон распределения генеральной совокупности известен, то критерии проверки
гипотез называются:
1) аналитическими
2) непараметрическими
3) параметрическими
4) статистическими
9. Критерий Бартлетта применяется для проверки гипотезы:
1) о равенстве средних нескольких совокупностей
2) о равенстве дисперсий нескольких совокупностей
3) о равенстве долей признака в нескольких совокупностях
10. В качестве статистики критерия в случае проверки гипотезы  2   02 нормального
закона при неизвестном параметре a выступает:
15
1) t 
2) t 
 x  a0 
n

 x  a0 
n 1
s
ns
3)  2 
2
 02
Корреляционный анализ.
Дисперсионный анализ.
Вариант 1
1. Влияние уровней фактора может быть:
1) фиксированным
2) случайным
3) и фиксированным, и случайным
2. Групповая средняя для i -го уровня фактора в однофакторном дисперсионном анализе
имеет вид:
n
x
ij
j 1
1) xi* 
n
n
x
2) x* j 
ij
i 1
n
n
3) xi 
x
i
i 1
n
3. Двухфакторная дисперсионная модель имеет вид:
1) xijk    Fi  G j   ijk
2) xij    Fi   ij
3) xijk    Fi  G j  Iij   ijk
4. Общая средняя в двухфакторном дисперсионном анализе вычисляется по формуле:
m
1) x*** 
i 1 j 1
l
 x
i 1 j 1
ij *
ml
m
3) x*** 
ij *
n
m
2) x*** 
l
 x
l
 x
i 1 j 1
ij *
nlm
5. Задачей корреляционного анализа является:
16
1)
2)
3)
4)
выявление связи между случайными переменными
влияние различных факторов на результат эксперимента
установление формы и изучение зависимости между переменными
оценка тесноты связи между переменными
6. Выборочный коэффициент регрессии Х по У показывает:
1) на сколько единиц в среднем изменяется переменная Х при увеличении
переменной У на одну единицу
2) тесноту связи между переменными Х и У
3) во сколько раз изменится переменная У при увеличении переменной Х
xy  x  y
можно вычислить:
sx s y
1) коэффициент корреляции
2) коэффициент регрессии
3) ковариацию
7. С помощью формулы
8. С помощью формулы M
 X  a  Y  a   можно вычислить:
x
y
1) коэффициент корреляции
2) коэффициент регрессии
3) ковариацию.
 Примерный перечень вопросов к экзамену
1. Классификация событий. Вероятность события (классическое определение,
статистическое, геометрическое определение вероятности). Действия над событиями.
2. Теорема сложения вероятностей. Условная вероятность событий. Теорема
умножения вероятностей. Формула полной вероятности. Формула Байеса.
3. Схема Бернулли. Формула Пуассона. Локальная и интегральная формулы МуавраЛапласа.
4. Математические операции над случайными величинами. Математическое
ожидание дискретной СВ. Свойства математического ожидания. Дисперсия дискретной
СВ. Свойства дисперсии.
5. Функция распределения дискретной СВ. Свойства функции распределения.
6. Плотность вероятности. Свойства плотности вероятности.
7. Мода, медиана, квантили, моменты СВ, асимметрия, эксцесс.
8. Биномиальный закон распределения.
9. Закон распределения Пуассона.
10. Геометрическое распределение.
11. Гипергеометрическое распределение.
12. Равномерный закон распределения.
13. Показательный закон распределения.
14. Нормальный закон распределения.
15. Логарифмически-нормальное распределение.
16. Закон больших чисел и предельные теоремы.
17. Вариационные ряды и их графическое изображение. Формула Стерджеса.
18. Средние величины.
19. Показатели вариации. Начальные и центральные моменты вариационного ряда.
20. Генеральная совокупность. Выборочная совокупность. Репрезентативная
выборка. Типы выборок. Средняя, дисперсия и доля для генеральной совокупности и
выборки. Задача выборочного метода.
17
21. Понятие оценки параметров. Задача оценки параметров в общем виде.
Определение оценки. Условие наилучшей оценки. Несмещенная, смещенная,
состоятельная, эффективная, асимптотически эффективная оценки. Эффективность
оценки.
22. Методы нахождения оценок. Метод моментов. Метод наименьших квадратов.
23. Методы нахождения оценок. Метод максимального правдоподобия. Найти
оценку методом максимального правдоподобия для вероятности р наступления
некоторого события А по данному числу m появления этого события в n независимых
испытаниях. Найти оценки для параметров a и  2 нормального закона распределения по
данным выборки.
24. Оценка параметров генеральной совокупности по собственно-случайной
выборке. Оценка генеральной доли, генеральной средней, генеральной дисперсии.
25. Понятие интервального оценивания. Доверительная вероятность и предельная
ошибка выборки. Построение доверительного интервала. Объем выборки. Формулы для
нахождения объема выборки для оцениваемых параметров – генеральная средняя и
генеральная доля в случае повторной и бесповторной выборок.
26. Оценка характеристик генеральной совокупности по малой выборке. Построение
доверительного интервала для генеральной средней, генеральной доли, генеральной
дисперсии по малой выборке.
27. Принцип практической уверенности. Статистическая гипотеза и общая схема ее
проверки. Проверка гипотез о равенстве средних двух и более совокупностей.
28. Нормальное распределение,  2 -распределение, распределение Стьюдента,
распределение Фишера-Снедекора.
29. Исключение грубых ошибок наблюдений.
30. Проверка гипотез о равенстве средних двух и более совокупностей.
31. Проверка гипотез о равенстве долей признака в двух и более совокупностях.
32. Проверка гипотез о равенстве дисперсий двух и более совокупностей.
33. Проверка гипотез о числовых значениях параметров нормального закона.
34. Построение теоретического закона распределения по опытным данным.
Проверка гипотез о законе распределения.  2 -критерий Пирсона. Схема применения
критерия  2 .
35. Построение теоретического закона распределения по опытным данным.
Проверка гипотез о законе распределения. Критерий Колмогорова. Схема применения
критерия Колмогорова.
36. Проверка гипотез об однородности выборок. Критерий Колмогорова-Смирнова.
37. Однофакторный дисперсионный анализ.
38. Двухфакторный дисперсионный анализ.
39. Функциональная, статистическая и корреляционная зависимости.
40. Линейная парная регрессия.
41. Коэффициент корреляции.
42. Основные положения корреляционного анализа. Двумерная модель.
43. Проверка значимости и интервальная оценка параметров связи.
 Комплект экзаменационных билетов (утвержденный зав. кафедрой до начала
сессии)
Билет №1
1. Классификация событий. Вероятность события (классическое определение,
статистическое, геометрическое определение вероятности). Действия над событиями.
2. Вариационные ряды и их графическое изображение. Формула Стерджеса.
18
Билет №2
1. Теорема сложения вероятностей. Условная вероятность событий. Теорема умножения
вероятностей. Формула полной вероятности. Формула Байеса.
2. Средние величины.
Билет №3
1. Схема Бернулли. Формула Пуассона. Локальная и интегральная формулы МуавраЛапласа.
2. Показатели вариации. Начальные и центральные моменты вариационного ряда.
Билет №4
1. Математические операции над случайными величинами. Математическое ожидание
дискретной СВ. Свойства математического ожидания. Дисперсия дискретной СВ.
Свойства дисперсии.
2. Генеральная совокупность. Выборочная совокупность. Репрезентативная выборка.
Типы выборок. Средняя, дисперсия и доля для генеральной совокупности и выборки.
Задача выборочного метода.
Билет №5
1. Функция распределения дискретной СВ. Свойства функции распределения
2. Понятие оценки параметров. Задача оценки параметров в общем виде. Определение
оценки. Условие наилучшей оценки. Несмещенная, смещенная, состоятельная,
эффективная, асимптотически эффективная оценки. Эффективность оценки.
Билет №6
1. Плотность вероятности. Свойства плотности вероятности.
2. Методы нахождения оценок. Метод моментов. Метод наименьших квадратов.
Билет №7
1. Мода, медиана, квантили, моменты СВ, асимметрия, эксцесс.
2. Методы нахождения оценок. Метод максимального правдоподобия. Найти оценку
методом максимального правдоподобия для вероятности р наступления некоторого
события А по данному числу m появления этого события в n независимых испытаниях.
Найти оценки для параметров a и  2 нормального закона распределения по данным
выборки.
Билет №8
1. Биномиальный закон распределения.
2. Оценка параметров генеральной совокупности по собственно-случайной выборке.
Оценка генеральной доли, генеральной средней, генеральной дисперсии.
Билет №9
1. Закон распределения Пуассона.
2. Понятие интервального оценивания. Доверительная вероятность и предельная ошибка
выборки. Построение доверительного интервала. Объем выборки. Формулы для
нахождения объема выборки для оцениваемых параметров – генеральная средняя и
генеральная доля в случае повторной и бесповторной выборок.
Билет №10
1. Геометрическое распределение.
19
2. Оценка характеристик генеральной совокупности по малой выборке. Построение
доверительного интервала для генеральной средней, генеральной доли, генеральной
дисперсии по малой выборке.
Билет №11
1. Гипергеометрическое распределение.
2. Принцип практической уверенности. Статистическая гипотеза и общая схема ее
проверки. Проверка гипотез о равенстве средних двух и более совокупностей.
Билет №12
1. Равномерный закон распределения.
2. Нормальное
распределение,
 2 -распределение,
распределение Фишера-Снедекора.
распределение
Стьюдента,
Билет №13
1. Показательный закон распределения.
2. Исключение грубых ошибок наблюдений.
Билет №14
1. Нормальный закон распределения.
2. Проверка гипотез о равенстве долей признака в двух и более совокупностях.
Билет №15
1. Логарифмически-нормальное распределение.
2. Проверка гипотез о равенстве дисперсий двух и более совокупностей.
Билет №16
1. Закон больших чисел и предельные теоремы.
2. Проверка гипотез о числовых значениях параметров нормального закона.
Билет №17
1. Классификация событий. Вероятность события (классическое определение,
статистическое, геометрическое определение вероятности). Действия над событиями.
2. Построение теоретического закона распределения по опытным данным. Проверка
гипотез о законе распределения.  2 -критерий Пирсона. Схема применения критерия  2 .
Билет №18
1. Теорема сложения вероятностей. Условная вероятность событий. Теорема умножения
вероятностей. Формула полной вероятности. Формула Байеса.
2. Построение теоретического закона распределения по опытным данным. Проверка
гипотез о законе распределения. Критерий Колмогорова. Схема применения критерия
Колмогорова.
Билет №19
1. Схема Бернулли. Формула Пуассона. Локальная и интегральная формулы МуавраЛапласа.
2. Проверка гипотез об однородности выборок. Критерий Колмогорова-Смирнова.
Билет №20
1. Математические операции над случайными величинами. Математическое ожидание
дискретной СВ. Свойства математического ожидания. Дисперсия дискретной СВ.
Свойства дисперсии.
20
2. Однофакторный дисперсионный анализ.
Билет №21
1. Функция распределения дискретной СВ. Свойства функции распределения.
2. Двухфакторный дисперсионный анализ.
Билет №22
1. Плотность вероятности. Свойства плотности вероятности.
2. Функциональная, статистическая и корреляционная зависимости.
Билет №23
1. Мода, медиана, квантили, моменты СВ, асимметрия, эксцесс.
2. Линейная парная регрессия.
Билет №24
1. Биномиальный закон распределения.
2. Коэффициент корреляции.
Билет №25
1. Закон распределения Пуассона.
2. Основные положения корреляционного анализа. Двумерная модель.
Билет №26
1. Геометрическое распределение.
2. Проверка значимости и интервальная оценка параметров связи.
Билет №27
1. Равномерный закон распределения.
2. Проверка гипотез о равенстве средних двух и более совокупностей.
16. Методические указания по изучению дисциплины (или её разделов)
1. Случайные события и вероятности. Классическое и статистическое определения
вероятности. Понятие условной вероятности. Свойства вероятности.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
2. Аксиоматика А.Н.Колмогорова. Элементарные события. Правила действия со
случайными событиями и вероятностями их осуществления. Сумма, произведение и
разность событий. Вероятностное пространство. Борелевская сигма-алгебра.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
3. Связь комбинаторики и вероятности. Равновероятные события. Правило суммы и
правило произведения.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
4. Выбор с возвращением и без. Выбор упорядоченный и неупорядоченный. Основные
соотношения.
А.Н. Ширяев. Вероятность. Т.1,2 –М.: МЦНМО, 2004.
5. Формула полной вероятности. Примеры расчётов.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
6. Формула Байеса условной вероятности. Априорная и апостериорная вероятность.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
7. Дискретные случайные величины. Закон распределения дискретной случайной
величины.
21
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. М.:
ИНФРА-М, 1998, - 528с.
8. Полигон распределения. Характеристики случайной величины. Функция
распределения.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. М.:
ИНФРА-М, 1998, - 528с.
9. Непрерывные случайные величины. Функция распределения. Плотность
распределения непрерывной случайной величины.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
10. Числовые характеристики распределения вероятностей. Свойства математического
ожидания и дисперсии. Е(аХbY) и D(аХbY).
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
11. Основные числовые характеристики распределения вероятностей и случайных
величин. Квантили, квартили, мода, медиана, эксцесс, асимметрия. Производящие
функции моментов.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
12. Взаимная зависимость и независимость случайных величин, событий и
экспериментов. Ковариация, корреляция.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
13. Понятие случайного выбора. Трудности осуществления случайного выбора.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. М.:
ИНФРА-М, 1998, - 528с.
14. Геометрическая вероятность. Задача о встрече. Задача о переломанной палочке.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
15. Биномиальное распределение. Числовые характеристики распределения.
Математическое ожидание и дисперсия. Полиномиальное распределение.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
16. Повторные независимые испытания. Формула Бернулли. Наивероятнейшее событие.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
17. Распределение Пуассона. Числовые характеристики распределения. Математическое
ожидание и дисперсия.
18. Связи распределений Пуассона, биномиального и нормального. Метод моментов.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
19.
Геометрическое
распределение.
Гипергеометрическое
распределение.
Математическое ожидание и дисперсия.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
20. Равномерное распределение. Числовые характеристики распределения.
Математическое ожидание и дисперсия. Коэффициент асимметрии и эксцесс. Задача о
точности измерения прибором с крупной шкалой.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
21. Логарифмически нормальное распределение. Математическое ожидание, мода,
медиана и дисперсия.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. М.:
ИНФРА-М, 1998, - 528с.
22. Показательное распределение. Числовые характеристики распределения.
Математическое ожидание и дисперсия. Связь с функцией Муавра – Лапласа.
Коэффициент асимметрии и эксцесс.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
23.
Нормальное
распределение.
Числовые
характеристики
распределения.
Математическое ожидание и дисперсия. Функция Лапласа. Использование таблиц.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
24. Формула Стирлинга и её вывод.
22
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
25. Локальная теорема Муавра – Лапласа. Основные соотношения. Свойства f(x).
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
26. Интегральная теорема Муавра – Лапласа. Основные соотношения. Свойства F(x).
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
27. Распределения хи-квадрат и Стьюдента. Таблицы и их расчёт на компьютере.
Математическое ожидание и дисперсия.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
28. Теорема Бернулли. Теорема Чебышева. Закон больших чисел.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
29. Центральная предельная теорема.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
30. Последовательности, образующие цепь Маркова. Терминология цепей. Примеры.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
31. Поток событий. Описание потока. Пуассоновский поток.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
32. Последовательности случайных величин в дискретном вероятностном пространстве.
Случайное блуждание. Принцип отражения. Закон арксинуса.
А.Н. Ширяев. Вероятность. Т.1,2 –М.: МЦНМО, 2004.
33. Интеграл Стильтьеса. Примеры расчёта.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
34. Характеристическая функция. Основные соотношения и свойства.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
35. Использование характеристической функции для расчета моментов и распределений
сумм случайных величин. Совместное распределение случайных величин.
Б.В. Гнеденко. Курс теории вероятностей. М.: Наука. 1988. – 448 с.
1. Понятие математической статистики и связь между теорией вероятности и
математической статистикой. ПР. 1 ч. Ю.Н.Тюрин. Макаров. Статистический анализ
данных на компьютере. –М.: ИНФРА-М, 1998, –528с.
2. Понятия генеральной совокупности. Закон распределения в многомерной нормальной
генеральной совокупности. Его основные характеристики. Частные (маргинальные)
плотности. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
3. Понятие случайного выбора. Трудности осуществления случайного выбора. Основные
способы организации выборки. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
4. Основные выборочные характеристики. Вариационный ряд и порядковые статистики.
Эмпирическая функция распределения. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
5. Основная модель математической статистики – схема испытаний Бернулли. Основные
характеристики распределения. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
6. Центральная предельная теорема, закон больших чисел и представление о связи
характеристик выборки и генеральной совокупности. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
7. Методы описательной статистики. ПР. 1 ч.
23
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
8. Шкалы измерений. Допустимые операции в шкале. Выборки «без распределения».
Ранги и ранжирование. Связки. Средние ранги. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
9. Тройной тест. Парные наблюдения. Параметрические и непараметрические
статистические модели. ПР. 1 ч. Ю.Н.Тюрин. А.А.Макаров. Статистический анализ
данных на компьютере. –М.: ИНФРА-М, 1998, –528с.
10. Понятие статистической гипотезы. Основные типы гипотез. Вероятности при
гипотезе и альтернативе. Виды альтернатив. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
11. Статистическая проверка гипотез. Общая логическая схема статистического
критерия. Характеристики качества критерия. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
12. Уровень значимости. Критическое событие. Типы ошибок. Мощность критерия.
Статистика критерия. ПР. 1 ч. Ю.Н.Тюрин. Макаров. Статистический анализ данных на
компьютере. –М.: ИНФРА-М, 1998, –528с.
13. Особенности проверки статистических гипотез на примере схемы испытаний
Бернулли. Выбор уровня значимости. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
14. Критерий знаков для одной выборки. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
15. Гипотеза в двухвыборочной задаче. Критерий Манна – Уитни. Статистика МаннаУитни. Метод проверки. Совпадения. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
16. Критерий Уилкоксона. Статистика Уилкоксона. Свойства статистики. Связь со
статистикой Манна-Уитни.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
17. Парные наблюдения. Анализ с помощью критерия знаков и с помощью ранговых
сумм Уилкоксона. Приближение нормального закона для больших выборок. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
18. Однофакторный анализ. Критерии Краскела-Уоллиса и Джонкхиера. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
19. Оценивание эффектов обработки. Непараметрический подход. Оценки сдвига. Метод
контрастов. ПР. 1 ч. Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на
компьютере. –М.: ИНФРА-М, 1998, –528с.
20. Двухфакторный анализ. Критерии Фридмана и Пейджа. Ассимптотика критериев.
ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
21. Параметры генеральной совокупности, модели и выборки. Статистическое
оценивание параметров генеральной совокупности. ПР. 1 ч.
24
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
22. Точечные оценки и их свойства (несмещённость, состоятельность и эффективность).
Оценка среднего и дисперсии по выборке. Выборочная дисперсия и исправленная
выборочная дисперсия. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
23. Метод моментов для оценки параметров выборки. Метод максимального
правдоподобия для оценки параметров выборки. Метод квантилей для оценки параметров
выборки. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
24. Неравенство информации и его применение. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
25. Байесовское статистическое оценивание. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
26. Интервальные оценки и доверительные области. Состоятельность оценок. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
27. Оценка выборочного среднего при известной дисперсии и при неизвестной
дисперсии. Доверительный интервал для среднего. Оценка выборочной дисперсии и
доверительный интервал для неё. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
28. Статистические гипотезы для одной выборки с нормальным распределением.
Проверка гипотезы при известной дисперсии и при неизвестной дисперсии. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
29. Статистические гипотезы для двух выборок с нормальным распределением. Проверка
гипотезы при известной дисперсии и при неизвестной дисперсии. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
30. Основы статистического исследования зависимостей. Линейный регрессионный
анализ. Оценки методом наименьших квадратов. Проверка предпосылок в задаче
регрессионного анализа. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
31. Таблицы сопряженности признаков. Значимые и незначимые таблицы
сопряженности признаков. Ожидаемые и наблюдаемые частоты. Теорема Пирсона –
Фишера. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
32. Связь признаков в количественных шкалах. Коэффициент корреляции.
Доверительные интервалы. ПР. 1 ч. Ю.Н.Тюрин. А.А.Макаров. Статистический анализ
данных на компьютере. –М.: ИНФРА-М, 1998, –528с.
33. Критерии согласия и однородности Колмогорова для простой гипотезы. Статистика
Колмогорова. Алгоритм проверки гипотезы. Характеристики качества критерия. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
25
34. Критерий согласия хи-квадрат Пирсона для простой гипотезы и критерий согласия
хи-квадрат Фишера для сложной гипотезы. Критерий согласия для Пуассоновского
распределения ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
35. Планирование статистического эксперимента. Задачи взвешивания монет и
исследования шин. ПР. 1 ч.
Ю.Н.Тюрин. А.А.Макаров. Статистический анализ данных на компьютере. –М.:
ИНФРА-М, 1998, –528с.
17. Содержательный компонент теоретического материала
Примерное содержание лекционного материала.
Теория вероятностей.
Под случайной величиной понимается переменная, которая в результате испытания в
зависимости от случая принимает одно из возможного множества своих значений (причем
заранее неизвестно какое именно).
Примеры случайных величин:
1. количество бракованных изделий в данной партии;
2. число произведенных выстрелов до первого попадания;
3. расход электроэнергии на предприятии за месяц.
Случайная величина называется дискретной, если множество ее значений конечное, или
бесконечное, но счетное.
Под непрерывной случайной величиной понимается величина, бесконечное множество
значений которой есть некоторый интервал числовой оси.
Определение 1. Случайной величиной X называется функция, заданная на множестве
элементарных исходов (или в пространстве элементарных событий), то есть X  f   ,
где  - элементарный исход (или элементарное событие, принадлежащее пространству
элементарных событий  , то есть   ).
Определение 2. Законом распределения случайной величины называется всякое
соотношение, устанавливающее связь между возможными значениями случайной
величины и соответствующими им вероятностями.
Для дискретной случайной величины закон распределения может быть задан в виде
таблицы, аналитически (в виде формулы) и графически.
Простейшей формой задания закона распределения дискретной случайной величины X
является таблица (матрица), в которой перечислены в порядке возрастания все возможные
значения случайной величины и соответствующие им вероятности, то есть
x1 x2 … xi … xn
p1 p2 … pi … pn
X:
или
 x x2 ... xn 
X  1

 p1 p2 ... pn 
Такая таблица называется рядом распределения дискретной случайной величины.
26
События X  x1 , X  x2 , ..., X  xn , состоящие в том, что в результате испытания случайная
величина X примет соответственно значения x1 , x2 , ..., xn , являются несовместными и
единственно возможными, то есть образуют полную группу. Следовательно, сумма их
вероятностей равна 1. Таким образом, для любой дискретной случайной величины
n
n
 P( X  x )   p
i
i 1
i 1
i
1
Ряд распределения может быть изображен графически, если по оси абсцисс откладывать
значения случайной величины, а по оси ординат – соответствующие им вероятности.
Соединение полученных точек образует ломаную, называемую многоугольником или
полигоном распределения вероятностей.
Определение 3. Две случайные величины называются независимыми, если закон
распределения одной из них не меняется от того, какие возможные значения приняла
другая величина. В противном случае случайные величины называются зависимыми.
Например, если имеются билеты двух различных денежных лотерей, то случайные
величины X и Y , выражающие соответственно выигрыш по каждому билету, будут
независимыми, так как при любом выигрыше по билету одной лотереи закон
распределения выигрыша по другому билету не изменится. Если же случайные величины
X и Y выражают выигрыш по билетам одной лотереи, то X и Y будут зависимыми, так
как выигрыш по одному билету приводит к изменению вероятностей выигрыша по
другому билету, то есть к изменению закона распределения другой случайной величины.
Пусть даны две случайные величины X и Y :
xi x1 x2 … xn
pi p1 p2 … pn
X:
Y:
yj
y1
y2
…
ym
pj
p1
p2
…
pm
27
Определение 4. Произведением kX случайной величины X на постоянную величину k
называется случайная величина, которая принимает значения kxi с теми же вероятностями
pi
i  1, 2,..., n  .
Определение 5. m -й степенью случайной величины X , то есть X m , называется случайная
величина, которая принимает значения xim с теми же вероятностями pi  i  1, 2,..., n  .
Определение 6. Суммой (разностью или произведением) случайных величин X и Y
называется случайная величина, которая принимает все возможные значения вида xi  y j
( xi  y j или xi  y j ), где i  1, 2,..., n;
j  1, 2,..., m с вероятностями pij того, что случайная
величина X примет значение xi , а Y - значение y j :
pij  P  X  xi  Y  y j 
Если случайные величины X и Y независимы, то есть независимы любые события
X  xi , Y  y j , то по теореме умножения вероятностей для независимых событий
pij  P  X  xi   P Y  y j   pi  p j
Определение 7. Математическим ожиданием ( M  X  ) дискретной случайной величины X
называется сумма произведений всех ее значений на соответствующие им вероятности:
n
M  X    xi pi
i 1
Пусть даны две независимые дискретные случайные величины X и Y . Рассмотрим свойства
математического ожидания:
1. Математическое ожидание постоянной величины равно самой постоянной: M  C   C .
Постоянную величину C можно рассматривать как величину, принимающую значение C
с вероятностью 1. Поэтому M  C   C 1  C . █
2. Пусть k - некоторая постоянная. M  kX   kM  X  .
n
n
i 1
i 1
M  kX     kxi  pi  k  xi pi  kM  X  . █
3. M  X  Y   M  X   M Y  .
В соответствии с определением суммы (разности) случайных величин X  Y
 X Y 
представляет случайную величину, которая принимает значения xi  y j ( xi  y j ), где
i  1, 2,..., n;
j  1, 2,..., m с вероятностями pij  P  X  xi  Y  y j  . Поэтому
M  X  Y     xi  y j  pij  xi pij   y j pij .
n
m
n
i 1 j 1
m
n
i 1 j 1
m
i 1 j 1
Так как в первой двойной сумме xi не зависит от индекса j , а во второй двойной сумме y j
не зависит от индекса i , то
n
m
m
n
n
m
i 1
j 1
j 1
i 1
i 1
j 1
M  X  Y    xi  pij  y j  pij   xi pi  y j p j  M  X   M Y  . █
4. M  XY   M  X   M Y  .
Так как X и Y - независимы, то pij  pi p j . Тогда
28
n
m
n
m
n
m
i 1
j 1
M  XY    xi y j pij   xi y j pi p j  xi pi   y j p j  M  X   M Y  . █
i 1 j 1
i 1 j 1
5. Если все значения случайной величины увеличить (уменьшить) на постоянную C , то
на эту же постоянную C увеличится (уменьшится) математическое ожидание этой случайной
величины:
M  X  C  M  X   C .
Используя свойства 1 и 3 математического ожидания, получим:
M  X  C   M  X   M C   M  X   C . █
6. Математическое ожидание отклонения случайной величины от ее математического
ожидания равно нулю: M  X  M  X    0 .
Пусть C  M  X  , тогда по свойству 5 M  X  C   M  X   C  C  C  0 . █
Определение 8. Дисперсией D  X  случайной величины X называется математическое
ожидание квадрата ее отклонения от математического ожидания:
D  X   M  X  M  X   , или D  X   M  X  a  , где a  M  X  .
В качестве характеристики рассеяния нельзя брать математическое ожидание отклонения
случайной величины от ее математического ожидания M  X  M  X   , так как по свойству 6
математического ожидания эта величина равна нулю для любой случайной величины.
2
2
Если случайная величина X - дискретная с конечным числом значений, то
n
D  X     xi  a  pi .
2
i 1
Если случайная величина X - дискретная с бесконечным, но счетным множеством значений,
n
то D  X     xi  a  pi (если ряд в правой части сходится).
2
i 1
Определение 9. Средним квадратическим отклонением  x случайной величины X
называется арифметическое значение корня квадратного из ее дисперсии:  x  D  X  .
Свойства дисперсии случайных величин:
1. Дисперсия постоянной величины равна нулю: D  C   0 .
D  C   M C  M C    M C  C   M  0  0 . █
2. Постоянный множитель можно выносить за знак дисперсии, возведя его при этом в
квадрат: D  kX   k 2 D  X  .
2
2
D  kX   M  kX  M  kX    M  kX  M  X    k 2 M  X  M  X    k 2 D  X  . █
3. Дисперсия случайной величины равна разности между математическим ожиданием
квадрата случайной величины и квадратом ее математического ожидания:
2
2
2
D  X   M  X 2    M  X   или D  X   M  X 2   a 2 , где a  M  X  .
2
29
Пусть M  X   a . Тогда
D  X   M  X  a   M  X 2  2aX  a 2   M  X 2   2aM  X   a 2  M  X 2   2  a  a  a 2 
2
 M  X 2   a2. +
4. Дисперсия алгебраической суммы конечного числа независимых случайных величин
равна сумме их дисперсий: D  X  Y   D  X   D Y  .
D  X  Y   M  X  Y    M  X  Y    M  X 2  2 XY  Y 2    M  X   M Y   
2
2
2
 M  X 2   2 M  X  M  Y    M  X 2  2 M  X  M  Y   M Y 2  

 

 M  X 2   M 2  X   M  Y 2   M 2  Y   D  X   D Y  . +
Определение 10. Функцией распределения случайной величины X называется функция
F ( X ) , выражающая для каждого x вероятность того, что случайная величина X примет
значение, меньшее x :
F ( x)  P( X  x)
Функцию F ( X ) еще называют интегральной функцией распределения или интегральным
законом распределения.
Геометрически функция распределения интерпретируется как вероятность того, что
случайная точка X попадет левее заданной точки x .
Свойства функции распределения:
1. Функция распределения случайной величины есть неотрицательная функция,
заключенная в следующих пределах:
0  F ( x)  1 .
2. Функция распределения случайной величины есть неубывающая функция на всей
числовой оси.
3. F ()  lim F ( x)  0; F ( )  lim F ( x)  1 соответственно как вероятности
x 
x 
невозможного  X    и достоверного  X    событий.
4. Вероятность попадания случайной величины в интервал  x1; x2  равна приращению ее
функции распределения на этом интервале, то есть P  x1  X  x2   F  x2   F  x1  .
Определение 11. Случайная величина X называется непрерывной, если ее функция
распределения непрерывна в любой точке и дифференцируема всюду, кроме, быть может,
отдельных точек.
Приведем пример функции распределения непрерывной случайной величины X ,
дифференцируемой во всех точках, кроме точек излома.
30
Теорема 1. Вероятность любого отдельно взятого значения непрерывной случайной
величины равна нулю.
Доказательство: Покажем, что для любого значения x1 случайной величины X вероятность
P  X  x1   0 . Представим P  X  x1  в виде P  X  x1   lim P  x1  X  x2  .
x  x1
Используя свойство 4 функции распределения случайной величины X , и учитывая
непрерывность F  x  , получим:
P  X  x1   lim  F  x2   F  x1    lim F  x2   F  x1   F  x1   F  x1   0 +
x  x1
x  x1
Следствие 1. Если X - непрерывная случайная величина, то вероятность попадании
случайной величины в интервал  x1; x2  не зависит от того, является этот интервал открытым
или закрытым, то есть
P  x1  X  x2   P  x1  X  x2   P  x1  X  x2   P  x1  X  x2  .
Доказательство:
P  x1  X  x2   P  X  x1   P  x1  X  x2   P  X  x2  
 0  P  x1  X  x2   0  P  x1  X  x2  +
Введем понятие плотности вероятности непрерывной случайной величины.
Рассмотрим вероятность попадания непрерывной случайной величины в промежуток
 x; x  x .
P  x  X  x  x   F  x  x   F  x  , то есть равна приращению функции распределения
F  x  на этом участке.
Тогда вероятность, приходящаяся на единицу длины, то есть средняя плотность вероятности
на участке  x; x  x  равна
P  x  X  x  x  F  x  x   F  x 

.
x
x
Переходя к пределу при x  0 , получим плотность вероятности в точке x :
P  x  X  x  x 
F  x  x   F  x 
lim
 lim
 F '  x  , представляющую производную
x 0

x

0
x
x
функции распределения F  x  .
31
Определение 12. Плотностью вероятности (плотностью распределения)   x  непрерывной
случайной величины X называется производная ее функции распределения
  x  F ' x
Плотность вероятности существует только для непрерывных случайных величин.
График плотности вероятности называют кривой распределения.
Свойства плотности вероятности:
1.   x   0 , как производная монотонно неубывающей функции F  x  .
2. вероятность попадания непрерывной случайной величины в промежуток  a; b равна
определенному интегралу от ее плотности вероятности в пределах от a до b , то есть:
b
P  a  X  b      x  dx .
a
Это следует из того, что по свойству 4 функции распределения P  a  X  b   F  b   F  a  и
F  x  - есть первообразная для плотности вероятности   x  .
Геометрически полученная вероятность равна площади фигуры, ограниченной сверху кривой
распределения и опирающейся на отрезок  a; b .
3. Функция распределения непрерывной случайной величины может быть выражена
через плотность вероятности по формуле:
F  x 
x
   x  dx

4.

x


   x  dx  1 , так как F  x      x  dx
и при x   F     1.
Математическое ожидание и дисперсия непрерывной случайной величины определяются
следующими формулами:
32
M  x 

 x  x  dx

D  x 

  x  M  x     x  dx
2

Замечание 1. Все свойства математического ожидания и дисперсии, рассмотренные для
дискретных случайных величин, справедливы и для непрерывных величин.
В частности, свойство 3 дисперсии имеет вид:
D X   M  X
2
   M  X 
2
или D  x  

 x   x  dx  M  X  .
2
2

Распределение Бернулли.
Определение 5. Дискретная случайная величина X имеет распределение Бернулли с
параметром p , если X принимает значения 1 и 0 с вероятностями p и 1  p ,
соответственно. Случайная величина X с таким распределением равна числу успехов в одном
испытании схемы Бернулли с вероятностью успеха p (0 успехов или 1 успех). Таблица
распределения X имеет вид
xi
0
pi
1 p
1
p
Математическое ожидание и дисперсия X равны соответственно:
M ( X )  p, D( X )  pq , где q  1  p .
Если все случайные величины из некоторой последовательности независимы и
подчинены распределению Бернулли, то говорят о последовательности испытаний Бернулли.
Если X1 , , X n - последовательность испытаний Бернулли, то сумма X 1   X n имеет
биномиальное распределение с параметрами n и p .
Биномиальный закон распределения.
Определение 6. Дискретная случайная величина X имеет биномиальный
распределения, если она принимает значения 0, 1, 2, , m, , n с вероятностями
P  X  m  Cnm pm qnm , где 0  p  1, q  1  p, m  0, 1, , n .
закон
Биномиальный закон распределения представляет собой закон распределения числа X  m
наступлений события A в n независимых испытаниях, в каждом из которых оно может
произойти с одной и той же вероятностью p .
Ряд распределения биномиального закона имеет вид:
xi
0
1
2
m
n
pi
qn
Cn1 pq n 1
Cn2 p 2 q n  2
Cnm p m q n  m
pn
Определение
биномиального
n
распределения
p
i 0
i
закона
корректно,
 1 выполнено, так как
так
как
основное
свойство
ряда
n
p
i0
разложения бинома Ньютона:
33
i
есть не что иное, как сумма всех членов
q n  Cn1 pq n 1  Cn2 p 2 q n  2 
 Cnm p m q n  m 
 p n   q  p   1n  1 .
n
Теорема 1. Математическое ожидание случайной величины X , распределенной по
биномиальному закону равно M  X   np , а ее дисперсия D  X   npq .
Доказательство: Случайную величину X - число m наступлений события A в n
независимых испытаниях – можно представить в виде суммы n независимых случайных
величин X1  X 2   X k   X n , каждая из которых имеет один и тот же закон
xi
pi
n
распределения, то есть X   X k , где
k 1
Xk
 k 1,2,
,n
:
0
q
1
.
p
Случайная величина X k выражает число наступлений события A в k -м испытании
 k  1, 2,
, n  , то есть при наступлении события
A
X k  1 с вероятностью p , при
ненаступлении - X k  0 с вероятностью q .
Случайную величину X k называют альтернативной случайной величиной. Найдем ее
числовые характеристики:
2
M  X k    xi pi  0  q  1 p  p;
i 1
2
D  X k     xi  M  X   pi   0  p   q  1  p   p  p 2 q  q 2 p  pq  p  q   pq
2
2
2
i 1
Тогда найдем математическое ожидание и дисперсию рассматриваемой случайной величины
X:
M  X k   M  X 1  X 2   X k   X n   p   p  np;
D  X k   D  X1  X 2 
 Xk 
 X n   pq 
 pq  npq
Пример биномиального распределения
Представим себе файл в виде последовательности бит на жестком диске. Предположим,
что вероятность встречи единицы постоянна для данного типа файлов. Тогда количество
попавшихся единиц будет распределено по биномиальному закону.
Доказательство
Рассмотрим одно из возможных состояний, возникающее в результате встречи m единиц
nm
и n  m нулей. Вероятность этого конкретного состояния будет равна p m 1  p  . Однако
m единиц и n  m нулей могут встретиться различными способами. Количество этих
способов равно Cnm . Из этого следует, что вероятность возникновения любого из состояний,
при которых встречаются m единиц и n  m нулей равна Cnm p m q n  m . Конечная формула
совпадает с формулой плотности биномиального распределения.
Геометрическое распределение.
Геометрическое распределение неразрывно связано с биномиальным. Отличие состоит в
том, что биномиальная случайная величина определяет вероятность m успехов в n
испытаниях, а геометрическая - вероятность m испытаний до первого успеха (включая
первый успех).
Определение 7. Дискретная случайная величина имеет геометрическое распределение, если
она принимает значения 1, 2, , m,
(бесконечное, но счетное множество значений) с
m1
вероятностями P  X  m   pq , где 0  p  1, q  1  p, m  1, 2,
34
Ряд геометрического распределения случайной величины имеет вид:
3
m
xi 1 2
p p pq pq 2
pq m1
i
Определение
n
p
i 0
i
 p  pq 
геометрического
 pq m1 
сумма геометрического ряда
распределения
 p 1  q 

q
m 1
 q m1 
корректно, так как сумма ряда
  p 1 1 q  pp  1 (так как 1 1 q  1p есть
при q  1 ).
m 1
Случайная величина X  m , имеющая геометрическое распределение, представляет собой
число m испытаний, проведенных по схеме Бернулли, с вероятностью p наступления
события в каждом испытании до первого положительного исхода.
Теорема 2. Математическое ожидание случайной величины X , имеющей геометрическое
1
q
распределение, равно M  X   , а ее дисперсия равна D  X   2 , где q  1  p .
p
p
Пример геометрического распределения
Рассмотрим в качестве примера итерационный алгоритм вычисления квадратного корня
из числа. Такой алгоритм будет заключаться в том, что проход по нему будет совершаться до
тех пор, пока не будет достигнута необходимая точность. Вероятность того, что после
заданного прохода эта точность будет достигнута, подчиняется геометрическому
распределению.
Доказательство
Пусть p - вероятность того, что заданная точность будет достигнута после одного
прохода. Для того, чтобы заданная точность была достигнута после n-го прохода необходимо,
чтобы после всех остальных n 1 проходов она не была достигнута. Вероятность этого
n 1
события равна 1  p  . Кроме того, также необходимо, чтобы после следующего n-го
прохода заданная точность была достигнута. Вероятность этого равна p. Итоговая
n 1
вероятность определится как их произведение: p 1  p  . Последняя формула совпадает с
формулой плотности для геометрического распределения.
Распределение Паскаля
Распределение Паскаля неразрывно связано с биномиальным. Отличие состоит в том,
что биномиальная случайная величина определяет вероятность m успехов в n испытаниях, а
случайная величина Паскаля - вероятность x испытаний вплоть до m-го успеха (включая и
этот успех).
Область x
1  x < , x - целое
Параметры
m - число успехов, целое положительное число;
p  (0, 1) - параметр схемы Бернулли (вероятность
"успеха")
x m
Плотность (функция
Cxm11 p m 1  p 
вероятности)
Математическое ожидание
m
p
Дисперсия
m 1  p 
p2
Пример распределения Паскаля
35
Предположим, что производится считывание информации с носителя, который время от
времени дает сбои. Объем считываемых данных есть величина фиксированная. Всегда
считывается вся информация, хотя считывание некоторых бит удается не с первого раза.
Допустим также, что вероятность сбоя любого бита есть величина постоянная. Тогда
вероятность того, что потребуется x попыток для считывания m бит будет подчиняться
распределению Паскаля.
Доказательство
Пусть p - вероятность успешного считывания бита. Тогда вероятность одного из
конкретных вариантов, при котором потребуется x попыток для считывания m бит будет
xm
равна p m 1  p  . Однако таких конкретных вариантов окажется Cxm11 . В результате
итоговая вероятность будет равна Cxm11 p m 1  p 
формулой плотности для распределения Паскаля.
x m
. Последняя формула совпадает с
Закон распределения Пуассона.
Определение 1. Дискретная случайная величина X имеет закон распределения Пуассона,
если она принимает значения 0, 1, 2, , m,
(бесконечное, но счетное множество значений)
с вероятностями P  X  m  
 m e 
, где m  0, 1, 2,
m!
Ряд распределения Пуассона имеет вид:
1
2
m
xi 0
pi
e
 e 
 m e 
 2e
2!
m!
Очевидно, что определение закона Пуассона корректно, так как основное свойство ряда
распределения
n
p
i 0
n
 2e 
i 0
2!
 pi  e  e 
(Используем, что 1   
i
1


2

выполнено,
 me 
m!

m
так
как
ряда


2
 e  1   

2!


- есть разложение в ряд функции e x при x   ).

m
сумма
m!

  
  e e 1

2!
m!
Теорема 1. Математическое ожидание и дисперсия случайной величины, распределенной по
закону Пуассона, совпадают и равны параметру  этого закона, то есть
M ( X )   , D( X )   .
Доказательство: Найдем математическое ожидание случайной величины X :



 m e    m e 
 m1
M ( X )   xi pi   m 

 e 

m!
i 1
m 0
m 1  m  1 !
m 1  m  1 !

2
  e  1   

2!




  e  e  

Дисперсию случайной величины X найдем по формуле D  X   M  X 2    M  X   . Но
2
сначала получим формулу для M  X 2  :
36
M X

2
 x
i 1
i

2
pi   m 
2
 m e 
m0
 m
m0
 m e 
 m  1!
e



m 1

2
  2e  1   

2!
m2  m  2 !
m 1  m  1 !

  2 e    e   e    e   2  
Тогда D  X     2      2   +

  2e  
 m2
m!


  e  
 m1
  m  1  1 
m

 m  1!

2
 


e
1






2!





В качестве свойства распределения следует отметить, что сумма независимых
случайных величин, каждая из которых имеет распределение Пуассона, распределена по
закону Пуассона. Если X 1 , , X n независимые случайные величины, распределенные по
закону Пуассона с параметрами 1 ,..., n соответственно, то случайная величина X 1   X n
распределена по закону Пуассона с параметром 1  ...  n .
Пример распределения Пуассона
Вероятность того, что за интервал времени n будет произведено x обращений к жесткому
диску, подчиняется распределению Пуассона.
Доказательство
Предположим, что в среднем за интервал времени n производится m обращений к жесткому
диску. Каждое обращение занимает время t. Тогда время занятости жесткого диска будет
mt
равно m  t < n, а вероятность его занятости в данный момент будет равна
. При этом
n
вероятность того, что за интервал времени n будет произведено x обращений к жесткому
 mt 
диску, подчиняется биномиальному распределению и равна C nx 

t  n 
достаточно малом t получим предел:
 mt 
lim C nx 

t o
n 
t 
x
 mt 
1 

n 

n
x
t
 lim
n

t
nn 
  1
tt

n
n


t
  x  1 m x  m 
t

1 
x 
n
x!
n 

  
t

t
 
n
t


 m
1  n 
nn  n




1

x

1

 

mx 
tt
t
t
 . Но так как



lim
 1 , получим: lim
x
x
n
n
x
!




n
t
t
 
 m
t
1  n 


t 

37
x
n
x
 mt t
1 
 . При
n 

x
. Учитывая, что
m
n


t
x

m



 
 m  
 m
m x e m
, что
lim 1    1 и lim 1     lim e  m  e  m , то в итоге мы получим
n
n
n
n
n 
x!
 
 

t
t
t

t 
t  





соответствует формуле плотности для распределения Пуассона.
Распределение Парето
Известен так называемый закон Парето (иногда его называют «закон 80 / 20»),
отражающий неравномерность распределения характеристик экономических и социальных
явлений и процессов:
- 20 % населения владеют 80 % капиталов (первоначальная формулировка самого
В. Парето);
- 80 % стоимости запасов на складе составляет 20 % номенклатуры этих запасов;
- 80 % прибыли от продаж приносят 20 % покупателей;
- 20 % усилий приносят 80 % результата;
- 80 % проблем обусловлены 20 % причин;
- за 20 % рабочего времени работники выполняют 80 % работы;
- 80 % работы выполняют 20 % работников и т.д.
«Формализацией» закона Парето является распределение Парето случайной величины
z  y > 0, характеризуемое двумя параметрами – минимально возможным значением y и
показателем степени  > 0:
(1) p  , y, z  
1
  y
  .
yz
Плотности распределения (1) соответствует интегральная функция распределения

 y
(2) F  , y, z   1    .
z
Эскиз плотности и интегральной функции распределения для случая z0  1,   2 приведен на
рисунке.
Распределение Парето обладает свойством самоподобия: распределение значений,
превышающих величину z0  y, также является распределением Парето:
1
(3)  z0  y p(, z0, z) = p(, y, z) / (1 – F(, y, z0)) =
  z0 
  .
z0  z 
Для распределения Парето существуют только моменты порядка, меньшего, чем степень
. Например, математическое ожидание случайной величины z с распределением (1)
существует при  > 1 и равно
38

y.
 1
Отметим, что с ростом  распределение «вырождается» и математическое ожидание (4)
стремится к y.
Кроме того, в рамках предположения о том, что случайная величина распределена по
Парето, зная математическое ожидание и минимальное значение y, можно легко вычислить
параметр распределения  (см. (4)):
M z
(5)  
.
M z  y
(4) M  z  
Распределение Эрланга
Распределение Эрланга есть не что иное, как гамма-распределение при целочисленном
значении параметра формы. Часто встречается в инженерных приложениях. Распределению
Эрланга подчиняются суммы квадратов модулей независимых комплексных гауссовских
случайных величин c нулевыми средними значениями и одинаковыми дисперсиями, поэтому
распределение Эрланга достаточно часто встречается и в теории надежности.
Область x
0x<
Параметры
k - параметр формы;
 - параметр масштаба
Плотность (функция вероятности)
1
 x
  k  1!   
Математическое ожидание
k
Дисперсия
k 2
k 1
e

x

Пример распределения Эрланга
Самой спрашиваемой книгой в библиотеке является книга А. Существует
закономерность, что каждая следующая по спросу книга имеет спрос вдвое меньше, чем
предыдущая. Предположим, что эта закономерность точная. Тогда количество спросов за
некоторый промежуток времени может быть описано при помощи распределения Эрланга.
Доказательство
Пусть S - количество спросов за установленный промежуток времени книги А. Тогда книга,
стоящая на n-м месте будет иметь следующее количество спросов: S  2 ( n 1) . Преобразуем
полученное выражение: S  e  ( n 1)ln 2 . Введем новую переменную: x   n 1 ln 2 .
Тогда получим следующую формулу: S  e-x. Последняя формула соответствует формуле для
плотности распределения Эрланга при k = 1,  = 1.
Нормальный закон распределения.
39
Нормальный закон распределения наиболее часто встречается на практике. Главная
особенность, выделяющая его среди других законов, состоит в том, что он является
предельным законом, к которому приближаются другие законы распределения.
Определение 1. Непрерывная случайная величина X имеет нормальный закон распределения
с параметрами a и  2 , если ее плотность вероятности имеет вид:
N  x  
1
 2

e
 x  a 2
2 2
.
Кривую нормального закона распределения называют нормальной кривой.
Изобразим схематично нормальную кривую  N  x  с параметрами a и  2 , то есть N  a; 2  .
Нормальная кривая симметрична относительно прямой x  a , имеет максимум в точке
1
1
x  a , равный
, и две точки перегиба x  a   с ординатой f  a    
.
 2
 2 e
Изобразим схематично график функции распределения случайной величины X ,
имеющей нормальный закон:
Теорема 1. Математическое ожидание случайной величины X , распределенной по
нормальному закону, равно параметру a этого закона, а ее дисперсия – параметру  2 , то есть
M ( X )  a, D( X )   2 .
Доказательство:
40

M (X ) 

 x  x  dx   x 
N


1
2

e
 x  a 2
2 2
dx .
Произведем замену переменной. Пусть t 
xa
 2
. Тогда x  a   2t и dx   2dt , пределы
интегрирования
не
меняются,
и
следовательно:



2
2
2
1
 2
a
a
M (X )  
a   2t e  t  2dt 
te  t dt 
e  t dt  0 
 a.


 
 

  2
(При вычислении математического ожидания, когда интеграл представили как сумму двух
интегралов, первый интеграл в сумме равен нулю как интеграл от нечетной функции по
симметричному относительно начала координат промежутку, а второй интеграл


e
t 2

dt   - интеграл Эйлера-Пуассона.)


D( X ) 
  x  a


D( X )    2 2t 2

2
 N  x  dx 

  x  a

1
e  t  2dt 
2
 2
1
2
2 2

 2

e
 x  a 2
2 2
dx .

2 t
 t e dt  
2

2

Пусть

 tde
t 2
x  a   2t ,
тогда


( применим метод интегрирования по частям):
 2 t

te

2
2





t
 e dt  0 
2

2
   2 . Теорема доказана.

Важно отметить, что параметр a характеризует положение, а параметр  2 - форму
нормальной кривой.
Нормальный закон распределения случайной величины с параметрами a  0,  2  1 , то есть
N  0;1 называется стандартным или нормированным, а соответствующая нормальная кривая
– стандартной или нормированной.
Сложность непосредственного нахождения функции распределения случайной
величины, распределенной по нормальному закону, по формуле
F  x 
x
   x  dx
и

вероятности ее попадания в некоторый промежуток по формуле P  a  X  b   F  b   F  a 
связана с тем, что интеграл от функции  N  x  
1
 2

e
 x  a 2
2 2
является «неберущимся» в
элементарных функциях. Поэтому их выражают через функцию Лапласа   x  
2
2
x
e

t2
2
dt ,
0
для которой составлены таблицы.
Геометрически функция Лапласа представляет собой площадь под стандартной
нормальной кривой на отрезке   x; x  .
41
Теорема 2. Функция распределения случайной величины X , распределенной по
нормальному закону, выражается через функцию Лапласа   x  по формуле:
1 1  xa
 
.
2 2   
Доказательство.
FN  x  
F  x 
x
x
   x  dx   

1
 x  a 2
dx . Сделаем замену переменной, полагая t 
2 2
e
2
x  a  t , dx   dt , при x   t   ,


x a
F  x 



t2
2
1
 2

e
dt 


 t 

2
, тогда
x a

t2
2
1
0
 e dt  2  e
2 
Выпишем отдельно первый интеграл в сумме:


поэтому
x a
1
xa

t2
2
dt 
1
2


e

t2
2
dt .
0
2
2

 t 
d
  2   2 (в силу четности подынтегральной
 2

функции и того, что интеграл Эйлера-Пуассона равен  ).
0
e

t2
2
2
t


1
1
dt   e 2 dt 
2e 
2 
2 
Второй интеграл с учетом того, что   x  
2
x
e
2
0


t2
2
dt , составляет
1  xa

.
2   
1  xa 1 1  xa
 
   
 . Теорема доказана.
2 2 2    2 2   
Геометрически функция распределения представляет собой площадь под нормальной кривой
на интервале  ; x  .
Итак, F  x  
1
42
1
, то есть половине всей
2
1  xa
площади под нормальной кривой, и второй, на интервале  a; x  , равной  
.
2   
Свойства случайной величины, распределенной по нормальному закону:
1. Вероятность попадания случайной величины X , распределенной по нормальному
закону, в промежуток  x1 ; x2  , равна
Она состоит из двух частей: первой, на интервале  ;a  , равной
x a
x a
1
  t2     t1   , где t1  1
; t2  2
.

2


Доказательство: Учитывая, что вероятность P  x1  X  x2  есть приращение функции
P  x1  X  x2  
распределения
на
отрезке
 x1; x2  ,
получим
 1 1  x  a    1 1  x1  a   1
P  x1  X  x2   F  x2   F  x1       2
    
      t2     t1   .
 2 2     2 2    2
2. Вероятность того, что отклонение случайной величины X , распределенной по
нормальному закону, от математического ожидания a не превысит величину   0

(по абсолютной величине), равна P  X  a       t  , где t  .

 a    a 
1   a    a 
P  X  a    Pa    X  a     
 

  
2  





Доказательство:
1 

   1    
  

                            t  , где t 
2  

   2    
 
 
«Правило трех сигм»
Если случайная величина X имеет нормальный закон распределения с параметрами a
и  2 , то есть N  a; 2  , то практически достоверно, что ее значения заключены в интервале
 a  3 ; a  3  .
Действительно, пусть   3 , тогда P  X  a  3     3   0,9973 (см. табл.).
43
Нарушение «правила трех сигм», то есть отклонение нормально распределенной случайной
величины X больше по абсолютной величине, чем на 3 , является событием практически
невозможным, так как его вероятность весьма мала:
P  X  a  3   1  P  X  a  3   1  0,9973  0,0027 .
Логарифмически-нормальное распределение.
Определение 2. Непрерывная случайная величина X имеет логарифмически-нормальное
(логнормальное) распределение, если ее логарифм подчинен нормальному закону.
Функция распределения логнормального распределения имеет вид:
F  x 
1
  x 
1
ln x
e

t  ln a 2
2 2
dt .
 2 
Плотность вероятности для логнормального распределения имеет вид:
 2 x

e
ln x  ln a 2
2 2
2
.


M ( X )  ae 2 ; D( X )  a 2e e  1 , M o  X   ae  , M e  X   a .
2
2
2
Функция логнормального распределения случайной величины X совпадает с
функцией нормального распределения случайной величины ln X .
Пример 1. Проведенное исследование показало, что вклады населения в данном банке
могут быть описаны случайной величиной X , распределенной по логнормальному закону с
параметрами a  530,  2  0, 64 .
Найти: а) средний размер вклада; б) долю вкладчиков, размер вклада которых
составляет не менее 1000 денежных единиц; в) моду и медиану случайной величины X и
пояснить их смысл.
Решение: а) найдем средний размер вклада, то есть
2
0,64
M ( X )  ae 2  530e 2  730 (ден.ед.)
б) доля вкладчиков, размер вклада которых составляет не менее 1000 ден.ед.
P  X  1000  1  P  X  1000  1  F 1000 .
Так как функция логнормального распределения случайной величины X
функцией нормального распределения случайной величины ln X , то
1 1  ln x  ln a 
F  x    

2 2 


1 1  ln1000  ln 530  1 1
1 1
F 1000     
     0, 79    0,5705  0, 785 .
2 2 
2 2
0, 64
 2 2
Тогда P  X  1000  1  0,785  0, 215 .
совпадает с
и
в) Вычислим моду случайной величины X M o  X   ae   530e 0,64  280 , то есть наиболее
часто встречающийся банковский вклад равен 280 ден.ед.
M e  X   a  530 , то есть половина вкладчиков имеют вклады до 530 ден.ед., а другая
половина – свыше 530 ден.ед.
2
Многомерные случайные величины.
44
Условные законы распределения. Числовые характеристики двумерной СВ.
Регрессия.
Определение 1. Условным законом распределения одной из одномерных составляющих
двумерной случайной величины  X ,Y  называется ее закон распределения, вычисленный
при условии, что другая составляющая приняла определенное значение (или попала в какойто интервал).
Напомним, что для ДИСКРЕТНЫХ случайных величин существуют следующие
формулы условных вероятностей:
Pj  xi  
P
  X  x  Y  y   , P
i
P Y  y j 
j
i
y 
j
P
  X  x  Y  y   .
i
j
P  X  xi 
В случае непрерывных случайных величин необходимо определить плотности
вероятности условных распределений  y  x  и  x  y  . С этой целью в приведенных
формулах заменим вероятности событий их «элементами вероятности», то есть
P  X  xi  Y  y j  на   x, y  dxdy , P  X  xi  на   x  dx , P Y  y j  на   y  dy , Pj  xi  на


 y  x  dx и Pi  y j  на  x  y  dy , после сокращения на dx и dy , получим:
 ( x, y )
 ( x, y )
y  x 
, x  y  
, (*)
2 ( y)
1 ( x )
то есть условная плотность вероятности одной из одномерных составляющих двумерной
случайной величины равна отношению ее совместной плотности к плотности вероятности
другой составляющей.
Соотношения (*), записанные в виде:
 ( x, y)  1 ( x)   x  y   2 ( y)   y  x 
называются теоремой (правилом) умножения плотностей распределения.
Условные плотности вероятностей можно выразить через совместную плотность
следующим образом:
 ( x, y )
 ( x, y )
 y  x   
,  x  y   
.
  ( x, y)dx
  ( x, y)dy


Так как совместная плотность  ( x, y )
двумерной
СВ
представляет
собой
геометрически
некоторую
поверхность
распределения, то условная плотность  y  x 
есть кривая распределения, подобная сечению
этой
поверхности
плоскостью
Y  y,
параллельной координатной плоскости Oxz и
отсекающей на оси Oy отрезок y .
45
При изучении двумерных СВ рассматриваются числовые характеристики одномерных
составляющих X и Y - математические ожидания и дисперсии. Для непрерывной СВ  X ,Y 
они определяются по формулам:
 
ax  M ( X ) 
  x  x, y  dxdy,
 
 
a y  M (Y ) 
  y  x, y  dxdy,
 
 
D( X ) 
   x  a    x, y  dxdy,
2
x
 
 
D(Y ) 
   y  a    x, y  dxdy
2
y
 
Наряду с ними рассматриваются также числовые характеристики условных
распределений: условные математические ожидания M x (Y ) и M y ( X ) и условные дисперсии
Dx (Y ) и Dy ( X ) . Эти характеристики находятся по обычным формулам математического
ожидания и дисперсии, в которых вместо вероятностей событий или плотностей вероятности
используются условные вероятности или условные плотности вероятности.
Определение 2. Условное математическое ожидание случайной величины Y при X  x ,
то есть M x (Y ) , есть функция от x , называемая функцией регрессии или просто регрессией Y
по X ; аналогично M y ( X ) называется функцией регрессии или просто регрессией X по Y .
Графики этих функций называются соответственно линиями регрессии (или кривыми
регрессии) Y по X и X по Y .
Зависимые и независимые случайные величины.
Ранее было введено понятие независимости дискретных случайных величин X и Y ,
основанное на независимости связанных с ними событий X  xi и Y  y j при любых i и j .
Теперь можно дать общее определение независимости случайных величин, основанное на
независимости событий X  x и Y  y , то есть функций распределений F1 ( x ) и F2 ( y ) .
Определение 1. Случайные величины X и Y называются независимыми, если их
совместная функция распределения F  x, y  представляется в виде произведения функций
распределения F1 ( x ) и F2 ( y ) этих случайных величин, то есть F  x, y   F1 ( x)  F2 ( y)
(*)
В противном случае, при невыполнении равенства, случайные величины X и Y
называются зависимыми.
Дифференцируя дважды равенство (*) по аргументам x и y , получим
 ( x, y )  1 ( x)  2 ( y ) , (**)
то есть для независимых непрерывных случайных величин X и Y их совместная плотность
 ( x, y ) равна произведению плотностей вероятности 1 ( x ) и 2 ( y ) этих СВ. Сравним
формулу (**) с равенством из предыдущего пункта:
46
 ( x, y)  1 ( x)   x  y   2 ( y)   y  x  .
Отсюда видно, что независимость двух случайных величин X и Y означает, что
условные плотности вероятности каждой из них совпадают с соответствующими
«безусловными» плотностями, то есть
 y  x   1 ( x),  x  y   2 ( y) .
Определение 2. Зависимость между двумя случайными величинами называется
вероятностной (стохастической или статистической), если каждому значению одной из них
соответствует определенное (условное) распределение другой.
В случае вероятностной зависимости нельзя, зная значение одной из них, точно
определить значение другой, а можно указать лишь распределение другой величины.
Например, зависимости между числом отказов оборудования и затрат на его ремонт, весом и
ростом человека и т. д. являются вероятностными.
Если случайные величины X и Y независимы, то линии регрессии Y по X и X по Y
параллельны координатным осям Ox и Oy .
Ковариация и коэффициент корреляции.
Пусть имеется двумерная СВ  X ,Y  , распределение которой известно. Тогда можно
найти математические ожидания M ( X )  ax , M (Y )  a y и дисперсии D( X )   x2 и D(Y )   y2
одномерных составляющих X и Y . Однако математические ожидания и дисперсии
случайных величин X и Y недостаточно полно характеризуют двумерную СВ  X ,Y  , так
как не выражают степени зависимости ее составляющих X и Y . Эту роль выполняют
ковариация и коэффициент корреляции.
Определение 1. Ковариацией (или корреляционным моментом) k xy случайных величин
X и Y называется математическое ожидание произведения отклонений этих величин от
своих математических ожиданий, то есть
k xy  M  X  M  X    Y  M Y   .


Из определения следует, что k xy  k yx .
Для дискретных СВ: k xy    xi  M  X     y j  M Y   pij .
n
m
i 1 j 1
 
Для непрерывных СВ: k xy 
   x  M  X     y  M Y    x, y  dxdy .
 
Ковариация двух СВ характеризует как степень зависимости случайных величин, так и
их рассеяние вокруг точки  M  X  , M Y   .
Свойства ковариации случайных величин:
1.
Ковариация двух независимых случайных величин равна нулю.
2.
Ковариация двух случайных величин равна математическому ожиданию их
произведения
минус
произведение
математических
ожиданий,
то
есть
kxy  M  XY   M  X   M Y  .
3.
Ковариация двух случайных величин по абсолютной величине не превосходит
произведения их средних квадратических отклонений, то есть k xy   x y .
Определение 2. Коэффициентом корреляции двух СВ называется отношение их
ковариации к произведению средних квадратических отклонений этих величин:
47
 xy 
k xy
 x y
.
Из определения следует, что  xy   yx   .
Коэффициент корреляции в отличие от ковариации – есть величина безразмерная, то
есть не зависит от размерности случайных величин.
Свойства коэффициента корреляции:
1. Коэффициент корреляции принимает значения на отрезке  1;1 , то есть 1    1 .
2. Если две случайные величины независимы, то их коэффициент корреляции равен
нулю.
Случайные величины называются некоррелированными, если их коэффициент
корреляции равен нулю. Если случайные величины независимы, то они некоррелированы,
однако из некоррелированности двух случайных величин еще не следует их независимость.
3. Если коэффициент корреляции двух СВ равен (по абсолютной величине) единице, то
между этими случайными величинами существует линейная функциональная зависимость.
Пример 1. Даны следующие законы распределения случайных величин:
X:
2
xi 1
0,8
pi
Y:
0,2
yj
-1
0
1
2
pj
0,2 0,3 0,3 0,2
Требуется определить ковариацию и коэффициент корреляции случайных величин X и
Y.
РЕШЕНИЕ.
Найдем математические ожидания и средние квадратические отклонения этих
случайных величин:
2
M ( X )   xi pi  1  0,8  2  0, 2  1, 2
i 1
2
M ( X 2 )   xi2 pi  12  0,8  22  0, 2  1, 2  1,6
i 1
D( X )  M ( X 2 )   M ( X )   1,6  1, 22  0,16
2
 x  D( X )  0,16  0, 4
4
M (Y )   y j p j  (1)  0, 2  0  0,3  1  0,3  2  0, 2  0,5
j 1
4
M (Y 2 )   y 2j p j  (1) 2  0, 2  02  0,3  12  0,3  22  0, 2  1,3
j 1
D(Y )  M (Y 2 )   M (Y )   1,3  0,52  1,05
2
 y  D(Y )  1,05  1,025
yj
xi
-1
0
1
2
48
1
2
0,1 0,25 0,3 0,15
0,1 0,05 0
0,05
n
XY :
m
M ( XY )   xi y j pij 
i 1 j 1
 1  (1)  0,1  1  0  0,25  1  1  0,3  1  2  0,15  2  ( 1)  0,1  2  0  0,05  2  1  0  2  2  0,05  0,5
k xy  M ( XY )  M ( X ) M (Y )  0,5  1, 2  0,5  0,1
0,1
 0, 244 , то есть между случайными величинами X и Y
 x y 0, 4  1,025
существует отрицательная линейная зависимость; следовательно, при увеличении
(уменьшении) одной из случайных величин другая имеет некоторую тенденцию уменьшаться
(увеличиваться).
С помощью ковариации можно дополнить и уточнить некоторые свойства
математического ожидания и дисперсии:
1. Математическое ожидание произведения двух случайных величин равно сумме
произведения их математических ожиданий и ковариации этих случайных величин:
M ( XY )  M ( X )  M (Y )  k xy .

k xy

Если k xy  0 , то M ( XY )  M ( X )  M (Y ) .
2. Дисперсия суммы двух случайных величин равна сумме их дисперсий и удвоенной
ковариации этих случайных величин:
D( XY )  D( X )  D(Y )  2k xy .
Закон больших чисел и предельные теоремы.
Под законом больших чисел в широком смысле понимают общий принцип, согласно
которому совокупное действие большого числа случайных факторов приводит к результату,
почти не зависящему от случая.
Другими словами, при большом числе случайных величин их средний результат
перестает быть случайным и может быть предсказан с большой степенью определенности.
Под законом больших чисел в узком смысле понимается ряд математических теорем, в
каждой из которых для тех или иных условий устанавливается факт приближения средних
характеристик большого числа испытаний к некоторым определенным постоянным.
Неравенство Маркова (лемма Чебышева).
Теорема 1. Если случайная величина X принимает только неотрицательные значения и
имеет математическое ожидание, то для любого положительного числа A верно неравенство:
M (X )
P ( X  A) 
A
Так как события X  A и X  A противоположные, то заменяя P ( X  A) выражением
1  P  X  A  , придем к другой форме неравенства Маркова:
P  X  A  1 
49
M (X )
A
Пример 1. Среднее количество вызовов, поступающих на коммутатор завода в течение
часа, равно 300. Оценить вероятность того, что в течение следующего часа число вызовов на
коммутатор: а) превысит 400; б) будет не более 500.
300
Решение. а) по условию M ( X )  300 , тогда P ( X  400) 
, то есть вероятность того,
400
что число вызовов превысит 400, будет не более 0,75.
300
 0, 4 , то есть вероятность того, что число вызовов не более 500,
б) P ( X  500)  1 
400
будет не менее 0,4.
Пример 2. Сумма всех вкладов в отделение банка составляет 2 млн. руб., а вероятность
того, что случайно взятый вклад не превысит 10 тыс. руб., равна 0,6. Что можно сказать о
числе вкладчиков?
Решение. Пусть X - размер случайно взятого вклада, а n - число всех вкладов. Тогда
2000
(тыс.руб.) . Согласно
из условия задачи следует, что средний размер вклада M ( X ) 
n
неравенству Маркова:
M (X )
2000
P ( X  10)  1 
или P ( X  10)  1 
. Учитывая, что P ( X  10)  0,6 , получим
10
10n
200
1
 0,6  n  500 .
n
Неравенство Чебышева.
Теорема 1. Для любой случайной величины, имеющей математическое ожидание и
дисперсию, справедливо неравенство Чебышева:
D( X )
P X  a    
, где a  M ( X ),   0 .
2
Доказательство. Применим неравенство Маркова к случайной величине X '  ( X  a)2 ,
взяв в качестве положительного числа A   . Получим P
2
как неравенство
 X  a
2
 X  a 
2

2

M
  2 равносильно неравенству X  a   , а M
 X  a   . Так
2
2
 X  a  
2
есть
дисперсия случайной величины X , то отсюда следует доказываемое неравенство.
Учитывая, что события X  a   и
Чебышева можно записать и в другой форме:
D( X )
P X  a    1
.
2
X a 
противоположны, неравенство
Пример 1. Средний расход воды на животноводческой ферме составляет 1000 литров в
день, а среднее квадратическое отклонение этой случайной величины не превышает 200
литров. Оценить вероятность того, что расход воды на ферме в любой выбранный день не
превзойдет 2000 литров, используя:
а) неравенство Маркова;
б) неравенство Чебышева.
Решение.
50
а) пусть X - расход воды на животноводческой ферме. По условию M ( X )  1000 .
1000
 0,5 , то есть не менее, чем
Используя неравенство Маркова, получим P( X  2000)  1 
2000
0,5.
б) Дисперсия D( X )   2  2002 . Так как границы интервала 0  X  2000 симметричны
относительно математического ожидания M ( X )  1000 , то для оценки вероятности искомого
события можно применить неравенство Чебышева:
2002
P( X  2000)  P  0  X  2000   P  X  1000  1000   1 
 0,96 , то есть не менее,
10002
чем 0,96.
В данной задаче оценку вероятности события, найденную с помощью неравенства
Маркова  P  0,5 , удалось уточнить с помощью неравенства Чебышева  P  0,96  .
Пример 2. Оценить вероятность того. Что отклонение любой случайной величины от ее
математического ожидания будет не более трех средних квадратических отклонений (по
абсолютной величине) (правило трех сигм).
Решение. Учитывая, что D( X )   2 , получим:
P  X  a  3   1 
2
8
  0,889 .
2
 3  9
Нижняя граница очень высокая, поэтому правило трех сигм применимо для
большинства случайных величин.
Например, для нормального закона правило трех сигм выполняется с вероятностью
P  0,9973 , для равномерного закона распределения P  1 , для показательного - P  0,9827 .
Теорема Чебышева.
Теорема Чебышева. Если дисперсии n независимых случайных величин X 1 , X 2 , , X n
ограничены одной и той же постоянной, то при неограниченном увеличении числа n средняя
арифметическая случайных величин сходится по вероятности к средней арифметической их
математических ожиданий a1 , a2 , , an , то есть
 X  X 2   X n a1  a2   an

lim P  1

    1 (1) .
n 
n
n


Доказательство: По условию
M ( X 1 )  a1 , M ( X 2 )  a2 , , M ( X n )  an ,
, где C - постоянное число.
D( X 1 )  C , D( X 2 )  C , , D( X n )  C
Необходимо получить неравенство Чебышева для средней арифметической случайных
X   Xn
величин, то есть для X  1
.
n
Найдем M ( X ) и оценку дисперсии D ( X ) :
a1   an
 X   Xn  1
M X  M  1
   M ( X1 )   M ( X n )  
n
n

 n
1
 X   Xn  1
D X   D 1
  2  D( X 1 )   D( X n )   2  C  C 
n
n

 n
Тогда неравенство Чебышева имеет вид:
51
C 
nC C

n2 n
 X  X2 
P 1
n

 Xn

a1  a2 
n
 an

D( X )
   1 2


(*)
C
C
D( X )
C
Так как по доказанному D  X   , то 1 
 1  n2  1  2 .
2
n


n
Тогда от неравенства (*) перейдем к более сильному неравенству:
 X  X 2   X n a1  a2   an

C
P 1

   1 2 .
n
n
n


C
В пределе при n   величина
стремится к нулю, отсюда следует формула (1).
n 2
Следствие. Если независимые случайные величины X 1 , X 2 , , X n имеют одинаковые
математические ожидания, равные a , а их дисперсии ограничены одной и той же
постоянной, то рассматриваемые нами неравенства примут вид:
 X  X2   Xn

 X  X2   Xn

C
P 1
 a     1  2 , lim P  1
 a     1.
n
n n 
n



Это следует из того, что
1
na
 X  X2   Xn  1
M (X )  M  1
a
   M ( X1 )  M ( X 2 )   M ( X n )    a  a   a  
n
n
n

 n
n раз
Пример 1. Для определения средней продолжительности горения ламп в партии из 200
одинаковых ящиков было взято на выборку по одной лампе из каждого ящика. Оценить
вероятность того, что средняя продолжительность горения отобранных 200 ламп отличается
от средней продолжительности горения ламп во всей партии не более чем на 5 часов (по
абсолютной величине), если известно, что среднее квадратическое отклонение
продолжительности горения ламп в каждом ящике меньше 7 часов.
Решение. Пусть X i - продолжительность горения ламы, взятой из i -го ящика. По
условию дисперсия D  X i   72  49 . Очевидно, что средняя продолжительность горения
X 1  X 200
, а средняя продолжительность горения ламп во всей
200
M ( X 1 )   M ( X 200 ) a1 
 a200

партии
. Тогда вероятность искомого события:
200
200
 X   X 200 a1 

 a200
49
P 1

 5  1 
 0,9902 , то есть не менее чем 0,9902.
200
200
200  52


отобранных ламп равна
Пример 2. Сколько надо провести измерений данной величины, чтобы с вероятностью
не менее 0,95 гарантировать отклонение средней арифметической этих измерений от
истинного значения величины не более, чем на 1 (по абсолютной величине), если среднее
квадратическое отклонение каждого из измерений не превосходит 5?
Решение. Пусть X i - результат i -го измерения i  1,2, , n  - истинное значение
величины, то есть M ( X i )  a при любом i . Необходимо найти n , при котором
 X  X2   Xn

P 1
 a  1  0,95 .
n


Данное неравенство будет выполняться, если
52
C
5
1
 0,95 
2
n
n  12
25
,

 0,05;
n
25
n
 500
0,05
то есть потребуется не менее 500 измерений.
1
Теорема Бернулли.
Теорема Бернулли. Частость события в n повторных независимых испытаниях, в
каждом из которых оно может произойти с одной и той же вероятностью p , при
неограниченном увеличении числа n сходится по вероятности к вероятности p этого
события в отдельном испытании:
m

lim P   p     1
n 
 n

Непосредственным обобщением теоремы Бернулли является теорема Пуассона, когда
вероятности события в каждом испытании различны.
Теорема Пуассона. Частость события в n повторных независимых испытаниях, в
каждом из которых оно может произойти соответственно с вероятностями p1 , p2 , , pn , при
неограниченном увеличении числа n сходится по вероятности к средней арифметической
вероятностей события в отдельных испытаниях, то есть
 m p  p2   pn

lim P   1
    1.
n 
n
 n

Центральная предельная теорема.
Центральная предельная теорема представляет собой группу теорем, посвященных
установлению условий, при которых возникает нормальный закон распределения.
Важнейшее значение имеет теорема Ляпунова.
Теорема Ляпунова. Если X1 , , X n - независимые случайные величины, у каждой из
которых
существует
математическое
ожидание
M ( X i )  ai ,
дисперсия
D( X i )   i2 ,
n

M X i  ai
3

 mi и lim
n 
m
i 1
i

2
  i 
 i 1 
n
3
2
 0 , то закон распределения суммы Yn  X 1  X 2 
при n   неограниченно приближается к нормальному с математическим ожиданием
 Xn
n
a
i 1
n
и дисперсией

i 1
2
i
.
53
i
Математическая статистика.
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
18. Словарь терминов (глоссарий)
Варианты
Вариационный
размах
Вариационный ряд
Вероятность события
Выборочная
совокупность, выборка
Генеральная
совокупность
Дискретная
случайная величина
Дисперсионный
анализ
различные значения признака.
простейший показатель вариации, равный разности между
наибольшим и наименьшим вариантами ряда.
ранжированный в порядке возрастания или убывания ряд вариантов
с соответствующими им весами.
1) аксиоматическое
определение:
это
численная
мера
объективной возможности его появления;
2) классическое определение: это отношение числа исходов,
благоприятствующих наступлению события, к числу всех
возможных исходов;
3) статистическое определение: это относительная частота
появления этого события в произведенных испытаниях;
4) геометрическое определение: это отношение меры области,
благоприятствующей появлению события, к мере всей области.
часть объектов, которая отобрана для непосредственного изучения
из генеральной совокупности.
вся подлежащая изучению совокупность объектов.
Случайная величина, множество значений которой есть конечное
множество или бесконечное, но счетное.
статистический метод, предназначенный для оценки влияния
различных факторов на результат эксперимента, а также для
последующего планирования аналогичных экспериментов.
Закон распределения
Это всякое соотношение, устанавливающее связь между
случайной величины
возможными значениями случайной величины и соответствующими
им вероятностями.
Интервальная оценка
числовой интервал, который с заданной вероятностью накрывает
параметра
неизвестное значение оцениваемого параметра.
Испытание
(опыт,
выполнение определенного комплекса условий, в которых
эксперимент)
наблюдается то или иное явление, фиксируется тот или иной
результат.
такое значение СВ, при котором функция ее распределения
Квантиль уровня q
принимает значение, равное q .
Ковариация
есть математическое ожидание произведения отклонений этих
(корреляционный
величин от своих математических ожиданий.
момент) двух СВ
Коэффициент
есть
отношение их ковариации к произведению средних
корреляции двух СВ
квадратических отклонений этих величин.
Математическая
раздел математики, изучающий методы сбора, систематизации и
статистика
обработки результатов наблюдений с целью выявления
статистических закономерностей.
Медиана
значение признака, приходящееся на середину ранжированного
ряда наблюдений.
Медиана СВ
это
такое
значение
СВ,
для
которого
1
P  X  Me( X )   P  X  Me( X )  
2
Мода
вариант, которому соответствует наибольшая частота.
Мода
случайной
это наиболее вероятное значение СВ.
величины
Мощность критерия
вероятность не допустить ошибку 2 рода, то есть отвергнуть
нулевую гипотезу, когда она неверна.
72
Накопленная
частость
Накопленная частота
Независимые
случайные величины
Непрерывная
случайная величина
Непрерывная
случайная величина
Несовместные
события
Нулевая гипотеза
Оценка параметра
Плотность
вероятности
непрерывной
случайной величины
Случайная величина
Случайное событие
Средняя
арифметическая
вариационного ряда
Статистическая
гипотеза
Статистический
критерий
Теория вероятностей
отношение накопленной частоты к общему числу наблюдений.
частота, показывающая сколько наблюдалось вариантов со
значением признака, меньшим заданного.
Такие случайные величины, для которых выполняется следующее –
закон распределения одной из них не меняется от того, какие
возможные значения приняла другая величина.
Случайная величина, бесконечное множество значений которой
есть некоторый интервал числовой оси.
случайная величина, функция распределения которой непрерывна в
любой точке и дифференцируема всюду, кроме, быть может,
отдельных точек.
такие события, если в результате одного опыта они не могут
происходить одновременно.
проверяемая гипотеза.
всякая функция результатов наблюдений над случайной величиной,
с помощью которой судят о значении оцениваемого параметра.
есть производная ее функции распределения.
Это переменная, которая в результате испытания в зависимости от
случая принимает одно из возможного множества своих значений
(причем заранее не известно какое именно).
любой факт, который в результате испытания может произойти или
не произойти.
сумма произведений всех вариантов на соответствующие частоты,
деленная на сумму частот.
любое предположение о виде или параметрах неизвестного закона
распределения.
правило, по которому нулевая гипотеза отвергается или
принимается.
математическая наука, изучающая закономерности случайных
явлений.
Уровень значимости
вероятность допустить ошибку 1 рода, то есть отвергнуть нулевую
критерия
гипотезу, когда она верна.
Функция
функция F  x  , выражающая для каждого x вероятность того, что
распределения
случайна\я величина примет значение, меньшее x .
случайной величины
Частости,
отношение частот к общему числу наблюдений.
относительные частоты
Частоты
числа, показывающие, сколько раз встречаются варианты из
данного интервала.
73
19. Балльно-рейтинговая система, используемая преподавателем для оценивания знаний студентов
по дисциплине.
ОСНОВНАЯ ОБРАЗОВАТЕЛЬНАЯ ПРОГРАММА
экономика (общий профиль)
(код, направление, профиль)
ТЕХНОЛОГИЧЕСКАЯ КАРТА
Шифр дисциплины по РУП
Б2.Б5.
Дисциплина
Теория вероятностей и математическая статистика
Курс
семестр
3
2
Кафедра
МиММЭ
Ф.И.О. преподавателя, звание, должность
доц. Дарбинян А. З .
Общ. трудоемкостьчас/ЗЕТ
180/5
Кол-во семестров 1 Интерактивные формыобщ./тек. сем. 10
ЛКобщ./тек. сем. 30
ПР/СМобщ./тек. сем. 42
СМобщ./тек. сем. 108
Форма контроля экзамен
Количество
Максимальное
мероприятий количество баллов
Основной блок
Посещение занятий
20
Контрольная работа №1
1
20
Контрольная работа №2
1
20
Итого:
60
экзамен
1
40
Итого:
100
Дополнительный блок
Разработка презентации, выступление с
5
докладом
Реферат
5
Срок предоставления
Содержание задания
Исследовательская работа
10
по расписанию
до 20.10.2013
до 25.12.2013
по расписанию
по согласованию с
преподавателем
по согласованию с
преподавателем
по согласованию с
преподавателем
20
Итого:
20. Изменения в рабочей программе, которые произошли после ее утверждения:
Характер
изменений в
программе
Номер и дата
протокола заседания
кафедры, на котором
было принято данное
решение
Подпись заведующего
кафедрой,
утверждающего
внесенное изменение
Подпись декана факультета
(проректора по учебной
работе), утверждающего
данное изменение
21. Учебные занятия по дисциплине ведут:
Ф.И.О., ученое звание и степень
преподавателя
доц. Дарбинян А. З .кафедры МиММЭ
Учебный год
2013-2014
74
Факультет
ФМОИиП
Специальность
экономика
Download