Глава 1. Статистическая проверка гипотез

advertisement
Методы анализа данных
Учебное пособие для обеспечения самостоятельной работы
по курсу «Методы анализа данных»
Красноярск 2007 г.
Учебное пособие содержит перечень вопросов для самопроверки и
набор задач для самостоятельного решения в течение семестра для закрепления теоретических знаний. Рекомендуется использовать совместно с основным учебным пособием по дисциплине «Методы анализа данных».
Предназначено для студентов укрупненной группы подготовки
направления 230100 — «Информатика и вычислительная техника» и преподавателей дисциплины «Методы анализа данных».
2
Глава 1. Статистическая проверка гипотез
Данная глава имеет самостоятельное значение в математической статистике. Алгоритмы различения гипотез широко используются в технике,
физике, химии, биологии.
Все необходимые теоретические сведения и ряд разобранных примеров приведены в первой главе учебного пособия.
Вопросы для самопроверки
1. Опишите общую схему проверки гипотез.
2. Как выполнить проверку гипотезы о математическом ожидании?
3. Как выполнить проверку гипотезы о дисперсиях?
4. Как выполнить проверку гипотезы о равенстве математических ожиданий?
5. Как производится выявление аномальных измерений?
6. Как выполнить проверку гипотезы об однородности ряда дисперсий?
7. Как выполнить проверку гипотезы о распределениях?
Упражнения
1.1. Для нормально распределенной случайной величины с известным
средним квадратичным отклонением   5.2 получена независимая выборка
объема n  100 и по ней найдена оценка математического ожидания

m  27.56 . Необходимо при уровне значимости   0.05 проверить гипотезу
H: m  26 при конкурирующей гипотезе H : m  26 .
1.2. Для нормально распределенной случайной величины с известной
дисперсией  2  1600 получена независимая выборка объема n  64 и по

ней найдена оценка математического ожидания m  136.5 . Требуется при
уровне значимости   0.01 проверить гипотезу H : m  130 при конкурирующей гипотезе H : m  130 .
3
1.3. Решить предыдущую задачу при конкурирующей гипотезе "часть
H ": m  130 .
1.4. Установлено, что средний вес (математическое ожидание) таблетки лекарства сильного действия должен быть равен m0  0.50 мг. Выборочная проверка 121 таблетки полученной партии лекарства показала, что сред
ний вес таблетки этой партии m  0.53 мг. Требуется при уровне значимости
  0.01 проверить гипотезу H : m  m0  0.50 при конкурирующей гипотезе "часть H ": 0.50  m . Многократными предварительными опытами по
взвешиванию таблеток, поставляемых фармацевтическим заводом, было
установлено, что вес таблеток распределен нормально со средним квадратным отклонением   0.11 мг.
1.5. По выборке объема n  16 для нормально распределенной случай
ной величины найдены оценки для математического ожидания m  118.2 и

для среднего квадратичного отклонения   3.6 . Требуется при уровне значимости 0.05 проверить гипотезу H: m  120 при конкурирующей гипотезе
H: m  120 .
1.6. Решить предыдущую задачу, приняв в качестве конкурирующей
гипотезы "часть H ": m  120.
1.7. Проектный контролирующий размер изделий, изготовляемых
станком-автоматом, m0  35 мм. Измерения 20 случайно отобранных изделий дали следующие результаты:
контролируемый размер
xi 34.8 34.9 35.0 35.1 35.3;
частота (число изделий)
2
3
4
6
5.
ni
Требуется при уровне значимости 0,05 ( и при условии нормальности
распределения размера изделий) проверить гипотезу H: m  m0  35 при
конкурирующей гипотезе H: m  35 .
1.8. Норма времени на выполнение операции на конвейере равна 8 с.
Произведено 11 замеров интервалов времени, затраченных на эту операцию:
9.9 с; 12.5 с; 10.3 с; 9.2 с; 6.0 с; 10.9 с; 10.3 с; 11.8 с; 11.6 с; 9.8 с; 14.0 с. Выяснить, равны ли реальные затраты времени нормативным или превосходят
норму при уровне значимости 0.001.
4
1.9. По выборке нормально распределенной случайной величины объ
ема n  21 найдена оценка дисперсии  2  16.2 . Требуется при уровне зна2
чимости 0.01 проверить гипотезу H :   15 при конкурирующей гипотезе
"часть H ": 15   2 .
1.10. По выборке нормально распределенной случайной величины объ
ема n  17 найдена оценка дисперсии  2  0.24 . Требуется при уровне зна2
чимости 0.05 проверить гипотезу H :   0.18 , приняв в качестве конку2
рирующей гипотезы "часть H ": 0.18   .
1.11. Для нормально распределенной случайной величины получена
выборка объема n  31:
выборочные значения xi 10.1 10.3 10.6 11.2 11.5 11.8 12.0;
частоты
1
3 7 10 6
3
1.
ni
Требуется при уровне значимости 0.05 проверить гипотезу
H :  2  0.18 при конкурирующей гипотезе "часть H ": 0.18   2 .
1.12. Точность работы станка-автомата проверяется по дисперсии контролируемого размера изделий, которая не должна превышать  02  0.1 . Взята проба из 25 случайно отобранных изделий, причем получены следующие
результаты измерений:
размеры изделий пробы xi 3.0 3.5 3.8 4.4 4.5;
частота
ni 2 6 9 7 1.
Требуется при уровне значимости 0.05 проверить, обеспечивает ли
станок требуемую точность.
1.13. В результате длительного хронометража времени сборки узла
различными сборщиками установлено, что дисперсия этого времени
02  2 мин 2 . Результаты 20 наблюдений за работой новичка таковы:
время сборки одного
узла в минутах
xi 56 58 60 62 64;
частота
1 4 10 3 2.
ni
Можно ли при уровне значимости 0.05 считать, что новичок работает
ритмично (в том смысле, что дисперсия затрачиваемого им времени существенно не отличается от дисперсии времени остальных сборщиков)?
5
1.14. Партия изделий принимается, если дисперсия контролируемого
размера значимо не превышает 0.2. Оценка дисперсии, найденная по выбор
ке объема n  121, оказалась равной величине  2  0.3 . Можно ли принять
партию при уровне значимости 0.01 и при уровне значимости 0.05?
1.15. На выходе усилителя переменного тока проведено 12 измерений
значения напряжения, обусловленного внутренними шумами усилителя.
С учетом того, что математическое ожидание измеряемого напряжения равn
но нулю (m = 0), получена оценка дисперсии  2  n 1  xi2  120 мкВ2. Теореi 1
2
тический расчет предсказывает значение   80 мкВ . Выяснить, свидетельствуют ли данные эксперимента о превышении расчетной величины дисперсии при уровне значимости 0.05.
2
0
1.16. По двум независимым выборкам объемами n1  11, n2  16 нормально распределенных случайных величин найдены оценки дисперсий


12  34.02 ,  22  12.15 . Требуется при уровне значимости 0.05 проверить
гипотезу H : 12   22 о равенстве дисперсий при конкурирующей гипотезе
"часть H ":  22  12 .
1.17. По двум независимым выборкам объемами n1  12, n2  10 двух
нормально распределенных случайных величин найдены оценки дисперсий


12  0.84 ,  22  2.52 . При уровне значимости 0.025 проверить гипотезу
H : 12   22 о
H: 12   22 .
равенстве
дисперсий
при
конкурирующей
гипотезе
1.18. По двум независимым выборкам объемами n1  9, n2  6 двух
нормально распределенных случайных величин найдены оценки дисперсий


12  14.4 ,  22  20.5 . При уровне значимости 0.05 проверить гипотезу
H : 12   22 при конкурирующей гипотезе H: 12   22 .
1.19. Двумя методами проведены измерения одной и той же физической величины. Получены следующие результаты:
а) 9.6; 10.0; 9.8; 10.2; 10.6;
б) 10.4; 9.7; 10.0; 10.3.
6
Можно ли считать, что оба метода обеспечивают одинаковую точность измерений, если принять уровень значимости 0.05? Предполагается, что измерения
распределены по нормальному закону и выборки независимы.
1.20. Для сравнения точности двух станков-автоматов взяты пробы объемами n1  10, n2  8 . Результаты измерения контролируемого параметра изделий следующие: а) 1.08; 1.10; 1.12; 1.14; 1.15; 1.25; 1.36; 1.38; 1.40; 1.42; б) 1.11;
1.12; 1.18; 1.22; 1.33; 1.35; 1.36; 1.38. Можно ли считать, что станки производят
изделия с одинаковой точностью ( H : 12   22 ) при уровне значимости 0.05.
1.21. Оценивается качество работы двух стабилизаторов температуры:
с усовершенствованием и без него, – эффективность стабилизаторов температуры измерения даваемой ими дисперсией температур. Для оценивания
дисперсии первого стабилизатора проведено 4 опыта, второго – шесть.


Оценки дисперсий оказались равными величинам: 12  0.016 ;  22  0.07 .
Необходимо выяснить по результатам эксперимента, можно ли при уровне
значимости 0.05 считать усовершенствование эффективным.
1.22. По двум независимым выборкам (нормально распределенных
случайных величин) объемами n1  30, n2  40 найдены оценки математи2
2
ческих ожиданий m
1  10, m
 2  11. Дисперсии известны: 1  15 ,  2  20 .
Требуется при уровне значимости 0.05 проверить гипотезу H: m1  m2 при
конкурирующей гипотезе H: m1  m2 .
1.23. По выборке объема n1  30 найден средний вес изделий m
 1  130
г, изготовленных на первом станке; по выборке объема n2  40 найден
средний вес m
 2  125 г изделий, изготовленных на втором станке. Истинные дисперсии для веса изделий, изготовленных на станках, равны величинам 12  60 г 2 ,  22  80 г 2 . Требуется при уровне значимости 0.05 проверить гипотезу H : m1  m2 при конкурирующей гипотезе H : m1  m2 .
Предполагается, что вес изделий подчиняется нормальному закону распределения и выборки независимы.
1.24. По выборке объема n1  50 найден средний размер m
1  20,1 мм
диаметра валиков, изготовленных автоматом № 1; по выборке объема

n2  50 найден средний размер m2  19.8 мм диаметра валиков, изготовлен7
ных автоматом № 2. Дисперсии диаметра валиков известны и равны величинам 12  1.750 мм 2 ,  22  1.375 мм 2 . Требуется при уровне значимости
0.05 проверить гипотезу H : m1  m2 при конкурирующей гипотезе
H : m1  m2 . Предполагается, что случайные величины X (диаметр валиков,
изготавливаемых на первом автомате) и Y (диаметр валиков, изготавливаемых на втором автомате) распределены нормально и выборки независимы.
1.25. По двум независимым выборкам (объемами n1  10, n2  8 ) нормально распределенных случайных величин X и Y найдены оценки матема


тических ожиданий ( m1  142.3 , m2  145.3 ) и дисперсий ( 12  2.7 ,

 22  3.2 ). При уровне значимости 0.01 проверить гипотезу H : m1  m2 при
конкурирующей гипотезе H : m1  m2 .
1.26. Из двух партий изделий, изготовленных на двух одинаково
настроенных станках, извлечены выборки, объемы которых n1  10, n2  12 .
Получены следующие результаты:
контролируемый размер
изделий первого станка
xi 3.4 3.5 3.7 3.9;
частота (число изделий)
2 3 4 1;
ni
контролируемый размер
y j 3.2 3.4 3.6;
изделий второго станка
nj
частота
2
2
8.
Требуется при уровне значимости 0.02 проверить гипотезу H: m1  m2
при конкурирующей гипотезе H: m1  m2 . Предполагается нормальный закон распределения изделий, изготавливаемых на обоих станках.
1.27. На уровне значимости 0.05 требуется проверить гипотезу
H: m1  m2 о равенстве математических ожиданий двух нормально распределенных случайных величин X и Y при конкурирующей гипотезе "часть
H ": m1  m2 по независимым выборкам:
значения
xi 12.3 12.5 12.8 13.0 13.5;
частота
1
2
4
2
1;
ni
y j 12.2 12.3 13.0;
значения
частота
nj
6
8
2.
8
1.28. По четырем независимым выборкам одинакового объема n  17
(для нормально распределенных случайных величин) найдены оценки дисперсий: 0.21; 0.25; 0.34; 0.40. Требуется при уровне значимости 0.05 проверить гипотезу об однородности дисперсий. Если гипотеза проходит, то необходимо оценить истинную дисперсию системы случайных величин.
1.29. На шести приборах произведено по семь измерений, которые дали
следующие оценки дисперсий измерения: 3.82; 1.70; 1.30; 0.92; 0.78; 0.81. Проверить гипотезу об однородности ряда дисперсий при уровне значимости 0.05.
1.30. По шести независимым выборкам одинакового объема n  37
(для нормально распределенных случайных величин) найдены оценки дисперсий: 2.34; 2.66; 2.95; 3.65; 3.86; 4.54. Требуется проверить гипотезу об
однородности ряда дисперсий при уровне значимости: а) 0.01; б) 0.05.
1.31. Доказать, что значение статистики Кочрена не изменится, если
все оценки дисперсий умножить на одно и то же постоянное число.
1.32. По пяти независимым выборкам одинакового объема n  37 (для
нормально распределенных случайных величин) найдены оценки дисперсий:
0.00021; 0.00035; 0.00038; 0.00062; 0.00084. Требуется при уровне значимости 0.05 проверить гипотезу об однородности дисперсий.
9
Глава 2. Классификация в распознавании образов
Процесс распознавания включает в себя ряд этапов, одним из которых
является процесс классификации. По мере расширения областей применения
для систем распознавания образов расширяются области использования и
алгоритмов классификации. Они встраиваются в системы диагностики, построения моделей, адаптивного и оптимального управления и др. Однако основные идеи и алгоритмы классификации лучше и полнее изложены
в монографиях по математической статистике и распознаванию образов.
Все необходимые теоретические сведения и ряд разобранных примеров приведены во второй главе учебного пособия.
Вопросы для самопроверки
1. Схема системы распознавания.
2. Байесовская теория принятия решений при одном дискретном информативном признаке.
3. Байесовская теория принятия решений при двух дискретных информативных признаках
4. Байесовская теория принятия решений при непрерывных информативных признаках
5. Основные идеи классификации.
6. Идея работы самообучающихся систем классификации.
5. Прямые методы восстановления решающей функции.
6. Персептроны.
Упражнения
2.1 – 2.4. Имеются два класса. Заданы два ряда распределения вероятностей (при истинном первом и втором классах) и априорные вероятности
классов:
2.1
2.2
xi
x1
x2
P( j )
xi
x1
x2
x3
x4
P( j )
p xi |1
0.1
0.9
0.4
p xi |1
0.01
0.09
0.7
0.2
0.8
p xi |2
0.8
0.2
0.6
p xi |2 0.07
0.6
0.3
0.03
0.2
,
10
,
2.3
2.4
xi
x1
x2
x3
P( j )
xi
x1
x2
x3
P( j )
p xi |1
0.1
0.2
0.7
0.7
p xi |1
0.1
0.3
0.6
0.5
p xi | 2
0.5
0.3
0.2
0.3
p xi |2
0.6
0.2
0.2
0.5
,
.
Вычислите два ряда распределения апостериорных вероятностей
P(1 | xi ) , P(2 | xi ) , i  1, n (либо pxi |1P(1), pxi |2 P(2), i  1, n ), и укажите,
об истинности какого из классов выносится решение, если признак принял
то или иное значение. Определите вероятности ошибочного и правильного
решений.
2.5 – 2.8. Имеются три класса. заданы три ряда распределения вероятностей (при истинности первого, второго и третьего классов) и априорные
вероятности классов:
2.5
2.6
x1
x2
P( j )
xi
x1
x2
x3
x4
P( j )
p xi |1
0.1
0.9
0.1
p xi |1
0.01
0.09
0.7
0.2
0.3
p xi | 2
0.8
0.2
0.6
p xi |2
0.07
0.6
0.3
0.03
0.3
p xi |3
0.3
0.7
0.3
p xi |3
0.8
0.1
0.07
0.03
0.4
xi
,
2.7
,
2.8
xi
x1
x2
x3
P( j )
xi
x1
x2
x3
P( j )
p xi |1
0.1
0.2
0.7
0.5
p xi |1
0.1
0.3
0.6
0.2
p xi |2
0.5
0.3
0.2
0.3
p xi |2
0.2
0.6
0.2
0.1
p xi |3
0.1
0.6
0.3
0.2
p xi |3
0.7
0.2
0.1
0.7
,
11
.
2.9. – 2.12. Вычислите три ряда распределения апостериорных вероятностей P(1 | xi ) , P(2 | xi ) , P(3 | xi ) , i  1, n (либо pxi |1P(1) , pxi |2 P(2) ,
pxi |3 P(3) , i  1, n ), и укажите, об истинности какого из классов выносится
решение, если признак принял то или иное значение.
Определите вероятности ошибочного и правильного решений.
xi
1
3
yj
0
2
4
0.05
0.20
0.10
0.25
0.35
0.05
0.05
0.35
0.25
0.20
0.1
0.05
Имеются два класса. Заданы две таблицы распределения вероятностей дискретных
признаков X ,Y .
В верхней части каждой клетки таблицы стоит соответствующая вероятность
p xi , y j |1 при истинном первом классе, а нижней части – p xi , y j | 2 при истинном втором
классе.
Составьте таблицы взвешенных вероятностей p xi , y j |1P(1) , p xi , y j | 2 P(2)
и покажите, при каких наборах информативных признаков выносится решения об истинности первого класса, а при каких – об истинности второго
класса. Наборы априорных вероятностей классов приведены ниже.
2. 9. P(1)  0.2; P(2)  0.8 . 2.10. P(1)  0.4; P(2)  0.6 .
2.11. P(1)  0.5; P(2)  0.5 . 2. 12. P(1)  0.7; P (2)  0.3 .
Вычислите суммарную вероятность ошибки классификации и суммарную вероятность вынесения правильного решения.
2.13. На основе критерия минимума вероятности ошибки классификации
необходимо получить разделяющие пороги, выписать решающее правило и
найти вероятность ошибки классификации. Информативный признак (при истинности первого и второго класса) распределен по равномерному закону:
(i  i )1,
f ( x | i)  
0,
x  [i , i ],
x  [i , i ], i  1, 2.
Варианты:
а) интервалы [1, 1], [2 , 2 ] не перекрываются;
12
б) интервалы [1, 1], [2 , 2 ] перекрываются, а взвешенные условные
плотности f ( x | 1) P (1) , f ( x | 2) P(2) равны;
в) интервалы [1 , 1 ],[ 2 , 2 ] перекрываются, а взвешенные условные
плотности f ( x | 1) P (1) , f ( x | 2) P(2) не равны;
г) интервал [1 , 1 ] включает в себя интервал [ 2 , 2 ] .
Решение сопровождайте графическими пояснениями.
2.14. При наличии одного информативного непрерывного признака X
и двух классов условные плотности вероятности f (x | 1) , f (x | 2) имеют
равномерное распределение:
0.5,
f ( x | 1)  
 0,

x  [1; 1],
0.5
f ( x | 2)  

x  [1; 1];
0
x  [0; 2],
x  [0; 2].
Выделите области возможных значений информативного признака X ,
при попадании в который принимается решение об истинности соответствующего класса. Априорные вероятности классов P (1) , P ( 2) принимают значения:
а) P (1) = 0.4, P ( 2) = 0.6; б) P (1) = 0.5, P ( 2) = 0.5;
в) P (1) = 0.6, P ( 2) = 0.4; г) P (1) = 1, P ( 2) = 0.
2.15. На основе критерия минимума вероятности ошибки классификации необходимо вычислить разделяющие пороги, выписать решающее правило и найти вероятность ошибки классификации. Условные плотности вероятности для информативного признака имеют вид:
f ( x|1) – равномерный закон распределения в интервале [0; 1],
f ( x|2) – равномерный закон распределения в интервале [0.75; 2.25].
Варианты:
а) P(1)  0.1, P(2)  0.9 ; б) P(1)  0.4, P(2)  0.6 ;
в) P (1) P (2)  0.5 ;
г) P(1)  0.8, P(2)  0.2 .
2.16. На основе байесовской теории принятия решений вычислите разделяющие пороги, выпишите решающее правило и найдите вероятность
ошибки классификации. Условные плотности вероятности для информативного признака имеют вид:
13
1| x|, | x|  1,
exp{ x}, x  0,
f ( x|1)  
f ( x|2)  
0, | x|  1;
0, x  0.
Варианты:
а) P(1)  P(2) , б) P(1)  P(2) .
Решение сопровождайте графиками.
2.17. Необходимо построить байесовское решающее правило и найти
вероятности ошибок классификации. Условные плотности вероятности для
информативного признака имеют вид (нормальный закон распределения)
2

1
 ( x  mi ) 

f ( x | i) 
exp 
, i  1, 2 .
2
2 i

2i 


Варианты:
2
2
2
2
2
2
2
2
а) m1  m2 , 1   2 , P(1)  P(2) ;
б) m1  m2 , 1   2 , P(1)  P(2) ;
в) m1  m2 , 1   2 , P(1)  P(2) ;
г) m1  m2 , 1   2 , P(1)  P(2) ;
д) m1  1, m2  3; 1  1, 2  2; P(1)  P(2) ;
е) m1  3, m2  9; 1  3, 2  4; P(1)  1/ 3, P(2)  2 / 3 ;
ё) m1  1, m2  1; 1  1, 2  2; P(1)  P(2) ;
ж) m1  0, m2  1; 1  1, 2  3; P(1)  0.25, P(2)  0.75 .
Решение сопровождайте графическими пояснениями.
2.18. На основе байесовской теории принятия решений вычислите разделяющие пороги, выпишите решающее правило и найдите вероятность
ошибки классификации. Условные плотности вероятности для информативного признака имеют вид (распределение Лапласа)
f ( x | i) 
 | x  mi | 
1
exp 
, i  1, 2 .
2 i


i

Варианты:
а) m1  m2 , 1   2 , P(1)  P(2) ;
б) m1  m2 , 1   2 , P(1)  P(2) ;
14
в) m1  m2 , 1   2 , P(1)  P(2) ;
г) m1  m2 , 1   2 , P(1)  P(2) ;
д) m1  0, m2  2, 1  1,  2  2, P(1)  P(2) .
2.19. На основе критерия минимума вероятности ошибки классификации необходимо вычислить разделяющие пороги, выписать решающее правило и найти вероятность ошибки классификации. Условные плотности вероятности для информативного признака имеют вид
f ( x | 1)  0.5 exp{ | x |},
1 | x  2 |, 1  x  3,
f ( x | 2)  
x [1; 3].
0,
Варианты:
а) P(1)  P(2) ; б) P(1)  0.2, P (2)  0.8 ;
в) P(1)  0.9, P(2)  0.1 ; г) P(1)  0.7, P(2)  0.3 .
2.20. На основе критерия минимума вероятности ошибки классификации необходимо вычислить разделяющие пороги, выписать решающее правило и найти вероятность ошибки классификации. Условные плотности вероятности для информативного признака имеют вид
1 | x |, | x | 1,
f ( x | 2)  0.5 exp{ | x  2 |} .
f ( x | 1)  
1 | x |;
0,
Варианты:
а) P(1)  1 / 3, P(2)  2 / 3 ;
б) P(1)  P(2) ; в) P(1)  2 / 3, P(2)  1 / 3 .
2.21. На основе байесовской теории принятия решений необходимо
вычислить разделяющие пороги, выписать решающее правило и найти вероятность ошибки классификации. Условные плотности вероятности для информативного признака имеют вид
f ( x | 1)  0.5 exp{ | x |},
 x exp{ x 2 / 2}, x  0,
f ( x | 2)  
x  0.
0,
Варианты:
а) P(1)  0.2, P (2)  0.8 ; б) P(1)  P(2) ; в) P(1)  0.8, P (2)  0.2 .
2.22. На основе байесовской теории принятия решений вычислите раз15
деляющие пороги, выпишите решающее правило и найдите вероятность
ошибки классификации. Условные плотности вероятности для информативного признака имеют вид
f ( x | 1)  0.5 exp{ | x  1 |},
 x exp{ x 2 / 2}, x  0,
f ( x | 2)  
x  0.
0,
Варианты:
а) P (1)  1 / 4, P (2)  3 / 4 ; б) P(1)  P(2) ; в) P (1)  3 / 4, P(2)  1 / 4 .
2.23. На основе байесовской теории принятия решений вычислите разделяющие пороги, выпишите решающее правило и найдите вероятность
ошибки классификации. Условные плотности вероятности для информативного признака имеют вид
e x , x  0,
f ( x | 1)  0.5 exp{ | x |}, f ( x | 2)  
0, x  0.
Варианты:
а) P(1)  1 / 3, P(2)  2 / 3 ; б) P(1)  P(2) ; в) P(1)  2 / 3, P(2)  1 / 3 .
2.24. На основе байесовской теории принятия решений вычислите разделяющие пороги, выпишите решающее правило и найдите вероятность
ошибки классификации. Условные плотности вероятности для информативного признака имеют вид:
e x , x  0,
f ( x | 1)  0.5 exp{ | x |}; f ( x | 2)  
0, x  0;
1, x [ 2;  1],
f ( x|3)  
0, x [ 2;  1].
Варианты:
а) P(1)  P(2)  P(3)  1 / 3 ;
б) P(1)  1 / 4, P(2)  1 / 2, P(3)  1 / 4 ;
в) P(1)  1 / 6, P(2)  1 / 2, P(3)  1 / 3 ;
г) P(1)  1 / 2, P(2)  3 / 8, P(3)  1 / 8 .
16
2.25. На основе байесовской теории принятия решений необходимо
вычислить разделяющие пороги, записать решающее правило и найти вероятность ошибки классификации. Условные плотности вероятности для информативного признака имеют вид
2

1
 x 

f ( x | 1) 
exp  ; f ( x | 2)  0.5 exp{ | x |} .
2

 2

Варианты:
а) P(1)  P(2) ; б) P (1)  1 / 4, P (2)  3 / 4 ; в) P(1)  3 / 4, P(2)  1 / 4 .
2.26. На основе критерия минимума вероятности ошибки классификации необходимо вычислить разделяющие пороги, выписать решающее правило и найти вероятность ошибки классификации. Условные плотности вероятности для информативного признака имеют вид:
0.5, | x | 1,
f ( x | 1)  
0, 1 | x |;
0.75  (1  x 2 ), | x | 1,
f ( x | 2)  
1 | x | .
0,
Варианты:
а) P (1)  3 / 4, P(2)  1 / 4 ; б) P(1)  3 / 5, P(2)  2 / 5 ;
в) P(1)  P(2)  1 / 2 ; г) P (1)  1 / 4, P (2)  3 / 4 .
2.27. На основе байесовской теории принятия решений вычислите разделяющие пороги, выпишите решающее правило и найдите вероятность
ошибки классификации. Условные плотности вероятности для информативного признака имеют вид (экспоненциальное распределение)
i e i x , x  0,
f ( x | i)  
x  0; i  1, 2.
0,
Варианты:
а) 1  2 , P(1)  P(2) ; б) 1  2 , P(1)  P(2) ;
в) 1  2 , P(1)  P(2) .
2.28. На основе байесовской теории принятия решений необходимо
вычислить разделяющие пороги, выписать решающее правило и найти веро17
ятность ошибки классификации. Условные плотности вероятности для информативного признака имеют распределение Релея:
x
 x 2 
 exp  2 , x  0,
f ( x | i )   i2
 2i 

x  0; i  1, 2.
0,
Варианты:
2
2
2
2
2
2
а) 1  2 , P(1)  P(2) ; б) 1  2 , P(1)  P(2) ;
в) 1  2 , P(1)  P(2) .
2.29. Имеются два информативных признака, распределенных по нормальному закону:

f ( x | j) 
 
T
1
 1  

exp

(
x

m
(
j
))
K
(
j
)(
x
 m( j )) ,

1/ 2
 2

2 | K ( j ) |
1
 12 ( j ) k12 ( j ) 
  x1  
 m1 ( j ) 
,
j  1, 2, x   , m( j )  
, K ( j )  
2


x
m
(
j
)
 2
 2 
 k21 ( j ) 2 ( j ) 
k12 ( j )  k21( j ), j  1, 2 .
Необходимо найти разделяющую функцию и выписать решающее правило, основываясь на байесовском подходе.
Варианты:
 12 ( j ) 0 
,
а) признаки некоррелированные: K ( j )  
2
0
 2 ( j ) 



m(1)  m(2), K (1)  K (2), P(1)  P(2) ,
б) признаки
P(1)  P( 2) .
некоррелированные,
K (1)  K (2) ,
1  2  ,
2.30. Имеется m информативных признаков, распределенных по нормальному закону (см. упражнение 2.3.17). Необходимо найти разделяющую
поверхность и построить решающее правило в соответствии с байесовской
18
теорией принятия решений. Корреляционные
( K(1)  K(2)  K ), а признаки коррелированные.
Варианты: а) P(1)  P(2) ; б) P(1)  P(2) .
матрицы
одинаковые
2.31. Для случая двух информативных признаков на основе критерия
минимума вероятности ошибки классификации необходимо построить разделяющие функции, выписать решающее правило и найти вероятности ошибок классификации. Условные плотности вероятности для информативных
признаков имеют равномерные законы распределения; признаки некоррелированные, априорные вероятности для всех классов одинаковые.
Варианты:
а) два класса; области ненулевых значений плотностей (т. е. области
существования признаков) не пересекаются;
б) два класса; области ненулевых значений плотностей частично пересекаются;
в) три класса; области ненулевых значений плотностей не пересекаются;
г) три класса; области ненулевых значений плотностей частично пересекаются.
Процесс поиска решения желательно сопровождать графиками в пространстве двух информативных признаков.
2.32. Рассмотреть исходную постановку задачи классификации и получить байесово решающее правило для случая, когда из двух информативных
признаков один дискретный, второй – непрерывный.
2.33 – 2.37. При наличии двух классов известна обучающая выборка:
1
x1 , ,
1
2
2
xn1 ; x1 , , xn2 общего объема n1  n2  n . По ней необходимо до-
определить априорные вероятности и параметры в соответствующих (указанных ниже) законах распределения информативного признака, а также записать байесовские решающие правила.
За основу рассмотрения необходимо взять следующие законы распределения для информативного признака:
2.33. Равномерное распределение (см. упражнение 2.3.1), неизвестные
параметры i , i , i  1, 2 .
2.34. Нормальное распределение (см. упражнение 2.3.5), неизвестные
2
параметры mi , i , i  1, 2 .
19
2.35. Распределение Лапласа (см. упражнение 2.3.6), неизвестные параметры i , i  1, 2 .
2.36. Экспоненциальное распределение (см. упражнение 2.3.15), неизвестные параметры i , i  1, 2 .
2.37. Распределение Релея (см. упражнение 2.3.16), неизвестные параметры i , i  1, 2 .
20
Глава 3. Планирование эксперимента
Целью планирования эксперимента является создание таких планов
покачивания входных переменных, которые обеспечивают более быстрое и
точное построение модели объекта.
Все необходимые теоретические сведения и ряд разобранных примеров приведены в третьей главе учебного пособия.
Вопросы для самопроверки
1. Постановка задачи планирования эксперимента.
2. Построение линейной статической модели объекта при планировании эксперимента.
3. Крутое восхождение по поверхности отклика.
4. Полный факторный эксперимент.
5. Дробные реплики.
6. Генерирующие соотношения и определяющие контрасты для дробных реплик.
7. Обобщённый определяющий контраст для дробных реплик.
8. Насыщенные планы. Симплекс.
9. Разбиение матрицы планирования на блоки с целью устранения кусочно-постоянного дрейфа.
10. Обработка результатов эксперимента при построении линейной
статической модели с использованием ортогональных планов первого порядка.
11. Ортогональное планирование второго порядка.
12. Расчёт параметров квадратичных моделей при ортогональном планировании.
13. Ротатабельное планирование.
14. Метод случайного баланса при построении матрицы планирования.
15. Выделение главных факторов с помощью диаграмм рассеяния.
Упражнения
3.1. Постройте ортогональный план взвешивания 7 тел и 15 тел; определите веса тел по результатам взвешивания; вычислите дисперсии получаемого веса тел (считая равноточными результаты взвешивания во всех точках
21
плана); сравните результаты вышеуказанного взвешивания с результатами
обычного поочередного взвешивания тел.
Указание. Матрицы планирования проще всего построить как дробные
реплики 27  4 , 21511 .
3.2. Постройте ортогональный полный факторный план 2 m при m = 2,
3, 4, 5, 6.
3.3. Вычислите коэффициенты линейной модели на основе результатов, приведенных в табл. 3.У.1.
Таблица 3.У.1
3.4. Вычислите параметры линейной модели, обрабатывая результаты полного факторного
эксперимента (табл. 3.У.2). На основе этих же
результатов определите коэффициенты 12 , 13 ,
23 , 123 , стоящие в модели перед факторами
взаимодействия.
n
x1
x2
y
1
2
3
4
+
–
+
–
+
+
–
–
5
3
–1
–3
3.5. Вычислите коэффициенты линейной модели по экспериментальным данным, приведенным в табл. 3.У.3. Найдите определяющий контраст
этой дробной реплики.
3.6. Вычислите коэффициенты 0 , 1 ,  2 , 3 , 12 , 13, 23, 123 модели
(с учетом факторов взаимодействия) на основе результатов планирования,
приведенных в табл. 3.У.4.
Таблица 3.У.2
Таблица 3.У.3
n
x1
x2
x3
y
n
x1
x2
x3
x4
y
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
+
–
–
+
+
–
–
+
+
+
+
–
–
–
–
12
10
8
6
6
4
2
0
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
+
–
–
+
+
–
–
+
+
+
+
–
–
–
–
+
–
–
+
–
+
+
–
26
20
5
14
10
25
15
9
22
Таблица 3.У.4
n
x1
x2
x3
y
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
+
–
–
+
+
–
–
+
+
+
+
–
–
–
–
13.6
10.4
7.4
4.6
4.6
3.4
2.4
1.6
3.7. Определите разрешающую способность дробных реплик 2 4 1 с определяющими контрастами: а) 1  x1x2 x3 x4 ;
б)
в)
 1  x1x2 x3 x4 ;
1  x1x2 x4 ;
г)  1  x1 x2 x4 ; д) 1  x2 x3 x4 .
3.8. Постройте дробные реплики 2 3  1 с
определяющими контрастами 1  x1 x2 x3 ,
 1  x1 x2 x3 ; оцените их разрешающие способности; вычислите коэффициенты линейной модели и найдите дисперсии этих коэффициентов.
3.9. Постройте дробную реплику 2 4 1 с определяющим контрастом
1  x1x2 x3 x4 ; запишите полную модель, которую можно построить на основе
этого плана; выпишите формулы расчета параметров модели; вычислите
дисперсию выхода модели.
2 5 1
3.10. Выполните задание предыдущего примера для дробных реплик
с определяющими контрастами 1  x1 x2 x4 ; 1  x1 x3 x4 ; 1  x2 x3 x4 .
3.11. Постройте дробную реплику 2 5  2 с генерирующими соотношениями x4  x1 x2 x3 ; x5  x1 x3 ; оцените ее разрешающую способность; выпишите синтезируемую модель и вычислите дисперсию выхода модели.
3.12. Можно ли в модель включить следующие существенные переменные: x0 , x1 , x2 , x3 , x4 , x1x2 , x2 x3 , x2 x4 , если при планировании эксперимента
используется дробная реплика 2 4 1 с определяющим контрастом 1  x1 x3 x4 ?
3.13. Можно ли в модель включить следующие существенные переменные: x0 , x1 , x2 , x3 , x4 , x1x2 , x2 x3 , x2 x4 , если при планировании эксперимента используется дробная реплика 2 4 1 с определяющим контрастом
1  x1x2 x3 x4 ?
23
3.14. Можно ли в модель объекта включить существенные переменные
x0 , x1 , x2 , x3 , x4 , x1x2 , x2 x3 , x3 x4 , если используется дробная реплика 2 4 1
с определяющим контрастом 1  x1x2 x3 x4 ?
3.15. Можно ли на основе использования дробной реплики 2 5  2 с
обобщенным определяющим контрастом 1  x1x2 x3 x4  x1 x3 x5  x2 x4 x5 построить модель, включающую в себя следующие существенные переменные:
а) x0 , x1 , x2 , x3 , x4 , x5 , x1x2 ;
б) x0 , x1 , x2 , x3 , x4 , x5 , x1x2 , x4 , x5 ;
в) x0 , x1 , x2 , x3 , x4 , x5 , x1 x2 , x1 x3 , x1x4 , x1 x5 ;
г) x0 , x1 , x2 , x3 , x4 , x5 , x1x2 , x2 x4 , x4 x5 , x1x2 x3 ?
3.16. Имеется дробная реплика 2 5  2 с определяющими контрастами
1  x1x2 x4 , 1  x1x2 x3 x5 . Найдите обобщенный определяющий контраст;
оцените, какие существенные факторы могут быть включены в модель;
определите разрешающую способность дробной реплики.
3.17. Определите, какие дробные реплики 2 4 1 могут быть построены;
оцените их разрешающие способности; покажите, какие модели могут быть
построены с помощью этих планов.
3.18. Выявите все дробные реплики 2 5  2 ; оцените разрешающие способности их и выпишите модели, которые могут быть построены с помощью
этих планов.
3.19. Найдите все возможные дробные реплики 2 6  3 и для трех из них:
а) x4  x1 x2 , x5  x1 x3 , x6  x2 x3 ; б) x4  x1 x2 , x5  x1 x3 , x6  x1 x2 x3 ;
в) x4  x1x3 , x5  x2 x3 , x6  x1x2 x3 , выпишите структуры оцениваемых моделей.
3.20. Для нейтрализации кусочно-постоянного дрейфа необходимо
полный факторный эксперимент 2 4 разбить на 2 блока, а затем каждый из
них – тоже на 2 блока. Необходимо убедиться, что при полученном упорядоченном во времени планировании дрейф не приводит к смещению параметров модели.
24
3.21. Считаем, что через каждые четыре измерения аддитивный кусочно-постоянный дрейф выхода меняет свое значение. Разбивая полный факторный эксперимент 2 3 на блоки, составьте план, который не приведёт к
смещению параметров линейной модели за счет наличия дрейфа.
3.22. На основе матрицы планирования 2 3  1 на объекте поставлен эксперимент с одинаковым числом повторных опытов (табл. 3.У.5). Проверьте
гипотезу о равной точности измерений. Если эта
Таблица 3.У.5
гипотеза принимается, то
n x1 x2 x3 y (1) y ( 2) y ( 3) y ( 4)
вычислите оценку дисперсии для выходной коор1
+
+
+ 92.3 91.8 92.0 92.4
динаты. Далее постройте
2
–
+
– 87.2 88.7 87.5 88.0
линейную модель объекта,
3
+
–
– 84.0 84.9 84.2 84.1
оцените значимость всех
4
–
–
+ 87.3 86.1 86.5 87.0
параметров, незначимые
параметры исключите из модели и проверьте для полученной модели гипотезу адекватности. При решении вышеуказанных задач уровень значимости
 = 0.05.
Таблица 3.У.6
n
x1
x2
x3
x4
y
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
+
–
–
+
+
–
–
+
+
+
+
–
–
–
–
+
–
–
+
–
+
+
–
26
20
5
14
10
25
15
9
Таблица 3.У.7
n
x1
x2
y (1)
y ( 2)
y ( 3)
1
2
3
4
+
–
+
–
+
+
–
–
0.5
2.0
3.0
4.5
1.5
2.0
2.9
5.5
1.0
2.1
3.1
5.0
3.23. На объекте реализован
план, представленный в табл. 3.У.6.
Постройте линейную модель, проверьте значимость коэффициентов, а затем
убедитесь в адекватности модели, если
2
  3.06,   0.05 .
3.24. На объекте реализован
полный факторный эксперимент 2 2 с
повторными опытами (табл. 3.У.7).
Проверьте гипотезу о равноточности измерений. Если эта гипотеза
оказывается принятой, то вычислите
оценку дисперсии для выходной координаты объекта. Затем постройте линейную модель и проверьте ее на
адекватность. Уровень значимости
примите равным 0.05.
25
3.25. В таблице 3.У.8
представлены результаты эксперимента. Оценка дисперсии
2
 ( y ) для выходной координа-
Таблица 3.У.8
n
x1
x2
x3
x4
x5
y
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
+
–
–
+
+
–
–
+
+
+
+
–
–
–
–
+
–
–
+
–
+
+
–
–
+
+
–
–
+
+
–
53.0
64.8
46.0
48.1
57.2
54.8
45.3
50.0
ты объекта равна величине 6.5
и имеет 8 степеней свободы.
При уровне значимости 0.05
проверьте гипотезы о значимости коэффициентов линейной
модели, незначимые коэффициенты исключите из модели и
проверьте гипотезу адекватности модели.
Найдите также генерирующие соотношения для вышеуказанной дробной реплики.
3.26. Составьте ортогональный композиционный план второго порядка
при m  2 и приведите расчетные формулы для всех параметров модели,
дисперсии параметров и дисперсии выхода модели.
3.27. Выделите главные факторы с использованием диаграмм рассеяния. Результаты планирования приведены в табл. 3.У.9.
3.28. По результатам планирования, приведенным в табл. 3.У.10, на основе диаграмм рассеяния выделите главные факторы.
Таблица 3.У.9
Таблица 3.У.10
n
x1
x2
x3
x4
y
n
x1
x2
x3
x4
y
1
2
3
4
5
6
7
8
+
+
–
–
+
+
–
–
+
–
–
+
+
–
–
+
+
+
+
+
–
–
–
–
+
–
+
–
+
–
+
–
29.6
12.2
23.9
58.6
23.2
29.2
53.9
38.3
1
2
3
4
5
6
7
8
+
+
–
–
+
+
–
–
+
–
–
+
+
–
–
+
+
+
+
+
–
–
–
–
+
+
–
–
–
–
+
+
3.0
1.2
2.4
5.9
2.3
2.9
5.4
3.8
26
3.29. Выделить главные факторы методом диаграмм рассеяния по
результатам планирования эксперимента, приведенным в табл. 3.У.11.
Таблица 3.13.11
n
x1
x2
x3
x4
y
1
2
3
4
5
6
7
8
+
+
–
–
+
+
–
–
+
+
–
–
–
–
+
+
+
–
–
+
–
+
+
–
+
–
+
–
–
+
–
+
6.0
2.4
4.8
11.8
1.6
5.8
10.8
7.6
3.30. Методом диаграмм рассеяния выделите главные факторы, используя результаты планирования,
приведенные в табл. 3.У.12.
3.31. Выделите главные факторы с использованием диаграмм рассеяния. Результаты планирования эксперимента приведены в табл. 3.У.13.
Таблица 3.У.12
Таблица 3.У.13
n
x1
x2
x3
x4
x5
y
n
x1
x2
x3
x4
y
1
2
3
4
5
6
7
8
+
+
–
–
+
+
–
–
+
–
–
+
+
–
–
+
+
+
+
+
–
–
–
–
+
–
–
+
–
+
+
–
+
–
+
–
–
+
–
+
30
12
24
59
23
29
54
38
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
–
–
+
+
–
–
+
–
–
–
–
+
+
+
+
–
–
+
+
+
+
–
–
10
9
15
25
26
14
5
20
Таблица 3.У.14
Таблица 3.У.15
n
x1
x2
x3
x4
x5
y
n
–
–
+
+
+
–
–
+
–
–
+
–
–
+
+
+
–
–
–
+
+
+
+
–
x3
x4
x5
1
2
3
4
5
6
7
8
–
+
–
–
+
–
+
+
x2
y
–
+
–
+
–
+
–
+
x1
50
57
48
46
65
45
55
53
1
2
3
4
5
6
7
8
+
+
–
–
–
–
+
+
+
–
–
+
–
+
+
–
+
–
+
–
+
–
+
–
+
+
–
–
+
+
–
–
+
+
+
+
–
19
24
31
13
32
14
25
30
27
–
–
3.32. По результатам планирования, приведенным в табл. 3.У.14, методом диаграмм рассеяния выделите главные факторы.
3.33. Методом диаграмм рассеяния выделите главные факторы, используя приведенные в табл. 3.У.15 результаты планирования эксперимента.
3.34. Выделите главные факторы объекта на основе метода диаграмм
рассеяния, используя приведенные в табл. 3.У.16 результаты планирования
эксперимента.
3.35. На основе метода диаграмм рассеяния выделите главные факторы, используя результаты планирования эксперимента, приведенные
в табл. 3.У.17.
Таблица 3.У.17
Таблица 3.У.16
n
x1
x2
x3
y
n
x1
x2
x3
x4
y
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
+
–
–
+
+
–
–
+
+
+
+
–
–
–
–
18
16
12
10
8
6
2
0
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
–
+
–
–
+
–
+
+
+
–
–
–
–
+
+
+
–
–
+
+
–
–
+
19
17
29
27
16
32
0
20
3.36. Методом диаграмм рассеяния выделите главные факторы, используя результаты планирования эксперимента, приведенные в табл. 3.У.18.
Таблица 3.У.18
n
x1
x2
x3
x4
x5
x6
x7
y
1
2
3
4
5
6
7
8
+
–
+
–
+
–
+
–
+
+
–
–
+
+
–
–
+
+
+
+
–
–
–
–
+
–
–
+
+
–
–
+
+
–
+
–
–
+
–
+
+
+
–
–
–
–
+
+
+
–
–
+
–
+
+
–
12.4
6.5
11.5
4.0
11.8
5.0
9.9
2.2
28
Глава 4. Методы непараметрической обработки информации
Методы статистической обработки информации можно условно разделить на две группы: параметрические и непараметрические. Параметрические методы используют параметрические семейства зависимостей (разделяющей поверхности в распознавании образов, плотности распределения вероятности, модели объекта) и существенно используют свойства объектов.
Непараметрические методы не ориентированы на указанные параметрические семейства, имеют более универсальную структуру и более широкую область применения. Они работают при большей неопределенности по априорной информации. Платой за это служит более сложная обработка исходной
выборки и, как правило, непараметрические методы с этой выборкой никогда не расстаются. В лучшем случае исходная избыточная выборка заменяется укороченной выборкой, которая впитала основную информацию из исходной выборки.
Все необходимые теоретические сведения и ряд разобранных примеров приведены в четвертой главе учебного пособия.
Вопросы для самопроверки
1. Оценивание функционалов от плотности распределения вероятности.
2. Простейшая оценка функции распределения вероятности.
3. Простейшая оценка плотности распределения вероятности.
4. Полиграммы.
5. Оценка "К ближайших соседей".
6. Оценка Розенблатта – Парзена.
7. Оценки математического ожидания непрерывной случайной величины с использованием оценки Розенблатта – Парзена.
8. Оценка дисперсии с использованием оценки Розенблатта – Парзена
при треугольном ядре.
9. Оценка дисперсии с использованием оценки Розенблатта – Парзена
при параболическом ядре.
10. Оценка коэффициента корреляции с использованием оценки Розенблатта – Парзена.
11. Оценка приведённой энтропии одномерной непрерывной случайной величины с использованием оценки Розенблатта – Парзена.
29
12. Оценка совместной приведённой энтропии с использованием оценки Розенблатта – Парзена.
13. Оценка условной плотности вероятности с использованием оценки
Розенблатта – Парзена.
14. Непараметрическая оценка регрессии (с использованием оценки
Розенблатта – Парзена).
15. Свойства одномерной непараметрической оценки регрессии.
16. Робастные свойства оценки медианы.
17. Робастная непараметрическая оценка регрессии.
18. Оценки условной энтропии и количества информации с использованием оценки Розенблатта – Парзена.
20. Адаптивное управление при априорной неопределенности с использованием непараметрической оценки инверсной регрессии.
21. Непараметрическое сглаживание в классификации.
Упражнения
4.1. На основе простейшей оценки для плотности распределения вероятности вычислите оценку математического ожидания случайной величины.
Рассчитайте для нее математическое ожидание и дисперсию.
4.2. На основе использования простейшей оценки для плотности распределения вероятности вычислите оценку математического ожидания от
аналитической функции центрированной случайной величины.


M {( X )}   ( x  m) f ( x)dx .

4.3. Используя оценку, вычисленную в предыдущем примере, найдите
оценку дисперсии случайной величины.
4.4. Используя краткую выборку случайной величины и построенную
на основе нее простейшую оценку плотности распределения вероятности,
вычислите оценки для математического ожидания случайной величины, ее
дисперсии и для математического ожидания функции случайной величины.
4.5. Используя выборку системы нескольких случайных величин, постройте простейшую оценку совместной плотности распределения вероятности и на основе нее найдите оценки элементов корреляционной матрицы.
30
4.6. На основе полиграммы первого порядка найдите оценку математического ожидания случайной величины. Покажите, что эта оценка является
несмещенной и состоятельной.
4.7. Для оценки математического ожидания случайной величины, полученной по полиграмме 1 порядка, вычислите дисперсию и сравните ее с
дисперсией обычной оценки.
4.8. Оценку дисперсии

1 n 1
( xi 1  xi ) 2
D1 
]
 [( xi  m)( xi 1  m) 
n  1 i 1
3
исследуйте на смещенность ( m – известно).
4.9. Исследуйте на смещенность следующую оценку дисперсии:
2
1 n 1 xi  xi 1

D1 
 m  , ( m – известно).

n  1 i 1
2

4.10. В одномерном случае запишите оценку Розенблатта – Парзена.
4.11. Запишите оценку Розенблатта – Парзена для двумерной случайной величины.
4.12. Постройте модифицированную оценку Розенблатта – Парзена и
придайте ей рекуррентный вид.
4.13. Придайте рекуррентный вид оценке математического ожидания:
 1 n
m   xi .
n i 1
4.14. Придайте рекуррентный вид оценкам, рассмотренным в упражнениях 4.2, 4.3, 4.4, 4.6.
4.15. Рассчитайте оценку математического ожидания случайной величины на основе оценки Розенблатта – Парзена при треугольном виде ядра.
4.16. Рассчитайте оценку математического ожидания случайной величины на основе оценки Розенблатта – Парзена при параболическом виде ядра.
31
4.17. Рассчитайте оценку математического ожидания аналитической
функции случайной величины на основе использования оценки Розенблатта
– Парзена при треугольном виде ядра. Используя полученный результат, получите оценку дисперсии и исследуйте ее на смещенность.
4.18. Выполните задание предыдущего примера при использовании
параболического вида ядра.
4.19. На основе оценки Розенблатта – Парзена постройте оценку коэффициента корреляции.
4.20. На основе оценки Розенблатта – Парзена постройте оценку энтропии двумерной случайной величины.
4.21. Запишите оценку условной плотности распределения вероятности, используя оценки Розенблатта – Парзена для совместных плотностей
вероятности (у объекта 2 входа и один выход).
4.22. Придайте рекуррентный вид оценке условной плотности распределения вероятности.
4.23. Для объекта с одним входом и одним выходом постройте непараметрические оценки прямой и обратной регрессий.
4.24. Для объекта с двумя входами и одним выходом постройте непараметрическую оценку прямой и инверсных регрессии.
4.25. Для объекта с двумя входами и двумя выходами постройте непараметрические оценки прямых и инверсных регрессий.
4.26. Для объекта с одним входом и одним выходом постройте адаптивные непараметрические оценки прямой и инверсной регрессий.
4.27. Запишите алгоритм расчета робастной непараметрической оценки регрессии для объекта с двумя входами и одним выходом.
4.28. На основе оценки Розенблатта – Парзена получите оценки средней условной энтропии и среднего количества информации (объект с двумя
входами и одним выходом).
32
4.29. Запишите алгоритм адаптивного управления (используя непараметрические оценки инверсных регрессий) объектом с двумя управляющими
входами и одним выходом.
4.30. Синтезируйте алгоритм адаптивного управления (на основе использования непараметрической оценки инверсной регрессии) для объекта с
одним входом и двумя выходами.
4.31. Синтезируйте алгоритм адаптивного управления (на основе использования непараметрических оценок инверсных регрессий) объектом с
двумя управляющими входами и двумя выходами.
4.32. Синтезируйте алгоритм адаптивного управления экстремальным
объектом с двумя управляющими входами и двумя выходами.
4.33. Синтезируйте непараметрический алгоритм минимизации функции двух переменных.
33
Глава 5. Методы экспериментальной оптимизации
Задача (параметрической) оптимизации в экстремальной постановке
сводится к минимизации функции многих переменных: I ( x )  min .
xX
Функция I от искомых величин x часто зависит сложным образом.
Можно представить две ситуации, встречающиеся на практике.
1. Имеется объект, с которым нельзя активно экспериментировать и
поведение которого описывается большим числом дифференциальных, интегральных и другие уравнений, в том числе частных производных. Варьирование параметров реального объекта заменяют варьированием аналогичных
параметров модели. Функция качества I , которая входит в вышеприведенный критерий оптимальности, рассчитывается по результатам решения
сложных уравнений модели. Примерами таких объектов являются: взрывоопасные химические реакторы, ядерные реакторы, генераторы электрического тока с использованием явления сверхпроводимости.
Использование для оптимизации обычных методов дифференциальной
оптимизации (когда вычисляются первая и вторая производные от функции
качества) затруднено из-за чрезвычайной сложности аналитического вычисления производных. При этом приходится вести оптимизацию только по
вычислениям функции качества в конечном и малом количестве точек x .
2. Для многих объектов при фиксированных значениях параметров x
измеряется только значение функции качества I . Моделей для этих объектов
еще не существует. Из-за отсутствия модели отсутствует аналитическая
связь между I и x . Оптимизацию приходится вести только по измерениям
функции качества в фиксированных точках x . Примерами таких объектов
служат технологические процессы, например: завод по производству кирпича, комбинат по обработке древесины, завод по производству железобетонных изделий, завод по производству обуви, фабрики пошива одежды и др.
Все необходимые теоретические сведения и ряд разобранных примеров приведены в пятой главе учебного пособия.
Вопросы для самопроверки
1. Постановка задачи экспериментальной оптимизации.
2. Свойство одномерных унимодальных функций, используемое при
конструировании алгоритмов их оптимизации.
34
3. Метод деления отрезка пополам при одномерном поиске минимума
унимодальных функций.
4. Метод золотого сечения при одномерном поиске минимума унимодальных функций.
5. Одномерный глобальный поиск (метод ломанных).
6. Последовательный симплексный метод поиска экстремума функций.
7. Метод деформируемого многогранника при поиске экстремума
функций.
8. Градиентный метод поиска экстремума функций с использованием
планирования первого порядка.
9. Метод Ньютона поиска экстремума функций с использованием планирования второго порядка.
10. Методы случайного поиска.
11. Глобальная оптимизация методом усреднения координат.
Упражнения
5.1. Необходимо найти минимум функции
I ( x )  x 2  16 / x
2
I ( x)  x  16 / x
при 1  x  5 на основе:
а) метода деления отрезка пополам,
б) метода золотого сечения,
в) метода с использованием квадратичной
аппроксимации.
5.2. Необходимо найти минимум функции
2
I ( x)  2 x  16 / x
x
2
I ( x)  2 x  16 / x
x
при 1  x  5 на основе методов:
а) деления отрезка пополам,
б) золотого сечения,
в) с использованием квадратичной аппроксимации.
35
5.3. Необходимо найти м функции
I ( x)  x  1 / x
I ( x)  x  1 / x
x
при 1  x  3 на основе методов:
а) деления отрезка пополам,
б) золотого сечения,
в) с использованием квадратичной аппроксимации.
5. 4. Необходимо найти минимум функции
I ( x)  x  4 / x
I ( x)  x  4 / x
x
при 1  x  4 на основе методов:
а) деления отрезка пополам,
б) золотого сечения,
в)
с
использованием
аппроксимации.
квадратичной
5.5. Необходимо найти минимум функции
I ( x)  ( x  2)
2
I ( x)  ( x  2)
2
при 1  x  4 на основе методов:
а) деления отрезка пополам,
б) золотого сечения,
x
в) с использованием квадратичной аппроксимации.
5.6. Необходимо найти минимум функции
I ( x) | x  2 |
I ( x) | x  2 |
при 1  x  4 на основе методов:
а) деления отрезка пополам,
б) золотого сечения,
в) с использованием квадратичной аппроксимации.
36
x
5.7. Необходимо войти в окрестность минимума функции двух перемен-
ных: I ( x1 , x2 )  b| x1  x2 |  | x1  x2 |, 0  b  1
x2
x1
Пространственный вид функции
Линии равных уровней при b=0.5
5.8. Необходимо войти в окрестность минимума функции двух переменных: I ( x1, x2 )  (| x1  1 | 1)  (| x2  2 | 1) .
x2
x1
Пространственный вид функции
Линии равных уровней
37
5.9. Необходимо войти в окрестность минимума функции двух переменных: I ( x1 , x 2 )  x12  x 22   x1 x 2 , |  | 2 .
x2
x1
Пространственный вид функции
Линии равных уровней при
 1
5.3.4. Необходимо войти в окрестность минимума функции двух переменных: I ( x1, x2 ) | x1 |  | x2 |  x1x2 , |  | 1
x2
x1
Пространственный вид функции
Линии равных уровней при
  1
на основе:
а) симплексного метода,
б) простейшего градиентного аргумента с использованием планирования первого порядка для оценивания составляющих градиента.
38
Глава 6. Идентификация статических моделей объектов
Идентификация – это процесс построения моделей объектов различной
природы. Теория идентификации имеет в своем арсенале достаточно эффективные методы и алгоритмы, на базе которых разработаны и широко используются программные комплексы.
Процесс идентификации складывается из двух взаимосвязанных этапов: идентификации структуры моделей и идентификации параметров в моделях выбранной структуры. При построении структуры модели (или набора
конкурирующих либо взаимодополняющих структур) используется априорная информация об объекте. Для каждого класса объектов формируются
банки структур с сопутствующей информацией.
Все необходимые теоретические сведения и ряд разобранных примеров приведены в шестой главе учебного пособия.
Вопросы для самопроверки
1. Постановка задачи подстройки параметров нелинейных моделей.
2. Критерий наименьших квадратов.
3. Метод наименьших квадратов при линейной параметризации модели.
4. Метод последовательной линеаризации при подстройке параметров
на основе критерия наименьших квадратов.
5. Робастные оценки параметров статических моделей объектов (ретроспективная идентификация).
6. Адаптивные алгоритмы метода наименьших квадратов (подстройка
параметров статических моделей объектов).
7. Адаптивные алгоритмы подстройки робастных параметров статических моделей объектов
8. Простейший адаптивный алгоритм подстройки параметров линейных статических моделей объектов
9. Простейший адаптивный алгоритм подстройки параметров нелинейных статических моделей объектов
10. Многоэтапный метод селекции при построении моделей сложных
объектов.
39
Упражнения
6.1. Для модели (u, )   найти параметр  из критерия наименьших
квадратов при:
а) некоррелированных равноточных измерениях,
б) некоррелированных неравноточных измерениях,
в) коррелированных измерениях.
6.2. Для объекта с двумя входами u1 , u2 и одним выходом * эксперимент спланирован так, что выход измерен (*ij , i  1, n, j  1, m) для всех пар
(u1i , u2 j ) , i  1, n, j  1, m значений входов, а измерения выхода некоррелиро-
ванные равноточные (см. пример 6.3.3). Записать критерий наименьших
квадратов и уравнения расчёта параметров линейной модели:
(u1 , u2 )  0  1 (u1  u1 )  2 (u2  u2 ) , u1
1 n
1 m
u
,
u

 1i 2 m  u2 j .
n i 1
j 1
6.3. Вычислить параметры линейной модели (u, )  0  1u на основе критерия наименьших квадратов при:
а) некоррелированных равноточных измерениях,
б) некоррелированных неравноточных измерениях,
в) коррелированных измерениях.
6.4. Составить уравнения расчета параметров на основе критерия
наименьших квадратов при некоррелированных неравноточных измерениях
для следующих моделей:
1
а) (u, )  0  1u  2 ,
u
в) (u, )  0  1u  2u 2 ,
1
д) (u, )  0  1 2 ,
u
б) (u, )  0  1 sin 1u  2 cos 2u ,
г) (u, )  0  1u1  2u2  3u3 ,
е) (u, )  0  1u  2 e  u .
6.5. Построить алгоритм расчета параметров по критерию наименьших
квадратов для следующих нелинейных относительно параметров моделей:
1) (u, )  1u 2 ,
2) (u, )  1 sin( 2u ) ,
40
3) (u, )  1 sin( u  2 ) , 4) (u, )  1 sin( 1u  2 ) ,
1
5) (u, ) 
,
6) (u, )  1e 2u ;
2  3u
при:
а) некоррелированных равноточных измерениях,
б) некоррелированных неравноточных измерениях.
6.6. Записать алгоритмы вычисления робастных оценок параметров
моделей:
а) (u, )   ,
б) (u, )  0  1u ;
в) (u, )  1u1  2u2 ,
г) (u, )  1u 2 , д) (u, )  1 sin( 1u  2 ) , е) (u, )  1e 2u .
6.7. Записать адаптивный алгоритм идентификации параметров моделей:
б) (u, )  0  1u , в) (u, )  u  ,
1
г) (u, )  1u 2 , д) (u, ) 
, е) (u, )  1e 2u .
1  2 u
а) (u, )   u 2 ,
За основу взять критерий наименьших квадратов с забыванием информации при некоррелированных неравноточных измерениях.
6.8. Построить алгоритмы адаптивного расчета робастных оценок параметров моделей:
а) (u, )   ,
б) (u, )  0  1u ; в) (u, )  1u1  2u2 ,
г) (u, )  u  ,
д) (u, )  1u 2 ,
е) (u, )  1 sin( 2u ) ,
ж) (u, )  1 sin( 1u  2 ) , з) (u, )  1e 2u .
6.9. Записать простейший адаптивный алгоритм идентификации
моделей:
а)  ,
б) 0  1u  2u 2 ,
в) 0  1u  2 e  u ,
г) 1   2
1
, д) 0  1 sin 1u1  2 sin 2u2 ,
ub
41
е) 1u1  2u2 ,
 (u   2 ) 2 
ж) 0  1u1  2u2  3u3 , з) 1 sin( 2u  3 ) , и) 1 exp 
,
2

3


к) 1u 2  3e 4u ,
л)
1
,
2  3u
42
м)
1  2u
.
 3   4 u   5u 2
Глава 7. Идентификация динамических моделей объектов
В динамическом режиме поведение объектов описывается различными
динамическими уравнениями: обыкновенными дифференциальными, интегральными, интегродифференциальными уравнениями; уравнениями с запаздываниями; уравнениями в частных производных и их дискретными аналогами. С целью упрощения изложения материала будут рассматриваться
наиболее простые дискретные модели. Последние выбраны именно потому,
что получаемые алгоритмы идентификации и управления напрямую реализуемы на цифровой вычислительной технике (мини-,микро-ЭВМ, микропроцессоры).
Все необходимые теоретические сведения и ряд разобранных примеров приведены в седьмой главе учебного пособия.
Вопросы для самопроверки
1. Структуры дискретных динамических моделей стохастических объектов.
2. Подстройка параметров динамических моделей с использованием
функции чувствительности.
3. Подстройка параметров динамических моделей с использованием
итеративных моделей.
4. Применение простейшего адаптивного алгоритма при подстройке
параметров динамических моделей.
Упражнения
Для объектов, описываемых уравнениями:
1. x(t )  bu(t  1)  e(t ) ,
2. x(t )  bu(t  1)  ce(t  1)  e(t ) ,
3. x (t )  bu (t  1)  c1e(t  1)  c2 e(t  2)  e(t ) ,
4. x(t )  bu(t  2)  e(t ) ,
43
5. x(t )  bu(t  3)  ce(t  1)  e(t ) ,
6. x(t )  ax(t  1)  bu(t  2)  ce(t  1)  e(t ) ,
7. x (t )  ax (t  1)  bu (t  1  1 )  c1e(t  1)  c2 e(t  1   2 )  e(t ) ,
8. x(t )  ax(t  1) / u(t  1)  e(t ) ,
9. x(t )  ax(t  1) / u(t  1)  ce(t  1)  e(t ) ,
10. x(t )  ax(t  1)u(t  3)  e(t ) ,
необходимо построить оптимальную структуру модели и вычислить
параметры модели с использованием рекурсивной модели на основе:
а) рекуррентного алгоритма наименьших квадратов;
в) простейшего адаптивного алгоритма;
д) алгоритма Поляка.
44
Глава 8. Адаптивное управление с идентификацией
В адаптивных системах обработки информации и управления происходит приспособление к изменяющимся условиям и неизвестным характеристикам объекта.
Задается (или синтезируется) структура модели с точностью до параметров. На базе нее из критериев оптимальности синтезируется управление,
которое, естественно, зависит от параметров модели. Параметры модели перестраиваются блоком идентификации непрерывно по мере поступления новой информации об объекте.
Все необходимые теоретические сведения и ряд разобранных примеров приведены в восьмой главе учебного пособия.
Вопросы для самопроверки
1. Постановка задачи адаптивного управления.
2. Синтез устройства управления для простейших линейных систем.
3. Синтез устройства управления для нелинейных систем.
Упражнения
Синтезируйте алгоритмы адаптивного управления для следующих объектов:
1) x(t )  bu(t  1)  h(t ), b – известный коэффициент, h(t ) – неизвестное возмущающее воздействие;
2) x (t )  bu(t  1)  h(t ), b – неизвестный коэффициент;
3) x (t )  bu(t  1)  h(t )  ce(t  1)  e(t ), e(t ) – случайное воздействие
типа белого шума;
4) x(t )  ax(t  1)  bu(t  1)  e(t ) ;
5) x(t )  bu(t  1)  c1e(t  1)  c2e(t  2)  e(t ) ;
6) x (t )  bu(t   )  h(t ),   1;
7) x (t )  bu(t   )  ce(t   )  e(t ),   1;
8) x(t )  x(t  1)u(t  1)  ce(t  1)  e(t ) .
45
Библиографический список
1. Рубан, А. И. Методы анализа данных. Учебное пособие / А. И. Рубан, // уч. пособие. 2-е изд., исправл. и доп. Красноярск: ИПЦ КГТУ, 2004.
319 с.
2. Рубан, А. И. Методы оптимизации / А. И. Рубан, уч. пособие. 3-е
изд., испр. и доп. Красноярск: ИПЦ КГТУ, 2004. 528 с.
3. Гмурман, В. Е. Руководство к решению задач по теории вероятностей и математической статистике / В. Е. Гмурман, уч. пособие для студентов
вузов. М.: Высш. школа, 2002. 400 с.
46
ПРИЛОЖЕНИЕ
x
Таблица П1. Пороговое значение
чины
нормально распределенной случайной вели-
N (0; 1) в зависимости от доверительной вероятности  : P{x  X }  
f (x)


x
0.20
0.84
0.10
1.28
0.05
1.64
Таблица П2. Распределение
степеней свободы

x
x
0
0.025
1.96
0.01
2.33
0.005
2.58
0.001
3.09
0.0005
3.29
 2 . Величина порога  2 , в зависимости от числа
и вероятности
 : P{ 2,   2 }  
2
2
f ( )
f ( )


0 2
 ,

2
0
Вероятность

2
  ,
2


0.99
0.975
0.95
0.90
0.10
0.05
0.025
0.01
1
0.00016
0.00098
0.0039
0.016
2.7
3.8
5.0
6.6
2
0.020
0.051
0.103
0.211
4.6
6.0
7.4
9.2
3
0.115
0.216
0.352
0.584
6.3
7.8
9.3
11.3
4
0.30
0.48
0.71
1.06
7.8
9.5
11.1
13.3
5
0.55
0.83
1.14
1.61
9.2
11.1
12.8
15.1
6
0.87
1.24
1.63
2.20
10.6
12.6
14.4
16.8
7
1.24
1.69
2.17
2.83
12.0
14.1
16.0
18.5
47
Вероятность


0.99
0.975
0.95
0.90
0.10
0.05
0.025
0.01
8
1.65
2.18
2.73
3.49
13.4
15.5
17.5
20.1
9
2.09
2.70
3.32
4.17
14.7
16.9
19.0
21.7
10
2.56
3.25
3.94
4.86
16.0
18.3
20.5
23.2
11
3.1
3.8
4.6
5.6
17.3
19.7
21.9
24.7
12
3.6
4.4
5.2
6.3
18.5
21.0
23.3
26.2
13
4.1
5.0
5.9
7.0
19.8
22.4
24.7
27.7
14
4.7
5.6
6.6
7.8
21.1
23.7
26.1
29.1
15
5.2
6.3
7.3
8.5
22.3
25.0
27.5
30.6
16
5.8
6.9
8.0
9.3
23.5
26.3
28.8
32.0
17
6.4
7.6
8.7
10.1
24.8
27.6
30.2
33.4
18
7.0
8.2
9.4
10.9
26.0
28.9
31.5
34.8
19
7.6
8.9
10.1
11.7
27.2
30.1
32.9
36.2
20
8.3
9.6
10.9
12.4
28.4
31.4
34.2
37.6
21
8.9
10.3
11.6
13.2
29.6
32.7
35.5
38.9
22
9.5
11.0
12.3
14.0
30.8
33.9
36.8
40.3
23
10.2
11.7
13.1
14.8
32.0
35.2
38.1
41.6
24
10.9
12.4
13.8
15.7
33.2
36.4
39.4
43.0
25
11.5
13.1
14.6
16.5
34.4
37.7
40.6
44.3
26
12.2
13.8
15.4
17.3
35.6
38.9
41.9
45.6
27
12.9
14.6
16.2
18.1
36.7
40.1
43.2
47.0
28
13.6
15.3
16.9
18.9
37.9
41.3
44.5
48.3
29
14.3
16.0
17.7
19.8
39.1
42.6
45.7
49.6
30
15.0
16.8
18.5
20.6
40.3
43.8
47.0
50.9
48
Таблица П3.
T
ла степеней свободы
– распределение Стьюдента. Значения

и вероятности
t, в зависимости от чис-
 : P{t,  T }  
f (t )

0

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
30
40
60
120

t,
0.20
0.10
0.05
Вероятность 
0.025
0.01
1.38
1.06
0.98
0.94
0.92
0.91
0.90
0.89
0.88
0.88
0.88
0.87
0.87
0.87
0.87
0.86
0.86
0.86
0.86
0.86
0.86
0.86
0.86
0.86
0.86
0.85
0.85
0.85
0.84
0.84
3.08
1.89
1.64
1.53
1.48
1.44
1.42
1.40
1.38
1.37
1.36
1.36
1.35
1.34
1.34
1.34
1.33
1.33
1.33
1.33
1.32
1.32
1.32
1.32
1.32
1.31
1.30
1.30
1.29
1.28
6.31
2.92
2.35
2.13
2.02
1.94
1.90
1.86
1.83
1.81
1.80
1.78
1.77
1.76
1.75
1.75
1.74
1.73
1.73
1.73
1.72
1.72
1.71
1.71
1.71
1.70
1.68
1.67
1.66
1.64
12.71
4.30
3.18
2.78
2.57
2.45
2.37
2.31
2.26
2.23
2.20
2.18
2.16
2.15
2.13
2.12
2.11
2.10
2.09
2.09
2.08
2.07
2.07
2.06
2.06
2.04
2.02
2.00
1.98
1.96
49
31.82
6.97
4.54
3.75
3.37
3.14
3.00
2.90
2.82
2.76
2.72
2.68
2.65
2.62
2.60
2.58
2.57
2.55
2.54
2.53
2.52
2.51
2.50
2.49
2.48
2.46
2.42
2.39
2.36
2.33
t
0.005
0.001
0.0005
63.66
9.93
5.84
4.60
4.03
3.71
3.50
3.36
3.25
3.17
3.11
3.06
3.01
2.98
2.95
2.92
2.90
2.88
2.86
2.85
2.83
2.82
2.81
2.80
2.79
2.75
2.70
2.66
2.62
2.58
318.31
22.33
10.21
7.17
5.89
5.21
4.78
4.50
4.30
4.14
4.02
3.93
3.85
3.79
3.73
3.69
3.65
3.61
3.58
3.55
3.53
3.50
3.48
3.47
3.45
3.39
3.31
3.23
3.16
3.09
636.62
31.60
12.94
8.61
6.86
5.96
5.41
5.04
4.78
4.59
4.44
4.32
4.22
4.14
4.07
4.02
3.97
3.92
3.88
3.85
3.82
3.79
3.77
3.75
3.73
3.65
3.55
3.46
3.37
3.29
F – распределение
Фишера. Значения F1 ,  2 , в зависимости
от числа степеней свободы 1 ,  2 и фиксированной вероятности  :
P{F1 ,  2 ,  F }  
f (F)
Таблица П4.

1 / 2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120


0
F1 , 2 ,
F
= 0.05
1
161
18.5
10.1
7.71
6.61
5.99
5.59
5.32
5.12
4.96
4.84
4.75
4.67
4.60
4.54
4.49
4.45
4.41
4.38
4.35
4.32
4.30
4.28
4.26
4.24
4.23
4.21
4.20
4.18
4.17
4.08
4.00
3.92
2
200
19.0
9.55
6.94
5.79
5.14
4.74
4.46
4.26
4.10
3.98
3.88
3.80
3.74
3.68
3.63
3.59
3.55
3.52
3.49
3.47
3.44
3.42
3.40
3.38
3.37
3.35
3.34
3.33
3.32
3.23
3.15
3.07
3
216
19.2
9.28
6.59
5.41
4.76
4.35
4.07
3.86
3.71
3.59
3.49
3.41
3.34
3.29
3.24
3.20
3.16
3.13
3.10
3.07
3.05
3.03
3.01
2.99
2.98
2.96
2.95
2.93
2.92
2.84
2.76
2.68
4
225
19.2
9.12
6.39
5.19
4.53
4.12
3.84
3.63
3.48
3.36
3.26
3.18
3.11
3.06
3.01
2.96
2.93
2.90
2.87
2.84
2.82
2.80
2.78
2.76
2.74
2.73
2.71
2.70
2.69
2.61
2.53
2.45
5
230
19.3
9.01
6.26
5.05
4.39
3.97
3.69
3.48
3.33
3.20
3.11
3.03
2.96
2.90
2.85
2.81
2.77
2.74
2.71
2.68
2.66
2.64
2.62
2.60
2.59
2.57
2.56
2.55
2.53
2.45
2.37
2.29
6
234
19.3
8.94
6.16
4.95
4.28
3.87
3.58
3.37
3.22
3.09
3.00
2.92
2.85
2.79
2.74
2.70
2.66
2.63
2.60
2.57
2.55
2.53
2.51
2.49
2.47
2.46
2.45
2.43
2.42
2.34
2.25
2.17
7
237
19.4
8.89
6.09
4.88
4.21
3.79
3.50
3.29
3.14
3.01
2.91
2.83
2.76
2.71
2.66
2.61
2.58
2.54
2.51
2.49
2.46
2.44
2.42
2.40
2.39
2.37
2.36
2.35
2.33
2.25
2.17
2.09
8
239
19.4
8.85
6.04
4.82
4.15
3.73
3.44
3.23
3.07
2.95
2.85
2.77
2.70
2.64
2.59
2.55
2.51
2.48
2.45
2.42
2.40
2.37
2.36
2.34
2.32
2.31
2.29
2.28
2.27
2.18
2.10
2.02
9
241
19.4
8.81
6.00
4.77
4.10
3.68
3.39
3.18
3.02
2.90
2.80
2.71
2.65
2.59
2.54
2.49
2.46
2.42
2.39
2.37
2.34
2.32
2.30
2.28
2.27
2.25
2.24
2.22
2.21
2.12
2.04
1.96
3.84
3.00
2.60
2.37
2.21
2.10
2.01
1.94
1.88
50
Продолжение табл. П4

1 / 2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

10
242
19.4
8.79
5.96
4.74
4.06
3.64
3.35
3.14
2.98
2.85
2.75
2.67
2.60
2.54
2.49
2.45
2.41
2.38
2.35
2.32
2.30
2.27
2.25
2.24
2.22
2.20
2.19
2.18
2.16
2.08
1.99
1.91
1.83
12
244
19.4
8.74
5.91
4.68
4.00
3.57
3.28
3.07
2.91
2.79
2.69
2.60
2.53
2.48
2.42
2.38
2.34
2.31
2.28
2.25
2.23
2.20
2.18
2.16
2.15
2.13
2.12
2.10
2.09
2.00
1.92
1.83
1.75
15
246
19.4
8.70
5.86
4.62
3.94
3.51
3.22
3.01
2.85
2.72
2.62
2.53
2.46
2.40
2.35
2.31
2.27
2.23
2.20
2.18
2.15
2.13
2.11
2.09
2.07
2.06
2.04
2.03
2.01
1.92
1.84
1.75
1.67
20
248
19.4
8.66
5.80
4.56
3.87
3.44
3.15
2.94
2.77
2.65
2.54
2.46
2.39
2.33
2.28
2.23
2.19
2.16
2.12
2.10
2.07
2.05
2.03
2.01
1.99
1.97
1.96
1.94
1.93
1.84
1.75
1.66
1.57
= 0.05
24
249
19.5
8.64
5.77
4.53
3.84
3.41
3.12
2.90
2.74
2.61
2.51
2.42
2.35
2.29
2.24
2.19
2.15
2.11
2.08
2.05
2.03
2.01
1.98
1.96
1.95
1.93
1.91
1.90
1.89
1.79
1.70
1.61
1.52
51
30
250
19.5
8.62
5.75
4.50
3.81
3.38
3.08
2.86
2.70
2.57
2.47
2.38
2.31
2.25
2.19
2.15
2.11
2.07
2.04
2.01
1.98
1.96
1.94
1.92
1.90
1.88
1.87
1.85
1.84
1.74
1.65
1.55
1.46
40
251
19.5
8.59
5.72
4.46
3.77
3.34
3.04
2.83
2.66
2.53
2.43
2.34
2.27
2.20
2.15
2.10
2.06
2.03
1.99
1.96
1.94
1.91
1.89
1.87
1.85
1.84
1.82
1.81
1.79
1.69
1.59
1.50
1.39
60
252
19.5
8.57
5.69
4.43
3.74
3.30
3.01
2.79
2.62
2.49
2.38
2.30
2.22
2.16
2.11
2.06
2.02
1.98
1.95
1.92
1.89
1.86
1.84
1.82
1.80
1.79
1.77
1.75
1.74
1.64
1.53
1.43
1.32
120
253
19.5
8.55
5.66
4.40
3.70
3.27
2.97
2.75
2.58
2.45
2.34
2.25
2.18
2.11
2.06
2.01
1.97
1.93
1.90
1.87
1.84
1.81
1.79
1.77
1.75
1.73
1.71
1.70
1.68
1.58
1.47
1.35
1.22

254
19.5
8.53
5.63
4.36
3.67
3.23
2.93
2.71
2.54
2.40
2.30
2.21
2.13
2.07
2.01
1.96
1.92
1.88
1.84
1.81
1.78
1.76
1.73
1.71
1.69
1.67
1.65
1.64
1.62
1.51
1.39
1.25
1.00
Продолжение табл. П4

1 / 2
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120

1
648
38.5
17.4
12.2
10.0
8.81
8.07
7.57
7.21
6.94
5.72
6.55
6.41
6.30
6.20
6.12
6.04
5.98
5.92
5.87
5.83
5.79
5.75
5.72
5.69
5.66
5.63
5.61
5.59
5.57
5.42
5.29
5.15
5.02
2
800
39.0
16.0
10.6
8.43
7.26
6.54
6.06
5.71
5.46
5.26
5.10
4.97
4.86
4.77
4.69
4.62
4.56
4.51
4.46
4.42
4.38
4.35
4.32
4.29
4.27
4.24
4.22
4.20
4.18
4.05
3.93
3.80
3.69
3
864
39.2
15.4
9.98
7.76
6.60
5.89
5.42
5.08
4.83
4.63
4.47
4.35
4.24
4.15
4.08
4.01
3.95
3.90
3.86
3.82
3.78
3.75
3.72
3.69
3.67
3.65
3.63
3.61
3.59
3.46
3.34
3.23
3.12
= 0.025
4
5
900
922
39.2
39.3
15.1
14.9
9.60
9.36
7.39
7.15
6.23
5.99
5.52
5.29
5.05
4.82
4.72
4.48
4.47
4.24
4.28
4.04
4.12
3.89
4.00
3.77
3.89
3.66
3.80
3.58
3.73
3.50
3.66
3.44
3.61
3.38
3.56
3.33
3.51
3.29
3.48
3.25
3.44
3.22
3.41
3.18
3.38
3.15
3.35
3.13
3.33
3.10
3.31
3.08
3.29
3.06
3.27
3.04
3.25
3.03
3.13
2.90
3.01
2.79
2.89
2.67
2.79
2.57
52
6
937
39.3
14.7
9.20
6.98
5.82
5.12
4.65
4.32
4.07
3.88
3.73
3.60
3.50
3.41
3.34
3.28
3.22
3.17
3.13
3.09
3.05
3.02
2.99
2.97
2.94
2.92
2.90
2.88
2.87
2.74
2.63
2.52
2.41
7
948
39.4
14.6
9.07
6.85
5.70
4.99
4.53
4.20
3.95
3.76
3.61
3.48
3.38
3.29
3.22
3.16
3.10
3.05
3.01
2.97
2.93
2.90
2.87
2.85
2.82
2.80
2.78
2.76
2.75
2.62
2.51
2.39
2.29
8
957
39.4
14.5
8.98
6.76
5.60
4.90
4.43
4.10
3.85
3.66
3.51
3.39
3.29
3.20
3.12
3.06
3.01
2.96
2.91
2.87
2.84
2.81
2.78
2.75
2.73
2.71
2.69
2.67
2.65
2.53
2.41
2.30
2.19
9
963
39.4
14.5
8.90
6.68
5.52
4.82
4.36
4.03
3.78
3.59
3.44
3.31
3.21
3.12
3.05
2.98
2.93
2.88
2.84
2.80
2.76
2.73
2.70
2.68
2.65
2.63
2.61
2.59
2.57
2.45
2.33
2.22
2.11
Окончание табл. П4

1 / 2
10
12
15
20
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
60
120
969
39.4
14.4
8.84
6.62
5.46
4.76
4.30
3.96
3.72
3.53
3.37
3.25
3.15
3.06
2.99
2.92
2.87
2.82
2.77
2.73
2.70
2.67
2.64
2.61
2.59
2.57
2.55
2.53
2.51
2.39
2.27
2.16
2.05
977
39.4
14.3
8.75
6.52
5.37
4.67
4.20
3.87
3.62
3.43
3.28
3.15
3.05
2.96
2.89
2.82
2.77
2.72
2.68
2.64
2.60
2.57
2.54
2.51
2.49
2.47
2.45
2.43
2.41
2.29
2.17
2.05
1.94
985
39.4
14.3
8.66
6.43
5.27
4.57
4.10
3.77
3.52
3.33
3.18
3.05
2.95
2.86
2.79
2.72
2.67
2.62
2.57
2.53
2.50
2.47
2.44
2.41
2.39
2.36
2.34
2.32
2.31
2.18
2.06
1.94
1.83
993
39.4
14.2
8.56
6.33
5.17
4.47
4.00
3.67
3.42
3.23
3.07
2.95
2.84
2.76
2.68
2.62
2.56
2.51
2.46
2.42
2.39
2.36
2.33
2.30
2.28
2.25
2.23
2.21
2.20
2.07
1.94
1.82
1.71

= 0.025
24
30
997
39.5
14.1
8.51
6.28
5.12
4.42
3.95
3.61
3.37
3.17
3.02
2.89
2.79
2.70
2.62
2.56
2.50
2.45
2.41
2.37
2.33
2.30
2.27
2.24
2.22
2.19
2.17
2.15
2.14
2.01
1.88
1.76
1.64
53
1001
39.5
14.1
8.46
6.23
5.07
4.36
3.89
3.56
3.31
3.12
2.96
2.84
2.73
2.64
2.57
2.50
2.44
2.39
2.35
2.31
2.27
2.24
2.21
2.18
2.16
2.13
2.11
2.09
2.07
1.94
1.82
1.69
1.57
40
60
120

1006
39.5
14.0
8.41
6.18
5.01
4.31
3.84
3.51
3.26
3.06
2.91
2.78
2.67
2.59
2.51
2.44
2.38
2.33
2.29
2.25
2.21
2.18
2.15
2.12
2.09
2.07
2.05
2.03
2.01
1.88
1.74
1.61
1.48
1010
39.5
14.0
8.36
6.12
4.96
4.25
3.78
3.45
3.20
3.00
2.85
2.72
2.61
2.52
2.45
2.38
2.32
2.27
2.22
2.18
2.14
2.11
2.08
2.05
2.03
2.00
1.98
1.96
1.94
1.80
1.67
1.53
1.39
1014
39.5
13.9
8.31
6.07
4.90
4.20
3.73
3.39
3.14
2.94
2.79
2.66
2.55
2.46
2.38
2.32
2.26
2.20
2.16
2.11
2.08
2.04
2.01
1.98
1.95
1.93
1.91
1.89
1.87
1.72
1.58
1.43
1.27
1018
39.5
13.9
8.26
6.02
4.85
4.14
3.67
3.33
3.08
2.88
2.72
2.60
2.49
2.40
2.32
2.25
2.19
2.13
2.09
2.04
2.00
1.97
1.94
1.91
1.88
1.85
1.83
1.81
1.79
1.64
1.48
1.31
1.00
G – распределение Кочрена. Значения Gk , , в зависимости от числа
степеней свободы  , числа выборок k и фиксированной вероятности  :
P{Gk , ,  G}  
Таблица П5.
f (G )

0
Gk ,,

G
= 0.05
k /
1
2
3
4
5
6
7
2
0.9985
0.9750
0.9392
0.9057
0.8772
0.8534
0.8332
3
0.9669
0.8709
0.7977
0.7457
0.7071
0.6771
0.6530
4
0.9065
0.7679
0.6841
0.6287
0.5895
0.5598
0.5365
5
0.8412
0.6838
0.5981
0.5440
0.5063
0.4783
0.4564
6
0.7808
0.6161
0.5321
0.4803
0.4447
0.4184
0.3980
7
0.7271
0.5612
0.4800
0.4307
0.3974
0.3726
0.3535
8
0.6798
0.5157
0.4377
0.3910
0.3595
0.3362
0.3185
9
0.6385
0.4775
0.4027
0.3584
0.3286
0.3067
0.2901
10
0.6020
0.4450
0.3733
0.3311
0.3029
0.2823
0.2666
12
0.5410
0.3924
0.3264
0.2880
0.2624
0.2439
0.2299
15
0.4709
0.3346
0.2758
0.2419
0.2195
0.2034
0.1911
20
0.3894
0.2705
0.2205
0.1921
0.1735
0.1602
0.1501
24
0.3434
0.2354
0.1907
0.1656
0.1493
0.1374
0.1286
30
0.2929
0.1980
0.1593
0.1377
0.1237
0.1137
0.1061
40
0.2370
0.1576
0.1259
0.1082
0.0968
0.0887
0.0827
60
0.1737
0.1131
0.0895
0.0766
0.0682
0.0623
0.0583
120
0.0998
0.0632
0.0495
0.0419
0.0371
0.0337
0.0312
54
Продолжение табл. П5

= 0.05
k /
8
9
10
16
36
144

2
0.8159
0.8010
0.7880
0.7341
0.6602
0.5813
0.5000
3
0.6333
0.6167
0.6025
0.5466
0.4748
0.4031
0.3333
4
0.5175
0.5017
0.4884
0.4366
0.3720
0.3093
0.2500
5
0.4387
0.4241
0.4118
0.3645
0.3066
0.2513
0.2000
6
0.3817
0.3682
0.3568
0.3135
0.2612
0.2119
0.1667
7
0.3384
0.3259
0.3154
0.2756
0.2278
0.1833
0.1429
8
0.3043
0.2926
0.2829
0.2462
0.2022
0.1616
0.1250
9
0.2768
0.2659
0.2568
0.2226
0.1820
0.1446
0.1111
10
0.2541
0.2439
0.2353
0.2032
0.1655
0.1308
0.1000
12
0.2187
0.2098
0.2020
0.1737
0.1403
0.1100
0.0833
15
0.1815
0.1736
0.1671
0.1429
0.1144
0.0889
0.0667
20
0.1422
0.1357
0.1303
0.1108
0.0879
0.0675
0.0500
24
0.1216
0.1160
0.1113
0.0942
0.0743
0.0567
0.0417
30
0.1002
0.0958
0.0921
0.0771
0.0604
0.0457
0.0333
40
0.0780
0.0745
0.0713
0.0595
0.0462
0.0347
0.0250
60
0.0552
0.0520
0.0497
0.0411
0.0316
0.0234
0.0167
120
0.0292
0.0279
0.0266
0.0218
0.0165
0.0120
0.0083
55
Продолжение табл. П5

= 0.01
k /
1
2
3
4
5
6
7
2
0.9999
0.9950
0.9794
0.9586
0.9373
0.9172
0.8988
3
0.9933
0.9423
0.8831
0.8355
0.7933
0.7606
0.7335
4
0.9676
0.8643
0.7814
0.7212
0.6761
0.6410
0.6129
5
0.9279
0.7885
0.6957
0.6329
0.5875
0.5531
0.5259
6
0.8828
0.7218
0.6258
0.5635
0.5195
0.4866
0.4608
7
0.8376
0.6644
0.5685
0.5080
0.4659
0.4347
0.4105
8
0.7945
0.6162
0.5209
0.4627
0.4226
0.3932
0.3704
9
0.7544
0.5727
0.4810
0.4251
0.3870
0.3592
0.3378
10
0.7175
0.5358
0.4469
0.3934
0.3572
0.3308
0.3106
12
0.6528
0.4751
0.3919
0.3428
0.3099
0.2861
0.2680
15
0.5747
0.4069
0.3317
0.2882
0.2593
0.2386
0.2228
20
0.4799
0.3297
0.2654
0.2288
0.2048
0.1877
0.1748
24
0.4247
0.2871
0.2295
0.1970
0.1759
0.1608
0.1495
30
0.3632
0.2412
0.1913
0.1635
0.1454
0.1327
0.1232
40
0.2940
0.1915
0.1508
0.1281
0.1135
0.1033
0.0957
60
0.2151
0.1371
0.1069
0.0902
0.0796
0.0722
0.0668
120
0.1252
0.0759
0.0585
0.0489
0.0429
0.0387
0.0357
56
Окончание табл. П5

= 0.01
k /
8
9
10
16
36
144

2
0.8823
0.8674
0.8539
0.7949
0.7067
0.6062
0.5000
3
0.7107
0.6912
0.6743
0.6059
0.5153
0.4230
0.3333
4
0.5897
0.5702
0.5536
0.4884
0.4057
0.3251
0.2500
5
0.5037
0.4854
0.4697
0.4094
0.3351
0.2644
0.2000
6
0.4401
0.4229
0.4084
0.3529
0.2858
0.2229
0.1667
7
0.3911
0.3751
0.3616
0.3105
0.2494
0.1929
0.1429
8
0.3522
0.3373
0.3248
0.2779
0.2214
0.1700
0.1250
9
0.3207
0.3067
0.2950
0.2514
0.1992
0.1521
0.1111
10
0.2945
0.2813
0.2704
0.2297
0.1811
0.1376
0.1000
12
0.2535
0.2419
0.2320
0.1961
0.1535
0.1157
0.0833
15
0.2104
0.2002
0.1918
0.1612
0.1251
0.0934
0.0667
20
0.1646
0.1567
0.1501
0.1248
0.0960
0.0709
0.0500
24
0.1406
0.1338
0.1283
0.1060
0.0810
0.0595
0.0417
30
0.1157
0.1100
0.1054
0.0867
0.0658
0.0480
0.0333
40
0.0898
0.0853
0.0816
0.0668
0.0503
0.0363
0.0250
60
0.0625
0.0594
0.0567
0.0461
0.0344
0.0245
0.0167
120
0.0334
0.0316
0.0302
0.0242
0.0178
0.0125
0.0083
57
Оглавление
Глава 1. Статистическая проверка гипотез .......................................................... 3
Вопросы для самопроверки ................................................................................ 3
Упражнения .......................................................................................................... 3
Глава 2. Классификация в распознавании образов ........................................... 10
Вопросы для самопроверки .............................................................................. 10
Упражнения ........................................................................................................ 10
Глава 3. Планирование эксперимента................................................................. 21
Вопросы для самопроверки .............................................................................. 21
Упражнения ........................................................................................................ 21
Глава 4. Методы непараметрической обработки информации ........................ 29
Вопросы для самопроверки .............................................................................. 29
Упражнения ........................................................................................................ 30
Глава 5. Методы экспериментальной оптимизации .......................................... 34
Вопросы для самопроверки .............................................................................. 34
Упражнения ........................................................................................................ 35
Глава 6. Идентификация статических моделей объектов ................................ 39
Вопросы для самопроверки .............................................................................. 39
Упражнения ........................................................................................................ 40
Глава 7. Идентификация динамических моделей объектов ............................. 43
Вопросы для самопроверки .............................................................................. 43
Упражнения ........................................................................................................ 43
Глава 8. Адаптивное управление с идентификацией ........................................ 45
Вопросы для самопроверки .............................................................................. 45
Упражнения ........................................................................................................ 45
Библиографический список ................................................................................. 46
ПРИЛОЖЕНИЕ ..................................................................................................... 47
Оглавление ............................................................................................................. 58
58
Download