Машинное обучение и автоматическое образование понятий. 1.

advertisement
Машинное обучение и автоматическое образование понятий.
1.
2.
3.
4.
5.
6.
Какие методы используются для реализации процедуры опознания
элемента распознаваемого множества:

Методы классической математики;

Методы теории статистических решений;

Имитационные методы.
Какая методика обучения автомата в настоящее время наиболее
целесообразна:

когда процедура выбора признаков проходит в соответствии с
указаниями учителя;

когда процедура выбора признаков проходит в соответствии с
возможностями автомата;

когда процедура выбора признаков проходит произвольно.
Являются ли треугольники и окружности в геометрическом смысле
образами:

нет;

да;

да, если рассматривать их как геометрические фигуры.
Затрудняет ли разделение поверхности увеличение числа граничных
точек:

затрудняет;

облегчает;

никак не влияет.
В случае неудачного исхода обучения автомата, когда автомат не
сформировал достаточно эффективного подпространства:

учитель должен сузить исходное пространство;

учитель не может обучить данный автомат.

учитель должен расширить исходное пространство;
Процедура обучения автомата считается завершенной:

когда сформировано пространство признаков;

когда сформировано пространство признаков достаточной
размерности;

когда
автомат
обеспечивает
надлежащую
надежность
распознавания.
7.
8.
Исходная неопределённость выбранного множества при распознавании
измеряется величиной:
m'
H i  i 1 pi log pi ; где H – энтропия множества, Р – вероятность

предъявления
H i  log pi ; где H – энтропия множества, Р – вероятность

предъявления
m'
H i  i 1 pi log pi ; где H – энтропия множества, Р – вероятность

предъявления
Минимальное подпространство признаков (одномерное) считается
сформировано, если:
I j  H1;


I j  H1;
I j  H1;

,где I – количество информации, извлекаемое при использовании j-ого
признака, Н – энтропия множества.
9. Если удается выделить признаки, инвариантные к различным группам
преобразований, то обучение:

существенно упрощается;

усложняется;

никак не зависит;
10. Возможны 2 типа алгоритмов обучения персептрона. При
использовании какого из них достигается более высокое качество
обучения:

S-управляемая система (первый тип);

R-управляемая система (второй тип);

оба равноценны.
11. Структура персептрона содержит n сенсоров и m ассоциативных
элементов. Каким в этом случает будет уравнение разделяющей
гиперповерхности:
n

 
j 1
j
j
n

 
j 1
j
j
( x)  0 ;
j
( x)  0 ;
j
( x)  0 .
m

 
j 1
j
m

 
j 1
j
( x)  0 ;
12. В результате подключения выходов сенсоров к входам ассоциативных
элементов персептрона были сформированы 5 плоскостей. Какой будет
реакция такого персептрона на объект А:
Штриховкой
отмечены
положительный
стороны плоскостей
A
I
II
V
IV
III




2;
3;
0,4;
0,6.
13. Качество работы персептрона определяется:
количество ассоциативных
элементов
качеством обучающей выборки
сложностью
конфигурации
изображений символа
принятым алгоритмом обучения

+


+
+
+
+
+
+
+
+

+

+

+
+
+
+
+
+
+
14. В читающем автомате реализован метод персептрона. Часть
ассоциативных элементов отключили. В каком случае этот автомат
окажется стойким к нарушениям его структуры, если они
производились:

до обучения;

после обучения;

в любом случае.
15. Реализации образа можно представить выпуклым множеством диаметра
D. Такие множества разных образов не пересекаются и минимальное
расстояние между ними равно ρ. Персептрон обучен распознаванию
этих образов и при этом было произведено коррекций коэффициента λ
не более чем … раз:
D2

2 ;


D
;

D
E    ;

 D2 
E   2  .

 
16. При реализации какого метода можно построить обучающийся
читающий автомат с более высокими техническими характеристиками:

метод персептрона;

метод потенциалов;

они равноценны.
17. Какой из методов не является методом обучения автомата:

объяснение;

обучение на примерах;

тренировка.
18. При реализации какого принципа в задачах принятия решений
отчетливо видно, ценой какой уступки в одном критерии приобретается
выигрыш в другом:

принцип последовательной уступки;

принцип абсолютной уступки;

принцип относительной уступки.

19. При каком способе нормализации наилучшим образом сохраняется
равноправие критериев в задачах принятия решений? Если в качестве
идеального вектора выбран вектор:

заданных значений критериев;

максимальных значений критериев;

разбросов значений критериев.
20. В задачах принятия решений приоритет критериев проще и удобнее
всего задавать с помощью:

ряда приоритета;

вектора приоритета;

весового вектора.
21. Последовательность ситуаций в процессе моделирования образования
понятий персептроном с указанием, к какому классу они относятся,
называется;

обучающей последовательностью;

экзаменационной последовательностью;

классовой последовательностью;
22. Множество примеров, относительно которых выясняется, к какому
классу отнес данное качество учитель, называется:

обучающей последовательностью;

экзаменационной последовательностью;

классовой последовательностью;
23. Способность к обучению не характеризуется:

качеством получаемого решающего правила;

надежностью получения решающего правила с заданным
качеством;

устойчивостью;
24. Какая из предложенных задач не стоит перед разработчиком
обучающихся устройств:

какой набор решающих правил заложить в обучающееся
устройство;

как среди множества решающих правил выбрать нужное;

как повысить надежность.
25. Метод стохастической аппроксимации состоит в том, что для отыскания
минимума по  функционала
R( )   Q( Z ,  ) p( Z )dZ
используется рекуррентная процедура
 (i)   (i  1)  Г (i)q(Z i , (i  1)), ;



 (i)   Г (i)q(Z i , (i  1)), ;
 (i)   (i  1)  q( Z i ,  (i  1)), .
26. Функционал, минимизация которого составляла суть задачи обучения
распознаванию, имеет вид:
P( )   (  F ( X ,  )) 2 P( , X )ddX ;


P( )   F ( X ,  ) 2 P( , X )ddX ;

P( )   (  F ( X ,  )) 2 P( , X )ddX ; .
27. Теорема Гливенко звучит так:

со снижением объема выборки гистограмма сходится к функции
распределения равномерно

с ростом объема выборки гистограмма сходится к функции
распределения равномерно
28. Какой из методов минимизации эмпирического риска не существует:

метод обобщенного портрета;

метод характеристических функций;

метод последовательного перебора;
29. В чем заключается алгоритм метода обобщенного портрета:

в
построении
разделяющей
гиперплоскости,
которая
минимизирует число ошибок и расширяет материал обучающей
последовательности;

в
построении
разделяющей
гиперплоскости,
которая
минимизирует эмпирический риск;

в
построении
разделяющей
гиперплоскости,
которая
минимизирует число ошибок на материале обучающей
последовательности;
Download