НМОИ

advertisement
Вопросы к экзамену по дисциплине
«Нейросетевые методы обработки информации»
2014-2015
Гр. 563,564
1. Классификации нейронных сетей.
2. Формальный нейрон.
3. Функции активации нейронных элементов.
4. Нейронные сети с одним обрабатывающим слоем.
5. Персептрон Розенблата, правило обучения.
6. Персептрон Розенблата, алгоритм обучения.
7. Решение задач логических операций при помощи однослойной сети.
8. Геометрическая интерпретация процедуры Розенблата.
9. Правило обучения Видроу-Хоффа.
10. Алгоритм обучения Видроу-Хоффа.
11. Групповое обучение.
12. Адаптивный шаг обучения для последовательного обучения.
13. Анализ линейных НС.
14. Многослойные НС (многослойные персептроны), топология многослойных
НС.
15. Анализ и возможности многослойных НС.
16. Решение задачи «исключающее или» при помощи многослойного
персептрона.
17. Математические основы алгоритма обратного распространения ошибки.
Обобщенное дельта правило.
18. Обобщенное дельта правило для различных функций активации нейронных
элементов.
19. Математические основы алгоритма обратного распространения ошибки.
Ошибки нейронных элементов скрытого слоя
20. Недостатки алгоритма обратного распространения ошибки (АОРО).
21. Случайная инициализация синаптических связей
22. Выбор архитектуры нейронных сетей
23. Выход из локальных минимумов
24. Производная функции активации перболический тангенс
25. Производная сигмоидной функции активации
26. Производная биполярной стгмоидной функции активации
27. Обобщенное дельта правило для группового обучения
28. Алгоритм обратного распространения ошибки.
29. Недостатки алгоритма обратного распространения ошибки.
30. Рекомендации по обучению и архитектуре многослойных нейронных сетей.
31. Выход из локальных min функций функции суммарной квадратичной
ошибки.
32. Адаптивный шаг обучения.
33. Гетерогенные НС.
34. Алгоритм многократного распространения ошибки.
35. Способы обработки входных данных.
36. Применение многослойных персептронов. Системы автоматического
управления и управление автомобилем
37. Применение многослойных персептронов. Управление мобильным роботом
при движении по заданной траектории
38. Применение многослойных персептронов. Управление мобильным роботом
при движении в незнакомом пространстве.
39. Применение многослойных персептронов. Обнаружение атак на
компьютерные сети
40. Применение многослойных персептронов. Определение старшего показателя
Ляпунова.
41. Применение многослойных персептронов. Классификация образов.
42. Архитектура нейронной сети Хопфилда.
43. Правила обучения Хебба.
44. Нейронная сеть Хопфилда как динамическая система.
45. Энергия сети Хопфилда.
46. Анализ аттракторов.
47. Ассоциативная память. Обучение сети Хрпфилда.
48. Функционирование сети Хопфилда. Асинхронный режим.
49. Функционирование сети Хопфилда. Синхронный режим.
50. Решение комбинаторных задач оптимизации с помощью сетей Хопфилда.
51. Двунаправленная ассоциативная память. Архитектура.
52. Двунаправленная ассоциативная память. Обучение и функционирование.
53. Двунаправленная ассоциативная память. Алгоритм функционирования.
54. Рекуррентные нейронные сети.
55. Модель Джордана.
56. Модель Элмана.
57. Обучение рекуррентных нейронных сетей.
58. Обучение мультирекуррентной нейронной сети.
59. Метод главных компонент. Общая характеристика.
60. Метод главных компонент. Постановка задачи.
61. Метод главных компонент. Алгоритм нахождения главных компонент.
62. Восстановление информации в методе главных компонент.
63. Ошибки восстановления информации методе главных компонент.
64. Архитектура рециркуляционной нейронной сети.
65. Алгоритм обратного распространения ошибки для Рециркуляционной сети.
66. Правило обучения Ойя.
67. Кумулятивное дельта-правило.
68. Метод послойного обучения.
69. Алгоритм послойного обучения.
70. Применение РНС. Классификация образов.
71. Применение РНС. Обнаружение аномалий.
72. Применение РНС. Разделение сигналов.
73. Применение РНС. Сжатие изображений.
Download