1 - QSAR4U

advertisement
Христова Татьяна Михайловна
2014
Христова Татьяна Михайловна
2014
Исторические очерк
 1943 — У. Маккалок и У. Питтс
формализуют понятие нейронной сети
1949 — Д. Хебб предлагает первый алгоритм обучения.
 Широко используем с 80-х, 90-х гг.
3
Типичная структура нейрона
4
Модель нейрона
x0
x = x1
x2
x3
“bias” нейрон
X0=1
x0
x1
x2
x3
θ0
Выход
θ1
θ2
θ0
θ = θ1
θ2
θ3
Веса
или
параметры
hθ(x)
θ3
Входные
параметры
Сигмоид или логистическая
активационная функция g(z)
5
Модель нейрона. “Bias” нейрон
• «Bias» нейрон позволяет
классификатору сдвинуть
кривую или вправо.
• т.е. «Bias» нейрон позволяет
классификатору провести
параллельный перенос кривой.
6
Метод прямого распространения ошибки
Слой 1
или
входной слой
Слой 2
или
скрытый слой
x1
а1 (2)
x2
а2 (2)
x3
а3 (2)
Слой 1
или
выходной слой
ai(j) – “активация”
нейрона i в слое j;
Θ(j) – матрица весов
hθ(x)
a1(2) = g(z1(2)) = g(Θ10(1)x0 + Θ11(1)x1 + Θ12(1)x2 + Θ13(1)x3 )
a2(2) = g(z2(2)) = g(Θ20(1)x0 + Θ21(1)x1 + Θ22(1)x2 + Θ23(1)x3 )
a3(2) = g(z3(2)) = g(Θ30(1)x0 + Θ31(1)x1 + Θ32(1)x2 + Θ33(1)x3 )
hθ(x) = a1(3) = g(Θ10(2)a0(2) + Θ11(2)a1
(2)+
Θ12(2)a2(2) + Θ13(2)a3
(2))
7
Подбор параметров. Логистическая функция
Обучающая выборка
Логистическая функция
Задача: выбрать оптимальные значения θ
8
Подбор параметров. Логистическая функция
9
Подбор параметров ИНС
Бинарная классификация
x1
а1 (2)
а1 (3)
x2
а2 (2)
а2 (3)
x3
а3 (2)
а3 (3)
hθ(x)
{(x(1), y(1)), (x(2), y(2)),…, (x(m), y(m))}
L = количество слоев в сети;
Sl = количество нейронов в слое l;
k – количество нейронов в выходном слое (при мульти классификации)
y = 0 или 1
Цель: Требуется выбрать значения θ (веса)
min
Регуляционный элемент
1
0
Регуляризация
• один из способов избежать переобучения
Цель: путем пенализирования значений θji =>
• упростить функцию
• получить более плавную функцию
11
1. Метод градиентного спуска
Предположим у нас есть функция
Задача: минимизировать данную функцию
Алгоритм:
1. Инициализировать значения θ0, θ1 случайным образом
2. Изменять значения θ0, θ1 для минимизации функции
до тех пор пока не будет достигнут локальный минимум
12
2. Метод градиентного спуска
Повторяем до достижения сходимости
- длина шага
13
1.Метод обратного распространения ошибки
(Backpropagation)
Задача: min J(θ)
Для решения задачи будем использовать
модификацию метода градиентного спуска
Потребуется:
14
2. Метод обратного распространения ошибки
(Backpropagation)
Предположим, обучающая выборка состоит из (х, у)
Forward propagation:
x
Θ(1)
a(2)
Θ(2)
a(3)
Θ(3)
a(4)
hθ(x)
15
16
3. Метод обратного распространения ошибки
(Backpropagation)
1. Для каждого нейрона j в слое l нужно посчитать «ошибку» δ;
2. Для каждого нейрона j :
x
Θ(1)
a(2)
Θ(2)
a(3)
Θ(3)
a(4)
hθ(x)
17
Алгоритм
1. Случайная инициализация весов
2. Проведение процедуры прямого распространения ошибки
для получения hθ(x(i))
3. Расчет функции оптимизации J(θ)
4. Проведение процедуры обратного распространения ошибки
для расчета
{(x(1), y(1)), (x(2), y(2)),…, (x(m), y(m))}
5. Использование метода градиентного спуска
для минимизации J(θ)
18
Выбор числа слоёв
1) Если в конкретной задаче гипотеза о линейной разделимости
классов выглядит правдоподобно, то можно ограничиться одним
слоем.
2) Двухслойные сети позволяют представлять извилистые
нелинейные границы, и в большинстве случаев этого хватает.
3) Трёхслойными сетями имеет смысл пользоваться для
представления сложных многосвязных областей.
4) Чем больше слоёв, тем более богатый класс функций реализует
сеть, но тем хуже сходятся градиентные методы, и тем труднее её
обучить.
19
Выбор числа нейронов в
скрытом слое
1. Визуальный способ. Если граница классов (или кривая
регрессии) слишком сглажена, значит, сеть переупрощена, и
необходимо увеличивать число нейронов в скрытом слое.
Если граница классов (или кривая регрессии) испытывает
слишком резкие колебания, на тестовых данных наблюдаются
большие выбросы, веса сети принимают большие по модулю
значения, то сеть переусложнена, и скрытый слой
следует сократить.
Недостаток этого способа в том, что он подходит только для
задач с низкой размерностью пространства (небольшим
числом признаков).
20
Выбор числа нейронов в
скрытом слое
2. Оптимизация числа нейронов по внешнему критерию,
например, по критерию скользящего контроля или средней ошибки
на независимой контрольной выборке Q(Xk).
Недостаток этого способа в том, что приходится много раз заново
строить сеть при различном количестве нейронов, а в случае
скользящего контроля ещё и при различных разбиениях выборки
на обучающую и тестовую.
21
Карты Кохонена
(Kohonen's Self Organizing Maps)
22
Постановка задачи кластеризации
Предположим, обучающая выборка
состоит из
Y = {1, . . . ,M}
ρ – попарное расстояние между объектами
Xl = {x(1), x(2),…, x(i)}
i – количество дескрипторов;
l – количество объектов;
M – количество кластеров
Задача:
Требуется выработать правило отнесения объектов к кластерам a:
X→Y.
Предлагается:
• ввести центры кластеров wm, m = 1, . . . ,M;
• относить объект x ∈ X к ближайшему кластеру
(правило жёсткой конкуренции WTA - Winner Takes All):
a(x) = arg min ρ(x,wm).
m∈Y
ρ (Xl , Xl+1 )
wm
23
Стохастический метод градиента (SG)
24
Сеть Кохонена
(сеть с конкурентным обучением)
Структура алгоритма - двухслойная нейронная сеть:
a(x) = arg min ρ(x,wm):
m∈Y
Эвклидово расстояние
25
Алгоритм
26
1. Жёсткая и мягкая конкуренция
K(ρ) = exp(−βρ2)
27
2. Жёсткая и мягкая конкуренция
где Cm количество побед m-го нейрона в ходе обучения.
Таким образом, кластеры штрафуются за слишком
частое присоединение объектов.
28
Карта Кохонена
(Self Organizing Map, SOM)
29
Обучение карты Кохонена
30
Карта Кохонена для распределения
соединений в пространстве дескрипторов
338 соединений
SiRMS дескрипторы
31
Карта Кохонена для распределения
соединений в пространстве дескрипторов
338 соединений
SMF дескрипторы
32
Интерпретация карт Кохонена
33
Интерпретация карт Кохонена
(пример)
34
Достоинства и недостатки карт
Кохонена
35
36
Download