КЛАССИФИКАЦИЯ В РАСПОЗНАВАНИИ ОБРАЗОВ

advertisement
КЛАССИФИКАЦИЯ
В РАСПОЗНАВАНИИ
ОБРАЗОВ
Схема системы распознавания
Система распознавания образов состоит из нескольких подсистем:
Объект
Датчики
Формирователь
информативных
признаков
Обучающая выборка и решающее
правило
для
случая
двух
информативных признаков x1, x2 и
двух классов.
Классификатор
Решение
x2
h(x , x )=0
1
2
G1
h ( x , x )> 0
1
2
G2
h( x , x ) < 0
1
2
x1
Байесовская теория принятия решений
при дискретных признаках
Одномерный вариант
Рассматриваем m классов (полную группу несовместных случайных событий) и
один дискретный информативный признак X.
По формуле Байеса вычисляем апостериорные вероятности для всех
рассматриваемых классов:
P( j | X = xi ) =
p xi | j P ( j )
p xi
m
, pxi =  pxi |l P(l ) j = 1, m
l =1
Выносим решение об истинности того класса (с номером ), для которого
апостериорная вероятность максимальная:


P(  | X = xi ) = max P( j | X = xi ) , j = 1, m
Байесовская теория принятия решений
при дискретных признаках
Многомерный вариант
Для простоты считаем, что имеются два информативных признака X и Y.
X принимает возможные значения x1,…,xn1, Y принимает возможные значения
y1,…,yn2.
По формуле Байеса вычисляем апостериорные вероятности для всех
рассматриваемых классов:
P(k | [( X = xi )(Y = y j )])  P(k | xi , y j ) =
pxi , y j |k P(k )
m
 pxi , y j |l P(l )
, k = 1, m
l =1
Выносим решение об истинности того класса (с номером ), для которого
апостериорная вероятность максимальная:


P(  | xi , y j ) = max P( k | xi , y j ) , k = 1, m
Байесовская теория принятия решений
при дискретных признаках
Одномерный вариант
X = xi
1
Решающее
устройство

m
Многомерный вариант
X = xi
Y = yj
1
Решающее
устройство

m
Байесовская теория принятия решений
при непрерывных признаках
f ( x | i ), i = 1, 2,
Одномерны вариант:
Апостериорные вероятности классов по формуле Байеса :
f ( x | i ) P (i )
P(i | x) =
, i = 1, 2
f ( x)
P( j | x)
1
если
P(1| x )
0
G1
P( 2| x )
c
то принимается решение о 1-м классе, иначе о
2-м классе.
x
G2
P (1| x ) > P (2| x )
Байесовская теория принятия решений
при непрерывных признаках
Вероятность ошибки классификации при двух классах:
Pîø1 =
 f ( x | 1) P(1)dx
Pîø2 =
 f ( x | 2) P(2)dx
G1
G2
f ( x|1) P(1)
Pош.2
G1
f ( x|2) P(2)
Pош.1
c
x
G2
Идеи классификации
Случай 1. Известны полностью условные плотности распределения вероятности для
признаков:
f ( x | 1), , f ( x | m)
f ( x |i )
x2
f ( x|1)
f ( x|2)
 
G1
c
h( x1 , x2 ) = 0
h( x1 , x2 ) > 0
h( x1 , x2 ) < 0
x
G2
Одномерный случай
x1
Двумерный случай
Идеи классификации
Случай 2. Условные плотности распределения вероятности для
признаков известны не полностью, а с точностью до параметров:
 1
 2
f ( x ,  | 1), f ( x ,  | 2)
Неизвестные параметры θ1 и θ2 доопределяются с помощью одного из
методов математической статистики, например с помощью метода
максимального правдоподобия, на основе обучающей выборки.
Дальнейшая классификация проводится, как и в случае 1.
По обучающей выборке доопределяются и априорные вероятности:

P(1) =

n1
n2
, P(2) =
n1  n2
n1  n2
Идеи классификации
Случай 3. Условные плотности распределения вероятности неизвестны, но
известна обучающая выборка. Здесь возможны два варианта.
Вариант 1. Восстанавливается решающая функция.
Вариант 2. По обучающей выборке восстанавливаются условные плотности
Идеи классификации
Случай 4. Число классов неизвестно и нет обучающей выборки. Вернее, нет
учителя, который мог бы измерения признаков разбить на группы, соответствующие
своим классам. Это самая сложная и распространенная на практике ситуация.
Приходится строить самообучающиеся системы классификации.
f ( x)
1) По
количеству
максимумов
определяем кол-во классов
f ( x|2) P(2)
f ( x|1) P(1)
c
2) Минимум позволяет разбить выборку
на две части – точка c0 (нулевое
приближение).
x
3) Далее
строится
процедура
последовательного (итерационного)
расчета порога c.
4) В итоге получаем случай 3.
Прямые методы восстановления
решающей функции
1, если истинным является класс 1,
yi = 
 1, если истинным является класс 2.

y
1
h(x)
x
-1
НЕЙРОННЫЕ СЕТИ: еще один
подход к классификации
Идея взята из биологии:
•Клетка - элементарный процессор, способный
к простейшей обработке информации
•Нейрон - элемент клеточной структуры мозга
•Нейрон осуществляет прием и передачу
информации в виде импульсов нервной
активности
•Природа импульсов - электрохимическая
Интересные данные
Тело
клетки имеет размер 3 - 100 микрон
Гигантский аксон кальмара имеет толщину 1 миллиметр и длину
несколько метров
Потенциал, превышающий 50 мВ изменяет проводимость
мембраны аксона
Общее число нейронов в ЦНС человека порядка
100.000.000.000
Каждая клетка связана в среднем с 10.000 других нейронов
Совокупность в объеме 1 мм*3 - независимая локальная сеть
Персептроны
Чу
вс
тв
по ите
ле ль
но
е
1 ( x)
 j (x)
 M (x)
a1 a11 ( x)
1
aj
aM
Преобразователи,
Усилители
предикаты,
нейроны

h( x, a) Пороговое
устройство  1
sgn h
Блок
обучения
Формальный нейрон
Нелинейное преобразование
Маккалок - Питтс
Линейная
Сигмоидальная
Перцептрон Розенблата
Розенблат: нейронная сеть рассмотренной
архитектуры будет способна к воспроизведению любой
логической функции.
(неверное предположение)
Обучение сети



Обучить нейронную сеть это значит, сообщить ей,
чего от нее добиваются.
Показав ребенку изображение буквы и получив
неверный ответ, ему сообщается тот, который
хотят получить.
Ребенок запоминает этот пример с верным
ответом и в его памяти происходят изменения в
нужном направлении.
Обучение перцептрона
Начальные значения весов
всех нейронов полагаются
случайными.
Сети предъявляется
входной образ x, в
результате формируется
выходной образ.
STATISTICA Neural Networks
ВОПРОСЫ ?
Download