Алгоритмы подбора параметров древовидного марковского

advertisement
Известия Тульского государственного университета
Естественные науки. 2012. Вып. 1. С. 98–110
Информатика
УДК 004.93
Алгоритмы подбора параметров
древовидного марковского случайного поля
в задаче распознавания растровых
текстурных изображений ∗
С. Д. Двоенко, Д. В. Шанг
Аннотация. Рассмотрена задача распознавания массивов
взаимосвязанных данных, представленных как двухкомпонентное
случайное марковское поле наблюдений и скрытых классов
объектов, для которого ранее была предложена древовидная модель
соседства элементов скрытого марковского поля принадлежностей
объектов к классам. Модель скрытых классов рассмотрена как
марковская цепь с матрицей условных вероятностей переходов
между ее состояниями. Для заданного ациклического графа
соседства элементов массива такая матрица переходов является
параметром модели. В частном случае достаточно определить
значение только одного диагонального элемента матрицы переходов.
Дана постановка задачи поиска его оптимального значения и
разработаны соответствующие алгоритмы. На примере задачи
сегментации растровых текстурных изображений выполнено
сравнение алгоритмов и показаны результаты экспериментов.
Ключевые слова: распознавание образов, машинное обучение,
марковское случайное поле, марковская цепь.
Введение
В классической теории распознавания образов объекты рассматриваются
независимо друг от друга. При обработке данных часто нужны
скоординированные решения об объектах, связанных в единый массив.
Объекты могут быть упорядочены вдоль оси времени, частоты, одной
или нескольких пространственных координат. Элементы массива
рассматриваются
как
«смежные»,
«соседние»,
«упорядоченные».
Взаимосвязи между ними представлены графом соседства с ненаправленными
*
Работа выполнена при финансовой поддержке РФФИ (проекты № 10-07-00489, №
11-07-00634).
Алгоритмы подбора параметров древовидного марковского случайного поля
99
ребрами без петель. В линейно упорядоченных массивах граф соседства
является цепью.
Скрытые марковские модели оказались эффективны при обработке
линейно упорядоченных массивов с цепочечным соседством их элементов
[1]. Но для графов соседства общего вида, содержащих, как правило,
циклы, задача распознавания марковских случайных полей является весьма
трудоемкой [2–5] и обладает свойствами задачи класса N P .
В [6–9] предложена модель марковского случайного поля в виде
марковской цепи, управляющей сменой скрытых классов распознаваемых
объектов. Был предложен эффективный алгоритм распознавания, который
выполняется за три прохода по графу соседства элементов взаимосвязанного
массива, когда граф соседства не содержит циклов.
Марковская матрица условных вероятностей переходов является
параметром предложенной в [6–9] модели. В [8, 9] было показано, что в
частном случае такая матрица может быть задана только одним значением ее
диагонального элемента. Но диагональный элемент задавался эвристически
без поиска его оптимального значения.
Целью данной статьи является разработка алгоритмов подбора значения
диагонального элемента для заданного ациклического графа соседства с
целью увеличения качества распознавания скрытых классов объектов.
1. Задача распознавания массивов взаимосвязанных данных
и базовый алгоритм распознавания
Пусть [6–9] массив взаимосвязанных данных T состоит из элементов t ∈ T
и представлен как двухкомпонентное поле (X, Y ). Наблюдаемая компонента
Y состоит из векторов yt , заданных на множестве элементов массива
t ∈ T и принимающих значения из некоторого подходящего множества
yt ∈ Θ, определенного природой источника данных. Элементы xt , t ∈ T
скрытой компоненты X принимают значения из некоторого множества
xt ∈ Ω, специфичного для конкретной задачи анализа данных. Например,
для задачи распознавания образов Ω = {1, 2, ..., m} — это конечное множество
номеров классов объектов.
На множестве элементов t ∈ T массива данных определим симметричное
антирефлексивное бинарное отношение, которое удобно представлять в виде
неориентированного графа G без петель, ребра которого (s, t) ∈ G соединяют
соседние элементы массива данных s ∈ T и t ∈ T .
Задачу обработки массива (X, Y ) представим как задачу преобразования
исходного массива Y = (yt , t ∈ T ) в результирующий массив X = (xt , t ∈ T ).
Пусть |T | — число элементов массива данных, тогда декартовы степени
Θ|T | и Ω|T | образуют множества всех комбинаций значений исходных и
результирующих (целевых) переменных, представляя все массивы данных и
все результаты их обработки. Алгоритм обработки реализует преобразование
100
С. Д. Двоенко, Д. В. Шанг
Θ|T | → Ω|T | каждого исходного массива Y ∈ Θ|T | в результат его анализа
_
X(Y ) ∈ Ω|T | .
В задаче распознавания взаимосвязанных объектов требуется по вектору
наблюдаемых признаков yt определить принадлежность элементов t ∈ T
массива данных T к классам из Ω с учетом априорной информации
о преимущественных сочетаниях классов смежных объектов, заданных
графом G.
В вероятностной задаче распознавания взаимосвязанных объектов
предполагается, что двухкомпонентное поле (X, Y ) является случайным.
Задача такого типа была названа задачей распознавания массивов
взаимосвязанных данных.
Как правило, обработка массива данных сводится к компромиссу
между значениями целевых переменных, вытекающими из имеющихся
представлений об их связи с элементами исходного массива, и априорными
представлениями о предпочтительности тех или иных комбинаций значений
целевых переменных.
Пусть на множествах значений Θ, Θ|T | и Ω, Ω|T | переменных
массивов X и Y определены соответствующие плотности распределения
вероятностей. Пусть ζ(X) — априорное распределение вероятностей
на множестве комбинаций целевых переменных, а их вероятностная
связь с исходными переменными представлена условной плотностью
η(X|Y ), Y ∈ Θ|T | . Задача обработки в общем случае сводится к
численному определению апостериорного распределения вероятностей
π(X|Y ) = ζ(X)η(Y |X)/f (Y ) ∝ ζ(X)η(Y |X).
Для решений о скрытом поле X часто используется байесовское
решающее правило, которое может иметь вид
_
X(Y ) = arg max π(X|Y )
(1)
X∈Ω|T |
или
_
x t (Y ) = arg max pt (xt |Y ),
t ∈ T,
(2)
xt ∈Ω
где pt (xt |Y ) — апостериорное маргинальное распределение вероятностей
скрытых классов в элементе массива t ∈ T .
Пусть граф соседства G не содержит циклов (рис.1), а скрытое поле
классов X является
марковским
[6–9]. Тогда для элемента t ∈ T условное
¡
¢
распределение qt xt |X(t) на множестве значений xt относительно остальных
³
´
¡
¢
0
только от
элементов X(t) = (xs , s ∈ T \t) зависит qt xt |X(t) = qt xt |X(t)
0 = (x , s ∈ T \t, (s, t) ∈ G).
значений соседних по графу G переменных X(t)
s
Будем применять аналогичные обозначения относительно графа G для
соответствующих подмножеств элементов наблюдаемого поля Y и массива
T в целом.
Алгоритмы подбора параметров древовидного марковского случайного поля
101
Древовидный граф G разбивает окрестность (рис.
³ 1а) нетерминального
´
−0
+0
0
элемента xt на две произвольные части X(t) = X(t)
∪ X(t)
. Любая
∗
вершина t ∈ T в качестве корня немедленно задает естественный
нисходящий порядок просмотра вершин от корня и восходящий порядок
−0
к корню, определяя окрестность X(t)
= xr из одного элемента (рис. 1б),
+0
предшествующего xt , и окрестность X(t)
непосредственных потомков xt . В
[8, 9] показано,³что такое
´ априорное случайное поле является односторонним
0
марковским qt xt |X(t) = qt (xt |xr ).
Рис. 1. Ациклический граф соседства
Пусть поле Y = (yt , t ∈ T ) образовано случайными наблюдениями yt ,
условно независимыми относительно поля X = (xt , t ∈ T ), где ψt (yt |X) =
= ψt (yt |xt ). В [8, 9] показано, что апостериорное скрытое поле¡ относительно
¢
того же графа G остается односторонним марковским pt xt |X(t) , Y =
¡
¢
= pt xt |xr , Yt+ , где Yt+ — поддерево с корнем в yt , включая его.
В распознавании образов способом оценки апостериорных распределений
pt (xt |yt ) является обучение с учителем, когда вместе с наблюдаемыми
переменными yt известны и их классы xt . При обработке массива
выполняется дополнительный этап, когда отдельные решения согласуются
между собой с учетом совместного априорного распределения ζ(X). Базовый
алгоритм:
1. Задается корень t∗ как начало обработки и априорное распределение
qt∗ (xt∗ ), xt∗ ∈ Ω. Нисходящим просмотром P
для всех t ∈ T вычисляются
априорные распределения классов qs (xs ) =
qs (xs |xt ) qt (xt ), xs ∈ Ω, s ∈
xt ∈Ω
+0
.
∈ T(t)
2. Восходящим просмотром от терминальных вершин к корню
вычисляются «фильтрационные» апостериорные маргинальные распределения
классов
´
³
¡
¢
+
pt (xt |yt ), xt ∈ Ω, t ∈ T,
pt xt |Yt+ ∝ pt xt |Y(t)
102
С. Д. Двоенко, Д. В. Шанг
+
pt (xt |Y(t)
)∝
YX
s xs ∈Ω
s |xt )
ps (xs |Ys+ ) qsq(x
,
s (xs )
+0
s ∈ T(t)
,
где апостериорные маргинальные распределения pt (xt |yt ) получены на
этапе независимого обучения.¡ В терминальных
вершинах t каждого уровня,
¢
начиная с LM , выполнено pt xt |Yt+ = pt (xt |yt ) (рис. 1б).
3. На последнем восходящем шаге распределение в корне опирается на
все наблюдения pt∗ (xt∗ |Yt∗+ ) = pt∗ (xt∗ |Y ), xt∗ ∈ Ω. Такое «интерполяционное»
апостериорное маргинальное распределение значений корневой переменной
_
позволяет принять решение о классе x t∗ (Y ) = arg max pt∗ (xt∗ |Y ).
xt∗ ∈Ω
4. Нисходящим просмотром от корня для остальных объектов
t ∈ T вычисляются все интерполяционные апостериорные маргинальные
распределения
X
+0
ps (xs |Y ) ∝
ps (xs |xt , Y )pt (xt |Y ), xs ∈ Ω, s ∈ T(t)
,
xt ∈Ω
s |xt )
ps (xs |xt , Y ) ∝ ps (xs |Ys+ )qt (xt ) qsq(x
s (xs )
_
и принимаются решения о классах x s (Y ) = arg max ps (xs |Y ).
xs ∈Ω
2. Частная модель марковского случайного поля
Марковское априорное случайного поле классов X определяет его
одностороннее свойство в виде условных распределений вероятностей на
множестве значений переменной xt ∈ Ω относительно любой переменной
0 из марковской окрестности x . Для каждой пары вершин r, t ∈ G,
xr ∈ X(t)
t
соединенных ребром в дереве G, определена пара условных распределений
вероятностей qt (xt |xr ) и qr (xr |xt ). Выбор некоторой вершины дерева G
в качестве корня t∗ ∈ T задает нисходящее и восходящее направления
просмотра, объявляя одно из распределений «нисходящим», а другое —
«восходящим». В [6–9] был введен ряд предположений о такой модели
марковского поля, в том числе следующие.
Предложение 1. Односторонняя марковская модель поля X является
однородной конечной марковской цепью с неизменными условными
распределениями в прямом (восходящем) и обратном (нисходящем)
направлениях, где qr (xr |xt ) = q(xr |xt ), qt (xt |xr ) = q(xt |xr ); t, r ∈ T ; xt , xr ∈ Ω.
Такая модель поля X полностью определена матрицами прямых Q(m × m)
и обратных Q(m × m) условных вероятностей переходов.
Предложение 2. Односторонняя марковская модель случайного поля
X является эргодической неразложимой марковской цепью и имеет
финальное распределение p(x), x ∈ Ω в корне t∗ . Для неразложимой
марковской цепи матрицы Q и Q связаны через финальное распределение
Алгоритмы подбора параметров древовидного марковского случайного поля
103
вероятностей p(x), x ∈ Ω: q(xt |xr ) = q(xr |xt )p(xt )/p(xr ). Очевидно, что
в односторонней марковской модели начальное априорное маргинальное
распределение вероятностей qt (xt ) можно задать в любой вершине
t ∈ T , тогда соответствующие маргинальные распределения оказываются
известными во всех остальных вершинах дерева G, в том числе и в его
корне. Корень t∗ естественно связать с началом обработки, а начальное
распределение сделать корневым qt∗ (xt∗ ), xt∗ ∈ Ω.
Предложение 3. Априорное распределение классов в корне t∗
является равномерным финальным распределением qt∗ (xt∗ ) = p(xt∗ ) = 1/m.
Тогда маргинальные априорные распределения вероятностей скрытых
классов во всех остальных объектах также равномерны. В этом случае
q(xt |xr ) = q(xr |xt ). В итоге, остается только одна симметричная и
дважды стохастичная матрица переходов Q. В частной модели [8, 9]
предполагается, что матрица Q имеет одинаковые диагональные элементы
и одинаковые недиагональные элементы. Тогда матрица Q задается только
одним значением ее диагонального элемента q.
3. Задача поиска диагонального элемента
В задаче классификации стремятся к поиску решающего правила,
достигающего наименьшей средней вероятности ошибок. Ранее показано
[6–9], что для массивов взаимосвязанных объектов минимизация уровня
ошибок приводит к задаче максимизации совместной апостериорной
вероятности π(X|Y ) в целом или апостериорных вероятностей pt (xt |Y ), t ∈ T
для отдельных элементов массива на основе байесовского решающего
правила в виде (1) или (2).
Пусть наблюдаемое поле Y = (yt , t ∈ T ) образовано случайными
векторами yt , условно независимыми ψt (yt |X) = ψt (yt |xt ) относительно
скрытого поля X = (xt , t ∈ T ). Тогда апостериорное скрытое поле классов
формально определяется по следующей формуле:
Ã
!
Y
Y
π(X|Y ) ∝ ζ(X)/
qt (xt )
pt (xt |yt ).
(3)
t∈T
t∈T
Ранее было показано [8, 9], что для марковского скрытого случайного
поля X и заданного ациклического графа соседства совместное
распределение скрытых классов ζ(X) можно вычислить по формуле (рис.
1б):
ζ(X) = qt∗ (xt∗ )
M
−1
Y
Y Y
j=1 t∈Lj s∈T +0
(t)
qs (xs |xt ) = qt∗ (xt∗ )
Y
qs (xs |xt ),
−0
.
t ∈ T(s)
s∈T(t∗ )
(4)
104
С. Д. Двоенко, Д. В. Шанг
Из (3) и (4) получим:
Q
π(X|Y ) ∝ qt∗ (xt∗ )
pv (xv |yv )
Y
Q
qs (xs |xt ),
qv (xv )
v∈T
−0
t ∈ T(s)
.
(5)
s∈T(t∗)
v∈T
Таким образом, для каждой реализации случайного поля (X, Y ),
маргинальные апостериорные вероятности pv (xv |yv ), v ∈ T известны
как результат независимого обучения, а соответствующая апостериорная
совместная вероятность π(X|Y ) определяется маргинальными априорными
вероятностями qv (xv ), v ∈ T и условными вероятностями переходов qs (xs |xt ),
−0
s ∈ T(t∗ ) , t ∈ T(s)
.
В частной модели случайного марковского поля все маргинальные
априорные распределения равномерны qv (xv ) = 1/m, v ∈ T , xv ∈ Ω, а
условные вероятности переходов для всех элементов массива задаются в виде
матрицы Q(m × m) одним значением 0 6 q 6 1 для всех ее диагональных
элементов и одним значением (1 − q)/(m − 1) для всех ее недиагональных
элементов.
Таким образом, для каждой реализации случайного поля (X, Y ),
соответствующая апостериорная совместная вероятность π(X|Y ) полностью
определяется по формуле (5) значением диагонального элемента q, где
½
q, xs = xt ,
qs (xs |xt ) =
(6)
(1 − q)/(m − 1), xs 6= xt .
Тогда для данной реализации поля X = (xt , t ∈ T ) максимизация
апостериорной совместной вероятности π(X|Y ) сводится к поиску значения
диагонального элемента q, доставляющего максимум условной вероятности:
_
q (X, Y ) = arg max π(X|Y ).
(7)
06 q61
^
_
Решение задачи (2) дает оценку скрытого поля X(Y ) = ( x t (Y ), t ∈ T ).
_ ^
Тогда соответствующая оценка q (X, Y ) имеет следующий вид:
^
_
q (Y ) = arg max π(X|Y ).
(8)
06q61
Очевидно, решение задачи поиска диагонального элемента (8)
заключается в итеративном решении двух взаимосвязанных задач: при
фиксированных q и Y решить задачу (2), при фиксированных X и Y решить
задачу (7).
Для поиска экстремума (7) продифференцируем функцию π(X|Y ) по q:
dπ(X|Y )
d Y
−0
.
=
qs (xs |xt ) = 0, t ∈ T(s)
dq
dq
s∈T(t∗)
Алгоритмы подбора параметров древовидного марковского случайного поля
−0
−0
Тогда получим для v ∈ T(u)
, t ∈ T(s)
:

Y
X
 dqu (xu |xv )
dq
u∈T(t∗)

qs (xs |xt ) =
s∈T(t∗) \u

=
X
u∈T(t∗)
105

1
 dqu (xu |xv )
dq
qu (xu |xv )
Y
qs (xs |xt ) = 0.
s∈T(t∗)
Следовательно:
¶
X µ dqu (xu |xv )
1
= 0;
dq
qu (xu |xv )
−0
v ∈ T(u)
.
(9)
u∈T(t∗)
½
1, xu = xv ,
=
Согласно (6) получим:
−1/(m − 1), xu 6= xv .
−0
−0
Пусть V1 = {u ∈ T(t∗) |xu = xv , v ∈ T(u) }, V2 = {u ∈ T(t∗) |xu 6= xv , v ∈ T(u)
}.
Очевидно, что V1 ∩ V2 = ∅, V1 ∪ V2 = T(t∗) . Тогда (9) имеет вид:
¶ Xµ
¶
X µ dqu (xu |xv )
1
dqu (xu |xv )
1
−0
+
= 0, v ∈ T(u)
.
dq
qu (xu |xv )
dq
qu (xu |xv )
dqu (xu |xv )
dq
u∈V1
u∈V2
После подстановки оказывается, что q зависит от множества
³
´V1 , которое
P
P
−1 m−1
определяется графом соседства:
(1/q) + u∈V2 m−1 1−q = 1q |V1 | −
−
1
1−q |V2 |
u∈V1
= 0. В итоге:
q = |V1 |/(|V1 | + |V2 |) = |V1 |/(|T | − 1).
(10)
4. Алгоритмы подбора значения диагонального элемента
Алгоритм 1. Подбор, основанный на независимом обучении (10):
1. Выбрать ациклический граф соседства из заранее заданного набора.
−0
}.
2. Оценить q = |V1 |/(|T | − 1), где V1 = {u ∈ T(t∗) |xu = xv , v ∈ T(u)
3. Однократным применением базового алгоритма распознавания
с пересчитанным диагональным элементом перейти от распределений
pt (xt |yt ), полученных ранее для независимого обучения, к апостериорным
распределениям pt (xt |Y ), t ∈ T , соответствующим реализации X при
наблюдении Y .
−0
}.
4. Оценить q = |V1 |/(|T | − 1), где V1 = {u ∈ T(t∗) |xu = xv , v ∈ T(u)
5. Вновь применить алгоритм распознавания с пересчитанным
диагональным элементом q, где вместо распределений pt (xt |yt ) рассмотреть
только что полученные распределения pt (xt |Y ), и перейти к новым
106
С. Д. Двоенко, Д. В. Шанг
апостериорным распределениям, которые снова обозначить как pt (xt |Y ),
t ∈ T . Снова оценить диагональный элемент q.
_
6. Повторять шаг 5 до тех пор, пока решения x t = arg max pt (xt |Y ) не
xt ∈Ω
перестанут меняться или начнут циклически повторяться.
Алгоритм 2. Подбор диагонального элемента, начиная с заранее
заданного значения. В предыдущем алгоритме на втором шаге диагональный
элемент пересчитывается на основе результата независимого обучения.
Но независимое обучение часто дает плохой результат. Поэтому здесь
диагональный элемент задается сразу. Алгоритм состоит из тех же шагов
за исключением того, что на шаге 2 сразу задано значение q, например,
q = 0.95.
Алгоритм 3. Подбор диагонального элемента по схеме Гаусса-Зейделя.
Одним из методов оптимизации многомерных функций является метод
покоординатного спуска. Ранее [10] данная схема была рассмотрена с целью
подбора весов комбинации ациклических графов соседства, где варьирование
веса графа рассматривалось как координатное варьирование. Здесь задача
оптимизации вырождается, т.к. задан только один ациклический граф
соседства, а искомая функция зависит от только одной переменной q.
Алгоритм состоит из шагов:
1. Выбрать ациклический граф соседства из заранее заданного набора.
2. Варьировать значение q в диапазоне от 1/m до 1. Для каждого
значения q применить базовый алгоритм итерационно до тех пор, пока число
ошибок не перестанет изменяться, и оценить число ошибок.
3. Найти значение q, которое обеспечило минимальное число ошибок.
5. Экспериментальное сравнение алгоритмов
Решалась задача сегментации модельных текстурных изображений
(рис.2) размером 201x201 пикселей. Текстуры трех классов представляют
собой реализации трех нормально распределенных случайных величин
с немного отличающимися средними в пространстве красной и зеленой
цветовых компонент (рис.2а — пример первого изображения, рис.2б —
классификации учителя на десяти тестовых изображениях такого же типа).
Сравнивались все алгоритмы распознавания для пяти видов
ациклических графов соседства (рис.3). Результаты распознавания показаны
в табл. 1–5.
Видно, что алгоритм подбора диагонального элемента на основе
независимого обучения является наихудшим. Если в нем на второй итерации
вместо пересчитанного по независимому обучению диагонального элемента
использовать заданный, то результат улучшается. Но есть случаи, когда
алгоритм подбора диагонального элемента выигрывает у базового алгоритма
и, наоборот, есть случаи, когда алгоритм подбора диагонального элемента
проигрывает.
Алгоритмы подбора параметров древовидного марковского случайного поля
107
При повторении итераций базового алгоритма области каждого
класса сливаются, число пар соседних вершин с одинаковыми классами
увеличивается, что увеличивает множество V1 . Поэтому при повторении
итераций, согласно (10), фактически неявно пересчитывается диагональный
элемент. Поэтому итерации позволяют улучшить качество распознавания.
В алгоритмах 1 и 2 фактически дважды пересчитывается диагональный
элемент: из-за слияния областей и непосредственно по (10). Это быстро
108
С. Д. Двоенко, Д. В. Шанг
увеличивает диагональный элемент и приводит к быстрому слиянию
областей. Видно, что ускорение слияния областей отрицательно влияет на
качество распознавания. Алгоритм по схеме Гаусса-Зейделя дает лучший
результат и выигрывает у остальных алгоритмов. Оптимальное значение
близко к единице (0.97-0.99).
Рис. 2. Текстурные изображения
Рис. 3. Ациклические графы соседства
Алгоритмы подбора параметров древовидного марковского случайного поля
109
В свою очередь, оптимальное значение диагонального элемента резко
уменьшает число итераций (до одной – двух) базового алгоритма для любого
ациклического графа соседства.
Список литературы
1. Rabiner L.R. A Tutorial on Hidden Markov Models and Selected Applications in
Speech Recognition // Proc. IEEE, 77. 1977. V.2. P.257–286.
2. Geman S., Geman D. Stochastic Relaxation, Gibbs Distributions, and the Bayesian
Restoration of Images // IEEE Trans. on PAMI. 1984. V.6. P.721–741.
3. Li S.Z. Markov Random Field Modeling in Image Analysis. L: Springer–Verlag,
2009. 371 p.
4. Bishop C.M. Pattern Recognition and Machine Learning. N.Y.: Springer, 2006.
738 p.
5. Wainwright M.J., Jordan M.I. Graphical Models, Exponential Families, and VariR
ational Inference // Foundations and Trends°in
Machine Learning. 2008. V.1.
P.1–305.
6. Pattern Recognition in Spatial Data: A New Method of Seismic Explorations for Oil
and Gas in Crystalline Basement Rocks / V.V. Mottl [et al.] // Proc. 15th ICPR’2000.
Spain, Barcelona, 2000. V.3. P.210–213.
7. Mottl V.V., Dvoenko S.D., and Kopylov A.V. Pattern Recognition in Interrelated
Data: The Problem, Fundamental Assumptions, Recognition Algorithms // Proc.
17th ICPR’2004. Cambridge, England, UK, 2004. V.1. P.188–191.
8. Двоенко С.Д., Копылов А.В., Моттль В.В. Задача распознавания образов
в массивах взаимосвязанных объектов. Постановка задачи и основные
предположения // Автоматика и телемеханика. 2004. №1. С.143–158.
9. Двоенко С.Д., Копылов А.В., Моттль В.В. Задача распознавания образов в
массивах взаимосвязанных объектов. Алгоритм распознавания // Автоматика
и телемеханика. 2005. №12. C.162–176.
10. Двоенко С.Д., Савенков Д.С., Шанг Д.В. Ациклические марковские модели в
анализе массивов взаимосвязанных данных // Изв. ТулГУ. Естественные науки.
2010. Вып.2. С.173–185.
Двоенко Сергей Данилович (dsd@tsu.tula.ru, http://lda.tsu.tula.ru/staff.
html), д.ф.-м.н., профессор, кафедра автоматики и телемеханики, Тульский
государственный университет.
Шанг Динь Вьет (dvietsang@gmail.com), аспирант, кафедра автоматики
и телемеханики, Тульский государственный университет.
110
С. Д. Двоенко, Д. В. Шанг
Algorithms for the selection of the tree-like model parameters of
a Markov random field in the problem of the raster textured
images recognition
S. D. Dvoenko, D.V. Sang
Abstract. The recognition problem of interrelated data arrays represented as
a two-component Markov random field of observations and hidden object classes,
for which the tree-like model of neighborhood elements of a hidden Markov
random field of the belonging of objects to classes was previously proposed, is
under investigation. Model of hidden classes is considered as a Markov chain
and is given by a matrix of conditional probabilities of transitions between its
states. For a given acyclic adjacency graph of data array elements that matrix
is the model parameter. It is shown that in the particular case it is sufficient to
determine only the value of the single diagonal element of the transition matrix.
Formulation of the problem to find the optimal value of the diagonal element
is given and the corresponding algorithms are developed. In the example of the
problem of a segmentation of the raster textured images, the proposed algorithms
are compared and results of experiments are shown.
Keywords: pattern recognition, machine learning, Markov random fields,
Markov chain.
Dvoenko Sergey (dsd@tsu.tula.ru, http://lda.tsu.tula.ru/staff.html), doctor
of physical and mathematical sciences, professor, department of automation and
remote control, Tula State University.
Sang Dinh Viet (dvietsang@gmail.com), postgraduate student, department
of automation and remote control, Tula State University.
Поступила 24.12.2011
Download