1 Основы построения искусственных нейронных сетей

advertisement
1 Основы построения искусственных нейронных сетей
1.1 Биологический нейрон
Тематика искусственных нейронных сетей относится к междисциплинарной сфере знаний, связанных с биокибернетикой, электроникой,
прикладной математикой, статистикой, автоматикой и даже с медициной
[1]. Искусственные нейронные сети возникли на основе знаний о функционировании нервной системы живых существ. Они представляют собой попытку использования процессов, происходящих в нервных системах, для
выработки новых технологических решений.
Нервная клетка, сокращенно называемая нейроном, является основным элементом нервной системы. Изучение механизмов функционирования отдельных нейронов и их взаимодействия принципиально важно для
познания протекающих в нервной системе процессов поиска, передачи и
обработки информации. С этой точки зрения представляется необходимым
построить и изучить модель биологического нейрона.
Рисунок 1.1 – Взаимосвязь биологических нейронов
Нейрон является особой биологической клеткой, которая обрабатывает информацию (рисунок 1.1) [2]. Он состоит из тела (сомы) и отростков
нервных волокон двух типов – дендритов, по которым принимаются импульсы, и единственного аксона, по которому нейрон может передавать
импульс. Тело нейрона включает ядро, которое содержит информацию о
7
наследственных свойствах, и плазму, обладающую молекулярными средствами для производства необходимых нейрону материалов. Нейрон получает сигналы от аксонов других нейронов через дендриты и передает сигналы, сгенерированные телом клетки, вдоль своего аксона, который в конце разветвляется на волокна. На окончаниях этих волокон находятся специальные образования – синапсы, которые влияют на величину импульсов.
Синапс является элементарной структурой и функциональным узлом
между двумя нейронами (волокно аксона одного нейрона и дендрит другого). Когда импульс достигает синаптического окончания, высвобождаются
химические вещества, называемые нейротрансмиттерами. Нейротрансмиттеры диффундируют через синаптическую щель, возбуждая или затормаживая, в зависимости от типа синапса, способность нейрона-приемника генерировать электрические импульсы. Результативность передачи импульса
синапсом может настраиваться проходящими через него сигналами так,
что синапсы могут обучаться в зависимости от активности процессов, в
которых они участвуют. Эта зависимость от предыстории действует как
память, которая, возможно, ответственна за память человека. Важно отметить, что веса синапсов могут изменяться со временем, а значит, меняется
и поведение соответствующих нейронов.
Количество взаимодействующих друг с другом нервных клеток чрезвычайно велико. Считается, что человеческий мозг содержит около 1011
нейронов [1, 2, 3], каждый из которых выполняет относительно примитивные функции суммирования весовых коэффициентов входных сигналов и
сравнения полученной суммы с пороговым значением. Каждый нейрон
имеет свои веса и свое пороговое значение. Они и определяются местонахождением нейрона и решаемой им задачей и могут интерпретироваться
аналогично содержимому локальной памяти процессора.
Громадное количество нейронов и межнейронных связей (до 1000
входов в каждый нейрон) приводит к тому, что ошибка в срабатывании от8
дельного нейрона остается незаметной в общей массе взаимодействующих
клеток. Нейронная сеть проявляет высокую устойчивость к помехам – это
“стабильная” сеть, в которой отдельные сбои не оказывают существенного
влияния на результаты ее функционирования. Таково главное отличие
нейронных систем от обычных электронных систем, созданных человеком.
Следует подчеркнуть, что ни одна современная технология не позволяет
построить искусственную нейронную сеть, близкую по масштабам к
нейронной сети мозга. Однако изучение и копирование биологических
нервных систем позволяют надеяться на создание нового поколения электронных устройств, имеющих аналогичные характеристики.
Другая важная особенность нервных систем – высокая скорость их
функционирования, несмотря на относительно длительный цикл срабатывания каждой отдельной клетки, измеряемый в миллисекундах. Она достигается благодаря параллельной обработке информации в мозге огромным
количеством нейронов, соединенных многочисленными межнейронными
связями. Такие операции, как распознавание образов и звуков либо принятие решений, выполняются человеческим мозгом за промежутки времени,
измеряемые миллисекундами. Достижение такого результата при использовании полупроводниковой технологии VLSI все еще выходит за границы
современных технических возможностей, хотя цикл срабатывания отдельных исполнительных элементов СБИС является достаточно коротким и
имеет порядок 10-8 с. Если удастся, взяв за образец нервную систему, создать устройство с высокой степенью параллельности выполнения независимых операций, то скорость его функционирования может быть существенно увеличена и приближена к уровню, наблюдаемому в процессах
обработки информации биологическими объектами.
9
1.2 Структура формального нейрона и его свойства
Нейрон является составной частью нейронной сети. На рисунке 1.2
показана структура искусственного нейрона. Он состоит из трех элементов
[1, 2, 3]: умножителей (синапсов), сумматора и нелинейного преобразователя. Синапсы осуществляют связь между нейронами, умножают входной
сигнал на число, характеризующее силу связи (вес синапса). Сумматор выполняет сложение сигналов, поступающих по синаптическим связям от
других нейронов, и внешних входных сигналов. Нелинейный преобразователь реализует нелинейную функцию одного аргумента – выхода сумматора. Эта функция называется функцией активации или передаточной функцией нейрона.
w1
…
wi
…
wn
x1
…
…
xi
…
…
∑
s
f
y
xn
b
Рисунок 1.2 – Функциональная схема искусственного нейрона
Математическая модель искусственного нейрона выглядит следующим образом [1-6]
n
y  f ( s)   xi wi  b ,
(1.1)
i 1
где y – выходной сигнал нейрона; f(s) – функция активации; xi – входной
сигнал нейрона, i = 1…n; wi – вес синаптической связи; b – значение смещения.
В общем случае входной сигнал, весовые коэффициенты и смещение
могут принимать действительные значения, а во многих практических задачах – лишь некоторые фиксированные значения. Выход у определяется
видом функции активации и может быть как действительным, так и целым.
10
Синаптические связи с положительными весами называют возбуждающими, с отрицательными весами – тормозящими.
Описанный вычислительный элемент можно считать упрощенной
математической моделью биологических нейронов. Чтобы подчеркнуть
различие нейронов биологических и искусственных, вторые иногда называют нейроноподобными элементами или формальными нейронами.
На входной сигнал s нелинейный преобразователь отвечает выходным сигналом f(s), который представляет собой выход у нейрона. Выбором
весовых коэффициентов wi и функцией активации f(s) достигается та или
иная интегральная функция нейрона. Наиболее широко используемые активационные функции сведены в таблицу 1.1 [2, 7].
Таблица 1.1 – Основные функции активации искусственных нейронов
Область
значений
3
Название
Функция
1
2
Функция с жесткими ограничениями
0, s  0;
f ( s)  
1, s  0
(0, 1)
Симметричная функция с
жесткими ограничениями
1, s  0;
f ( s)  
 1, s  0
(-1, 1)
Линейная
f(s)=ks
(-∞, ∞)
Положительная линейная
функция
ks, s  0;
f ( s)  
0, s  0
(0, ∞)
Линейная функция с ограничениями
0, s  0;

f ( s )  n, 0  s  1;
1, s  1

(0, 1)
11
График функции
4
продолжение таблицы 1.1
1
Симметричная линейная
функция с ограничениями
Логистическая
Гиперболический тангенс
2
3
 1, s  1;

f ( s )  s,  1  s  1;
1, s  1

(-1, 1)
1
1  e as
(0, 1)
e as  e  as
e as  e as
(-1, 1)
f ( s) 
f ( s) 
Экспоненциальная
f ( s)  e  as
(0, ∞)
Синусоидальная
f (s)  sin( s)
(-1, 1)
Модульная
f ( s)  s
(0, ∞)
Квадратичная
f ( s)  s 2
(0, ∞)
12
4
1.3 Модели нейронов и методы их обучения
В соответствии с принципами функционирования биологических
нейронов созданы различные математические модели, которыми в большей или меньшей степени реализуются свойства природной нервной клетки. Обобщенная схема, составляющая основу большинства таких моделей,
восходит к представленной на рисунке 1.2 модели МакКаллока-Питса, содержащей сумматор взвешенных входных сигналов и нелинейный блок
выработки выходного сигнала нейрона, функционально зависящего от выходного сигнала сумматора. Свойства нелинейной функции, особенно ее
непрерывность, оказывают определяющее влияние на выбор способа обучения нейрона (подбор весовых коэффициентов). Другим важным фактором становится выбор стратегии обучения. Можно выделить два подхода:
обучение с учителем и обучение без учителя [1].
При обучении с учителем предполагается, что, помимо входных сигналов, составляющих вектор х, известны также и ожидаемые выходные
сигналы нейрона di, составляющие вектор d (от англ. destination). В подобной ситуации подбор весовых коэффициентов должен быть организован
так, чтобы фактические выходные сигналы нейрона уi, принимали бы значения, как можно более близкие к ожидаемым значениям di. Ключевым
элементом процесса обучения с учителем является знание ожидаемых значений di, выходного сигнала нейрона.
Если такой подход невозможен, остается выбрать стратегию обучения без учителя. Подбор весовых коэффициентов в этом случае проводится на основании либо конкуренции нейронов между собой (стратегии
“Winner Takes All – WTA” (Победитель получает все) или “Winner Takes
Most – WTM” (Победитель получает больше)), либо с учетом корреляции
обучающих и выходных сигналов (обучение по Хеббу). При обучении без
учителя на этапе адаптации нейрона мы не можем прогнозировать его выходные сигналы, тогда как при обучении с учителем результат обучения
13
предопределен заранее благодаря априори заданным обучающим выборкам.
1.3.1 Персептрон
Простой персептрон – это обычная модель МакКаллока-Питса с соответствующей стратегией обучения [1, 8]. Структурная схема и обозначения элементов i-го персептрона представлены на рисунке 1.2. Весовые коэффициенты входов сумматора, на которые поступают входные сигналы xj,
обозначаются wij, а пороговое значение, поступающее с так называемого
поляризатора, – b. Нелинейная функция активации персептрона представляет собой дискретную функцию ступенчатого типа, вследствие чего выходной сигнал нейрона может принимать только два значения – 0 или 1 в
соответствии с правилом
0, s  0;
f ( s)  
1, s  0.
(1.2)
В приведенной формуле подразумевается, что имеющий длину N
вектор х дополнен нулевым членом x0  1 , формирующим сигнал поляризации, x  [ x0 , x1 , ..., xN ] . Обучение персептрона требует наличия учителя и
состоит в таком подборе весов wij, чтобы выходной сигнал уi был наиболее
близок к заданному значению di. Это обучение гетероассоциативного типа,
при котором каждой обучающей выборке, представляемой вектором х,
априори поставлено в соответствие ожидаемое значение di на выходе i-го
нейрона.
Наиболее популярный метод обучения персептрона состоит в применении правила персептрона [1, 8, 9, 10, 11], в соответствии с которым
подбор весов осуществляется по следующему алгоритму:
 При первоначально выбранных (как правило, случайным образом)
значениях весов wij на вход нейрона подается обучающий вектор х и рассчитывается значение выходного сигнала уi. По результатам сравнения
фактически полученного значения уi с заданным значением di уточняются
14
значения весов.
 Если значение yi совпадает с ожидаемым значением di, то весовые
коэффициенты wij не изменяются.
 Если yi  0 , а соответствующее заданное значение di  1 , то значения весов уточняются в соответствии с формулой wij (t  1)  wij (t )  x j ,
где t обозначает номер предыдущего цикла, a (t  1) – номер текущего цикла.
 Если yi  1 , а соответствующее заданное значение di  0 , то значения весов уточняются в соответствии с формулой wij (t  1)  wij (t )  x j .
По завершении уточнения весовых коэффициентов представляются
очередной обучающих вектор х и связанное с ним ожидаемое значение di,
и значения весов уточняются заново. Этот процесс многократно повторяется на всех обучающих выборках, пока не будут минимизированы различия между всеми значениями yi и соответствующими им ожидаемыми значениями di.
Следует отметить, что правило персептрона представляет собой
частный случай предложенного гораздо позже правила Видроу-Хоффа [1,
10, 12]. В соответствии с этим правилом подбор весовых коэффициентов
нейрона (необязательно персептронного типа) проводится по формулам:
wij (t  1)  wij (t )  wij ,
wij  x j (di  yi ) .
(1.3)
(1.4)
Аналогичные соотношения используются при подборе веса поляризатора wi0, для которого входной сигнал всегда равен 1, в связи с чем
wi 0  (di  yi ) .
(1.5)
Легко заметить, что если сигналы yi и di принимают только двоичные
значения 0 и 1, то правило Видроу-Хоффа превращается в правило персептрона.
Характерная особенность как правила персептрона, так и обобщен15
ного правила Видроу-Хоффа состоит в использовании для обучения информации только о текущем и ожидаемом значениях выходного сигнала. В
связи с разрывностью нелинейной функции активации персептрона невозможно учитывать информацию об изменении значения yi (т.е. ее производную). Минимизация различий между фактическими реакциями нейрона уi
и ожидаемыми значениями di может быть представлена как минимизация
конкретной функции погрешности (целевой функции) Е, чаще всего определяемой как
p
E   ( yi( k )  d i( k ) ) 2 ,
(1.6)
k 1
где р означает количество предъявляемых обучающих выборок. Такая минимизация при использовании правила персептрона проводится по методу
безградиентной оптимизации [1, 8]. Эффективность метода при большом
количестве обучающих выборок относительно невелика, а количество
циклов обучения и его длительность возрастают очень быстро, причем без
всякой гарантии достижения минимума целевой функции. Устранить эти
недостатки можно только в случае применения непрерывной функции активации, при которой целевая функция Е также становится непрерывной,
что дает возможность использовать в процессе обучения информацию о
величине градиента.
1.3.2 Сигмоидальный нейрон
Нейрон сигмоидального типа (рисунок 1.3) имеет структуру, подобную модели МакКаллока-Питса, с той разницей, что функция активации
является непрерывной и может быть выражена в виде сигмоидальной униполярной или биполярной функции [1, 10, 13]. Униполярная функция, как
правило, представляется формулой
f ( x) 
1
,
1  e  x
тогда как биполярная функция задается в виде
16
(1.7)
f ( x)  tanh( x) .
(1.8)
Рисунок 1.3 – Модель сигмоидального нейрона
В этих формулах параметр  подбирается пользователем. Его значение влияет на форму функции активации. На рисунке 1.4 представлены
графики сигмоидальной функции от переменной х для различных значений
 , причем на рисунке 1.4 а показана униполярная, а на рисунке 1.4 б – биполярная функция. Графики обеих функций сильно зависят от значения  .
При малых величинах  график функции достаточно пологий, но по мере
роста значения  крутизна графика увеличивается. При    сигмоидальная функция превращается в функцию ступенчатого типа, идентичную
функции активации персептрона. На практике чаще всего для упрощения
используется значение   1 .
Рисунок 1.4 – График сигмоидальной функции:
а) униполярной; б) биполярной при различных значениях коэффициента

Важным свойством сигмоидальной функции является ее дифференцируемость. Для униполярной функции имеем
17
df ( x)
 f ( x)(1  f ( x)) ,
dx
(1.9)
тогда как для биполярной функции
df ( x)
  (1  f 2 ( x)) .
dx
(1.10)
И в первом, и во втором случае график изменения производной относительно переменной х имеет колоколообразную форму, а его максимум
соответствует значению x  0 (рисунок 1.5).
Рисунок 1.5 – График производной от сигмоидальной функции
при различных значениях коэффициента 
Сигмоидальный нейрон, как правило, обучается с учителем по принципу минимизации целевой функции, которая для единичного обучающего
кортежа <x, d> i-го нейрона определяется в виде
1
E  ( yi  di ) 2 ,
2
(1.11)
где
 N

yi  f (ui )  f   wij x j  .
 j 0

(2.12)
Функция f (ui ) является сигмоидальной, x – это входной вектор,
x  [ x0 , x1 , ..., xN ]T со значением x0  1 при наличии поляризации и x0  0
при ее отсутствии, а di – соответствующее ему ожидаемое значение на выходе i-го нейрона. Применение непрерывной функции активации позволяет использовать при обучении градиентные методы. Проще всего реализовать метод наискорейшего спуска, в соответствии с которым уточнение
18
вектора весов w  [wi 0 , wi1 , ..., wiN ]T проводится в направлении отрицательного градиента целевой функции. Если эта функция определена выражением (1.11), j-я составляющая градиента имеет вид:
 jE 
df (ui )
dE
 ei x j
,
dwij
dui
(1.13)
где ei  ( yi  di ) означает разницу между фактическим и ожидаемым значением
 i  ei
выходного
сигнала
нейрона.
Если
ввести
обозначение
df (ui )
, то можно получить выражение, определяющее j-ю составdui
ляющую градиента в виде
 j E  i x j .
(1.14)
Значения весовых коэффициентов также могут уточняться дискретным способом:
wij (t  1)  wij (t )   i x j ,
(1.15)
где  – это коэффициент обучения, значение которого, как правило, выбирают либо эмпирически из интервала (0, 1), либо решением разностного
уравнения
dwij
dt
   i x j ,
(1.16)
в котором константа  выступает в роли, аналогичной значению  в
уравнении (1.15). Два последних уравнения определяют алгоритм обучения нейрона. На эффективность обучения оказывает сильное влияние подбор коэффициента обучения. В существующих приложениях его величина
может задаваться константой либо быть переменной величиной, значение
которой изменяется в процессе обучения адаптивным способом, либо подбирается на каждом шаге по принципу направленной минимизации.
Наиболее эффективным, но одновременно и наиболее трудоемким считается метод направленной минимизации, по которому коэффициент обучения подбирается на каждом шаге путем минимизации целевой функции от
19
одной переменной в направлении наискорейшего уменьшения значений
этой целевой функции.
Необходимо подчеркнуть, что применение градиентного метода для
обучения нейрона гарантирует достижение только локального минимума.
В случае полимодальной целевой функции найденный локальный минимум может быть достаточно далек от глобального минимума. Выход из
окрестности локального минимума при использовании простого алгоритма
наискорейшего спуска невозможен. Результативным может оказаться обучение с моментом или разбросом [1, 8, 10]. В этом методе процесс уточнения весов определяется не только информацией о градиенте функции, но
также и фактическим трендом изменений весов. Подобный способ обучения может быть задан следующим математическим выражением, определяющим приращение значений весов:
wij (t  1)   i x j  wij (t ) ,
(1.17)
в котором первый член соответствует обычному методу наискорейшего
спуска, тогда как второй член, называемый моментом, отражает последнее
изменение весов и не зависит от фактического значения градиента. Значение коэффициента момента  , как правило, выбирается из интервала
0    1 . Следует обратить внимание, что влияние момента на подбор ве-
сов увеличивается с ростом значения  . Такое влияние существенным образом усиливается при непосредственной близости локального минимума,
где значение градиента стремится к нулю. В этом случае возможны такие
изменения весов, которые приводят к возрастанию значения целевой
функции и выходу за пределы области локального минимума. Такая ситуация применительно к аппроксимирующей сети (выполняющей аппроксимацию входных данных) иллюстрируется на рисунке 1.6. Отмеченные на
графике точки соответствуют значениям целевой функции, получаемым на
каждом шаге обучения. Локальный минимум Р1 был покинут благодаря
действию момента. Это позволило найти в точке Р2 новый минимум с
20
меньшим значением целевой функции, который оказался более подходящим с позиций приближения фактического значения уi к ожидаемому значению di.
Рисунок 1.6 – Иллюстрация влияния момента на процесс обучения нейронной сети
Следует отметить, что показатель момента не должен доминировать
в процессе обучения, так как это приведет к нестабильности (расходимости) алгоритма. Как правило, в процессе обучения отслеживается значение
погрешности еi с тем, чтобы не допустить его возрастания сверх некоторого допустимого предела, например 5 %. В подобном случае, если
ei (t  1)  1,05ei (t ) , очередной шаг считается целесообразным, и уточнение
весов проводится. Если же ei (t  1)  1,05ei (t ) , изменения игнорируются,
принимается wij (t )  0 , и в выражении (1.17) градиентная составляющая
оказывается доминирующей над составляющей момента.
1.3.3 Нейрон типа “адалайн”
Модель нейрона типа “адалайн” (англ.: ADAptive Linear NEuron –
адаптивный линейный нейрон) была предложена Б. Видроу [1, 14]. Ее
структурная схема, демонстрирующая адаптивный способ подбора весовых коэффициентов, изображена на рисунке 1.7. По методу весового суммирования сигналов нейрон типа “адалайн” аналогичен представленным
ранее моделям нейронов. Функция активации имеет тип signum, т.е.
21
 1 для ui  0;
yi (ui )  
 1 для ui  0.
(1.18)
Рисунок 1.7 – Структурная схема нейрона типа “адалайн”
Адаптивный подбор весовых коэффициентов осуществляется в процессе минимизации квадратичной ошибки, определяемой как
2
 N

1 2 1
E ( w)  ei  d i    wij x j  .
2
2 
 j 0

(1.19)
Следует обратить внимание, что, несмотря на нелинейный характер
модели, в целевой функции присутствуют только линейные члены, представляющие собой сумму взвешенных входных сигналов. В связи с выполнением условия непрерывности целевой функции стало возможным применение алгоритма градиентного обучения. Как и в ситуации с сигмоидальным нейроном, в алгоритме Видроу для минимизации целевой функции применяется метод наискорейшего спуска. Значения весовых коэффициентов могут уточняться либо дискретным способом
wij (t  1)  wij (t )  ei x j ,
(1.20)
либо аналоговым способом – путем решения разностных уравнений вида
dwij
dt
 ei x j ,
(1.21)
N


в которых в соответствии с зависимостью (1.19) ei   d i   wij x j  . Неj 0


смотря на то, что адалайн имеет на выходе нелинейный блок типа signum,
22
он все же считается линейным элементом, поскольку в определении целевой функции нелинейности отсутствуют, а подбор весов происходит так,
как будто никакой нелинейности не существует.
Нейрон типа “адалайн” имеет относительно простую практическую
реализацию [1, 14-16] как в случае аналогового подхода на основе уравнения (1.21), так и в дискретном варианте на базе выражения (1.20). Основные компоненты модели в первом случае – это вычислительные элементы
(интеграторы и сумматоры), тогда как во втором случае – это элементы задержки, описываемые оператором запаздывания z 1 , и также интеграторы
и сумматоры. Обе адалайн-модели могут служить базой для компьютерного моделирования нейрона этого типа.
а)
б)
в)
Рисунок 1.8 – Сеть мадалайн с выходами типа: а) OR; б) AND; в) мажоритарный
Подчеркнем, что в практических приложениях нейроны типа “адалайн” всегда используются группами, образуя слои, называемые мадалайн
(англ.: Many odaline – много адалайн). Каждый входящий в слой нейрон
обучается по правилу адалайн. Выходные сигналы отдельных нейронов
такого слоя могут формироваться различными способами. Б. Видроу [14]
предложил три базовых типа межнейронных соединений: OR, AND и мажоритарное. На рисунке 1.8 а, б и в показаны схемы таких соединений.
Конкретные сигналы уi суммируются с учетом порогового значения, уста23
навливаемого раздельно для каждого типа связи. Для схемы OR порог
имеет значение (n  1) , для схемы AND – значение (1  n) , а для мажоритарной схемы – нулевое значение. Благодаря применению функции активации типа signum выходной сигнал у принимает значение +1, когда хотя
бы один из входных сигналов имеет значение +1 (OR), когда все входные
сигналы уi имеют значения +1 (AND), либо когда большинство сигналов уi
имеет значение +1 (мажоритарное соединение).
1.3.4 Инстар и оутстар Гроссберга
Нейроны типа инстар и оутстар – это взаимодополняющие элементы. Инстар адаптирует веса сигналов, поступающих на сумматор нейрона,
к своим входным сигналам, а оутстар согласовывает веса выходящих из
нейрона связей узлами, в которых формируются значения выходных сигналов [1]. Нейрон типа инстар был определен С. Гроссбергом. На рисунке
1.9 представлена структурная схема инстара.
Рисунок 1.9 – Структурная схема инстара
Сигналы xj, подаваемые с весовыми коэффициентами wij на вход i-гo
инстара, суммируются в соответствии с выражением
N
ui   wij x j .
(1.22)
j 1
В соответствии с функцией активации на выходе нейрона вырабатывается выходной сигнал yi  f (ui ) . Часто в инстаре применяется линейная
форма активации, и тогда yi  ui . Обучение инстара (подбор весов wij )
производится по правилу Гроссберга, в соответствии с которым
24
wij (t  1)  wij (t )  yi [ x j  wij (t )].
(1.23)
где  – это коэффициент обучения, значение которого, как правило, выбирается из интервала (0, 1). Входные данные, представляемые в виде вектора х, выражены чаще всего в нормализованной форме, в которой x  1 .
Нормализация компонентов вектора x выполняется по формуле
xj
xj 
x12  x22  ...  x N2
.
(1.24)
Результаты обучения по методу Гроссберга в значительной степени
зависят от коэффициента обучения  . При выборе   2 веса wij становятся равными значениям xj уже после первой итерации. Ввод очередного
входного вектора х вызовет адаптацию весов к новому вектору и абсолютное “забывание” предыдущих значений. Выбор   1 приводит к тому, что
в результате обучения весовые коэффициенты wij принимают усредненные
значения обучающих векторов х.
Допустим, что i-й инстар был обучен на некотором нормализованном
относительно своих компонентов входном векторе х1. В этом случае на
векторе весов инстара выполняется отношение: w  [wi1 , wi 2 , ..., wiN ]T . В
режиме классификации при вводе очередного входного вектора x2 инстар
вырабатывает сигнал ui вида
ui  wT x2  x1T x2  x1 x2 cos12 .
(1.25)
Вследствие нормализации амплитуд входных векторов получаем:
ui  cos12 .
(1.26)
При выполнении условия x2  x1 реакция инстара будет равна ui  1 .
В случае, когда входные векторы отличаются друг от друга, реакция инстара будет пропорциональна косинусу угла между этими векторами. Для
ортогональных векторов ui  0 .
В итоге натренированный инстар функционирует как векторный
классификатор, сопоставляющий очередной поданный на его вход вектор с
25
вектором, формированным в процессе обучения. В случае максимального
совпадения этих векторов реакция инстара будет максимальной (наиболее
близкой к единице). Если инстар обучался на группе достаточно похожих
векторов с коэффициентом обучения   1 , то его весовые коэффициенты
примут значения, усредненные по этим векторам, и в режиме классификации он будет лучше всего реагировать на входные векторы, параметры которых наиболее близки к средним значениям векторов, входивших в обучающую группу.
Необходимо подчеркнуть, что инстар может обучаться как с учителем, так и без него. Во втором случае в правиле Гроссберга в качестве значения yi принимается фактическое значение выходного сигнала инстара.
При обучении с учителем значение yi заменяется ожидаемым значением di,
т.е. yi  di .
Для примера рассмотрим обучение четырехвходового инстара с одноступенчатой функцией активации. Инстар тренируется с учителем, а
обучающие векторы х и значения d имеют вид:
0,2630
 0,580 
0,3482 
 0,100 
 , x2  
 , d1  1 , d 2  0 .
x1  
 0,500 
0,7400




 0,7481
0,3256
Значение весового коэффициента поляризации принято равным –
0,95. Это означает, что выходной сигнал нейрона будет равен 1 при
ui  0,95 , т.е. при значении ui, достаточно близком к единице. При нулевых
начальных значениях весов и коэффициенте обучения   0,4 при обучении с учителем стабилизация значений весов была достигнута уже после
десяти циклов обучения. Численные результаты обучения имеют вид достаточно близкий к реализации первого входного вектора х1:
26
0,2614
 0,3461

w
0,4970


0,7436
При выборе коэффициента обучения   0,75 нейрон оказался натренированным уже после четырех циклов обучения. Второй вектор х2 в процессе
обучения с учителем не оказывал никакого влияния на результаты обучения вследствие того, что d 2  0 .
В процессе функционирования при подаче на вход вектора х1 вырабатывается значение u1  0,9940 , при котором нейрон формирует выходной сигнал, равный 1. При подаче на вход вектора х2 вырабатывается значение u2  0,7961  0,95 , при котором нейрон формирует нулевой выходной
сигнал.
Рисунок 1.10 – Структурная схема оутстара
Нейрон типа оутстар Гроссберга представляет собой комплементарное дополнение инстара. Если инстар обучается с целью распознавать вектор, подаваемый на его вход, то оутстар должен генерировать вектор, необходимый связанным с ним нейронам. Структурная схема оутстара представлена на рисунке 1.10. i-й нейрон-источник высылает свой выходной
сигнал yi взаимодействующим с ним нейронам, выходные сигналы которых обозначены yj ( j  1, 2, ..., M ) . Оутстар, как правило, является линейным нейроном. Обучение состоит в таком подборе его весов wij, чтобы выходные сигналы оутстара были равны ожидаемым значениям yj взаимодей27
ствующих с ним нейронов. Обучение оутстара согласно правилу Гроссберга проводится в соответствии с выражением
w ji (t  1)  w ji (t )  yi ( y j  w ji (t )) ,
(1.27)
в котором  – это коэффициент обучения, а уi – выходной сигнал i-го
нейрона, выступающего в роли источника. Зависимость (1.27) для оутстара
аналогична выражению (1.23), по которому обучается инстар. В режиме
распознавания в момент активизации нейрона-источника оутстар будет генерировать сигналы, соответствующие ожидаемым значениям yj.
Нейроны типа инстар и оутстар существенным образом отличаются
от нейронов трех типов, определенных ранее в этом разделе. Основу обучения персептрона, сигмоидального нейрона и адалайна составляет пара
обучающих векторов (х, d). Они могут обучаться только с учителем. При
обучении инстара и оутстара весовые коэффициенты подстраиваются под
входные или выходные векторы. Обучение может проводиться как с учителем, так и без него.
1.3.5 Нейроны типа WTA
Нейроны типа WTA (англ.: Winner Takes All – Победитель получает
все) [1, 10, 13] имеют входной модуль в виде стандартного сумматора, рассчитывающего сумму входных сигналов с соответствующими весами wij.
Выходной сигнал i-го сумматора определяется согласно формуле
N
ui   wij x j .
(1.28)
j 0
Группа конкурирующих между собой нейронов (рисунок 1.11) получает одни и те же входные сигналы xj. В зависимости от фактических значений весовых коэффициентов суммарные сигналы ui отдельных нейронов
могут различаться. По результатам сравнения этих сигналов победителем
признается нейрон, значение ui у которого оказалось наибольшим. Нейронпобедитель вырабатывает на своем выходе состояние 1, а остальные (проигравшие) нейроны переходят в состояние 0.
28
Рисунок 1.11 – Схема соединения нейронов типа WTA
Для обучения нейронов типа WTA не требуется учитель, оно протекает аналогично обучению инстара, с использованием нормализованных
входных векторов x. На начальном этапе случайным образом выбираются
весовые коэффициенты каждого нейрона, нормализуемые относительно 1.
После подачи первого входного вектора х определяется победитель этапа.
Победивший в этом соревновании нейрон переходит в состояние 1, что
позволяет ему провести уточнение весов его входных линий wij (по правилу Гроссберга).
Проигравшие нейроны формируют на своих выходах состояние 0,
что блокирует процесс уточнения их весовых коэффициентов. Вследствие
бинарности значений выходных сигналов конкурирующих нейронов (0 или
1) правило Гроссберга может быть несколько упрощено:
wij (t  1)  wij (t )  [ x j  wij (t )] .
(1.29)
На функционирование нейронов типа WTA оказывает существенное
влияние нормализация входных векторов и весовых коэффициентов. Выходной сигнал ui i-го нейрона в соответствии с формулой (1.25) может
быть описан векторным отношением
ui  wT x  w x cosi .
(1.30)
Поскольку w  x  1, значение ui определяется углом между векторами х и w, ui  cosi . Поэтому победителем оказывается нейрон, вектор
весов которого оказывается наиболее близким текущему обучающему вектору х. В результате победы нейрона уточняются его весовые коэффициен29
ты, значения которых приближаются к значениям текущего обучающего
вектора х. Если на вход сети будет подаваться множество близких по значениям векторов, побеждать будет один и тот же нейрон. Поэтому его веса
станут равными усредненным значениям тех входных векторов, благодаря
которым данный нейрон оказался победителем. Проигравшие нейроны не
изменяют свои веса. Только победа при очередном представлении входного вектора позволит им произвести уточнение весовых коэффициентов и
продолжить процесс обучения в случае еще одной победы.
Следствием такой конкуренции становится самоорганизация процесса обучения. Нейроны уточняют свои веса таким образом, что при предъявлении группы близких по значениям входных векторов победителем всегда оказывается один и тот же нейрон. В процессе функционирования
именно этот нейрон благодаря соперничеству распознает свою категорию
входных данных. Системы такого типа чаще всего применяются для классификации векторов.
Рисунок 1.12 – Нейронная сеть типа WTA
В качестве примера рассмотрим нейронную сеть, состоящую из четырех нейронов типа WTA и предназначенную для классификации входных двухкомпонентных векторов (рисунок 1.12). Входные обучающие векторы х представлены в нормализованной форме:
0,97 
 0,72
 0,67
1,00 
,
,
,
x1  
x

x

x

2
3
4

 0,70
 0,74 ,
0,00
0
,
20








30
 0,80
 0,20
 0,30
 0,00
, x6  
, x7  
, x8  
x5  


.

0
,
60

0
,
97

0
,
95

1
,
00








Рисунок 1.13 – Процесс обучения изображенной на рисунке 1.12
нейронной сети типа WTA
Процесс обучения сети представлен на рисунке 1.13. Окружностями
обозначены позиции очередных векторов весов тех нейронов, которые побеждали в соревновании. Можно отметить, что в процессе обучения побеждали только три нейрона. Четвертый нейрон остался мертвым (он не
победил ни разу) и не настроился ни на одну категорию векторов.
При значении коэффициента обучения   0,05 после 320 обучающих циклов были получены следующие веса трех первых нейронов:
 0,7314
 0,0276
 0,9904
,
,
w1  
w

w

 2  0,9790 2  0,0656 .
0
,
6786






Они отражают три категории входных векторов, на которые было
самостоятельно разделено множество исходных данных.
Серьезной проблемой при обучении WTA остается проблема мертвых нейронов, которые после инициализации ни одного раза не победили в
конкурентной борьбе и остались в состоянии, сформированном в начальный момент времени. Каждый мертвый нейрон уменьшает эффективное
количество элементов, прошедших обучение, и соответственно увеличивает общую погрешность распознавания данных. Для разрешения этой про31
блемы применяется модифицированное обучение, основанное на учете
прошлых побед каждого нейрона и штрафовании (временной дисквалификации) тех из них, которые побеждали чаще всего. Дисквалификация
слишком активных нейронов может осуществляться либо назначением порогового числа побед, по достижении которого наступает обязательная пауза, либо уменьшением фактического значения ui при нарастании количества побед i-го нейрона.
1.3.6 Модель нейрона Хебба
Д. Хебб в процессе исследования нервных клеток [1, 8, 17] заметил,
что связь между двумя клетками усиливается, если обе клетки пробуждаются (становятся активными) в один и тот же момент времени. Если j-я
клетка с выходным сигналом уj связана с i-й клеткой, имеющей выходной
сигнал уi связью с весом wij, то на силу связи этих клеток влияют значения
выходных сигналов yi и уj.
Д. Хебб предложил формальное правило, в котором отразились результаты его наблюдений. В соответствии с правилом Хебба [1, 17], вес wij
нейрона изменяется пропорционально произведению его входного и выходного сигналов
wij  y j yi ,
(1.31)
где  – это коэффициент обучения, значение которого выбирается в интервале (0, 1). Правило Хебба может применяться для нейронных сетей
различных типов разнообразными функциями активации моделей отдельных нейронов.
Структурная схема нейрона Хебба, представленная на рисунке 1.14,
соответствует стандартной форме модели нейрона. Связь с весом wij, способ подбора значения которого задается отношением (1.31), соединяет
входной сигнал уj с сумматором i-го нейрона, вырабатывающего выходной
сигнал уi. Обучение нейрона по правилу Хебба может проводиться как с
учителем, так и без него. Во втором случае в правиле Хебба используется
32
фактическое значение уi выходного сигнала нейрона. При обучении с учителем вместо значения выходного сигнала уi используется ожидаемая от
этого нейрона реакция di. В этом случае правило Хебба записывается в виде
wij  y j di .
(1.32)
Рисунок 1.14 – Структурная схема нейрона Хебба
Правило Хебба характеризуется тем, что в результате его применения веса могут принимать произвольно большие значения, поскольку в
каждом цикле обучения происходит суммирование текущего значения веса
и его приращения wij :
wij (t  1)  wij (t )  wij .
(1.33)
Один из способов стабилизации процесса обучения по правилу Хебба состоит в учете для уточнения веса последнего значения wij, уменьшенного на коэффициент забывания  [1, 8]. При этом правило Хебба представляется в виде
wij (t  1)  wij (t )(1   )  wij .
(1.34)
Значение коэффициента забывания  выбирается, как правило, из
интервала (0, 1) и чаще всего составляет некоторый процент от коэффициента обучения  . Применение больших значений  приводит к тому, что
нейрон забывает значительную часть того, чему он обучился в прошлом.
Рекомендуемые значения коэффициента забывания    0,1 , при которых
нейрон сохраняет большую часть информации, накопленной в процессе
обучения, и получает возможность стабилизировать значения весов на
33
определенном уровне.
В качестве примера рассмотрим обучение без учителя с забыванием
сети, состоящей из четырех нейронов с одноступенчатой нелинейностью,
причем на входы каждого нейрона подаются все четыре компонента вектора х (рисунок 1.15). Примем, что веса поляризации wi0 для i  1, 2, 3, 4 постоянны и равны  0,5 .
Рисунок 1.15 – Структура сети Хебба
Обучающие выборки х представлены в следующем виде:
1 
0 
0 
0 
0 
1 




, x2 
, x3    .
x1 
0 
1
0 
 
 
 
0 
0 
1 
Начальные значения весовых коэффициентов wij заданы единичной
матрицей w, в которой каждый i-й столбец соответствует весам i-го нейрона:
1
0
w
0

0
0 0 0
1 0 0
.
0 1 0

0 0 1
После нескольких циклов обучения при   0,1 и  
34

3
матрица ве-
сов приняла вид:
0
0
0 
0,971
 0
1,029
0
0,899
.
w
 0
0
0,999
0 


0
0
1,029 
 0
В результате обучения связи между четвертым нейроном и вторым
входом, а также между вторым нейроном и четвертым входом были усилены. После сведенного тренинга оба нейрона (второй и четвертый) одинаково реагируют на единичный сигнал, поступающий как на второй, так и
на четвертый вход. Веса первого и третьего нейронов подверглись минимальным изменениям, соответствующим принятым коэффициентам обучения  и забывания  . Сеть самостоятельно (обучение проводилось без
учителя) обрела способность распознавать определенные зависимости
между вторым входом и четвертым нейроном, а также между четвертым
входом и вторым нейроном. По этой причине обучение по Хеббу считается
обучением ассоциативного типа.
При обучении линейного нейрона по правилу Хебба стабилизация не
происходит даже при вводе коэффициента забывания. Выходной сигнал
нейрона, структурная схема которого приведена на рисунке 1.16, определяется выражением
y   w j x j  wT x  xT w .
(1.35)
j
Рисунок 1.16 – Модель линейного нейрона Хебба
Если согласно правилу Хебба
w  xy
35
(1.36)
подставить выражение (1.35) в формулу (1.36) и выбрать для упрощения
  1 , то получим приращение вектора весов w в виде
w  Cw ,
(1.37)
где C  xxT – это матрица корреляции, которая по определению является
симметричной и положительно полуопределенной и, следовательно, имеет
собственные натуральные и неотрицательные значения. При выполнении
операций, описываемых зависимостью (1.37) и повторяемых на положительно полуопределенной матрице C, процесс становится расходящимся, а
значения компонентов вектора w стремятся к бесконечности.
Нестабильность правила Хебба в процессе обучения можно устранить ограничением вектора весов за счет операции ренормализации, т.е.
таким подбором пропорционального коэффициента  на каждом шаге
обучения, чтобы w  w при w  1. Этот метод достаточно сложен и требует дополнительных трудозатрат на этапе обучения.
Е. Ойя [1] модифицировал правило Хебба таким образом, что и без
ренормализации процесса обучения вектор весов самостоятельно стремится к w  1. В соответствии с правилом Ойи уточнение весов производится
согласно выражению
w  y( xi  ywi ) .
(1.38)
Это правило напоминает обратное распространение, поскольку сигнал xi модифицируется обратным сигналом, связанным с выходным сигналом у нейрона. Для каждого отдельно взятого нейрона правило Ойя может
считаться локальным, так как в процессе модификации xi принимается во
внимание только тот весовой коэффициент, значение которого подбирается в текущий момент времени.
Доказательство ограниченности весов, уточняемых по правилу Ойя,
можно получить, заменяя скалярное выражение (1.38) векторной формой,
которая с учетом упрощения   1 и в соответствии с (1.38) приобретает
вид:
36
w  Cw  (wT Cw)w .
(1.39)
Стабильность процесса обучения достигается, когда при достаточно
длительном обучении обеспечивается w  0 , т.е.
Cw  ( wT Cw) w .
(1.40)
Если собственное значение корреляционной матрицы С обозначить
 , а вектор w подбирать как связанный с ней собственный вектор, то по
определению собственного значения имеем Cw  w . Подставляя это выражение в формулу (1.39), получаем:
  wT Cw  wT w   w .
2
(1.41)
Из (1.41) следует, что применение для обучения модифицированного
правила Хебба приводит к ограничению модуля вектора w единицей w  1 ,
обеспечивающему ограниченность значений весовых коэффициентов.
1.3.7 Стохастическая модель нейрона
В отличие от всех детерминированных моделей, определенных ранее
в этом разделе, в стохастической модели [1, 8] выходное состояние нейрона зависит не только от взвешенной суммы входных сигналов, но и от некоторой случайной переменной, значения которой выбираются при каждой
реализации из интервала (0, 1).
В стохастической модели нейрона выходной сигнал уi принимает
значения  1 с вероятностью Pr ob( yi  1)  1 /(1  exp(2ui )) , где ui обозначена взвешенная сумма входных сигналов i-го нейрона, a  – это положительная константа, чаще всего равная 1. Процесс обучения нейрона в
стохастической модели состоит из следующих этапов:
N
 Расчет взвешенной суммы ui   wij x j для каждого нейрона сети.
j 0
 Расчет вероятности того, что yi принимает значение  1 в соответствии с формулой
37
Pr ob( yi  1) 
1
.
1  exp(2 ui )
(1.42)
 Генерация значения случайной переменной R  (0, 1) и формирование выходного сигнала yi  1 , если R  Pr ob( yi  1) или yi  1 , в
противном случае.
 Определенный таким образом процесс осуществляется на случайно выбранной группе нейронов, вследствие чего их состояние модифицируется в соответствии с предложенным правилом.
 После фиксации состояния отобранных нейронов их весовые коэффициенты модифицируются по применяемому правилу уточнения весов.
Например, при обучении с учителем по правилу Видроу-Хоффа адаптация
весов проводится по формуле
wij  x j (di  yi ) .
(1.43)
Доказано [1, 8], что такой способ подбора весов приводит в результате к минимизации целевой функции, определенной как среднеквадратичная погрешность
1 p n (k )
E   (di  yi( k ) ) 2 ,
2 k 1 i 1
рассчитываемая по всем n нейронам и р обучающим выборкам.
1.4 Классификация нейронных сетей
Искусственная нейронная сеть – это искусственно организованная
упорядоченная структура многоканальных связей, объединяющая множество параллельно взаимодействующих простых нейроподобных элементов
[7].
Классификация искусственных нейронных сетей отражена на рисунке 1.17.
38
Рисунок 1.17 – Классификация искусственных нейронных сетей
42
1. По типу входной информации:
‫ ـ‬аналоговые нейронные сети, которые используют информацию в
форме действительных чисел;
‫ ـ‬бинарные нейронные сети. Они оперируют с информацией, представленной в двоичном виде.
2. По топологии:
‫ ـ‬полносвязные нейронные сети (рисунок 1.18 а), в которых каждый
нейрон передает свой выходной сигнал остальным нейронам, в том числе и
самому себе;
‫ ـ‬многослойные нейронные сети (рисунок 1.18 б). В таких сетях
нейроны объединяются в слои. Кроме входного и выходного слоев в многослойной нейронной сети есть один или несколько скрытых слоев;
‫ ـ‬слабосвязные нейронные сети (рисунок 1.18 в). Для сетей данного
типа характерно расположение нейронов в узлах прямоугольной или гексагональной решетки. Каждый нейрон связан с четырьмя (окрестность фон
Неймана), шестью (окрестность Голея) или восемью (окрестность Мура)
своими ближайшими соседями.
а)
б)
в)
Рисунок 1.18 – Архитектуры нейронных сетей.
3. По характеру связей:
‫ ـ‬нейронные сети с прямыми связями (feed forward networks). В таких
43
сетях информация распространяется только в одном направлении от слоя к
слою;
‫ ـ‬нейронные сети с обратным распространением информации (feedback networks). Они характеризуются как прямым, так и обратным распространением информации между слоями нейронной сети.
4. По структуре:
‫ ـ‬гомогенные (однородные) нейронные сети состоят из нейронов одного типа с единой функцией активации;
‫ ـ‬гетерогенные нейронные сети имеют нейроны с различными функциями активации.
5. По характеру настройки синапсов:
‫ ـ‬сети с фиксированными связями. В этом случае весовые коэффициенты нейронной сети выбираются сразу, исходя из условия задачи. При
этом
dW
 0 , где W – весовые коэффициенты сети;
dt
‫ ـ‬сети с динамическими связями. Для них в процессе обучения происходит настройка синаптических связей, т.е.
dW
 0.
dt
6. По характеру обучения:
‫ ـ‬с учителем, когда известно выходное пространство решений
нейронной сети;
‫ ـ‬без учителя. В этом случае нейронная сеть формирует выходное
пространство решений только на основе входных воздействий. Такие сети
называются самоорганизующимися;
‫ ـ‬без обучения. К нейронным сетям без обучения относятся вычислительные сети.
7. По методу обучения:
‫ ـ‬нейронные сети с алгоритмом обратного распространения ошибки;
‫ ـ‬нейронные сети с конкурентным обучением;
‫ ـ‬нейронные сети, использующие правило Хебба;
44
‫ ـ‬нейронные сети с гибридным обучением, в которых применяются
различные алгоритмы обучения.
8. По режиму работы:
‫ ـ‬синхронные нейронные сети. В данном случае в каждый момент
времени лишь один нейрон меняет свое состояние;
‫ ـ‬асинхронные нейронные сети. Состояние меняется сразу у целой
группы нейронов, как правило, у всего слоя.
Выбор структуры нейронной сети осуществляется в соответствии с
особенностями и сложностью задачи. Для решения отдельных типов задач
уже существуют оптимальные конфигурации. Если же задача не может
быть сведена ни к одному из известных типов, приходится решать сложную проблему синтеза новой конфигурации. При этом необходимо руководствоваться следующими основными правилами:
 возможности сети возрастают с увеличением числа нейронов сети, плотности связей между ними и числом слоев;
 введение обратных связей наряду с увеличением возможностей
сети поднимает вопрос о динамической устойчивости сети;
 сложность алгоритмов функционирования сети, введение нескольких типов синапсов способствует усилению мощности нейронной сети.
Вопрос о необходимых и достаточных свойствах сети для решения
задач того или иного рода представляет собой целое направление нейрокомпьютерной науки [18-21]. Так как проблема синтеза нейронной сети
сильно зависит от решаемой задачи, дать общие подробные рекомендации
затруднительно. В большинстве случаев оптимальный вариант получается
на основе интуитивного подбора, хотя в литературе приведены доказательства того, что для любого алгоритма существует нейронная сеть, которая
может его реализовать [2].
45
1.5 Единая методика решения задач в нейросетевом логическом
базисе
Основой единой методики решения задач в нейросетевом логическом базисе является методика синтеза алгоритмов адаптации многослойных нейронных сетей. В соответствии с данной методикой были разработаны алгоритмы настройки многослойных нейронных сетей [22]:
 для произвольного режима работы (обучение, самообучение обучение с учителем, имеющим конечную квалификацию и т.д.);
 для широкого класса критериев первичной оптимизации (минимум
средней функции риска, минимум средней функции риска при наличии
ограничений на его составляющие, максимум апостериорной вероятности
и т.д.);
 для широкого класса функционалов вторичной оптимизации;
 для различных методов поиска экстремумов функционалов вторичной оптимизации (градиентный, градиентный с памятью, сочетание
градиентной процедуры со случайным поиском при выборе начальных
условий и т д.);
 для различных структур многослойных нейронных сетей (с произвольным числом слоев нейронов, с полными последовательными перекрестными или обратными связями и т.д.).
Основой построения нейросетевых алгоритмов решения задач являются следующие принципы:
 отказ от известных, излагаемых в документации по нейропакетам
нейросетевых парадигм;
 синтез нейросетевых алгоритмов, адекватных каждой данной поставленной математической задаче;
 синтез нейросетевых алгоритмов, в которых отсутствует навязывание со стороны поставленной задачи структуры настраиваемой нейронной сети, а существует возможность гибкого планового выбора структуры
46
с целью улучшения качества решения задачи.
Под качеством решения задачи понимается точность ее решения и
потенциальная скорость, определяемая, в частности, числом итераций в
процессе адаптации нейронной сети.
Общая методика решения математических задач в нейросетевом логическом базисе впервые была изложена в [23, 24]. Нейросетевые алгоритмы решения задач представляются в единой структуре, определяемой методикой синтеза многослойных нейронных сетей. Данная структура имеет
следующие этапы:
1. Математическая постановка задачи;
2. Геометрическая постановка задачи;
3. Нейросетевая постановка задачи:
3.1. Описание исходных данных;
3.2. Определение входного сигнала х(п) нейронной сети;
3.3. Формирование функционала первичной оптимизации нейронной
сети при решении поставленной задачи;
3.4. Определение выходного сигнала у(п) нейронной сети;
3.5. Определение желаемого выходного сигнала нейронной сети;
3.6. Определение вектора сигнала ошибки нейронной сети при решении задачи;
3.7. Формирование функционала вторичной оптимизации нейронной сети через сигналы в системе;
3.8. Выбор метода поиска экстремума функционала вторично оптимизации нейронной сети при решении поставленной задачи;
3.9. Аналитическое определение преобразования, осуществляемого
нейронной сетью; выбор конкретной структуры нейронной сети;
3.10. Нахождение аналитического выражения для градиента функционала вторичной оптимизации по настраиваемым параметрам;
3.11. Формирование алгоритма настройки нейронной сети при ре47
шении поставленной задачи;
3.12. Выбор начальных условий при настройке нейронной сети;
3.13. Выбор типовых входных сигналов для тестирования процесса
решения поставленной задачи;
3.14. Разработка плана экспериментов.
Перечисленные выше этапы синтеза нейросетевых алгоритмов решения различных математических задач определяют функциональную
схему работы пользователя с пакетом программ (рисунок 1.19).
Входной
сигнал
Выходной
сигнал
Нейронная сеть
Указания
учителя
Формирование функционала вторичной оптимизации
Вычисление ошибок
Вычисление градиента
функционала вторичной
оптимизации
Формирование алгоритма настройки нейронной
сети
Формирование процедуры поиска экстремума
Рисунок 1.19 – Этапы синтеза нейросетевых алгоритмов решения задач
48
Download