Шаг 2.

advertisement
В теории нейронных сетей часто сети с одной и той же базовой
архитектурой носят разные названия. Разница в названиях связана с
различными методами обучения сетей. Сеть, в зависимости от используемого
метода обучения может называться сетью Хебба, однослойным
перцептроном или адалином (Adaline — адаптивный линейный нейрон).
Отличительная особенность адалина - использование для обучения
Дельта-правила. Адалин - частный случай нейронной сети, когда имеется
только один выходной нейрон. Обычно адалин использует биполярные
входные и выходные сигналы.
Обучающее правило минимизирует квадрат разности между входным
сигналом элемента и необходимым значением сигнала на выходе:
; где
Дельта-правило для настройки
изображениях
,
) имеет вид
Адалин
последовательно
-го веса. нейрона (для каждого
обучается
на
всем
множестве
пар (входное изображение, необходимый выходной
сигнал), минимизируя ошибку для всего множества :
Важную роль в правильном и быстром определении весов связей
играет обучающий коэффициент . При больших значениях
процесс
может не сходиться или сходиться к неправильным значениям. При малых
значениях
обучение может слишком затягиваться. Для адалина при
практических вычислениях рекомендуется использовать:
где
- число входов нейрона, включая смещение.
Обучающий алгоритм адалина:
Шаг 1. Задается множество
пар (входное изображение
нейрона
,
).
состоящее из
, необходимый выходной сигнал
Небольшими случайными значениями инициируются веса связей
нейрона:
, задается обучающий коэффициент .
Шаг 2. Пока не соблюдаются условия останова шага 7, выполняются
шаги 3 – 6 итерационного уточнения весов
с последовательным
использованием всех элементов множества .
Шаг 3. Для каждой обучающей пары
шаги 4-6.
выполняются
Шаг 4. Активируется множество входов адалина
Шаг 5. Вычисляется входной сигнал адалина:
Шаг 6. Адаптируются весовые коэффициенты:
Шаг 7. Проверяется условие останова.
Вычисления прекращаются, если в процессе выполнения итерационной
процедуры квадрат разности между входным сигналом элемента и
необходимым значением сигнала на выходе
или сумма модулей всех
изменений весовых коэффициентов
становится меньше некоторой
наперед заданной малой величины .
В противном случае - переход к шагу 2.
В общем случае для
выходных нейронов и обучающего множества
минимизируется сумма квадратов разностей:
или
Дельта-правило для обучения однослойной нейронной сети со многими
биполярными выходными элементами принимает вид:
Download