Для заказа доставки работы воспользуйтесь поиском на сайте

advertisement
Для заказа доставки работы
воспользуйтесь поиском на сайте
http://www.mydisser.com/search.html
Министерство образования и науки, молодежи и спорта Украины
Харьковский национальный университет радиоэлектроники
На правах рукописи
ТИЩЕНКО АЛЕКСЕЙ КОНСТАНТИНОВИЧ
УДК 004.8:004.032.26
ИНТЕЛЛЕКТУАЛЬНЫЙ АНАЛИЗ МНОГОМЕРНЫХ НЕЛИНЕЙНЫХ
ВРЕМЕННЫХ РЯДОВ НА ОСНОВЕ ГЕТЕРОГЕННЫХ НЕЙРОННЫХ
СЕТЕЙ
05.13.23 – системы и средства искусственного интеллекта
Диссертация на соискание ученой степени кандидата технических наук
Научный руководитель
Бодянский Евгений Владимирович
доктор технических наук, профессор
Цей примірник дисертації ідентичний
за змістом з іншими, що подані до
спеціалізованої вченої ради Д64.052.01
Вчений секретар спеціалізованої вченої ради Д64.052.01
Харьков–2012
2
СОДЕРЖАНИЕ
Введение……………………………………………………………………… 4
1 Обзор состояния проблемы и постановка задачи исследования ……… 12
1.1 Нейронные сети встречного распространения……………….…… 12
1.2 Резервуарные вычисления………………………............................... 18
1.2.1 Сети эхо-состояний …………………………………………… 19
1.2.2 Операционные и функциональные аспекты резервуаров..…. 20
1.2.3 Создание и использование резервуаров: стандартная
архитектура и влияние параметров на резервуар………….……… 22
1.3 Нейро-фаззи системы……………………………………………….. 25
1.4 Постановка задачи исследования………………………...………… 27
Выводы по разделу 1……………………………………………...…….. 29
2 Нейро-фаззи сеть встречного распространения в задаче
прогнозирования временных рядов …….............…………………………. 31
2.1 Нео-фаззи-нейрон в задаче прогнозирования…................................ 31
2.2 Архитектура гетерогенной нейронной сети для прогнозирования на
основе слоя нечеткой кластеризации и нейро-нео-фаззи сети
встречного распространения …………………………………………… 36
2.2.1 Метод обучения нейро-нео-фаззи сети …..………………...... 40
2.3 Рекуррентный метод нечеткой кластеризации в нейро-нео-фаззи
сети встречного распространения ……………………………………… 41
2.3.1 Предобработка данных для слоя нечеткой рекуррентной
кластеризации .………………...……………………………………. 42
2.3.2 Рекуррентный метод обучения слоя кластеризации ............... 44
2.4 Адаптивная нео-фаззи прогнозирующая архитектура многомерных
нестационарных временных рядов …………………… 48
2.4.1 Архитектура адаптивного нео-фаззи-предиктора…………... 48
2.4.2 Обучение нео-фаззи-предиктора …………………………….. 50
3
2.4.3 Многомерный нео-фаззи-нейрон …………………………….. 52
Выводы по разделу 2 ………………………………………………......... 54
3 Резервуарные нейро-фаззи сети в задаче прогнозирования временных
рядов ……………………………………………………………..................... 55
3.1 Методы резервуарных ансамблей …………………………………… 55
3.2 Резервуарные ансамбли и комбинирующие модели ……………….. 56
3.3 Методы ранжирования ………………………………………………. 60
3.3.1 Метод экспоненциального ранжирования …………………... 60
3.4 Резервуарные архитектуры для прогнозирования данных ………… 62
Выводы по разделу 3 …………………………………………………… 67
68 4 Сегментация многомерных временных рядов ..........................................
4.1 Сегментация многомерных временных рядов …………………….. 68
4.1.1 Модифицированный метод кластеризации Гата-Гевы …….. 73
4.2 Прогнозирующая архитектура гетерогенной нейронной сети на
основе трехслойной нейронной сети и нео-нейро-фаззи сети встречного
распространения ...................................................................... 78
4.2.1 Архитектура прогнозирующей сети сжатых данных ……...... 79
4.2.2 Обучение прогнозирующей архитектуры сжатых данных …. 82
Выводы по разделу 4 ................................................................................... 86
5 Результаты моделирования и решения практических задач…............… 88
5.1 Моделирование сети встречного распространения ………………… 91
5.2 Решение задачи сегментации медицинских временных рядов ……. 92
5.3 Решение задачи прогнозирования электроэнергетических временных
рядов ............................................................................................. 100
5.4 Моделирование многомерного нео-фаззи-нейрона ………………… 105
Выводы по разделу 5……………………….……………………………... 107
Заключение…………………………………………………………………... 109
Список использованных источников………………………………………. 111
Приложение А. Акты о внедрении………………...……………………….. 126
4
ВВЕДЕНИЕ
Методы интеллектуального анализа и обработки данных находят все более
широкое применение для решения задач науки и техники: они могут применяться
как при обработке результатов научно-технических экспериментов, так и в
медико-биологических, экологических, социологических и других исследованиях.
Многие актуальные задачи не могут быть решены с использованием классических
статистических методов обработки и анализа данных, что требует разработки и
применения более гибких подходов.
Современные методы интеллектуального анализа данных подразумевают
высокие требования к скорости обработки данных в условиях накопления
больших объемов информации. Не стоит забывать о том, что, как правило,
обрабатываемая информация может характеризоваться нелинейным и
нестационарным характером данных.
На сегодняшний день нейронные сети получили широкое распространение
для решения различных задач обработки сигналов, оптимизации, оптимального и
адаптивного управления, распознавания образов, идентификации,
прогнозирования в реальном времени.
Для решения рассматриваемых задач перспективными считаются
нейронные архитектуры, чьи принципы работы основаны на упрощенном
представлении процесса функционирования биологического нейрона. Также
следует заметить, что их можно обучать, а многие процедуры обучения основаны
на статистических принципах.
Большое количество обучаемых параметров обеспечивает нейросетям
гибкость. Для получения эффективного решения задачи становится важным
оптимальный выбор параметров. Поскольку существует большое количество
архитектур нейронных сетей, то можно выбрать наиболее эффективную для
решения конкретной задачи.
При решении многих задач важным моментом является возможность
представления в понятной форме информации о процессе принятия решения,
5
например, в виде набора правил. В подобных случаях системы, сочетающие
нейросетевой подход и нечеткую логику, позволяют расширить круг решаемых
задач.
Актуальность темы. Задача обработки многомерных временных рядов
достаточно часто возникает во многих технических, медико-биологических,
социально-экономических исследованиях, где качество принимаемых решений
существенно зависит от точности синтезируемых прогнозов. Необходимо
отметить, что во многих реальных задачах временные ряды характеризуются
высоким уровнем нелинейности (возможно хаотичности) и нестационарности
своих параметров, наличием нерегулярных трендов, скачков и аномальных
выбросов. Понятно, что традиционные методы анализа временных рядов,
основанные на регрессионном, корреляционном, спектральном и других
подобных подходах, подразумевающих априорное наличие достаточно
представительной выборки наблюдений, оказываются неэффективными.
Альтернативой традиционным статистическим методам может служить
математический аппарат вычислительного интеллекта и, прежде всего,
искусственные нейронные сети и нейро-фаззи-системы, благодаря своим
универсальным аппроксимирующим свойствам. Вместе с тем из
аппроксимирующих свойств вовсе не следуют экстраполирующие, поскольку
учет давней предыстории для построения прогнозирующей модели может
ухудшить качество прогноза. В связи с этим при обработке существенно
нестационарных процессов следует отказаться от процедур обучения, основанных
на обратном распространении ошибок или методе наименьших квадратов и
воспользоваться процедурами, основанными на локальных критериях и
«короткой» памяти типа метода Качмажа-Уидроу-Хоффа. При этом применяемые
методы обучения должны обеспечивать не только высокое быстродействие, но и
фильтрующие свойства для подавления стохастической «шумовой» компоненты в
обрабатываемом сигнале. В связи с этим синтез специализированных
гетерогенных систем вычислительного интеллекта, предназначенных для решения
задач обработки нелинейных многомерных временных рядов в условиях
6
неопределенности и обеспечивающих наряду с высокой скоростью обучения
фильтрацию помех, является весьма интересной и перспективной задачей.
Методы, которые широко применяются сейчас для обработки нелинейных
многомерных временных рядов, имеют ряд недостатков, а именно: радиально-базисная нейронная сеть
подвержена «проклятью размерности», а адаптивная
нейро-фаззи система нечеткого вывода обладает громоздкой архитектурой и
достаточно медленно обучается за счет использования метода обратного
распространения ошибок. А это приводит к увеличению количества нейронов и
количества нечетких правил в базе знаний, откуда следует необходимость
увеличения объема обучающей выборки для настраивания подобной системы. Как
упоминалось выше, нейро-фаззи системы, использующие метод обратного
распространения ошибок, характеризуются низкой скоростью, что делает их
применение при обработке данных в последовательном режиме не очень
удачным. Избежать этих недостатков можно за счет использования гетерогенных
нейронных сетей, объединяющих как теорию искусственных нейронных сетей,
которая позволяет получить универсальные аппроксимирующие свойства и
способность обучаться, так и теорию нечеткой логики, которая дает возможность
наделять систему лингвистической интерпретированностью.
Несмотря на большое количество научных работ, все еще существует задача
обработки многомерных нелинейных временных рядов, вызванная
необходимостью улучшения качества полученных результатов и увеличения
скорости обработки данных. В связи с этим актуальной является задача
разработки методов обработки многомерных временных рядов на основе
гетерогенных нейронных сетей для последовательной обработки многомерных
нелинейных временных рядов, способных функционировать в условиях дефицита
априорной информации и обеспечивающих возможность обработки временных
рядов с короткой и длинной обучающими выборками, а также
характеризующихся повышенной скоростью обучения. В соответствии со всем
сказанным выше работа является актуальной, что и определяет перспективность
получения как теоретических, так и практических знаний.
7
Связь работы с научными программами, планами, темами.
Диссертационная работа выполнена в рамках госбюджетных тем №214 «Синтез
методов обработки информации в условиях неопределенности на основе
самообучения и мягких вычислений» (№ГР 0107U003028) и №245
«Эволюционные гибридные системы вычислительного интеллекта с
изменяющейся структурой для интеллектуального анализа данных» (№ГР
0110U000458), которые выполнялись согласно указу Министерства образования и
науки Украины по результатам конкурсного отбора проектов научных
исследований. В рамках указанных тем соискателем в качестве исполнителя
предложены архитектура прогнозирующей нейро-фаззи сети, которая
основывается на теории резервуарных вычислений, и прогнозирующая
архитектура, которая состоит из слоя нечеткой кластеризации и нейро-нео-фаззи
сети встречного распространения, а также методы обучения таких систем.
Цели и задачи исследования. Целью настоящей диссертационной работы
является разработка архитектур гетерогенных нейронных сетей и методов их
обучения, обладающих высокой скоростью обучения параметров, линейной
зависимостью сигнала выходного слоя сети от синаптических весов скрытого
слоя, а также способные работать в условиях дефицита априорной информации
(короткой выборки) для решения задач обработки многомерных нелинейных
временных рядов.
Достижение поставленной цели осуществляется путем решения следующих
основных задач:
- разработка гетерогенных нейронных архитектур для прогнозирования
многомерных нелинейных временных рядов, основанных на нейронных сетях
встречного распространения и позволяющих повысить скорость прогнозирования
временных рядов;
- разработка гетерогенных нейронных архитектур для прогнозирования
многомерных нелинейных временных рядов, основанных на парадигме
резервуарных вычислений;
- разработка методов обучения предложенных гетерогенных нейронных
8
архитектур;
- разработка нейро-фаззи методов сегментации многомерных временных
рядов;
- имитационное моделирование разработанных методов и архитектур и
решение с их помощью реальных задач.
Объект исследования – процесс интеллектуального анализа и обработки
данных, представленных в числовой форме в виде временных рядов.
Предмет исследования – методы интеллектуального анализа многомерных
нелинейных временных рядов на основе гетерогенных нейронных сетей в
условиях неопределенности.
Методы исследования. Для выполнения исследования используются
следующие методы: теория искусственных нейронных сетей – для анализа и
синтеза новых архитектур гетерогенных нейронных сетей, для
усовершенствования методов их обучения; теория вычислительного интеллекта и
мягких вычислений – для определения методологических основ и контекста
исследования; теория нечеткой логики – для построения гибридных нечетких
систем; интеллектуальный анализ данных – для нахождения скрытых
зависимостей в информации; имитационное моделирование – для определения
эффективности применения разработанных систем.
Научная новизна полученных результатов:
1. Впервые предложена архитектура гетерогенной нейронной сети для
прогнозирования данных, состоящая из слоя нечеткой кластеризации и нейро-нео-фаззи сети
встречного распространения, которая характеризуется
повышенным быстродействием и улучшенными аппроксимирующими
свойствами, что позволяет обрабатывать нелинейные временные ряды
произвольной природы в условиях неопределенности, а также предложен метод
ее обучения.
2. Впервые введена многомерная модификация нео-фаззи-нейрона,
обладающая улучшенными аппроксимирующими свойствами, и методы его
обучения, характеризующиеся простотой реализации, что позволяет обеспечить
9
меньшую вычислительную сложность путем существенного сокращения
количества функций принадлежности.
3. Впервые предложена архитектура нейро-фаззи сети на основе теории
резервуарных вычислений, которая характеризуется повышенной скоростью
настройки параметров обучения и точностью прогноза временного ряда, а также
метод ее обучения, отличающийся простотой реализации, что позволяет
существенно улучшить аппроксимирующие и экстраполирующие свойства
системы для обработки нелинейных временных рядов в условиях
неопределенности.
4. Усовершенствована архитектура нейро-компрессора данных на основе
многослойного персептрона «бутылочное горлышко» за счет присоединения к
сети-компрессору нейро-нео-фаззи сети встречного распространения, что
позволило осуществлять прогнозирование временных рядов пониженной
размерности без потери внутренних зависимостей хранимых данных.
5. Усовершенствован метод сегментации многомерных временных рядов,
основанный на методе нечеткой кластеризации Гата-Гевы путем специальной
настройки центроидов, что позволяет осуществлять сегментацию многомерных
временных рядов в режиме online.
Практическое значение полученных результатов. Предложенные в
работе методы и архитектуры гетерогенных нейронных сетей для обработки
многомерных временных рядов в условиях априорной неопределенности,
основанные на нейросетевых и нейро-фаззи методах и архитектурах, доведены до
программной реализации, что позволило автоматизировать процесс обработки
многомерных часовых рядов для решения задач прогнозирования, компрессии и
сегментации. Предложенные методы и архитектуры, положенные в основу
разработанных программных модулей, дали возможность повысить скорость
обработки данных в задачах прогнозирования в режиме их последовательной
обработки и высокую точность определения моментов изменения свойств в
задачах сегментации, что подтвердило целесообразность исследования для
решения практических задач.
10
Результаты диссертационной работы внедрены в ООО «НВП «Энергобуд»,
г. Харьков, при решении задач прогнозирования потребления электроэнергии в
автоматизированных системах диспетчерского управления, что позволило
повысить точность прогнозирования по сравнению с широко применяемыми
методами прогнозирования и снизить материальные потери, возникающие
вследствие погрешностей прогнозирования, что и подтверждено
соответствующим актом внедрения. Также была решена задача сегментирования
данных электрокардиограмм среди пациентов ООО «Небосвод», г. Харьков, с
целью прогнозирования возникновения нарушений сердечного ритма у больных
гипертонической и ишемической болезнями сердца, а также с целью
соответствующей корректировки действий медперсонала при оказании
неотложной медицинской помощи соответствующим группам больных, что и
подтверждено соответствующим актом внедрения.
Научные положения, выводы и рекомендации, изложенные в диссертации,
были использованы при подготовке курсов «Нейросетевые методы
вычислительного интеллекта» и «Интеллектуальный анализ данных», которые
читаются студентам-магистрантам специальности «Системы искусственного
интеллекта», а также в научно-исследовательских работах Харьковского
национального университета радиоэлектроники, что подтверждается
соответствующими актами.
Личный вклад соискателя. Основные положения и результаты работы
были получены автором лично. В публикациях, написанных в соавторстве, автору
принадлежит: [125] – метод прогнозирования сжатых в результате компрессии
данных; [113] – метод сегментации, базирующийся на методе нечеткой
кластеризации; [72] – архитектура слоя нео-фаззи-нейронов; [93] – архитектура
резервуарной нейро-фаззи сети; [79] – архитектура многомерного нео-фаззи-нейрона; [65] – метод
обучения нейро-нео-фаззи сети; [66] – использование
разных типов функций принадлежности в нео-фаззи-нейронах; [67] –
использование разных типов нечетких кластеризаторов в нейро-фаззи системе;
[92] – архитектура нейро-фаззи сети на базе резервуарных вычислений; [71] –
11
использование рекуррентного метода нечеткой кластеризации в нейро-нео-фаззи
сети; [80] – метод обучения многомерного нео-фаззи-нейрона; [128] – метод
обучения нейро-фаззи предиктора сжатых данных; [129] – увеличение скорости
обработки информации в предикторе сжатых данных; [90] – метод обучения
модифицированного нео-фаззи-нейрона.
Апробация результатов диссертации. Основные результаты
диссертационной работы были представлены и обсуждены на: 13-м
Международном молодежном форуме “Радиоэлектроника и молодежь в XXI
веке” (Харьков, 2009), 16-й Международной конференции по автоматическому
управлению “Автоматика” (Черновцы, 2009), Международных научных
конференциях «Интеллектуальные системы принятия решений и проблемы
вычислительного интеллекта» (Евпатория, 2009, 2010, 2011), 5-й Международной
школе-семинаре «Теория принятия решений» (Ужгород, 2010), Международных
научно-практических конференциях «Информационные технологии и
информационная безопасность в науке, технике и образовании “ИНФОТЕХ”»
(Севастополь, 2009, 2011), 28-й, 29-й, 30-й, 31-й Научно-технических
конференциях «Моделирование» (Киев, 2009, 2010, 2011, 2012), 4-й, 5-й
Международных научно-технических конференциях «Современные
компьютерные системы и сети: разработка и использование» (Львов, 2009, 2011).
Публикации. Основные положения диссертационной работы
опубликованы в 19 научных трудах, в том числе в 5 статьях (среди которых 2
статьи в журналах и 3 в сборниках научных статей), вошедших в перечень
специализированных научных изданий Украины по техническим наукам, в 14
публикациях в сборниках трудов международных научных конференций и
семинаров.
ЗАКЛЮЧЕНИЕ
В диссертационной работе представлены результаты, являющиеся в
соответствии с поставленной целью решениями актуальной научно-технической
задачи повышения эффективности обработки многомерных нелинейных
временных рядов за счет разработки интеллектуальных методов обработки
информации на основе гетерогенных нейронных сетей. Автором получены такие
научные и практические результаты.
1. Новая архитектура гетерогенной нейронной сети для прогнозирования
данных, которая характеризуется повышенным быстродействием и улучшенными
аппроксимирующими свойствами, на основе слоя нечеткой кластеризации и
нейро-нео-фаззи сети встречного распространения. Это позволяет обрабатывать
нелинейные временные ряды произвольной природы в условиях
неопределенности, а также предложен метод ее обучения.
2. Новая многомерная модификация нео-фаззи-нейрона с улучшенными
аппроксимирующими свойствами, а также синтезированы методы его обучения,
характеризующиеся простотой реализации. Это позволяет обеспечить меньшую
вычислительную сложность путем существенного сокращения количества
функций принадлежности.
3. Новая архитектура нейро-фаззи сети на основе теории резервуарных
вычислений с повышенной скоростью настройки параметров обучения и
точностью прогноза временного ряда. Синтезирован метод ее обучения. Это
позволяет существенно улучшить аппроксимирующие и экстраполирующие
свойства системы для обработки нелинейных временных рядов в условиях
неопределенности.
4. Усовершенствована архитектура нейро-компрессора данных за счет
сокращения объема обучающей выборки в условиях ограниченного количества
данных, которая характеризуется способностью обрабатывать временные ряды
пониженной размерности без потери внутренних зависимостей хранимых
данных.
110
5. Усовершенствован метод сегментации многомерных временных рядов на
основе метода нечеткой кластеризации Гата-Гевы. Предложенный метод
отличается процедурой настройки центроидов специального вида и
характеризуется способностью определять моменты изменений свойств
многомерных временных рядов в режиме online.
6. Проведенное имитационное моделирование предложенных моделей и
методов показало их преимущества по сравнению с существующими методами в
задачах обработки многомерных временных рядов. Решены актуальные
практические задачи обработки многомерных нелинейных временных рядов.
Результаты исследований внедрены в ООО «НВП «Энергобуд», г. Харьков, и в
ООО «Небосвод», г. Харьков, что подтверждено соответствующими актами.
111
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ
1. Hecht-Nielsen, R. Counterpropagation Networks [Текст] / R. Hecht-Nielsen //
Proc. Int. Conf. on Neural Networks. – San Diego, CA: SOS Printing, 1987. – Vol. 2. –
P. 19 – 32.
2. Hecht-Nielsen, R. Counterpropagation Networks [Текст] / R. Hecht-Nielsen //
Applied Optics. – Boston: Addison-Wesley Longman Publishing Co., 1987. – Vol. 26,
No. 23. – P. 4979 – 4984.
3. Hecht-Nielsen, R. Application Counterpropagation Networks [Текст] / R.
Hecht-Nielsen // Neural Networks. – N.J.: IEEE Press Piscataway, 1988. – Vol. 1. – P.
131-139.
4. Rojas, R. Neural Networks. A Systematic Introduction [Текст] / R. Rojas. –
Berlin: Springer-Verlag, 1996. – 502 p.
5. Tsoukalas, L. H. Fuzzy and Neural Approaches in Engineering [Текст] / L. H.
Tsoukalas, R. E. Uhrig. – N.Y.: John Wiley & Sons, 1997. – 587 p.
6. Karayiannis, N. B. Fast Learning Algorithm for Neural Networks [Текст] /
N. B. Karaiannis, A. N. Venetsanopoulos // IEEE Trans. on Circuits and Systems. –
N.Y.: IEEE Press Piscataway, 1992. – Vol. 39, No. 7. – P. 453-474.
7. Jaeger, H. The “Echo State” Approach to Analysing and Training Recurrent
Neural Networks [Текст] / H. Jaeger // Technical Report. – Berlin: German National
Research Center for Information Technology, 2001. – 54 p.
8. Maass, W. A New Approach Towards Vision Suggested by Biologically
Realistic Neural Microcircuit Models [Текст] / W. Maass, R.A. Legenstein, H.
Markram // Proc. of the 2nd Workshop on Biologically MotivatedComputer Vision,
Lecture Notes in Computer Science. – Berlin: Springer, 2002. – P. 124-132.
9. Tong, M.H. Learning Grammatical Structure with Echo State Networks [Текст]
/ M.H. Tong, A.D. Bickett, E.M. Christiansen, G.W. Cottrell // Neural Networks. – Vol.
20, No. 3. – Oxford: Elsevier Science Ltd., 2007. – P. 424–432.
10. Burgsteiner, H. Training Networks of Biological Realistic Spiking Neurons for
Real-time Robot Control [Текст] / H. Burgsteiner // Proceedings of the 9th International
112
Conference on Engineering Applications of Neural Networks. – Lille, France, 2005. –
P. 129–136.
11. Jaeger, H. Short Term Memory in Echo State Networks [Текст] / H. Jaeger //
Technical Report. – Berlin: German National Research Center for Information
Technology, 2001. – 37 p.
12. Maass, W. Fading Memory and Kernel Properties of Generic Cortical
Microcircuit Models [Текст] / W. Maass, T. Natschläger // Journal of Physiology. –
Vol. 98, No. 4. – Orlando: Academic Press, 2004. – P. 315–330.
13. Joshi, P. Movement Generation and Control with Generic Neural Microcircuits
[Текст] / P. Joshi, W. Maass // Neural Computation. – Oxford: MIT Press, 2005. – Vol.
17, No. 8 – P. 1715 - 1738.
14. Burgsteiner, H. On Learning with Recurrent Spiking Neural Networks and
Their Applications to Robot Control with Real-world Devices [Текст]: PhD thesis / H.
Burgsteiner. – Graz University of Technology, 2005. – 118 p.
15. Jaeger, H. Reservoir Riddles: Suggestions for Echo State Network Research
[Текст] / H. Jaeger // Proceedings of the International Joint Conference on Neural
Networks. – N.Y.: Springer-Verlag, 2005. – P. 1460–1462.
16. Hertzberg, J. Learning to Ground Fact Symbols in Behavior-based Robots
[Текст] / J. Hertzberg, H. Jaeger, F. Schönherr // Proceedings of the 15th European
Conference on Artificial Intelligence. – Amsterdam: Elsevier Science Publishers B.V.,
2002. – P. 708–712.
17. Oubbati, M. Velocity Control of An Omnidirectional Robocup Player with
Recurrent Neural Networks [Текст] / M. Oubbati, P. Levi, M. Schanz, T. Buchheim //
Proceeding of the Robocup Symposium. – Berlin-Heidelberg: Springer-Verlag, 2005. –
P. 691–701.
18. Plöger, P.G. Echo State Networks for Mobile Robot Modeling and Control
[Текст] / P.G. Plöger, A. Arghir, T. Günther, R. Hosseiny // RoboCup 2003: Robot
Soccer World Cup VII. – Berlin-Heidelberg: Springer-Verlag, 2004. – P. 157–168.
19. Salmen, M. Echo State Networks Used for Motor Control [Текст] / M. Salmen,
P.G. Plöger // Proceedings of the 2005 IEEE International Conference on Robotics and
113
Automation. – N.J.: IEEE Press Piscataway, 2005. - P. 1953–1958.
20. Jaeger, H. Adaptive Nonlinear System Identification with Echo State Networks
[Текст] / H. Jaeger // Advances in Neural Information Processing Systems. – Berlin:
Springer-Verlag, 2003. – Vol. 15, No. 3. – P. 593–600.
21. Steil, J.J. Memory in Backpropagation-decorrelation O(N) Efficient Online
Recurrent Learning [Текст] / J.J. Steil // Proceedings of the International Conference on
Artificial Neural Networks. – Berlin-Heidelberg: Springer-Verlag, 2005. – P. 649-654.
22. Steil, J.J. Online Stability of Backpropagation-decorrelation Recurrent
Learning [Текст] / J.J. Steil // Neurocomputing. – Amsterdam: Elsevier Science
Publishers B.V., 2006. - Vol. 69, No. 7. – P. 642–650.
23. Wyffels, F. Using Reservoir Computing in a Decomposition Approach for
Time Series Prediction [Текст] / F. Wyffels, B. Schrauwen, D. Stroobandt //
Proceedings of the European Symposium on Time Series Prediction. – Amsterdam:
Elsevier Science Publishers B.V., 2008. – P. 149–158.
24. Crone, S.F. Automatic Modeling and Forecasting with Artificial Neural
Networks - a Forecasting Competition Evaluation [Текст] / S.F. Crone, K.
Nikolopoulos, M. Hibon // Technical report. – Lancaster: Lancaster University
Management School, 2008. – 29 p.
25. Jaeger, H. Harnessing Nonlinearity: Predicting Chaotic Systems and Saving
Energy in Wireless Telecommunication [Текст] / H. Jaeger, H. Haas // Science. – Vol.
308. – N.J.: IEEE Press Piscataway, 2004. – P. 78–80.
26. Stanek, K. Reservoir computing in financial forecasting with committee
methods [Текст]: Ph.D. thesis / K. Stanek. – Kongens Lyngby, 2011. – 126 p.
27. Verstraeten, D. Reservoir Computing: Computation with Dynamical Systems
[Текст]: Ph.D. thesis / D. Verstraeten. – Gent, 2009. – 179 p.
28. Yamakawa, T. A Neo Fuzzy Neuron and Its Applications to System
Identification and Prediction of the System Behavior [Текст] / T. Yamakawa, E.
Uchino, T. Miki, H. Kusanagi // Proc. 2-nd Int. Conf. on Fuzzy Logic and Neural
Networks “IIZUKA-92”. – Iizuka, Japan, 1992. – P. 477-483.
29. Uchino, E. Soft Computing Based Signal Prediction, Restoration, and Filtering
114
[Текст] / E. Uchino, T. Yamakawa // Ed. Da Ruan. Intelligent Hybrid Systems: Fuzzy
Logic, Neural Networks, and Genetic Algorithms. – Boston: Kluwer Academic
Publishers, 1997. – P. 331-349.
30. Miki, T. Analog Implementation of Neo-Fuzzy Neuron and Its On-board
Learning [Текст] / T. Miki, T. Yamakawa // Ed. N.E. Mastorakis. Computational
Intelligence and Applications. – Piraeus: WSES Press, 1999. – P. 144-149.
31. Sugeno, M. An Introductory Survey of Fuzzy Control [Текст] / M. Sugeno //
Information Sciences. – N.Y.: ACM Press, 1985. – Vol. 36, No. 3. – P. 59-83.
32. Haykin, S. Neural Networks. A Comprehensive Foundation [Текст] / S.
Haykin. – Upper Saddle River, N.J.: Prentice Hall, Inc., 1999. – 842 p.
33. Howlett, R.J. Radial basis functions networks. Recent developments in theory
and applications [Текст] / R.J. Howlett, L.C. Jain. − Berlin: Springer, 2001. − 318 p.
34. Howlett, R.J. Radial basis functions networks. New advances in design [Текст]
/ R.J. Howlett, L.C. Jain. − Berlin: Springer. – 2001. − 360 p.
35. Chen, S. Recursive hybrid algorithm for nonlinear system identification using
radial basis functions networks [Текст] / S. Chen, S.A. Billings, P.M. Grant // Int. J.
Control. − 1992. − Vol. 55, No. 5. − P. 1051–1070.
36. Schilling, R.J. Approximation of Nonlinear Systems with Radial Basis
Function Neural Networks [Текст] / R.J. Schilling, J.J. Carroll, A.F. Al-Ajlouni // IEEE
Trans. on Neural Networks. − N.J.: IEEE Press Piscataway, 2001. − Vol. 12, No. 1. −
P. 1–15.
37. Abe, S. Neural Networks and Fuzzy Systems [Текст] / S. Abe. − Boston:
Kluwer Academic Publishers, 1997. − 258 p.
38. Ruan, D. Intelligent Hybrid Systems: Fuzzy Logic, Neural Networks, and
Genetic Algorithms [Текст] / D. Ruan. − Boston: Kluwer Academic Publishers, 1997.
− 354 p.
39. Jang, J.-S.R. Functional Equivalence Between Radial Basis Function Networks
and Fuzzy Inference Systems [Текст] / J.-S.R. Jang, C.-T. Sun // IEEE Trans. on Neural
Networks. – N.J.: IEEE Press Piscataway, 1993. – Vol. 4, No. 1. – P. 156-159.
115
40. Wang, L.X. Fuzzy Systems Are Universal Approximators [Текст] / L.X. Wang
// Proc. 1st
IEEE Conf. on Fuzzy Systems. – San Diego, 1992. – P. 1163-1169.
41. Park, J. Universal approximation using radial-basis-function network [Текст] /
J. Park, I.W. Sandberg // Neural Computation. – 1991. – Vol. 3. – P. 246-257.
42. Girosi, F. Networks and the Best Approximation Property [Текст] / F. Girosi,
T. Poggio // A.I. Memo. − Cambridge: Massachusetts Institute of Technology, 1989. −
Vol. 45, No. 1164. − P. 1–16.
43. Kosko, B. Fuzzy Systems as Universal Approximators [Текст] / B. Kosko //
Proc. 1-st IEEE Conf. on Fuzzy Systems (FUZZ–92). San Diego, CA, Mar. 1992. −
San Diego, CA, 1992. − P. 1153–1162.
44. Nauck, D. A Neuro-Fuzzy Approach to Obtain Interpretable Fuzzy Systems for
Function Approximation [Текст] / D. Nauck, R. Kruse // Proc. IEEE Int. Conf. on
Fuzzy Systems. − Anchorage, Al, 1998. − Vol. 2. − P. 1106–1111.
45. Leu, Y.-G. Nonlinear System Modeling Using GA-based B-spline Membership
Fuzzy-Neural Networks [Текст] / Y.-G. Leu // 2nd International Conference on
Autonomous Robots and Agents. - Palmerston North, New Zealand, 2004. – P. 124-129.
46. Yiu, K.F.C. Nonlinear System Modeling via Knot-Optimizing B-Spline
Networks [Текст] / K.F.C. Yiu, S. Wang, K.L. Teo, A.C. Tsoi // IEEE Trans. on Neural
Networks. – N.J.: IEEE Press Piscataway, 2001. – Vol. 12, No. 5. – P. 1013-1022.
47. Figueiredo, M. Unsupervised Contour Representation and Estimation Using B-splines and a Minimum
Description [Текст] / M. Figueiredo, J. Leitao, A. K. Jain //
IEEE Transactions on Image Processing. – N.J.: IEEE Press Piscataway, 2000. – Vol. 9,
No. 6. – P. 1075-1087.
48. Hlavachova, K. Placing Spline Knots in Neural Networks Using Splines as
Activation Functions [Текст] / K. Hlavachova, M. Verleysen // Neurocomputing. –
Amsterdam: Elsevier Science Publishers B.V., 1997. – Vol. 17. – P. 159–166.
49. dos Santos Coelho, L. Nonlinear Identification Using a B-spline Neural
Network and Chaotic Immune Approaches [Текст] / L. dos Santos Coelho, M. Wicthoff
116
Pesso // Mechanical Systems and Signal Processing. – Amsterdam: Elsevier Science
Publishers B.V., 2009. – Vol. 23. – P. 2418–2434.
50. dos Santos Coelho, L. B-spline Neural Network Design Using Improved
Differential Evolution for Identification of an Experimental Nonlinear Process [Текст] /
L. dos Santos Coelho, F. A. Guerra // Applied Soft Computing. – Amsterdam: Elsevier
Science Publishers B.V., 2008. – Vol. 8, No. 4. – P. 1513–1522.
51. Jin, H. Fault Detection of Redundant Systems Based on B-spline Neural
Network [Текст] / H. Jin, C.W. Chan, H.Y. Zhang, W.K. Yeung // Proceedings of
American Control Conference. – Vol. 2. – Seattle, USA, 2000. – P. 1215–1219.
52. Cong, S. An improved B-spline fuzzy-neural network controller [Текст] / S.
Cong, R. Song // Proceedings of the Third World Congress on Intelligent Control and
Automation. – Hefei, PR China, 2000. – Vol. 3. – P. 1713–1717.
53. Wang, C.-H. Fuzzy B-Spline Membership Function (BMF) and its
Applications in Fuzzy-Neural Control [Текст] / C.-H. Wang, W.-Y. Wang, T.-T. Lee,
P.-S. Tseng // IEEE Transactions on Systems, Man and Cybernetics. – N.Y.: IEEE Press
Piscataway, 1995. – Vol. 25, No. 5. – P. 841-851.
54. Palit, A.K. Computational Intelligence in Time Series Forecasting: Theory and
Engineering Applications [Текст] / A.K. Palit, D. Popovic. – London: Springer-Verlag
London Limited, 2005. – 382 p.
55. Тищенко, А.К. Об одном алгоритме обучения нейронных сетей
встречного распространения [Текст] / А.К. Тищенко // Моделювання: зб. наук.
праць XXVIII наук.-техн. конф. – Київ, 2009. – C. 16.
56. Jang, J.-S.R. Neuro-Fuzzy and Soft Computing. A Computational Approach to
Learning and Machine Intelligence [Текст] / J.-S.R. Jang, C.-T. Sun, E. Mizutani. –
Upper Saddle River, N.J.: Prentice Hall, Inc., 1997. – 614 p.
57. Zhang, Z. Fuzzy Generalization of the Counter-Propagation Neural Network: a
Family of Soft Competitive Basis Function Neural Networks [Текст] / Z. Zhang , N.
Zheng , T. Wang // Soft Computing. – Berlin: Springer-Verlag, 2001. – Vol. 5, No. 6. –
P. 440–450.
58. Tsao, E.C.-K. Fuzzy Kohonen Clustering Networks [Текст] / E.C.-K. Tsao,
117
J.C. Bezdek, N.R. Pal // Pattern Recognition. – N.Y.: Plenum Press, 1994. – Vol. 5, No.
27. – P. 757–764.
59. Looney, C.G. A Fuzzy Clustering and Fuzzy Merging Algorithm [Текст] /
C.G. Looney. – Reno, NV, 1999. – 24 p.
60. Bezdek, J.C. Pattern Recognition with Fuzzy Objective Function Algorithms
[Текст] / J.C. Bezdek. – N.Y.: Plenum Press, 1981. – 272 p.
61. Vuorimaa, P. Fuzzy self-organizing maps [Текст] / P. Vuorimaa // Fuzzy Sets
and Systems. − 1994. − Vol. 66. − P. 223–231.
62. Pascual-Marqui, R.D. Smoothly distributed fuzzy c-means: a new self-organizing map [Текст] / R.D. PascualMarqui, A.D. Pascual-Montano, K. Kochi, J.M.
Caraso // Pattern Recognition. − 2001. − Vol. 34. − P. 2395–2402.
63. Hoeppner, F. Fuzzy Cluster Analysis: Methods for Classification, Data
Analysis and Image Recognition [Текст] / F. Hoeppner, F. Klawonn, R. Kruse, T.
Runkler. − Chichester: John Wiley & Sons, 1999. − 300 p.
64. Тищенко, А.К. Нейро-фаззи сеть встречного распространения и алгоритм
ее обучения [Текст] / А.К. Тищенко // Радиоэлектроника и молодежь в XXI веке:
сб. науч. трудов по материалам 13-го межд. мол. форума. – Харьков: ХНУРЭ,
2009. – Ч.2. – C. 20.
65. Бодянский, Е.В. Архитектура нейро-нео-фаззи сети и алгоритм ее
обучения [Текст] / Е.В. Бодянский, Е.В. Горшков, А.К. Тищенко // Інтелектуальні
системи прийняття рішень та проблеми обчислювального інтелекту: зб. наук.
праць за матеріалами міжн. наук. конф. – Херсон: ХНТУ, 2009. – Т.2. – С. 239-243.
66. Бодянский, Е.В. Искусственная нейронная сеть встречного
распространения на нео-фаззи-нейронах [Текст] / Е.В. Бодянский, Е.В. Горшков,
А.К. Тищенко // Автоматика – 2009: зб. наук. праць за матеріалами 16 міжн. конф.
з автоматичного управління. – Чернівці: Книги-XXI, 2009. – С. 387-389.
67. Бодянский, Е.В. Нейро-фаззи-система, основанная на нео-фаззи-нейронах
и процедуре нечеткой кластеризации [Текст] / Е.В. Бодянский, Е.В. Горшков, А.К.
Тищенко // Информационные технологии и информационная безопасность в
118
науке, технике и образовании: сб. науч. трудов по материалам междунар. науч.-практ. конф. –
Севастополь: Изд-во СевНТУ, 2009. – С. 207-209.
68. Mandic, D.P. Recurrent Neural Networks for Prediction [Текст] / D.P. Mandic,
J.A. Chambers. – Chichester: John Wiley & Sons, 2001. – 285 p.
69. Эйкхофф, П. Основы идентификации систем управления [Текст] / П.
Эйкхофф. – М.: Мир, 1975. – 683 с.
70. Kasparian, V. Davidson Least Squares-Based Learning Algorithm for
Feedforward Neural Networks [Текст] / V. Kasparian, C. Batur, H. Zhang, J. Padovan //
Neural Networks. − Oxford: Elsevier Science Ltd., 1994. − Vol. 7, No. 4. − P. 661–
670.
71. Тищенко, А.К. Гибридная нейро-нео-фаззи сеть с нечетким рекурсивным
алгоритмом кластеризации [Текст] / А.К. Тищенко, М.З. Стольникова // Теорія
прийняття рішень: зб. наук. праць за матеріалами V міжнар. школи-семінару. –
Ужгород: УжНУ, 2010. – С. 218-219.
72. Тищенко, А.К. Рекуррентный алгоритм нечеткой кластеризации в нейро-нео-фаззи сети встречного
распространения [Текст] / А.К. Тищенко, И.П. Плисс //
Збірник наукових праць Харківського університету Повітряних Сил. – Харків,
ХУПС, 2012. – Вип. 3(32). – С. 126-129.
73. Pau L.F. Failure Diagnosis and Performance Monitoring. – N.Y.:Marcel
Dekker, 1981. – 448 p.
74. Бодянский, Е.В. Адаптивный фильтр-предиктор многомерных
существенно нестационарных временных рядов [Текст] / Е.В. Бодянский, О.А.
Романюк, О.С. Удовенко // Системи обробки інформації. – Харків, 2009. – Вип. 4
(78). – С. 23-28.
75. Bodyanskiy, Ye. An Adaptive Learning Algorithm for a Neuro-Fuzzy Network
[Текст] / Ye. Bodyanskiy, V. Kolodyazhniy, A. Stephan // Ed. B. Reusch.
Computational Intelligence. Theory and Applications. – Berlin-Heidelberg-New-York:
Springer, 2001. – P. 68-75.
76. Bodyanskiy, Ye. An Adaptive Learning Algorithm for a Neo Fuzzy Neuron
[Текст] / Ye. Bodyanskiy, I. Kokshenev, V. Kolodyazhniy // Proc. 3rd
Int. Conf. of
119
European Union Society for Fuzzy Logic and Technology (EUSFLAT 2003). – Zittau,
Germany, 2003. – P. 375-379.
77. Руденко, О.Г. Адаптивный алгоритм прогнозирования случайных
последовательностей [Текст] / О.Г. Руденко, Е.В. Бодянский, И.П. Плисс //
Автоматика. – Харьков, 1979. - №1. – С. 51-54.
78. Caines, P.E. Adaptive Сontrol with Recursive Identification for Stochastic
Linear Systems [Текст] / P.E. Caines, S. Lafortune // IEEE Trans. on Autom. Control. –
N.J.: IEEE Press Piscataway, 1984. – Vol. 29, No. 4. – Р. 312-321.
79. Бодянский, Е.В. Адаптивный нео-фаззи-предиктор многомерных
нестационарных временных рядов [Текст] / Е.В. Бодянский, А.К. Тищенко //
Системи обробки інформації. - Харків, ХУПС, 2012. - Вип. 3(101). - Т.2. – С. 8-12.
80. Бодянский, Е.В. Адаптивный предиктор на основе многомерного нео-фаззи-нейрона [Текст] / Е.В.
Бодянский, А.К. Тищенко // Інтелектуальні системи
прийняття рішень і проблеми обчислювального інтелекту: зб. наук. праць за
матеріалами міжнар. наук. конф. – Херсон: ХНТУ, 2011. – Т.1. – С. 321-324.
81. Perrone, M.P. When networks disagree: ensemble methods for hybrid neural
networks / M.P. Perrone, L.N. Cooper // Artificial Neural Networks for Speech and
Vision. – 1993. – P. 126-142.
82. Jacobs, R.A. Adaptive mixtures of local experts / R.A. Jacobs // Neural
Computation. – 1991. – Vol. 3(1). – P. 79-87.
83. Jordan, M. I. Hierarchical mixtures of experts and the EM algorithm / M.I.
Jordan, R.A. Jacobs // Neural Computation. – 1994. – Vol. 6(2). – P. 181-214.
84. Babinec, S. Gating echo state neural networks for time series forecasting / S.
Babinec, J. Pospichal // Proc. of the 15th international conference on Advances in
neuro-information processing ICONIP 2008, Part I. – Springer-Heidelberg, 2009. – P.
200-207.
85. Xue, Y. Decoupled echo state network with lateral inhibition / Y. Xue, L.
Yang, S. Haykin // IEEE Transactions on Neural Networks. – 2007. – Vol. 4. – P. 165-179.
120
86. Freund, Y. Experiments with a new boosting algorithm / Y. Freund, R.E.
Shapire // Thirteenth International Conference on Machine Learning. – 1996. – P. 148-156.
87. Friedman, J.H. Greedy function approximation: a gradient boosting machine /
J.H. Friedman // Annals of Statistics. – 2001. –Vol. 29(5). – P. 1189-1232.
88. Webb, R.Y. Multi-layer corrective cascade architecture for on-line predictive
echo state networks / R.Y. Webb // Applied Artificial Intelligence. – 2008. –Vol. 22. –
P. 811-823.
89. Alexandre, L.A. Reservoir Size, Spectral Radius and Connectivity in Static
Classification Problems [Текст] / L.A. Alexandre, M.J. Embrechts // ICANN 2009, Part
I, LNCS 5768 [Eds. by C. Alippi]. – Berlin-Heidelberg: Springer-Verlag, 2009. – Р.
1015-1024.
90. Bodyanskiy, Ye. Neo-Fuzzy Forecasting Echo State Network [Текст] / Ye.
Bodyanskiy, O. Tyshchenko // Сучасні комп’ютерні системи та мережі: розробка та
використання: зб. наук. праць за матеріалами 4-ї міжнар. наук.-техн. конф. –
Львів: НВФ «Українські технології», 2009. – С. 95-96.
91. Тищенко, А.К. Резервуарная архитектура нейро-фаззи-сети в задачах
прогнозирования [Текст] / А.К. Тищенко // Моделювання: зб. наук. праць за
матеріалами ХХІХ наук.-техн. конф. – Київ, 2010. – С. 38.
92. Бодянский, Е.В. Резервуарная прогнозирующая нейро-фаззи сеть [Текст] /
Е.В. Бодянский, А.К. Тищенко // Інтелектуальні системи прийняття рішень і
проблеми обчислювального інтелекту: зб. наук. праць за матеріалами міжнар.
наук. конф. – Херсон: ХНТУ, 2010. – Т.1. – С. 279-282.
93. Тищенко, А.К. Прогнозирующая нейро-нео-фаззи сеть на основе
резервуарных вычислений [Текст] / А.К. Тищенко, И.П. Плисс // Системи
управління, навігації та зв'язку. - Вип. 1(21). - Т.2. – Київ, 2012. – С. 123-126.
94. Kohonen, T. Self-Organizing Maps [Текст] / T. Kohonen. – Berlin: Springer-Verlag, 1995. – 362 p.
95. Sundaram S. Supervised Learning with Complex-valued Neural Networks
[Текст] / S. Sundaram, N. Sundararajan, R. Savitha // Studies in Computational
121
Intelligence. – Berlin- Heidelberg: Springer-Verlag, 2012. – 168 p.
96. Mueller E. T. Neurocomputing: Learning, Architectures and Modeling [Текст]
/ E. T. Mueller. – N.Y.: Nova Science Pub Incorporated, 2012. – 357 p.
97. Rutkowski, L. Computational Intelligence – Methods and Techniques [Текст] /
L. Rutkowski. – Berlin-Heidelberg: Springer-Verlag, 2008. – 514 p.
98. Pedrycz, W. Advances in Fuzzy Clustering and its Applications [Текст] / W.
Pedrycz, J.S. Oliveira. – Chichester: John Wiley and Sons, 2008. – 434 p.
99. Lughofer, E. Evolving Fuzzy Systems - Methodologies and Applications
[Текст] / E. Lughofer // Studies in Fuzziness and Soft Computing. – Berlin-Heidelberg:
Springer-Verlag, 2011. – 456 p.
100 Miyamoto, S. Algorithms for Fuzzy Clustering: Methods in c-means
Clustering with Applications [Текст] / S. Miyamoto, H. Ichihashi, K. Honda // Studies
in Fuzziness and Soft Computing. – Berlin-Heidelberg: Springer-Verlag, 2008. – 247 p.
101. Xu, R. Clustering [Текст] / R. Xu, D. C. Wunsch // IEEE series on
computational intelligence. – N.Y.: John Wiley and Sons, 2009. – 358 p.
102. Everitt, B. Cluster Analysis [Текст] / B. S. Everitt, S. Landau, M. Leese //
Wiley Series in Probability and Statistics. – Chichester: John Wiley and Sons, 2011. –
346 p.
103. Gan, G. Data Clustering: Theory, Algorithms, and Applications [Текст] / G.
Gan, C. Ma, J. Wu. – Philadelphia, PA: Society for Industrial and Applied
Mathematics, 2007. – 466 p.
104. Yin, Y. Data Mining: Concepts, Methods and Applications in Management
and Engineering Design [Текст] / Y. Yin, I. Kaku, J. Tang // Decision Engineering. –
Berlin-London: Springer-Verlag London Limited, 2010. – 312 p.
105. Bodyanskiy, Ye. Computational Intelligence Techniques for Data Analysis
[Текст] / Ye. Bodyanskiy // Lecture Notes in Informatics. –Bonn: GI, 2005. – Vol. 72. –
P. 15-36.
106. Keogh, E. An Online Algorithm for Segmenting Time Series [Текст] / E.
Keogh, S. Chu, D. Hart, Pazzani M. // IEEE International Conference on Data Mining. –
Washington, D.C.: IEEE Press Piscataway, 2001. – P. 289-296.
122
107. Keogh, E. An Enhanced Representation of Time Series Which Allows Fast
and Accurate Classification, Clustering and Relevance Feedback [Текст] / E. Keogh,
Pazzani M. // 4th
Int. Conf. on Knowledge Discovery and Data Mining. – N.Y.: KDD,
1998. – P. 239–243.
108. Bishop, C.M. Neural Networks for Pattern Recognition [Текст] / C.M.
Bishop. – Oxford: Clarendon Press, 1995. – 482 p.
109. Geva, A.B. Hierarchical-Fuzzy Clustering of Temporal-Patterns and its
Application for Time Series Prediction [Текст] / A.B. Geva // Pattern Recognition
Letters. – Amsterdam: Elsevier, 1999. – Vol. 20, No. 14. – P. 1519-1532.
110. Gath, I. Unsupervised Optimal Fuzzy Clustering [Текст] / I. Gath, A.B. Geva
// IEEE Transactions on Pattern Analysis and Machine Intelligence. – Washington,
D.C.: Computer Society, USA, 1989. – Vol. 11, No. 7. – P. 773–780.
111. Abonyi, J. Cluster Analysis for Data Mining and System Identification
[Текст] / J. Abonyi, B. Feil. – Basel-Boston-Berlin: Birkhauser Verlag AG, 2007. – 319
p.
112. Stephanopoulos, G. Intelligent Systems in Process Engineering: a Review
[Текст] / G. Stephanopoulos, C. Han // Computational Chemical Engineering. – N.Y.:
IEEE Press Piscataway, 1996. – Vol. 20. – P. 743–791.
113. Тищенко, А.К. Сегментация многомерных нестационарных временных
рядов с помощью метода нечеткой кластеризации [Текст] / А.К. Тищенко, И.П.
Плисс // Восточно-Европейский журнал передовых технологий. - Харьков, 2012. Вып. 4/4(58). – С. 24-27.
114. Тищенко, А.К. Нечеткая сегментация временных рядов [Текст] / А.К.
Тищенко // Моделювання: зб. наук. праць за матеріалами XXXI наук.-техн. конф.
– Київ, 2012. – С. 48.
115. Krzanowsky, W.J. Between-Groups Comparison of Principal Components
[Текст] / W.J. Krzanowsky // Journal of American Statistics Association. –
Washington, D.C.: JA Press, 1979. – Vol. 74, No. 367. – P. 703–707.
116. Singhal, A. Matching Patterns from Historical Data Using PCA and Distance
Similarity Factors [Текст] / A. Singhal, D.E. Seborg // Proceedings of the American
123
Control Conference. – Arlington, VA , 2001. – Vol. 2. – P. 1759–1764.
117. Gustafson, D.E. Fuzzy Clustering with Fuzzy Covariance Matrix [Текст] /
D.E. Gustafson, W.C. Kessel // Proceedings of the IEEE Conference on Decision and
Control. – San Diego: IEEE Press Piscataway, 1979. – Vol. 17. – P. 761–766
118. Bezdek, J.C. Optimal Fuzzy Partitions: a Heuristic for Estimating the
Parameters in a Mixture of Normal Distributions [Текст] / J.C. Bezdek, J.C. Dunn //
IEEE Transactions on Computers. – San Diego: IEEE Press Piscataway, 1975. – Vol.
24, No. 8. – P. 835–838.
119. Babuska, R. Improved Covariance Estimation for Gustafson-Kessel
Clustering [Текст] / R. Babuska, P. J. van der Veen, U. Kaymak // IEEE International
Conference on Fuzzy Systems. – Honolulu: Hawaii Press, 2002. – P. 1081–1085.
120. Abonyi, J. Modified Gath-Geva Fuzzy Clustering for Identification of Takagi-Sugeno Fuzzy Models [Текст] /
J. Abonyi, F. Szeifert, R. Babuska // IEEE Systems,
Man and Cybernetics, Part B. – N.J.: IEEE Press Piscataway, USA, 2002. – P. 612–621.
121. Bodyanskiy, Ye. Recursive Fuzzy Clustering Algorithms for Segmentation of
Biological Time Series [Текст] / Ye. Bodyanskiy, Ye. Gorshkov, V. Kolodyazhniy, O.
Shylo // Proc. 13-th East West Fuzzy Coll. 2006. – Zittau/Goerlitz: University of
Applied Sciences (FH), 2006. – P. 130–139.
122. Tipping, M.E. Mixtures of Probabilistic Principal Component Analyzers
[Текст] / M.E. Tipping, C.M. Bishop // Neural Computation. – Cambridge: MIT Press,
1999. – Vol. 11, No. 2. – P. 443–482.
123. Бодянский, Е.В. Искусственные нейронные сети: архитектура,
обучение, применение [Текст] / Е.В. Бодянский, О.Г. Руденко. – Харьков:
ТЕЛЕТЕХ, 2004. – 372 с.
124. Cichocki, A. Neural Networks for Optimization and Signal Processing
[Текст] / A. Cichocki, R. Unbehauen. − Stuttgart: Teubner, 1993. − 544 p.
125. Тищенко, А.К. Предиктор сжатых данных на основе нейро-нео-фаззи
сети встречного распространения [Текст] / А.К. Тищенко, И.П. Плисс, Н.А.
Тесленко // Восточно-Европейский журнал передовых технологий. - Харьков,
2012. - Вып. 3/3(57). – С. 14-17.
124
126. Mackey, M.C. Oscillation and chaos in physiological control systems / M.C.
Mackey, L. Glass // Science. - 197. - 1977. - P. 287-289.
127. Тищенко, А.К. Архитектура нейро-фаззи предиктора
скомпрессированных данных [Текст] / А.К. Тищенко // Моделювання: зб. наук.
праць за матеріалами XXX наук.-техн. конф. – Київ, 2011. – С. 49.
128. Бодянский, Е.В. Архитектура и алгоритм обучения нейро-фаззи
предиктора сжатых данных [Текст] / Е.В. Бодянский, А.К. Тищенко //
Информационные технологии и информационная безопасность в науке, технике и
образовании: сб. науч. трудов по материалам междунар. науч.-практ. конф. –
Севастополь: СевНТУ, 2011. – С. 7-8.
129. Bodyanskiy, Ye. Compressed Data Predictor [Текст] / Ye. Bodyanskiy, O.
Tyshchenko // Сучасні комп’ютерні системи та мережі: розробка та використання:
зб. наук. праць за матеріалами 5-ї міжнар. наук.-техн. конф. – Львів: НВФ
«Українські технології», 2011. – С. 217-219.
130. Arbib, M.A. The Handbook of Brain Theory and Neural Networks [Текст] /
M.A. Arbib. – Madison: Impressions Books and journals Services, 2003. – 1300 p.
131. Hristev, R.M. The ANN Book [Текст] / R.M. Hristev. – N.Y.: GNU Public
Licence, 1998. – 392 p.
132. Бодянский, Е.В. Прогнозирующая нейронная метасеть с
нетрадиционными функциями активации [Текст] / Е.В. Бодянский, А.Н.
Слипченко, Н.А. Тесленко // Автомобильный транспорт. – Харьков, 2003. – 13. –
С. 273-275.
133. Тесленко, Н.А. Алгоритм сжатия информации с помощью нейронной
сети [Текст] / Н.А. Тесленко // Радиоэлектроника и молодежь в XXI веке: 8-й
Международный молодежный форум: тезисы докл. – Харьков, 2004. – Ч.2. – С.
289.
134. Тесленко, Н.А. Алгоритм обучения автоассоциативной искусственной
многослойной нейронной сети [Текст] / Н.А. Тесленко // Бионика интеллекта. –
Харьков: ХНУРЭ, 2004. – №1(61). – С. 103-106.
135. StatLib – Datasets Archive [Электронный ресурс]. – Режим доступа:
125
http://stat.cmu.edu/datasets.
136. Murphy, P. UCI Repository of machine learning databases [Электронный
ресурс] / P.M. Murphy, D. Aha // CA: University of California, Department of
Information and Computer Science. – Режим доступа:
http://www.ics.uci.edu/~mlearn/MLRepository.html.
137. Mandelbrot, B.B. Die fraktale Geometrie der Natur [Текст] / B.B.
Mandelbrot. - Basel: Birkhaeuser Verlag. - 1991. - 491 s.
138. Moon, F.C. Chaotic vibrations [Текст] / F.C. Moon. - New York: John Wiley
and Sons. - 1987. - 309 p.
139. Ott, E. Chaos in Dynamical Systems [Текст] / E. Ott. - Cambridge:
University Press. - 1993. - 492 p.
140. Lorenz, E. Designing Chaotic Models [Текст] / E. Lorenz // Journal of the
Atmospheric Sciences. – 2005. – Vol. 62, No. 5. – P. 1574-1587.
Для заказа доставки работы
воспользуйтесь поиском на сайте
http://www.mydisser.com/search.html
Download