Лекция 4. Представление знаний. Cемантические сети и

advertisement
Министерство образования и науки
Российской Федерации
Рыбинская Государственная Авиационная Технологическая
Академия
Конспект лекций по дисциплине
«Системы искусственного
интеллекта»
Кафедра МПО ЭВС
Осипов Г.С.
1
Оглавление
Предисловие
Лекция 1. Место среди других наук, первые шаги и современные направления искусственного
интеллекта
1.1.
Представление знаний
1.2.
Автоматизация рассуждений
1.3.
Приобретение знаний, машинное обучение и автоматическое порождение гипотез
1.4.
Интеллектуальный анализ данных и обработка образной информации
1.5.
Многоагентные системы, динамические интеллектуальные системы и планирование
1.6.
Обработка естественного языка, пользовательский интерфейс и модели пользователя
1.7.
Нечеткие модели и мягкие вычисления
1.8.
Разработка инструментальных средств
Лекция 2. Формальные языки и формальные системы
2.1.
Язык исчисления предикатов первого порядка
2.2.
Исчисление предикатов первого порядка
2.3.
Формальные и алгебраические системы
2.4.
Интерпретация. Выводимость и истинность
Лекция 3. Представление знаний. Системы, основанные на правилах, или продукционные системы
3.1.
Правила для представления знаний
3.2.
Рабочая память
3.3.
Стратегии управления
3.4.
Разрешение конфликтного множества правил
3.5.
Пример
Лекция 4. Представление знаний. Cемантические сети и системы фреймов
4.1.
Простые и расширенные семантические сети
4.2.
Универсум Эрбрана и семантические сети
4.3.
Неоднородные семантические сети
4.4.
Отношения структурного сходства, асоциативные и каузальные отношения
4.5.
Совместность событий
4.6.
Представление знаний в системах фреймов
Лекция 5. Рассуждения. Автоматизация дедуктивных рассуждений
5.1.
Достоверные и правдоподобные рассуждения
5.2.
5.3.
Автоматизация дедуктивных рассуждений. Поиск доказательств теорем методом
резолюций
Метод резолюций для исчисления высказываний
Лекция 6. Автоматизация дедуктивных рассуждений. Метод резолюций для исчисления предикатов
первого порядка
6.1.
Подстановки
6.2.
Унификация
6.3.
Алгоритм унификации. Примеры
Лекция 7. Правдоподобные рассуждения. Автоматизация индуктивных расуждений
7.1.
Понятие квазиаксиоматической теории
7.2.
ДСМ -- метод индуктивного вывода
2
Лекция 8. Правдоподобные рассуждения. Автоматизация
рассуждений на основе прецедентов
8.1.
Аргументация
8.2.
Алгоритм MIRAGE
8.3.
Рассуждения на основе прецедентов
аргументационных
рассуждений
и
Лекция 9. Методы планирования поведения. Поиск плана в пространстве состояний
9.1.
Планирование как поиск доказательства теорем
9.2.
Планирование в пространстве состояний
Литература
3
Лекция 1. Место среди других наук, первые шаги и современные направления
искусственного интеллекта.
Первые исследования,
относящиеся к искусственному интеллекту были
предприняты почти сразу же после появления первых вычислительных машин в начале
50-х годов 20 века.
Основной целью исследований в искусственном интеллекте является получение
методов, моделей и программных средств, позволяющих
искусственным устройствам
реализовать целенаправленное поведение и разумные рассуждения. Таким образом,
научная дисциплина под названием «искусственный интеллект»
входит в комплекс
компьютерных наук, а создаваемые на основе её результатов технологии относятся к
информационным технологиям.
Особенность задач, к которым следует применять методы этой научной
дисциплины, состоит в том, что в большинстве случаев, до получения результата решения
задачи не известен алгоритм её решения. Алгоритмы решения таких задач являются,
обычно, одним из результатов их решения. Например, алгоритм доказательства теоремы
можно извлечь из её доказательства.
Человек решает задачи такого рода, используя, в числе прочего, свои знания и
компетентность. Это означает, что одним из важнейших направлений искусственного
интеллекта является разработка механизмов переноса компетентности - обучения
искусственных устройств (или, как принято говорить, приобретения знаний). При этом
считается, что результаты решения задач и сам ход решения должны быть транспарентны
– «прозрачны» для человека и допускать объяснение.
Таким образом, важной характеристикой представления результатов и хода
решения задач искусственного интеллекта является их, в значительной степени,
вербальный характер.
Создавая те или иные начальные компьютерные представления и модели,
исследователь или разработчик сравнивает их поведение между собой и с примерами
решения тех же задач специалистом в соответствующей области, модифицирует их на
основе этого сравнения, пытаясь добиться лучшего соответствия результатов. Таким
образом, искусственый интеллект представляет собой экспериментальную науку.
Чтобы модификация программ улучшала результаты их работы, надо иметь
разумные исходные представления и модели. Такие представления и модели доставляют
исследования в области когнитивных наук.
4
Впервые об искусственном интеллекте заговорили в в 1954 году, когда
американский исследователь А.Ньюэлл (A.Newel) решил написать программу для игры в
шахматы. Этой идеей он поделился с аналитиками корпорации «РЭНД» Дж. Шоу (J.Show)
и Г.Саймоном (H.Simon), которые предложили Ньюэллу свою помощь. В качестве
теоретической основы такой программы было решено использовать метод, предложенный
в 1950 году Клодом Шенноном (К. Shannon), основателем теории информации. Точная
формализация этого метода была выполнена Аланом Тьюрингом (Alan Turing). Он же
промоделировал его вручную.
В настоящее время разработка и реализация экспертных систем превратилась в
инженерную
дисциплину.
Научные
же
исследования
сосредоточены
в
ряде
сформировавшихся и формирующихся направлений, некоторые из которых перечислены
ниже.
1. Представление знаний.
Представление
знаний
(knowledge
representation)
-
одно
из
наиболее
сформировавшихся направлений искусственного интеллекта. Традиционно к нему
относилась разработка формальных языков и программных средств для отображения и
описания так называемых когнитивных структур1. Сегодня к представлению знаний
причисляют также исследования по
дескриптивной логике, логикам пространства и
времени, онтологиям.
2. Автоматизация рассуждений
Автоматизация рассуждений, помимо автоматизации дедуктивных рассуждений,
включает: автоматизацию индуктивных рассуждений, автоматизацию рассуждений на
основе прецедентов (case-based reasoning, CBR), на основе аргументации, на основе
ограничений, автоматизацию рассуждений с неопределенностью, рассуждения о
действиях и изменениях, автоматизацию немонотонных рассуждений и др. Остановимся
кратко на некоторых из них.
Рассуждения на основе прецедентов.
Здесь главные проблемы – "фокусировка поиска" на использовании прошлого
опыта,
оценка сходства прецедентов, поиск алгоритмов адаптации прецедентов
и
технологии визуализации.
Структур человеческого сознания, отражающих представление личности о
действительности
1
5
Пусть задано множество прецедентов как множество пар <СЛУЧАЙ, РЕШЕНИЕ>,
множество зависимостей между различными атрибутами СЛУЧАЕВ и РЕШЕНИЙ, а
также целевая проблема ЦЕЛЬ. Для возникающей новой ситуации («нового случая»)
требуется найти пару <НОВЫЙ СЛУЧАЙ, ИСКОМОЕ РЕШЕНИЕ>, которая решает
целевую проблему.
Автоматизация рассуждений на основе ограничений
Наиболее интересны здесь задачи моделирования рассуждений, основанных на
процедурных динамических ограничениях. Они мотивированы сложными актуальными
задачами – например, планированием в реальной обстановке. Решение ищется в области
значений, удовлетворяющих заданные ограничения.
Под задачей удовлетворения ограничений понимается четверка множеств:
множество переменных, множество соответствующих областей переменных, множество
ограничений на переменные и множество отношений над областями. Решением проблемы
удовлетворения ограничений называется набор значений переменных, удовлетворяющих
ограничениям на переменные, такой, что при этом области, которым принадлежат эти
значения, удовлетворяют отношениям над областями.
Задача удовлетворения динамических ограничений есть последовательность задач
удовлетворения ограничений, в которой каждая последующая задача есть ограничение
предыдущей. Эти задачи по смыслу близки задачам динамического программирования.
Они связаны также с интервальной алгеброй.
Немонотонные рассуждения
К немонотонным рассуждениям относятся исследования по логике умолчаний
(default logic), по логике
"отменяемых" (Defeasible) рассуждений, логике программ,
теоретико - аргументационой характеризации логик с отменами, характеризации логик с
отношениями предпочтения, построению эквивалентных множеств формул для логик с
очерчиванием (circumscription) и некоторые другие. Такого рода модели возникают при
реализации индуктивных рассуждений, например, по примерам; связаны они также с
задачами машинного обучения и некоторыми иными задачами. В частности, в задачах
моделирования рассуждений на основе индукции источником первоначальных гипотез
служат примеры. Если некоторая гипотеза Н возникла на основе
N положительных
примеров (например, экспериментального характера), то никто не может дать гарантии,
что в базе данных или в
поле зрения алгоритма не окажется N+1 - й пример,
6
опровергающий гипотезу (или меняющий степень ее истинности). Это означает, что
ревизии должны быть подвержены и все следствия гипотезы H.
Рассуждения о действиях и изменениях
Большая часть работ в этой области посвящена применениям ситуационного исчисления формализма, предложенного Джоном Маккарти в 1968 году для описания действий,
рассуждений о них и эффектов действий. Для преобразования плана поведения робота в
исполняемую программу, достигающую с некоторой вероятностью фиксированной цели,
вводится специальное логическое исчисление, основанное на ситуационной логике. Для
этой логики предложены
варианты реализации на языке
pGOLOG
- версии языка
GOLOG, содержащей средства для введения вероятностей.
Активно исследуются логики действий, применение модальных логик для
рассуждений о знаниях и действиях.
Рассуждения с неопределенностью
В основе таких рассуждений находится использование
байесовского
формализма в
системах правил и сетевых моделях. Байесовские сети – это статистический метод
обнаружения закономерностей в данных. Для этого используется первичная информация,
содержащаяся либо в сетевых структурах
либо в базах данных. Под сетевыми
структурами понимается в этом случае множество вершин и отношений на них,
задаваемое с помощью ребер. Содержательно, ребра интерпретируются как причинные
связи. Всякое множество вершин Z, представляющее все пути между некоторыми двуми
иными вершинами X и Y соответствует условной зависимости между этими двуми
последними вершинами.
Y
X
Z
7
Далее задается некоторое распределение вероятностей на множестве переменных,
соответствующих вершинам этого графа и полученная, но
минимизированная (в
некотором смысле) сеть называется байсовской сетью.
На такой сети можно использовать так называемый байесовский вывод, т.е. для
вычисления вероятностей следствий событий можно использовать (с некоторой натяжкой)
формулы теории вероятностей. Иногда
рассматриваются так называемые гибридные
байесовские сети, с вершинами которых связаны как дискретные, так и непрерывные
переменные. Байесовские
сети часто применяются для моделирования технических
систем.
3. Приобретение знаний, машинное обучение и автоматическое порождение
гипотез.
Работы в области приобретения знаний интеллектуальными системами были и
остаются важнейшим направлением теории и практики искусственного интеллекта.
Целью этих работ является создание методологий, технологий и программных средств
переноса знаний и компетентности в базу знаний системы. При этом в качестве
источников знаний выступают эксперты (т.е. высококвалифицированные специалисты
предметных областей), тексты и данные, например, хранимые в базах данных.
В соответствии с этим, развиваются различные методы приобретения знаний
4. Интеллектуальный анализ данных и обработка образной информации.
Это сравнительно новое направление, основу которого составляют две процедуры:
обнаружение закономерностей в исходной информации и использование обнаруженных
закономерностей для предсказания (прогнозирования). Сюда относят задачи выбора
информативных данных из большой их совокупности, выбора
информативных
характеристик некоторого объекта из более широкого множества его характеристик,
задачи построения модели, позволяющие вычислять значения выбранных информативных
характеристик по значениям других характеристик, и т.п.
Значительную часть этого направления составляют исследования по различным
аспектам распознавания изображений, в частности, с помощью нейросетей (включая
псевдооптические нейросети). Изучаются методы распознавания последовательностей
видеообразов на основе декларативного подхода и извлечения семантически значимой
информации. К этому же направлению принадлежат исследования по графической
технологии программирования в Интернете.
5. Многоагентные системы, динамические интеллектуальные системы и
планирование.
8
Это направление, изучающее интеллектуальные программные агенты и их
коллективы.
Основные
задачи
в
этой
области
таковы:
реализация
переговоров
интеллектуальных агентов и разработка языков для этой цели, координация поведения
агентов, разработка архитектуры языка программирования агентов.
Следует подчеркнуть, что со времени появления агентских технологий
интерес к ним переместился из сферы академических исследований в сферу
коммерческих и промышленных приложений, а идеи и методы агентских технологий
весьма быстро мигрировали из искусственного интеллекта в практику разработки
программного обеспечения и другие вычислительные дисциплины.
С агентскими технологиями тесно связаны задачи планирования поведения, или
ИИ
планирования
-
–
способность
интеллектуальной
системы
синтезировать
последовательность действий для достижения желаемого целевого состояния. Работы по
созданию эффективных методов такого синтеза востребованы и активно ведутся уже
около 30 лет.
Планирование является основой интеллектуального управления, т. е.
автоматического управления автономным целенаправленным поведением программнотехнических систем..
6. Обработка естественного языка, пользовательский интерфейс и модели
пользователя.
Это направление связано с разработкой систем поддержки речевого общения, c
решением проблем
уточнения
запроса в информационных системах, с повышением
точности поска, с задачами сегментации текстов по тематическим топикам, с задачами
управления диалогом, с задачами анализа естественного языка, с использованием
различных эвристик. Сюда же включаются проблемы дискурса (иногда под дискурсом
понимают совокупность речевых актов вместе с их результатами).
По прежнему актуальны задачи обучения контекстному анализу текста, задачи
приобретения знаний интеллектуальными системами и
извлечения информации
из
текстов.
Важнейшей задачей в процессе извлечения информации, как, впрочем, и в
процессе приобретения знаний, является минимизация роли эксперта – участника
процесса.
Важность этого направления нельзя недооценивать. Причина тому - возрастание
потоков текстовой информации, существующий социальный заказ на поиск релевантной
9
информации в Интернете, на анализ текстовой информации, на извлечение данных из
текстов.
Предметом исследований в этом направлении
является также динамическое моделир
пользователя, в частности, в системах электронной коммерции, адаптивный интерфейс, мониторин
и анализ пользовательского поведения в Интернете.
7. Нечеткие модели и мягкие вычисления.
Это направление представлено нечеткими схемами вывода, «вывода по аналогии»,
взглядом на теорию нечетких мер с вероятностных позиций, нечетким представлениям,
аналитическими моделями для описания геометрических объектов, алгоритмами
эволюционного моделирования с динамическими параметрами, такими как время жизни и
размер популяции, методами решения оптимизационных задач с использованием
технологий генетического поиска, гомеостатических и синергетических принципов и
элементов самоорганизации.
8. Разработка инструментальных средств.
Это обширная сфера деятельности, ставящая перед собой задачи:
а)создания программных средств приобретения знаний для автоматизированного
переноса знаний и компетентности в базы знаний. При этом в качестве источников могут
выступать не только «прямые» их носители – эксперты различных областей, но и
текстовые материалы – от учебников до протоколов, а также, разумеется, базы данных
(имплицитные источники знаний). Вербализация, то есть перевод таких источников в
эксплицитную форму составляет содержание методов обнаружения знаний в данных, в
том числе различных методов обучения по примерам (включая предобработку больших
массивов данных для дальнейшего анализа);
б) реализации программных средств поддержки баз знаний.
в) реализации программных средств поддержки проектирования интеллектуальных
систем. Набор таких средств
обычно содержит редактор текстов, редактор понятий,
редактор концептуальных моделей, библиотеку моделей, систему приобретения знаний от
экспертов, средства обучения по примерам и ряд других модулей.
Лекция 2. Формальные языки и формальные системы
Основным и, пожалуй, главным для человека средством описания большей части
того, что ему известно, является естественный язык. Естественный язык обладает таким
10
спектром свойств - лексической неоднозначностью,
неполнотой, избыточностью,
возможностью противоречивых описаний, которые, безусловно, относятся к числу его
достоинств, но создают трудно преодолимые проблемы при попытках использования
текстов, написанных на естественном языке в компьютерных системах.
Элементарную единицу лексики языка составляет слово, имеющее в большинстве
случаев не одно, а несколько значений. Любой текст на естественном языке может
содержать пробелы - явно не описанные, но подразумеваемые ситуации или их
фрагменты. В тексте или речи возможны повторы, которые подчеркивают наиболее
существенные соображения автора, расставляют акценты. Естественный язык допускает
противоречия. Более того, противоречия в языке - важный поэтический прием ("Речка
движется и не движется...").
2.1. Язык исчисления предикатов первого порядка.
Основные конструкции языка L – языка исчисления предикатов первого
порядка [1,2] называются формулами. Введем вначале алфавит языка L. Алфавит
включает:
1.
Счетное множество букв: z, y, x ,…; которое будем называть множеством
символов для обозначения переменных языка;
2.
Счетное множество букв
a, b, c,  ; которое будем называть множеством
символов для обозначения констант языка;
3.
Счетное множество прописных букв P,Q,  ; для обозначения
предикатных
символов языка;
4.
Счетное множество строчных букв f , g ,  ; для обозначения функциональных
символов;
5.
Символы для логических связок  (влечет),  (не);
6.
Символ для квантора  (для любого);
7. ( , ) - скобки.
Предикатные буквы P, Q, … и функциональные буквы f, g,…могут быть n – местными
или, как еще говорят, n – арными. Иначе говоря, с каждым предикатным или
функциональным символом будем связывать некоторое натуральное число, равное числу
его аргументов.
Определим понятие формулы или правильно построенного выражения языка
исчисления предикатов первого порядка.
Формулы языка определяются индуктивным образом. Начнем с определения терма
языка:
1.
Переменная есть терм.
11
2.
Константа есть терм.
3.
Если t1 ,t2 , …,tm ,…, tn - термы, а f и g – функциональные символы арности m и
n, соответственно, то f (t1 ,t2 , …,tm ) и g(t1 ,t2 ,…,tn ) также термы.
4.
Если t1 ,t2 , …,tm ,…, tn - термы, а P и Q – предикатные символы арности m и n,
соотвественно, то P(t1 ,t2 , …,tm ) и Q(t1 ,t2 ,…,tn ) - атомарные формулы.
5.
Атомарная формула есть формула.
6.
Если A, B - формулы, то (A  B), A ,  B - формулы.
7.
Если A – формула, то xA– формула.
8.
Всякое слово в алфавите языка является формулой тогда и только тогда, когда
это можно показать с помощью конечного числа применений п.п. 1-7.
Например, если бы мы пожелали таким образом описать язык теории групп, то
следовало бы задать один двуместный функциональный символ × (умножение) и одну
константу l (единицу). Предикатные символы в этом случае не понадобятся. Термами
тогда были бы выражения вида × (х, у) и ×(1× (×1)).
Таким образом, мы завершили одно из возможных определений языка исчисления
предикатов первого порядка. Существуют и другие определения, однако, язык,
определенный нами, является полным, т.е. в нем выразимо все то, что выразимо в языках
(исчисления предикатов первого порядка), определенных любым иным способом.
Можно, например, определить логические связки , (читается и и или), выразив
их через связки  и :
1.AB = (AB)
2. A B =AB
Квантор существования
-  (существует) также выражается через квантор
всеобщности и отрицание:
xA(x) = x A(x)
Разумеется, , и  с тем же успехом можно было бы включить в язык в качестве
трех дополнительных символов. Есть, однако, некоторые преимущества в том, чтобы
сохранить список символов как можно более коротким. Например, индуктивные
определения и доказательства по индукции оказываются в этом случае короче.
В дальнейшем нам придется использовать понятия свободного и связанного
вхождения переменной в формулу. Вхождение переменной x в формулу
A называется
12
связанным, если эта переменная следует за квантором существования или всеобщности,
предшествующими формуле A. В противном случае, вхождение переменной называется
свободным. Если в формуле A отсутствуют свободно входящие в нее переменные (т.е.
либо все переменные связаны, либо просто отсутствуют), то формула называется
замкнутой формулой или предложением. Атомарную
замкнутую формулу будем
называть фактом. В том случае, если язык состоит только лишь из предложений, то он
называется пропозициональным языком, а буквы A, B, …, входящие в формулы этого
языка – пропозициональными переменными.
13
1.2.5. Пример.
Рассмотрим иллюстративный пример, который назовем Мир кубиков.
Пусть перед нами стоит задача написать программу, которая бы обеспечила
разумное поведение робота - строителя башни из кубиков.
Введем вначале следующие предикатные символы:
On - двуместный предикатный символ “находиться на”;
Em - одноместный предикатный символ “ не находиться под кубиком”;
Er - находиться на земле.
Тогда атомарная формула языка исчисления предикатов 1-го порядка On ( x, y )
означает, что "Кубик x находится на кубике y "; атомарная формула Em(x ) означает, что
"Кубик x не находится под другим кубиком"; а атомарная формула Er (x) означает, что "
Кубик x стоит на земле ".
Мы полагаем, что эти формулы будут использованы в качестве элементов условий,
множеств добавляемых и удаляемых фактов в правилах. Но прежде чем говорить о
правилах, опишем устройство рабочей памяти. Если действовать таким же образом, как
было описано выше, следует задать интерпретирующее отображение I, которое каждому
предикатному символу поставит в соответствие некоторое отношение на множестве
кубиков. Основное множество M будет состоять из элементов, соответствующих кубикам.
Итак, отображение I ставит в соответствие предикатному символу On бинарное
отношение на M, предикатным символам Em и Er – одноместные отношения на M.
Обозначим эти отношения так же, как соответствующие предикатные символы, только
иным шрифтом. Иначе говоря, I (On) = On,
I (Em) = Em, I(Er) = Er.
Поскольку все отношения конечны, то их можно представить в виде таблиц (Рис.
1.2.) Элементы множества М обозначим через m1 , m2 , …, mn.
On
Em
14
m1
m2
………..
mn
Er
m1
m2
………..
mn
Рис.1.2.1.
В начальном состоянии первая из таблиц не заполнена, а две другие заполнены
полностью. Таким образом, на рис 1.2.1. изображено начальное состояние «Мира
кубиков». Целевое состояние должно иметь такой вид (заметим здесь, что мы считаем все
кубики идентичными и, поэтому, нумерации элементов из М не будем придавыать
значения) :
On
m2
m1
m3
m2
….
…
mn
mn-1
Em
mn
Er
m1
15
Рис. 1.2.2.
Если мы принимаем решение использовать описания состояний, приведенные на
рис. 1.2.1.и 1.2.2. в качестве рабочей памяти системы, основанной на правилах, то сами
правила должны применяться к описаниям этих состояний
для порождения новых
состояний и такая система называется прямой системой правил. Однако, в рабочей памяти
можно хранить описания целей, подцелей и т.д. Такая система правил будет называться
обратной. Впрочем, различие между этими двумя системами правил можно провести
лишь на интуитивном уровне.
Вернемся в мир кубиков и опишем прямую систему правил для робота – строителя
башен; вначале неформально.
Правило первое. Если кубик находится на земле и если он не находится под другим
кубиком, то выполнить следующие действия: поднять
его и поставить на любой
кубик, не находящийся под другим кубиком; поместить в рабочую память факты из
множества добавляемых фактов и удалить факты
из множества удаляемых фактов
примененного правила.
.
Правило второе. Если кубик находится на земле и если он не находится под
другим кубиком и если некоторый кубик не находится под кубиком и находится на
некотором другом кубике, то выполнить следующие действия: поднять кубик,
находящийся на земле и поместить его на кубик, находящийся на другом кубике;
поместить в рабочую память факты из множества добавляемых фактов и удалить факты
из множества удаляемых фактов примененного правила.
Для решения этой задачи можно было бы построить систему и из одного
правила. Однако это привело бы к серьёзному усложнению этого правила и увеличению
вычислительных трудностей на этапе исполнения. Кроме того, трудно было бы
продемонстрировать возможности стратегии управления.
Перейдем к уточнению вида правил для решения этой задачи. Обозначим правила
через П1 и П2, т.е.
П1 = <С1 , A1, D1 > , где
16
С1= { Em( y ) , Er ( y ) , Er (x) },
.
A1= {On (x, y)},
D1= { Em( y ) , Er (x) }.
П2 = <С2 , A2, D2 >, где
С2= { Em(x ) , Er (x) , Em( y ) , On (y, z) },
A2= {On (x, y)},
D2= { Er (x) , Em( y ) }.
Стратегия управления, которая потребуется для решения этой задачи, описана в п
1.2.3 . Напомним её:
Шаг 1. Выбрать очередное правило из множества правил;
Шаг 2. Проверить выполнимость условия правила в текущем состоянии рабочей
памяти;
Шаг 3. Если условие правила выполнено, поместить правило в конфликтное
множество;
Шаг 4. Если множество применимых правил исчерпано, выбрать какое-
либо
правило из конфликтного множества правил и применить его.
Шаг 5. Перейти к шагу 1.
В нашем примере к начальному состоянию применимо лишь первое правило (т.к. в
начальном состоянии таблица On пуста и, следовательно, формула On(x,y) невыполнима),
поэтому в начальном состоянии конфликтное множество состоит из одного лишь правила
и проблемы выбора не возникает. При установлении выполнимости формул Em( y ) ,
Er ( y ) , Er (x)
в условия первого правила вместо свободных переменных в формулы
условия будут подставлены значения (например, m1 вместо y и m2 вместо x).
Соответствующие подстановки будут выполнены также в формулы из множеств А и D.
Атомарные формулы из множеств
А и D превратятся в формулы без свободных
переменных, т.е. в добавляемые и удаляемые факты, а именно, формулы On (x, y) из
множества добавляемых фактов и Em(y) и Er(x) из множества удаляемых фактов примут
вид On (m2, m1) , Em(m1), Er(m2), соответственно. Применение правила состоит в том, что
первая пара, т.е. (m2, m1 ) будет помещена в таблицу On, а значения переменных из второй
17
и третьей формул, т.е. m1 и m2, соответственно,– удалены из таблиц Em и Er. Таким
образом, мир кубиков будет модифицирован и в рабочей памяти появится описание
второго состояния.
К этому, второму состоянию оказываются применимы оба правила. Т.к. множество
применимых правил будет теперь состоять из двух правил, то необходимо уточнить
шаг 4 стратегии управления, т.е. значение слов «какое – либо правило».
Если попытаться промоделировать стратегию управления «вручную», то нетрудно
убедиться, что на втором шаге следует применить второе правило. Чтобы обеспечить
строительство одной башни (а не нескольких), второе же правило следует применять и
на всех последующих шагах. Второе правил отличается от первого большим
количеством атомарных формул в условии. Таким образом, возникает следующий
эмпирический принцип выбора:
всякий раз, когда к некоторому состоянию
применимо более одного правила, должно выбираться правило, более точно
учитывающее особенности текущего состояния; таким правилом, очевидно, является
то правило, условие которого более детально описывает состояние.
Поскольку степень детальности описания состояния определяется количеством
атомарных формул в условии правила, то стратегия разрешения конфликтного
множества, которую следует здесь применить,
имеет в своей основе следующую
эвристику:
“Выбрать из множества применимых правил то правило, условие которого
содержит наибольшее число различных атомарных формул».
Именно так следует в данном случае модифицировать шаг 4 стратегии управления.
Применение сформулированной эвристики приведет к выбору второго правила и
на всех последующих шагах.
Процесс завершится либо по исчерпании применимых правил, либо по достижении
целевого состояния.
К системам правил мы бдем возвращаться и в дальнейшем; им будет уделено
достаточно много места в четвертой главе; пока же рассмотрим иной способ
представления знаний, называемый семантическими сетями.
Лекция 3. Представление знаний. Системы, основанные на правилах
или
продукционные системы.
Если рассматривать многие интеллектуальные системы, то на самом высоком
уровне их описания можно выделить следующие компоненты: рабочую память (или, как
иногда говорят, глобальную базу данных), множество правил, выполняющих некоторые
18
действия (во внешней среде и в рабочей памяти) и некоторую стратегию управления, в
соответствии с которой
происходит выбор правил для применения и выполнение
действий.
Правила применяются к рабочей памяти. В состав каждого правила входит
некоторое условие, которому текущее состояние рабочей памяти может удовлетворять,
либо нет. Правило может быть применено, если условие выполнено. Применение правила
изменяет состояние рабочей памяти. Стратегия управления выбирает, какое именно
правило из числа применимых следует использовать и прекращает вычисления, когда
состояние рабочей памяти удовлетворяет целевому условию.
С точки зрения архитектуры такой подход обладает следующими существенными
отличиями от архитектур традиционных программных систем:
-
рабочая память доступна всем правилам;
-
отсутствуют вызовы правил из других правил;
-
отсутствует априорно заданный алгоритм решения задачи (т.е. порядок выполнения
правил) – алгоритм решения задачи является одним из результатов её решения;
-
данные и результаты вычислений становятся доступными правилам только через
рабочую память.
Особенности организации систем, основанных на правилах, как легко видеть,
обеспечивают, в значительной степени, модульный их характер и изменения в рабочей
памяти, множестве правил или в стратегии управления могут проводиться
относительно независимо. Эти свойства систем, основанных на правилах, хорошо
согласуются с эволюционным характером разработки больших программных систем,
предполагающих использование значительных объемов знаний.
Перейдем теперь к более детальному изложению основных идей систем,
основанных на правилах, следуя, главным образом, работам [4,5].
3.1.Правила для представления знаний.
Определение 3.1. Правилом
C, A, D , где
называется упорядоченная тройка множеств П =
С – условие правила;
А – множество добавляемых правилом фактов;
D -множество удаляемых правилом фактов.
Как и было обещано в начале главы, для записи элементов основных конструкций
языка представления знаний (в данном случае, языка правил), т.е. условия C правила П,
множеств A и D
будем (хотя это не обязательно)
использовать язык исчисления
предикатов первого порядка. А именно, будем полагать, что каждое из упомянутых
19
множеств есть множество атомарных формул языка исчисления предикатов первого
порядка.
Напомним здесь, что в предыдущей лекции фактами были названы атомарные
формулы исчисления предикатов первого порядка без свободных переменных.
В связи с этим, будем считать, что в правилах атомарные формулы из множеств С, А
и D превращаются в факты в процессе применения правила, т.е. в результате выполнения
соответствующих подстановок (m1 , m2 ,…, mn ) на места свободных переменных (x1 ,x2
,…,xn ) и проверки для каждой формулы P(x1 ,x2 ,…,xn ) из С условия (m1 , m2 ,…, mn ) 
I(P), т.е. выполнимости в текущем состоянии рабочей памяти.
Определение 3.2. Будем говорить, что условие правила выполнено, если в текущем
состоянии рабочей памяти истинна каждая из атомарных формул условия.
Определение 3.3.
Правило применимо к
состоянию рабочей памяти, если его
условие выполнено в этом состоянии.
3.2.Рабочая память.
Рабочая память должна быть согласована с множеством правил. Согласование
выполняется следующим образом: пусть П – некоторое множество правил; С, A и D –
объединения условий, множеств добавляемых фактов и множеств удаляемых фактов по
всему множеству П. М- множество индивидов предметной области. Тогда для каждой n –
местной атомарной формулы P (x, y, …, z)  С  A  D
рабочая память должна
содержать n – местное конечное отношение I (P)  Mn , где I – интерпретирующее
отображение (Рис.1.2.)
P1 ( x),
R1
P2 ( y, z),
R2
P3 ( x, y, v)
R3
Рис. 1.2. (Стрелками показано отображение I )
20
Таким образом, рабочая память должна содержать множество конечных отношений
или таблиц, каждая из которых является интерпретацией одного из предикатных
символов, входящего в объединенное множество условий, списка добавляемых или
удаляемых фактов.
Заметим здесь, что правило можно рассматривать как действие или команду
исполнительному органу, которая может разворачиваться в последовательность действий.
Добавляемые и удаляемые правилом факты называются эффектом действия и
выполняют модификацию модели мира, т.е. формируют
в рабочей памяти системы
отражение тех изменений в мире, которые произошли после выполнения действий,
предписанных правилом.
Правила могут, также, рассматриваться как средство пополнения знаний о мире,
например, в результате обучения.
3.3. Стратегии управления
Стратегии управления предназначены для организации процесса вычислений.
В самом общем виде стратегию управлеия можно описать следующим образом:
Шаг 1. Выбрать очередное правило из множества правил;
Шаг 2. Проверить выполнимость условия правила в текущем состоянии рабочей
памяти;
Шаг 3. Если условие правила выполнено, поместить правило в конфликтное
множество;
Шаг 4. Если множество применимых правил исчерпано, выбрать какое-либо правило
из конфликтного множества правил и применить его.
Шаг 5. Перейти к шагу 1.
Условиями остановки являются пустое конфликтное множество, либо достижение
целевого состояния.
Приведенная стратегия порождает недетерминированный процесс, поскольку она не
устанавливает, каким образом следует выбирать правило из множества применимых
правил.
В
большинстве
случаев
информации,
доступной
стратегии
управления,
недостаточно для точного решения задачи выбора. Поэтому работу систем,
основанных на правилах, можно охарактеризовать как процесс поиска, при котором
правила подвергаются испытанию до тех пор, пока не обнаружится, что некоторая их
последовательность порождает состояние рабочей памяти, удовлетворяющее целевому
21
условию. При этом часто используются различные эвристики, сокращающие перебор.
(Эвристикой будем называть правило выбора без достаточных теоретических
оснований). Вид эвристики обычно диктуется условиями задачи. Позже мы обсудим
различные эвристики, а пока уточним, что стоит за словами
«Проверить
выполнимость условия правила» и «Применить правило».
В п.3.2. было установлено соответствие между множеством атомарных формул
условий, множеств добавляемых и удаляемых фактов из правил и множеством
отношений рабочей памяти.
Проверка выполнимости условия выбранного правила состоит в том, в каждую
атомарную формулу P (x, y, …, z) условия подставляются значения из текущего
состояния рабочей памяти, а именно из таблицы, соответствующей
P (x, y, …, z) в
смысле отображения I. При этом обычно известно и соответствие столбцов таблицы I
(Р) сортам аргументов формулы P (x, y, …, z) (в многосортном языке).
Если существует подстановка  = (m1 , m2 , …, mn ), такая что   I (Р), то
формула P (x, y, …, z) условия выполняется на ней или, иначе говоря, выполняется в
текущем состоянии рабочей памяти.
Если существуют подстановки 1, 2, …, k , такие что на местах одноименных
свободных переменных всех формул условия оказываются одни и то же значения
(подставленные из соответствующих таблиц) и при этом все формулы условия
оказываются выполнены, то условие правила выполнено в текущем состоянии рабочей
памяти.
Что касается применения правила, оно состоит в том, что в текущее
состояние рабочей памяти добавляются факты из множества добавляемых фактов
правила и удаляются факты из множества удаляемых фактов.
Происходит это следующим образом. Если установлена выполнимость условия
некоторого правила, свободные переменные в формулах условия, как было сказано
выше, приобретают значения из записей текущего состояния рабочей памяти. При
этом происходят и замены свободных переменных в формулах из множеств
AиD
теми значениями, которые были подставлены на места одноименных свободных
переменных в формулы условия. Для тех формул из множества A, которые в
результате этого процесса превратились в факты, значения, находящиеся на местах
свободных переменных, дописываются в таблицы, соответствующие этим формулам в
смысле отображения I, для формул же из множества D, которые также в результате
этого процесса превратились в факты, значения, находящиеся на местах свободных
22
переменных,
удаляются из таблиц, соответствующих этим фактам в смысле
отображения I.
В дальнейшем тройку: множество правил + рабочая память + стратегия
управления будем называть системой, основанной на правилах.
Состоянием системы, основанной на правилах, будем называть состояние рабочей
памяти вместе с множеством применимых правил.
Системы, основанные на правилах, являются важным классом систем, основанных
на знаниях.
Лекция 4. Представление знаний. Cемантические сети и системы фреймов.
Семантические сети наряду с системами правил являются весьма распространенным
способом представления знаний в интеллектуальных системах. Особое значение этот
способ представления знаний приобретает в связи с развитием сети интернет. Кроме ряда
особенностей, позволяющих применять семантические сети в тех случаях, когда системы
правил не применимы, семантические сети обладают следующим важным свойством: они
дают возможность соединения в одном представлении синтаксиса и семантики или
синтаксического и семантического аспекта описаний знаний предметной области.
Происходит это благодаря тому, что в семантических сетях наряду с переменными для
обозначения тех или иных объектов (элементов множеств, некоторых конструкций из них)
присутствуют и сами эти элементы и конструкции; присутствуют и
связи,
сопоставляющие тем или иным переменным множества допустимых интерпретаций. Эти
обстоятельства
позволяют
во
многих
случаях
резко
уменьшить
реальную
вычислительную сложность решаемых задач.
4.1. Простые и расширенные семантические сети.
Понятие семантической сети возникло в 1966 г. году в работах М.Р.Квиллиана [7]
при попытке описания семантики глагола с помощью графа специального вида. Это
описание
было составлено из вершин, в которых находились лексические единицы
анализируемого предложения и «ассоциативных» дуг, служащих для описания ссылок
одних вершин на другие. Для таких описаний М.Р. Квиллиан ввел термин «семантическая
память».
Каждой вершине
в семантической памяти соответствовала некоторая
«страница», содержащая определение соответствующего вершине понятия. Каждый из
указателей относился к одному из следующих типов: подкласс, дизъюнкция, конъюнкция,
свойство, субъект.
Такие структуры обладали некоторыми дедуктивными свойствами, порождаемыми
отношениями «подкласс» и «свойство». Один из механизмов вывода в семантической
23
сети Квиллиана состоял в распространении активности и поиске по пересечению. Пути
от начальных вершин к общей вершине определяют некоторое отношение между двумя
лексическими единицами. Иначе говоря, речь шла об обнаружении неявно (имплицитно)
заданной информации для дальнейшего ее использования в интеллектуальной системе.
Роберт Ковальский из Эдинбурга в 1979 г. [8] ввел понятия простых и расширенных
семантических сетей, использовав клаузальную логику для их определения.
Для рассмотрения семантических сетей такого вида вернемся к языку исчисления
предикатов первого порядка, а именно, к его клаузальной форме.
Клауза есть выражение вида B1 , B2 ,..., Bm  A1,...,An
где B1 , B2 ,..., Bm суть атомарные формулы, n и m.
Атомарные формулы A1,...,An суть совместные посылки клаузы, а B1 , B2 ,..., Bm суть
альтернативные заключения. (Множество клауз совместно, если оно истинно в одной из
моделей языка).
Если клауза содержит переменные x1, x2,…,xk, то она соответствует формуле с
квантором всеобщности: x1, x2 ,…, xk (B1  B2 ...  Bm, если A1^,…,^ An.)
Если n=0, то клаузу следует интерпретировать так:
 x1, x2,…, xk, (B1  B2 ...  Bm.). Если m=0, то интерпретация такова:  x1,
x2,…, xk A1^,…,^ An.
Если n=m=0 то клауза является тождественно ложным высказыванием и записывается .
Если клауза содержит не более одной атомарной формулы в заключении, т.е.m1,
то клауза называется клаузой Хорна или Хорновской клаузой.
Простая семантическая сеть может рассматриваться как форма записи
утверждений клаузальной логики без свободных переменных. Например, клауза P(a,b) 
в языке простых семантических сетей изображается как дуга, помеченная меткой P и
направленная из a в b:
a
P
b
рис.1.3.1.
В расширенных семантических сетях, как и в простых, вершины сопоставляются
индивидам, а ребра – бинарным отношениям.
Однако, вершины в расширенных семантических сетях могут соответствовать
константным символам, переменным или термам, содержащим функциональные символы.
Атомарные формулы, соответствующие условиям клауз описываются с помощью
двойных дуг, а заключения - одинарных. Клаузы, содержащие более одной атомарной
24
формулы, можно выделять как подсети. Например, расширенная семантическая сеть на
рис.1.3.2.
нравится
Мэри
X
нравится
нравится
Боб
Джон
логика
Является
нравится
нравится
Человек
у
Рис.1.3.2.
соответствует множеству клауз:
Джону нравится Мери 
Джон является человеком
Мери нравится Джон, Мери нравится БобМери нравится x
Бобу нравится yy нравится логика
Наклонная прямая отделяет подсеть, содержащую условия (левая верхняя полуплоскость)
от подсети заключений.
Помимо изобразительных возможностей, семантические сети обладают более
серьезными достоинствами. То обстоятельство, что вся информация об индивиде
представлена в единственном месте – в одной вершине, означает, что вся эта информация
непосредственно доступна в этой вершине, что, в свою очередь сокращает время поиска, в
частности, при выполнении унификации и подстановки в задачах логического вывода.
Существует еще одна, более тонкая особенность расширенных семантических
сетей – они позволяют интегрировать в одном представлении синтаксис и семантику
(т.е. интерпретацию) клаузальных форм. Это позволяет в процессе вывода обеспечивать
взаимодействие синтаксических и семантических, теоретико-модельных подходов, что, в
свою очередь, также является фактором, зачастую делающим вывод более эффективным.
25
4.2. Универсум Эрбрана и семантические сети.
Здесь мы развернем тезис, сформулированный в последнем абзаце предыдущего
раздела. Пусть задано некоторое множество клауз. Попытаемся «экономным» способом
построить для него модель. Это означает, что следует выбрать некоторый универсум и
указать соответствие между константами и иными конструкциями языка и объектами
этого универсума и конструкциями из них. Следуя принципу экономии, мы не будем
вводить специальных имен для элементов модели, поэтому выберем в качестве
универсума такое множество, которое включает все константы, встречающиеся в
множестве клауз и все термы, построенные из них с помощью функциональных символов,
встречающихся в множестве клауз. Такое множество называется универсумом Эрбрана.
Иначе говоря, интерпретация I есть в данном случае тождественное отображение
из множества термов в себя. Далее, доведя принцип экономии до предела, мы используем
n – местные предикатные символы, встречающиеся в клаузах, для обозначения
соответствующих им при отображении I
n –
арных отношений над элементами
универсума.
Рассмотрим простой пример.
Пусть задано множество клауз.
Всякий человек, который является хозяином собак, не является хозяином кошек.
Джон является хозяином Линды
Петя является хозяином Мурки
Введем бинарные предикатные символы P – быть хозяином и Q – не быть хозяином.
Тогда клаузальная форма этих утверждений имеет следующий вид:
Q(человек, кошка) P(человек, собака)
P(Джон, Линда) 
P(Петя,Мурка) .
Для полноты картины введем еще один предикатный символ, означающий
принадлежность экземпляра (примера) общему понятию. В теории интеллектуальных
систем его принято обозначать ISA (“is a” - третье лицо единственного числа английского
глагола to be):
ISA (Джон, человек) 
ISA (Петя, человек) 
ISA (Линда, собака) 
ISA (Мурка, кошка)
26
(Иногда этот предикатный символ используется в инфиксной нотации, например,
«Джон ISA человек», но это не имеет существенного значения).
Представим теперь описанную ситуацию в виде расширенной семантической сети
(рис.1.3.3).
Петя
Линда
Джон
Мурка
Собака
Человек
Кошка
Рис.1.3.3.
На рис. 1.3.3. каждому предикатному символу соответствует свой тип линии, а
именно:
PISA QНаправление стрелки указывает порядок следования аргументов в формуле.
Если сопоставить этот рисунок со сказанным об универсуме Эрбрана, то легко
видеть, что закрашенные вершины соответствуют элементам,
а пары (Петя, Мурка),
(Джон, Линда) – элементам отношений универсума Эрбрана, а именно – отношению P.
Что касается пар (Мурка, кошка), (Линда, собака) (Петя, человек) и (Джон, человек),
принадлежащих отношению ISA, то они связывают синтаксис с семантикой или
синтаксические элементы “Кошка”, “Собака” и “Человек”, являющиеся именами общих
понятий, с примерами этих понятий.
Оставив более детальное изучение полезных свойств универсума Эрбрана
для
последующих глав, используем нотацию расширенных семантических сетей для ответа на
вопрос “Является ли Джон хозяином Мурки?” Для решения этой задачи вначале
27
совместим пары закрашенных вершин с парами незакрашеных по ISA ребрам, при этом
метка ребра пары закрашенных вершин должна совпадать с меткой ребра пары
незакрашенных вершин. Затем проделаем такую же операцию с интересующими нас
целевыми вершинами (т.е. совместим их с не закрашенными вершинами по ISA – связям)
в результате чего немедленно получим, что Джон не является хозяином Мурки. Этот
простой пример есть пример вывода на расширенной семантической сети.
В 1986 году В.Н. Вагиным [9] были предложены раскрашенные семантические
сети. В отличие от расширенных семантических сетей, в раскрашеных семантических
сетях вершины соответствуют
клаузам, их условиям, заключениям и
предикатным
символам, в них входящим, а ребра, связывают условия и заключения клауз с вершинами,
соответствующими клаузам. Далее, атомарные формулы, входящие в условия и
заключения соединяются ребрами с вершинами, соответствующими условиям и
заключениям и, наконец, индивидные символы соединяются ребрами с вершинами,
соответствующими атомарным формулам. Кроме того, введены специальные правила
раскраски семантических сетей. Они таковы: для каждой клаузы A  B условие и
заключение “раскрашиваются” различными цветами. Это правило распространяется также
на тот случай, когда как условие, так и заключение состоят более чем из одной атомарной
формулы.
Раскрашенные
представления,
сети
позволяют
более
эффективно,
чем
предыдущие
организовать процесс параллельной дедукции. Более подробную
информацию о них можно почерпнуть из литературы, указанной в конце книги.
В 1987 году автор этих строк [10] ввел понятие неоднородных семантических сетей.
Приведем краткое описание этого способа представления знаний.
4.3. Неоднородные семантические сети.
Неоднородная семантическая сеть (НСС) – семейство графов, имеющих общее
множество вершин; вершинам сопоставлены объекты моделируемой действительности,
ребрам - элементы некоторых бинарных отношений на множестве вершин; ребрам же
сопоставлены процедуры, предназначенные для
проверки
корректности
сети и
порождения различного рода гипотез, повышающих эффективность процесса построения
сети. Подробнее о роли таких процедур будет сказано в главе, посвященной
приобретению знаний.
НСС предназначены
для описания, главным образом, таких областей, которые
можно отнести к плохо структурированным, т.е. областей, для которых не известен
полный набор свойств их индивидов, не полностью известна структура самих индивидов,
а знания об индивидах и их взаимосвязях
и зависимостях
не имеют «готового»,
28
завершенного вида, такого, например, который описывается с помощью правил. При этом
предполагается, что те связи и зависимости, которые удается, всё же, установить, носят
локальный характер.
.
Определение
1.3.1.
Неоднородной
семантической
сетью
будем
называть
алгебраическую систему
H=<D, N, R, F> , где
D={ D1, D2,..., Dn} - семейство непустых множеств;
N  N – выделенное подмножество множества слов конечной длины над
некоторым алфавитом;
R - семейство бинарных отношений R1, R2,...,Rq на N2; Ri N2 ; i{1, 2, …, q}.
F ={f1,f2,...,fm}
семейство функций, каждой из которых приписан некоторый тип.
А именно, функция fi (i{1,2, …, m}) имеет тип <, > , где  = k1, k2, …, km если она
определена на декартовом произведении D k1 x D k2 x ... x D
km
, а областью её значений
является множество D , так что каждому кортежу   D k1 x D k2 x ... x D km функция f i
типa <, >
из F ставит
в
соответствие некоторый элемент
f() из D. То
обстоятельство, что fi имеет тип <, > будем обозначать <, > (fi).
Неоднородную семантическую сеть, определенную таким образом, будем называть
интенсиональной семантической сетью.
Лекция 5. Рассуждения. Автоматизация дедуктивных рассуждений.
Вначале приведём краткую характеристику основных процедур рассуждений,
таких как дедукция, индукция, аналогия, рассуждения на основе прецедентов, абдукция и
аргументация. Затем более детально рассмотрим методы автоматизации некоторых из
названных типов рассуждений в вычислительных системах. Начнем с дедуктивных
рассуждений.
Дедуктивное рассуждение - это последовательность дедуктивных умозаключений.
Дедуктивным называют такое умозаключение, в котором из знания большей степени
общности выводится знание меньшей степени общности. Первые точные схемы
дедуктивных умозаключений принадлежат Аристотелю (384-322 г.г. до нашей эры). Эти
схемы носят название силлогизмов. К числу основных силлогизмов Аристотеля относятся
категорический силлогизм, условный силлогизм, разделительный силлогизм, условно29
разделительный силлогизм; сокращенные, сложные и сложносокращенные силлогизмы
или энтимемы.
Каждый из силлогизмов имеет несколько разновидностей, отличающихся друг от
друга количеством и качеством посылок и называемых модусами.
Связано такое
разделение с тем, что все суждения по своему качеству делятся на четыре вида:
общеутвердительные,
общеотрицательные,
частноутвердительные
и
частноотрицательные.
Так, простой категорический силлогизм состоит из трех суждений, два из которых
выступают в качестве посылок, а одно – заключение. Первая из посылок носит
общеутвердительный
характер,
частноутвердительный
характер.
вторая
посылка
Например,
и
«Каждый
заключение
студент
могут
должен
носить
владеть
дедуктивным методом», «Сидоров – студент»; «Сидоров должен владеть дедуктивным
методом». Здесь до точки с запятой приведены посылки, а после точки с запятой –
заключение силлогизма.
Существует определенный набор правил работы с силлогизмами, определяющих
корректность их применения. Можно считать, что именно с этими событиями связано
возникновение науки под названием логика.
С середины 19 века (Дж.Буль, 1847, О. де Морган, 1858) появились первые работы
по формализации аристотелевой логики. Г.Фреге (1848) и Ч.Пирс (1885) ввели в логику
предикатные переменные, предметные переменные и кванторы. В ходе последовавших
затем работ по применению логического подхода к изучению оснований математики был
создан богатый логический аппарат и оформилась математическая научная дисциплина
под названием математическая логика.
В классической математической логике основными правилами дедуктивных
рассуждений являются аксиомы и правила вывода.
Например, правило модус поненс (правило отделения):
если А. B и C – формулы,
то из выводимости А и В  С следует выводимость С;
или аксиомы:
(А  В)  (В  А)
Дедуктивные рассуждения относят к числу достоверных рассуждений.
Индуктивные рассуждения основаны на индуктивных умозаключениях. Индуктивным
называют умозаключение от знания меньшей степени общности к знанию большей
степени общности, от частного к общему, от фактов к обобщениям. Индукция эффективна
при выдвижении гипотез, нахождении причинных связей явлений. Индуктивные
30
заключения, вообще говоря, не относятся к числу достоверных; их следует назвать
правдоподобными. Различается два вида индукции: полная и неполная. Полной индукцией
называют индуктивное умозаключение, в котором заключается, что все представители
рассматриваемого класса обладают определенным признаком на том основании, что этим
признаком обладает каждый из представителей этого класса. (Пример - индуктивные
рассуждения в математике, полная математическая
индукци, неотъемлемым шагом
которой является дедуктивное умозаключение).
Неполной индукцией называется такое индуктивное умозаключение, в котором
заключается, что все представители рассматриваемого класса обладают определенным
признаком на том основании , что этим признаком обладают некоторые представители
этого класса.
Различают также популярную индукцию и научную индукцию. В основе этого
различения лежат способы обоснования заключения. В популярной индукции вывод обо
всех элементах класса делается на основании исследования некоторых элементов класса
при отсутствии противоречащих примеров. В отличие от этого, в научной индукции
производится анализ и отбор фактов, исключающих случайность
обобщения.
Умозаключения научной индукции основаны на изучении причинной связи явлений.
Для изучения причинной связи явлений Дж.С. Миль предложил метод сходства,
метод различия, метод сходства – различия . Существуют и иные методы изучения
причинной связи явлений.
Метод сходства – это умозаключение о причине явления, основанное на
сравнении двух или более групп факторов, при наличии которых наступает это явление.
Если все случаи наблюдаемого явления имеют только один общий фактор, то этот общий
фактор и является причиной рассматриваемого явления.
Метод различия – это умозаключение
о причине явления, основанное на
сравнении случаев, в которых исследуемое явление наступает и не наступает. Если оба
случая сходны по всем факторам, кроме одного, и этот фактор присутствует в случае,
когда явление наступает, то он является причиной рассматриваемого явления. Методы
индуктивных рассуждений особенно востребованы в исследованиях открытых систем.
Абдукция - это
способ порождения гипотез, основанный на переходе от частного
суждения к частному. В простейшем случае она имеет следующую форму: « из А и В
влечет А выводится В. Абдуктивная гипотеза В может рассматриваться как возможное
объяснение А. Разумеется этот способ рассуждений также относится к числу
правдоподобных.
31
Аналогией называют перенос свойств некоторого единичного явления, процесса
или предмета на другое единичное явление, процесс или предмет если между ними
замечено сходство их существенных свойств. Различают строгую и нестрогую или
простую аналогию.
При строгой аналогии должно быть достоверно установлено, что переносимый
признак предмета А с необходимостью связан с признаками сходства. Тогда это
обстоятельство служит достаточным основанием для достоверного переноса этого
признака на предмет В.
При простой аналогии зависимость между признаками сходства и переносимым
признаком носит правдоподобный характер.
5.1. Автоматизация дедуктивных рассуждений. Поиск доказательств теорем методом
резолюций.
Многие интересные и практически важные задачи могут быть сформулированы как
задачи доказательства теорем в подходящем логическом исчислении.
Перечислим некоторые из таких задач.
1. Дедуктивные вопросно – ответные системы. В вопросно – ответных системах
факты могут быть представлены логическими формулами. Тогда для ответа на
некоторый вопрос следует доказать, что формула, соответствующая ответу,
логически выводима из фактов.
2. Задача анализа программ. В задаче анализа программ выполнение программы
можно описать формулой А, а условие завершения работы программы –
формулой В. Тогда проверка того, что программа завершит работу
эквивалентна доказательству того, что формула В следует из формулы А
3. Задача синтеза программ. Если условие и результат задачи можно представить
в виде логических формул, то решение задачи можно рассматривать как
логический вывод результата из формул условия.
Программа же решения задачи извлекается в этом случае из вывода.
4. Изоморфизм графов. Часто требуется выяснить, изоморфен ли граф
подграфу
другого графа. Задача может быть сформулирована как задача выводимости
формулы, представляющий один граф из формулы, представляющей другой
граф.
Поскольку
вычислительным
все
перечисленные
задачам,
то
через
задачи
некоторое
относятся
время
к
трудным
после
появления
32
вычислительных машин, а именно, во второй половине 60-х годов наблюдался
резкий всплеск интереса к машинному автоматическому поиску доказательств
теорем.
На самом деле поиск универсальной разрешающей процедуры для проверки
общезначимости формул был начат еще Лейбницем в 17 веке. В дальнейшем эти
попытки возобновили Пеано (на рубеже 20 века) и Гильберт со своими учениками
в 20-х годах 20 века.
Эти попытки продолжались до тех пор, пока Черч и Тьюринг в 1936 году не
доказали,
что
никакой
общей
общезначимости формул
разрешающей
процедуры
для
проверки
не существует, иначе говоря, не существует
универсального алгоритма, проверяющего общезначимость формул в логике
первого порядка.
Это не означает, однако, что общезначимость формулы установить
невозможно. Существуют алгоритмы, которые могут установить, что формула
общезначима, если она на самом деле общезначима. Если же она не является
общезначимой, то эти алгоритмы
вообще говоря, никогда не закончат свою
работу. Это лучшее, что можно ожидать от универсальных алгоритмов поиска
доказательства.
Теоретические основы соответствующих компьютерных методов были
заложены в 1930 г. Эрбраном. Первые же практически важные шаги на пути
создания программ автоматического доказательства теорем были сделаны после
основополагающих работ С.Ю.Маслова [17] об обратном методе установления
выводимости в классическом исчислении предикатов и Дж.А.Робинсона [18] о
методе резолюций , выполненных ими независимо в 1964 и 1965 годах,
соответственно.
Скулемовская стандартная форма.
При поиске доказательства методом резолюций используются так называемые
Скулемовские стандартные формы формул исчисления предикатов первого порядка.
При приведении формулы к Скулемовской стандартной форме используются
следующие соображения:
1. Формула логики первого порядка может быть приведена к предваренной нормальной
форме, в которой все кванторы содержатся в префиксе (т.е. ни одному квантору не
предшествует предикатный символ).
33
2. Матрица (т.е., часть формулы, следующая за префиксом и не содержащая кванторов)
может быть сведена к коньюктивной нормальной форме.
3. В формуле можно элиминировать кванторы существования с помощью скулемовских
функций.
Рассмотрим вначале метод приведения формулы к предваренной нормальной форме
[19]. Для этого рассмотрим основные законы эквивалентности в логике первого порядка.
Здесь мы полагаем, что х и y являются свободными переменными в А и В,
соответственно:
1° - (x)A(x)  (x)B(x)  x((A(x)  B(x))
2° (x)A(x)  x( A(x))
3° (x)A(x)  (x)( A(x))
4° F  G  (F  G)  (G  F)
5° (x)A(x)  (x)B(x)  x(A(x)  B(x))
6° F  G  F  G .
Имеется и ряд других эквивалентностей,
которые будут использоваться по
мере
необходимости.
Здесь уместно заметить, что квантор всеобщности  и квантор существования 
нельзя проносить через дизъюнкцию и конъюнкцию, соответственно, т.е.
(x)A(x)  (x)B(x)  x(A(x)  B(y))
(x)A(x)  (x)B(x)  x((A(x)  B(x))
В таких случаях, надо вспоминать, что связанная переменная – лишь место для
подстановки какой угодно переменной и, следовательно, каждую связанную переменную
можно переименовать. Например, формулу
(x)A(x)  (x)B(x)
34
можно преобразовать в формулу (x)A(x)  (z )B(z) где z не встречается в А(x). Тогда
(x)A(x)  (z )B(z)  (x)( z )(A(x)  B(z))
Аналогичным образом преобразуется и формула
(x)A(x)  (z )B(z)  (x)( z )(A(x)  B(z))
Далее, формулу следует привести к следующему виду:
(Q1х1).. (Qnхn)(M),
где каждое Qiхi (i=1,2,…,n) есть или (xi ) или (xi),а М есть формула, не содержащая
кванторов. Такой вид и будет называться предваренной нормальной формой.
Тогда (Q1х1).. (Qnхn) называют префиксом, а М- матрицей формулы
Опишем теперь кратко алгоритм приведения формул к предваренной нормальной форме
[17]:
1. Если в формуле присутствуют логические связки
 и , то применим к ней законы
F  G  (F  G)  (G  F)
F  G  F  G
для исключения этих связок.
2.Если перед формулой имеется знак отрицания, то используем законы
(F) = F
(F  G)  F  G
(F  G)  F  G
35
и законы
(x)A(x)  x( A(x))
(x)A(x)  (x)( A(x)) ,
для того чтобы пронести знак отрицания внутрь формулы.
3.Если необходимо, переименовываем связанные переменные.
4. Выносим кванторы в начало формулы, для чего используем законы
(x)A(x)  (x)B(x)  x(A(x)  B(y))
(x)A(x)  (x)B(x)  x((A(x)  B(x))
(Qx)A(x)  G  (Qx)(A(x)  G)
(Qx)A(x)  G  (Qx)(A(x)  G)
(Q1x)A(x)  (Q 2 x)B(x)  (Q1x) (Q 2 y)((A(x)  B(y))
(Q1x)A(x)  (Q 2 x)B(x)  (Q1x) (Q 2 y)((A(x)  B(y))
Далее следует М - матрицу формулы привести к конъюнктивной нормальной форме.
Для этого введем следующие определения:
Определение 5.1. Литерой будем называть атомарную формулу или ее отрицание.
Определение 5.2. Формула F находится в конъюнктивной нормальной форме тогда и
только тогда, когда F имеет вид
F
n1, а каждая F1 ,F2,…,F n есть дизъюнкция литер.
F1  F 2  ...  Fn
Приведем схематическое описание процедуры преобразования к конъюнктивной
нормальной форме (впрочем, следует заметить, что эта же схема годится и для
дизъюнктивной нормальной формы):
1. Элиминируем логические связки  и  применяя эквивалентности
F  G  (F  G)  (G  F)
F  G  F  G
2.Проносим знак отрицания к атомам, используя, (возможно, несколько раз) законы.
(F) = F
(F  G)  F  G
(F  G)  F  G
3.Используем (возможно, несколько раз) законы
F  (G  H )  ( F  G )  ( F  H )
F  (G  H )  ( F  G )  ( F  H )
36
для получения нормальной формы.
После
выполнения
соответствующих
процедур,
для
приведения
формулы
к
Скулемовской нормальной форме осталось элиминировать кванторы существования. Это
выполняется следующим образом:
пусть формула имеет вид (Q1х1).. (Qnхn)(M),
где М есть конъюнктивная нормальная
форма и пусть некоторое Qi есть квантор существования в префиксе (Q1х1).. (Qnхn)(M).
Если в указанном префиксе левее Qi нет никакого квантора всеобщности, выбирается
новая константа c, отличная от всех иных констант, входящих в М и все xi в М заменяются
на с. Если же левее Qi встречаются кванторы всеобщности Q,…,Q выбирается новый mместный функциональный символ f, отличный от всех иных функциональных символов в
М, то все xi в М заменяются на f(x,…,x) и (Qixi)вычеркивается из префикса. Затем это
процесс применняется ко всем кванторам существования в префиксе. Последняя из
полученных таким образом формул и есть скулемовская нормальная форма. Константы и
функции, используемые для замены переменных, связанных кванторами существования,
называются скулемовскими функциями.
Введем понятие дизъюнкта:
Определение 5.3.Дизъюнкция литер называется дизъюнктом.
Далее, там где это будет удобно, будем рассматривать как синоним дизъюнкта
множество литер.
Определение 5.4. Если А – атомная формула, то две литеры А и А называют
контрарными, а множество {A , А} – контрарной парой.
Заметим, что если дизъюнкт содержит контрарную пару, то он является тавтологией.
.Если дизъюнкт не содержит литер, то он называется пустым дизъюнктом, если он
содержит одну литеру, то называется однолитерным дизъюнктом, а если содержит к
литер – к-литерным дизъюнктом. Так как пустой дизъюнкт не содержит литер, которые
могли бы быть истинны, то он всегда ложен. Пустой дизъюнкт обозначается .
Каждое множество дизъюнктов S, будем считать конъюнкцией всех дизъюнктов из S,
где каждая переменная считается связанной квантором всеобщности. Тогда скулемовская
стандартная форма может быть представлена множеством дизъюнктов.
Справедлива следующая
Теорема 5.1. Пусть S – множество дизъюнктов, представляющих Скулемовскую
стандартную форму формулы F. Тогда F противоречива в том и только в том случае, когда
S противоречиво.
37
Доказательство теоремы мы опустим.
Далее для множеств дизъюнктов будут использованы термины невыполнимо/выполнимо
вместо противоречиво/непротиворечиво.
Метод резолюций для исчисления высказываний.
Основная идея метода резолюций состоит в том, чтобы проверить, содержит ли
множество S пустой дизъюнкт . Если S содержит пустой дизъюнкт, то, как следует из
предыдущего параграфа, S невыполнимо. Если S не содержит , то проверяется: может
ли  быть получен из S? Метод резолюций можно рассматривать как специальное правило
вывода, используемое для порождения из S новых дизъюнктов. Это правило вывода
таково:
в том случае, если для любых двух дизъюнктов C1и C2 существует литера L1 в С1,
которая контрарна литере L2 в С2 то, вычеркнув L1 и L2, из C1 и C2 , соответственно,
можно построить дизъюнкцию оставшихся дизъюнктов, которая будет являться
следствием С1 и С2. Эта последняя дизъюнкция называется резольвентой. Корректность
этого правила вывода устанавливает следующая
Теорема 5.2. Пусть даны два дизъюнкта С1 и С2. Тогда резольвента С дизъюнктов С1 и С2
есть логическое следствие С1 и С2.
Доказательство. Пусть
C 1  L  Ca
C 2  L  C b
C  Ca  Cb
где Сa и Сb – дизъюнкции литер. Предположим, что С1 и С2 истинны в некоторой
интерпретации I. Очевидно, либо L, либо L ложно в I. Пусть, например, L ложно в I.
Тогда Сa должен быть истинен в I (иначе предположение об истинности С1 неверно).
Таким образом, резольвента, т.е.
истинна в I. Аналогично можно показать, что если L ложно в I, то Сb должен быть
истинен в I. Следовательно,
Ca  Cb
Ca  Cb
истинна в I, что требовалось доказать.
Пример 2.2.1.Рассмотрим множество дизъюнктов
38
Q  R
QP
резольвента
PR
Пример 2.2.2. Рассмотрим множество дизъюнктов
1.S  R  Q
2.R
3.Q  S
Из 1.и 2. получаем
4. S  Q
Из 3. и 4.получаем пустой дизъюнкт .
Лекция 6. Автоматизация дедуктивных рассуждений. Метод резолюций для
исчисления предикатов первого порядка.
Как мы видели, наиболее существенным моментом в использовании метода резолюций
является нахождение в дизъюнкте литеры, контрарной литере в некотором другом
дизъюнкте. Если в исчислении высказываний это достаточно просто, то в исчислении
предикатов, когда мы имеем дело с формулами, содержащими индивидные переменные,
ситуация усложняется. Рассмотрим, например, дизъюнкты:
C1 : P( x)  Q( x)
C 2 : P( f ( x))  R( x)
В С1 не существует литеры, контрарной какой-либо литере из С2. Однако, вспоминая, что
все переменные в формулах P(x) и Q(x) имеют универсальную квантификацию и,
подставляя f(x) в С1 вместо х, получим
C1 : P( f ( x))  Q( f ( x))
CQ
2 : P ( f ( x ))  R ( x )
( f ( x))  R( x)
Эти два дизъюнкта уже легко резольвировать; получим:
Если в С1 и С2 подставлять на места переменных другие подходящие термы, можно
получать новые резольвенты С. Например, подставив a вместо х в С2 и f(a) вместо х в С1,
получим резольвенту
Q( f (a))  R(a)
Таким образом, резольвента
является, в некотором смысле, наиболее общей по отношению ко всем другим, т.к. все
иные резольвенты (в частности, предыдущая) являются ее примерами.
Q( f ( x))  R( x)
39
Из сказанного видно, что, получение резольвент из дизъюнктов часто требует
подстановок.
6.1. Подстановки и унификация.
Определение 6.1. Подстановка – это конечное множество вида {t1/v1, …,t n/vn}, где каждая
v i – переменная, а каждый ti – терм, отличный от vi и все vi различны. Подстановка,
которая не содержит элементов, называется пустой и обозначается .
Определение 6.2. Пусть  = {t1/v1, …,t n/vn} – подстановка и Е –выражение. Тогда Е выражение, полученное из Е одновременной заменой всех вхождений переменной vi на
терм ti.
Е называют примером Е.
Определение 6.3. Подстановка  называется унификатором для множества
{E1,E2,…,E k } тогда и только тогда, кода E1 = E2=…= Ek. Если для множества Е
существует унификатор, то оно называется унифицируемым.
Определение 6.4. Унификатор  для множества {E1,E2,…,E k } будет наиболее общим
унификатором тогда и только тогда, когда для каждого унификатора  этого множества
найдется такая подстановка , что =
Пример. Множество {P(a,y), P(x,f(b))} унифицируемо, так как подстановка  = {a/x,
f(b)/y} является его унификатором.
Таким образом, ключевой задачей метода резолюций для исчисления предикатов
первого порядка является нахождение наиболее общего унификатора. Прежде чем
переходить к изложению общего алгоритма её решения дадим определение множества
рассогласований.
Определение 6.5. Множество рассогласований непустого множества выражений W есть
такое множество подвыражений, которые начинаются с различающихся символов,
находящихся в одних и тех же позициях в выражениях из W.
Пример. 2.2.3. Если W = {P(x, f(y, z)), P(x, a), P(x, g(h(k(x))))}, то первой позицией, в
которой появляются различные символы, является пятая (символы P(x, первых четырех
позиций во всех выражениях из W совпадают); таким образом, множеством
рассогласований будет являться множество W = {f(y, z), a, g(h(k(x)))}.
6.2. Алгоритм унификации.
Перейдем теперь к алгоритму унификации:
Алгоритм унификации.
Шаг 1. Положим k=0, Wk= W и  k= .
Шаг 2. Если Wk – единичный дизъюнкт, то k–наиболее общий унификатор для W. В
противном случае – поиск множества Dk рассогласований для Wk.;
Шаг 3. Если существуют такие элементы vk и t k в Dk, что vk - переменная, не входящая
в t k, то перейти к п.4.
Иначе W не унифицируемо;
Шаг 4. Пусть k+1=k{tk / vk} тогда Wk+1= W k{tk / vk};
Шаг 5. k := к+1; переход к п. 2.
Приведем некоторые примеры применения унификации.
Пример 1. Пусть W = {Q(f(a), g(x)), Q(y, y)}
1. Положим 0 =  и W0 = W;
2. Множество рассогласований для W0 – D0 = {f(a), y}, т.е.
v0 = y и t0 = f(a);
3. Тогда 1=0{t0 / v0} = {f(a)/y} = {f(a)/y};
4. W1= W0{ t0 / v0} = {Q(f(a), g(x), Q(y, y)} {f(a)/y}=
40
{Q(f(a), g(x), Q(f(a), f(a))};
5. Множество рассогласований для W1 – D1= {g(x), f(a)},
6. Так как подстановки, исключающей последнее рассогласование не существует, то
множество W не унифицируемо.
1.
Пример 2. Пусть W={P(x,f(y)), P(a,u)}. На первом проходе алгоритма будет
найдена подстановка 1= a/x , так как множество рассогласований D0={x,a}. Множество
W1 будет равно {P(a,f(y)),P(a,u)}. На втором проходе алгоритма подстановка будет
расширена до 2={ a/x, f(y)/u)} и W2={P(a,f(y))}. Так как W2 состоит из одного литерала,
то алгоритм закончит работу и выдаст s2.
2.
Пример 3. Пусть W={P(x,f(y)), P(a,b)}. На первом проходе алгоритма будет
найдена подстановка 1= a/x и W1={P(a,f(y)), P(a,b)}. На третьем шаге второго прохода
будет выдано сообщение о том, что множество W неунифицируемо, так как множество
рассогласования D1={f(y),a} не содержит переменной.
3.
Отметим, что при выполнении шага 4 из множества Wk удаляется одна из
переменных (переменная vk), а никакой новой переменной не возникает. Это означает,
что алгоритм унификации всегда заканчивает работу. Ясно также, что если алгоритм
заканчивает работу на шаге 3, то множество М неунифицируемое. Также понятно, что
если алгоритм заканчивает работу на шаге 2, то k – унификатор множества W.
4.
Таким образом, возвращаясь, собственно, к методу резолюций, получаем
следующую схему применения метода в случае исчисления предикатов первого порядка:
1. Взятие отрицания исходной формулы;
2. Приведение формулы к Сколемовской нормальной форме;
3. Нахождение унифицирующих подстановок и унификация множества дизъюнктов
формулы;
4. Резольвирование множества дизъюнктов и нахождение пустого дизъюнкта (если
таковой существует).
Примеры.
В заключение параграфа рассмотрим несколько примеров применения метода резолюций
в исчислении высказываний (Пример 1) и в исчислении предикатов (Примеры 2,3).
Пример 1. Даны 4 утверждения:
Преобразуем все утверждения в стандартную форму:
(1)
Докажем путем опровержения, что
Отрицаем (4) и получаем:
- логическое следствие из (1), (2) и (3).
41
отрицание заключения,
резольвента (3) и (1),
резольвента (5) и (2),
резольвента (6) и (4).
Пример 2. Дано множество формул:
Доказать, что
является логическим следствием
и . Преобразуем
и
стандартную форму и подучим следующие пять дизьюнктов:
(1)
(2)
из
(3)
(4)
O
из
(5)
из
Это множество дизьюнктов невыполнимо. Докажем при помощи метода резолюций:
(6)
резольвента (3) и (2),
(7)
резольвента (5) и (4),
(8) □
резольвента (7) и (6).
Т.о - логическое следствие
и .
в
Пример 3.
Дано множество формул:
Преобразуем
,
и
в следующие дизъюнкты:
(1)
из
(2)
,
из
(3)
,
(4)
(5)
из
Используя метод резолюций, получим:
(6)
резольвента (4) и (2),
(7)
резольвента (3) и (1),
42
резольвента (5) и (7),
(8)
(9) □
резольвента (6) и (8).
Лекция 7. Правдоподобные рассуждения. Автоматизация индуктивных расуждений.
7.1. Понятие квазиаксиоматической теории.
Прежде, чем рассматривать собственно индуктивные рассуждения, охарактеризуем
в целом тот класс рассуждений, к которому можно отнести индуктивные рассуждения.
Прежде
всего,
заметим,
что
хотя
индуктивные
рассуждения
являются
правдоподобными, т.е. не являются достоверными, они не должны быть тривиально
недостоверными, например, не должны использовать некорректные правила вывода типа
А, АВ  ВА. Далее, для них характерна контекстная зависимость от условий
применения посылок; следующей их характеристикой является неполнота информации,
часто приводящая к использованию посылок с неопределенным истинностным значением.
Это последнее обстоятельство означает, в частности, многозначность используемой для
формализации подобных рассуждений логики.
Неполнота информации связана с открытостью предметной области или, как
принято иногда говорить, с открытостью мира. Это означает, что в этом случае мы имеем
дело с открытостью множества утверждений, представляющих систему знаний о
предметной области и используемых в качестве посылок в выводах.
Логическим
уточнением
понятия
открытого
мира
является
понятие
квазиаксиоматической теории, введенное В.К. Финном [20].
Квазиаксиматическая теория K = <, `, R > , где
 - некоторое множество аксиом предметной области, не полностью её
харатеризующее;
`- множество фактов предметной области или гипотез;
R –множество правил вывода (как достоверного так и правдоподобного).
Пусть Кn– состояние квазиаксиоматической теории, полученное в результате n
последовательных применений правил правдоподобного вывода из R, Кn= <n, `n, R > , а
К0– начальное состояние ( к которому ещё не применялись правила правдоподобного
вывода), тогда пара <, ` > , где

n
=

0
n
и `=
n

`n соответствуют n-му
0
состоянию базы знаний.
Последовательность состояний К0 , К1 ,…, Кn квазиаксиоматической теории К,
такая, что К0– начальное состояние, Кn– заключительное состояние, такое, что
применение правил правдоподобного вывода к Кn порождает Кn+1, причем Кn+1 = Кn
43
называется р – рассуждением. Применение правил достоверного вывода из R к
результатам р - рассуждения называется pr – рассуждением.
Вывод называется монотонным, если имеет место:
Если Ф выводима из Г, где Г – некоторое множество формул, то Ф выводима из Г и
 - где  - формула. В противном случае, вывод называется немонотонным.
Рассмотрим правило индуктивного вывода А(а1), …, А(аn)  хА(х), введенное в
2.1.2. Если элементы а1, …,аn не исчерпывают U, то новый индивид аn+1 U может не
обладать свойством А и заключение хА (х) оказывается несправедливым. Это означает,
что хА (х) не выводится из
А(а1), …, А(аn) и В (аn+1) (где В – какое либо свойство аn+1), т.е. индуктивный
вывод не является монотонным.
7.2. ДСМ - метод индуктивного вывода.
Индуктивные рассуждения или рассуждения на основе индукции оказываются
полезными при решении ряда задач, среди которых – обнаружение закономерностей в
массивах данных, восстановление вида функции по её примерам, восстановление
грамматики неизвестного языка по множеству его текстов и другие.
Индуктивные рассуждения можно рассматривать как инструмент для порождения
гипотез. При этом порождаемые гипотезы не обязаны быть достоверными и требуют
дальнейшего анализа, результатом которого должно явиться их обоснование (либо
опровержение). Но это задача других методов, один из которых, рассуждения на основе
аргументации, будет рассмотрен в следующем параграфе, а пока займемся изучением
индуктивного метода порождения гипотез в том виде, в каком его предложил В.К.Финн
[22].
Идея метода
восходит к 1900 году. Она была предложена в начале XX века
английским логиком и философом Джоном Стюартом Милем. Эта идея такова: пусть
задано множество структур типа объект – свойство. Пусть задача состоит в том, что для
некоторого нового объекта требуется установить его неизвестное свойство. В основе
подхода лежит предположение о том, что за каждое свойство объекта отвечает некоторая
его составная часть или фрагмент. Поэтому на первом этапе для заданного свойства
выполняется поиск фрагментов объектов, «ответственных» за это свойство.
Для этого
анализируются
имеющих
структуры
объектов
и
выполняется
поиск
объектов,
совпадающие свойства и структурное сходство. Полагается, что именно общие фрагменты
объектов,
обладающих совпадающими свойствами, являются причиной этих свойств.
44
Затем выполняется поиск такого рода фрагментов в новых объектах и если такие
фрагменты обнаружены, объектам приписываются свойства, причинами которых
являются обнаруженные фрагменты. В простейшем случае полагается, что свойства, за
которые ответственны те или иные фрагменты, порождаются только этими фрагментами и
никак не зависят от окружения или контекста. Иначе говоря, предполагается, что
свойства целого сводятся к сумме свойств его частей Метод, основанный на указанных
соображениях, был назван ДСМ - методом. Здесь мы изложим формализацию ДСМ –
метода в интерпретации [23].
Опишем вначале кратко его схему.
Итак, пусть O - множество объектов; P - множество свойств этих объектов; C множество возможных причин свойств из P ; V - множество оценок. Каждый из
элементов множеств O, P, C также является множеством, а V  {1,1,0,  } .
Определим далее отображение F : P  O  V , так что f(pj, oi) = Fij, где Fij  V.
Полагаем f ( p, o)  1 , если достоверно известно, что объект o обладает свойством
p ; а именно, f ( p, o)  1 , означает, что гипотеза «объект o обладает свойством p »
опровергается (имеются только аргументы "против" и ни одного аргумента "за"). Если
f ( p, o)  0 , то это означает фактическую противоречивость, то есть гипотеза имеет как
аргументы "за", так и аргументы "против". Если f ( p, o)   , то это значит, что гипотеза не
имеет ни одного аргумента "за" и ни одного аргумента "против"., т.е. оценка её значения «неопределённость».
Таким образом, функция F задана следующей матрицей:
o1
F  o2

om
p1
F11
p2
F12


pn
F1n
Fm1
Fm 2

Fmn
где FijV
Эту матрицу можно считать базой экспериментальных фактов. Задача состоит в том,
чтобы преобразовать матрицу F в матрицу F ' , такую что Fij'  Fij , если F ji   ; в
противном случае следует доопределить матрицу F, заполнив её клетки значениями,
отличными от .
Эта задача решается следующим образом:
45
А) вначале следует найти связи фрагментов объектов со свойствами последних. Эти связи
будут представлены в матрице H : C  P  V .
c1
H  c2

cm
p1
H 11
p2
H 12


pn
H 1n
H m1
H m2

H mn
где Hij V.
Б) используем матрицу H для формулирования гипотезы о наличии или отсутствии тех
или иных свойств у объектов, для которых F (o, p )   , p  P , o  O . Иначе говоря,
если p  P - некоторое свойство, матрицу H мы будем использовать для доопределения
функции F и построения таким образом функции F ' : o  p  V .
Теперь опишем шаги А и Б более подробно.
Для этого введем правила 1-го и 2-го рода.
Правила 1-го рода служат для порождения гипотез о причинах свойств объектов.
Пусть o  O c  C , и c является фрагментом O , то есть c  o .
Определение 7.1. Пусть p - некоторое свойство o  O . Будем называть о положительным
примером для p относительно F , если F (o, p)  1 .
Обозначение: F  [ p] - множество положительных примеров
Определение 7.2.. Пусть p - некоторое свойство o  O . Будем называть о отрицательным
примером для p относительно F , если F (o, p)  1 .
Обозначение: F  [ p] - множество отрицательных примеров
Определение 7.3. Пусть p - некоторое свойство o  O . Будем называть о неявным
примером для p относительно F , если F (o, p)  0 .
Обозначение: F 0 [ p] - множество неявных примеров
46
Определение 7.4. Пусть p - некоторое свойство, c - некоторый фрагмент o , т. е. c  o .
Будем говорить, что c удовлетворяет () - условию для p относительно F , если
  F  [ p] , так что
1) c  ( o)  

2)  содержит больше одного элемента, то есть   1 .
Обозначение: M  (c, p, F ) -: c обладает () - условием для p относительно F .
Аналогичным образом вводятся определения для () - условия и (0) - условия:
Определение 7.5. Пусть p - некоторое свойство, c - некоторый фрагмент o, то есть
c  o . Будем говорить, что c удовлетворяет () - условию для p относительно F , если
  F  [ p] , так что
3) c  ( o)  

 содержит больше одного элемента, то есть   1 .
Обозначение: M  (c, p, F ) -: c обладает () - условием для p относительно F .
Определение 7.6. Пусть p - некоторое свойство, c - некоторый фрагмент o , то есть
c  o . Будем говорить, что c удовлетворяет (0) - условию для p относительно F , если
  F 0 [ p] , так что
4) c  ( o)  

 содержит больше одного элемента, то есть   1 .
Обозначение: M 0 (c, p, F ) -: c обладает (0) - условием для p относительно F .
Построим матрицу H (c, p) - матрицу гипотез – следующим образом:
 1, если _ M  (c, p, F )  M  (c, p, F )  M 0 (c, p, F )



0
 1, если _ M (c, p, F )  M (c, p, F )  M (c, p, F )
H ( c, p )  


0
 0, если _ M (c, p, F )  ( M (c, p, F )  M (c, p, F ))
  , если _ M  (c, p, F )  M  (c, p, F )  M 0 (c, p, F )
По существу, это правило вывода, которое и называется правилом вывода 1-го
рода.
Это правило позволяет дать оценку степени правдоподобия гипотезы о том,
что с – причина свойства р.
47
Правила 2-го рода служат для порождения гипотез о наличии свойств у объектов
или, иначе говоря, для доопределения матрицы F.
Пусть o - некоторый объект, p - некоторое свойство.
Будем говорить, что объект o удовлетворяет () -условию для p относительно H , если

c  C : c  o и H (c, p )  1 . Обозначим её через

( H , o, p) .
Будем говорить, что объект o удовлетворяет () -условию для p относительно H , если
c  C : c  o и H (c, p )  1 . Обозначим её через:


( H , o, p) .
Будем говорить, что объект o удовлетворяет (0) -условию для p относительно H , если
c  C : c  o и H (c, p )  0 . Обозначим её через:

0
( H , o, p) .
Матрица F ' ` определяется следующим образом: Fij`= Fij если и только если
Fij # τ; в противном случае:
 1,   ( H , o, p )    ( H , o, p )   0 ( H , o, p )



0
 1,  ( H , o, p )   ( H , o, p )   ( H , o, p )
F ' ( o, p )  


0
 0,  ( H , o, p )  ( ( H , o, p )   ( H , o, p ) )
  ,   ( H , o, p )    ( H , o, p )   0 ( H , o, p )

Эта последняя матрица, собственно, и дает ответ на поставленный в начале вопрос. Затем
процедура повторяется для следующего свойства и так
до вычисления всех
неопределённых в F значений. Однако, для вычисления некоторых неопределенных
значений в исходной матрице, т. е. в базе фактов может оказаться недостаточно
информации. Тогда матрицу F следует пополнить новыми фактами. Может оказаться, что
при таком пополнении матрицы F значения Fij, подсчитанные на предыдущих итерациях,
могут измениться. Тогда процесс пополнения и пересчета значений
Fij следует
продолжить до стабилизации матрицы F/ (если таковая произойдет).
Лекция
8.
Правдоподобные
рассуждения.
Автоматизация аргументационных
рассуждений и расуждений на основе прецедентов.
8.1. Аргументация
Под аргументацией будем понимать такую процедуру принятия или опровержения
некоторого высказывания А, при которой рассматривается некоторое множество
аргументов «за» или «против», используемых для приписывания А некоторой оценки
(истинности) или для выводимости А из этого множества аргументов. Это означает, что
аргументация в рассматриваемом здесь смысле имеет два аспекта: семантический и
синтаксический.
48
Существует широкий спектр аргументационных систем, различающихся уровнями
абстракции и определениями основных понятий [21, 24].
В основе любой аргументационной системы обычно лежат следующие компоненты:
а) логический язык;
б) определение аргумента;
в) определение конфликта между аргументами;
г) определение отвержения аргумента;
д) определение оценки аргумента.
В различных аргументационных теориях понятие аргумента определяется различным
образом: либо аргумент – некоторое примитивное понятие, внутренняя структура
которого не рассматривается, либо он является формулой некоторого логического языка.
В любом
случае для
формирования аргументационной
структуры
необходимы
компоненты в), г) и д).
Можно выделить два типа конфликтов:
1. Опровержение – симметричная форма конфликта;
2. Ослабление – несимметричная форма конфликта.
Для
описания
различных
степеней
конфликта
вводятся
бинарные
отношения:
«конфликтует и не слабее» или «конфликтует и сильнее» [21]. В первом случае будем
говорить, что «аргумент А оспаривает аргумент В», во втором-«аргумент А отвергает
аргумент Б».
Пусть на множестве аргументов определено отношение оспаривания, тогда можно
говорить, что аргументы либо подтверждаются, либо не подтверждаются.
Аргумент подтверждается, если все аргументы, оспаривающие его, не подтверждаются.
Аргумент не подтверждается, если он оспаривается подтвержденным аргументом.
Аргумент А приемлем по отношению к множеству аргументов S тогда и только тогда,
когда каждый аргумент из U, оспаривающий А, оспаривается аргументом из S.
Пусть Arg – множество аргументов, на котором задано бинарное отношение оспаривания.
Определим оператор F:
F : 2Arg  2Arg .
49
Через F(S) обозначим такое множество аргументов Аi Arg, что каждый из них приемлем
по отношению к S. Тогда Аi приемлем по отношению к любому надмножеству S, иначе
говоря, оператор F является монотонным. Отсюда немедленно следует, что F имеет
наименьшую неподвижную точку.
Именно с существованием наименьшей неподвижной точки оператора F связано свойство
«подтверждаемости» аргумента. А именно, легко видеть, что аргумент подтверждается
тогда и только тогда, когда принадлежит наименьшей неподвижной точке F.
8.2. Алгоритм MIRAGE
Опишем далее один из методов моделирования аргументационных рассуждений
ARG1, лежащий в основе известной системы MIRAGE [25] . Метод включает следующие
фазы:
-
выдвижение гипотез;
-
подтверждение или отвержение гипотез;
-
редукция множества гипотез.
Для более детального описания следует зафиксировать какой – либо из способов
представления знаний, например, неоднородные семантические сети, описанные
первой главе. Тогда в
в
вершинах сети будут находиться объекты, названные нами
событиями, а рёбра сети будут представлять элементы отношений, описанных в той же
главе.
Множество событий включает два, вообще говоря, пересекающихся подмножества:
аргументов и гипотез. Как к первым, так и вторым будут относиться факты и признаки;
кроме того, подмножеством множества гипотез являются решения. В качестве исходного
множества аргументов будем рассматривать
«наблюдаемые» факты и
признаки, т.е.
некоторые достоверные данные, которые можно увидеть, измерить или получить в
интерактивном режиме. На множестве всех событий определены отношения из Лекции 3.
Для простоты будем рассматривать только отношения R1, R4 и R7 :
50
R1: «Событие е1 всегда сопровождается событием е2»;
R4: «Событие е1 иногда может увеличивать возможность появления е2»;
R7 «Событие е1 исключает событие е2».
Если е1 таково, что (е1, е2 )  R1 или (е1, е2 )  R4 и не существует e такого, что (e, е1
)  R7, будем говорить, что е1 подтверждает е2.
Если е1 таково, что (е1, е2 )  R7, и не существует e ≠ е2 такого, что (e, е1 )  R7,
будем говорить, что е1 отвергает е2.
Итак, пусть задано множество событий E. Введем одноместные предикатные
символы:
-
O(e) – событие e имеет место (наблюдается или подтверждается).
O(e) – событие e не имеет места.
-
М(е) – событие е возможно имеет место.
-
H(e) – событие e является гипотезой.
-
H(e) – событие e не является гипотезой.
-
S(e) – событие e является решением (подтвержденной гипотезой).
-
S(e) – событие e не является решением (подтвержденной гипотезой).
Введем следующие правила вывода:
П1. (O(e1), (е1, е2 )  R1 ) 
S(e2)
П2. (O(e1), (е1, е2 )  R4 ) 
Н(e2)
П3. (Н(e2), O(e1), (е1, е2 )  R7)  Н(e2)
П4. (Н(e1), (е1, е2 )  R4 ) 
М(e2)
П5. (Н(e1), O(e2), (е1, е2 )  R1 )  Н(e1)
Аксиомы:
Нелогическая аксиома
Т1. S(e)  O(e)
Логические аксиомы (А,В,С – пропозициональные переменные)
51
Т2. A  ( B  A)
Т3. ( A  ( B  C ))  (( A  B)  ( A  C ))
Т4. (A  B)  ( B  A)
Будем также использовать логические правила вывода, описанные в п. 1.1.2.
В дальнейшем из соображений удобства мы будем прибегать, помимо логической, и к
теоретико-множественной нотации.
Так, например, будем использовать то обстоятельство, что О ={e |O(e)}. Точно так же
H = {e |H(e)}, M = {e | M(e)} и S = {e | S(e)}.
Далее, предположим , что имеется некоторая процедура Q, позволяющая из М(е)
заключать О(е) или О(е). Такой процедурой, может быть , например, процедура чтения
информации из базы данных, с датчиков или некоторая интерактивная процедура.
Перейдем непосредственно к описанию ARG1.
Шаг 1.Порождение множества гипотез.
Если е таково, что имеет место О(е), то применяем к е одно из правил вывода П1 либо
П2 (в зависимости от того принадлежит ли пара (е, е2 ) отношению R1 либо R4.
Повторять для всех е  О.
Н := НS
Шаг 2. Расширение множества аргументов.
Ко всем е, таким что е  Н, применяем правило П4 и строим множество всех е, таких
что М(е).
Шаг
3.
Тестирование
аргументов.
Для каждого е такого, что М(е), применяем процедуру Q; если Q (е) = О(е), то О := О
 {e}. Переход к п.1.
Шаги 1 -3 выполняются до стабилизации множеств О и Н, иначе говоря до
нахождения решения уравнения неподвижной точки ARG1 (Х) = Х, где Х = НО.
Шаг 4. Редукция множества гипотез по отвергающим аргументам.
Для всех е, таких что имеет место Н(е), O(e1) и (е1, е )  R7
Н := Н \ {e}.
Шаг
5.Редукция
множества
гипотез
по
обусловленным
(отсутствующим
подтверждающим) аргументам.
Для всех e, таких что
Н(e), (е, е1 )  R1 и выполняется O(e1) в, соответствии с
правилом П5 заключаем, что Н(e). Полагаем Н := Н \ {e}.
Шаг 6. Если мощность множества гипотез │Н│ в результате оказалась меньше или
равной единице, полагаем S = H и алгоритм завершает работу.
52
Шаг 7. Дифференциация множества гипотез.
Если │Н│> 1 и в Н найдутся две гипотезы, множества аргументов которых строго
вложены одно в другое, гипотеза с меньшим числом аргументов е, таких что имеет
место О(е) удаляется из множества гипотез. Эта процедура применяется попарно ко
всем
таким
гипотезам.
Результирующее
множество
гипотез
Н
называется
объясняющим множеством.
Шаг 8. Минимизация объясняющего множества.
Обозначим множество аргументов е гипотезы h, таких что О(е) через Arg (h).
Если │Н│> 2 и в Н найдутся гипотезы h1, h2 , h3 , …,hn, то всякая гипотеза h1, для
которой Arg (h1)  Arg (h2)  Arg (h3)  … hn удаляется из Н. Повторяется до
исчерпания множества таких гипотез.
Шаг 9. S=H. Завершение работы.
8.3. Рассуждения на основе прецедентов.
Как уже было отмечено, основными задачами автоматизации рассуждений на
основе прецедентов являются: а) идентификация текущей проблемы и поиск подходящего
прецедента и б) использование найденного прецедента для решения текущей проблемы.
Эта последняя задача называется иногда задачей адаптации старого решения к текущей
ситуации. Рассмотрим обе задачи более подробно.
Метрики на множестве прецедентов.
Задача, которую мы будем решать в ближайших параграфах
подходящего прецедента. Для
этого
вначале
рассмотрим
- поиск
понятие
близости
прецедентов. Для уточнения понятия близости обычно используются некоторые
метрики. Рассмотрим некоторые из них [26 – 28]. Будем предполагать, что прецедент
представлен в виде вектора признаков, характеризующих некоторое состояние или
процесс. Тогда степень близости устанавливается на основании парного сравнения
текущего вектора с множеством векторов, например, множества прецедентов.
Будем полагать, что
рассматриваемый
прецедент
есть
образ
в некотором
пространстве признаков. В случае, если рассматривается n признаков, имеем для каждого
53
образа точку n-мерного пространства. Пусть в некотором n-мерном пространстве заданы
3 точки - А, B, C.
К метрикам можно предъявить следующие требования:
d(A,B) ≥ 0 (неотрицательность)
d(A,B) = 0 <=> A ≡ B (тождественность)
d(A,B) = d(B,A) (симметричность)
d(A,B) + d(B,C) ≥ d(A,C) (правило треугольника)
Заметим, что этим требованиям
удовлетворяет
расстояние в евклидовом
пространстве:
d ( X k , X j )  ( x1k  x1 j ) 2  ...  ( xnk  xnj ) 2 , где
Xk=(x1k,x2k,…,xnk) и Xj=(x1j,x2j,…,xnj) - образы (точки евклидова пространства).
Если признаки принимают значения либо 1 либо 0 (т.е. являются бинарными
величинами), то в качестве метрики используется мера Хемминга.
n
d ( X k , X j )   xik  xij или d ( X k , X j )  sup xik  xij
i 1
i
Близость образов можно вычислять с помощью мер близости, определенных
несколько иным образом. Условия, которым они должны удовлетворять, таковы:
0   ( A, B )  1 . (  ( A, B ) нормирован).
 ( A, B)  1  A  B
 ( A, B)   ( B, A)
 ( A, B)   ( A, C ) , если d ( A, B)  d ( A, C )
В качестве меры близости, например, может быть использован классический
коэффициент корреляции.
 ( B1 , B2 ) 
 B1 , B2 
B1  B2
В качестве меры близости может быть использована также мера Танимото-Джаккара:
54
К = n / n’,
где: n – число совпавших признаков, n’ – общее число признаков.
Рассмотрим основные типы метрик, которые могут быть использованы в задачах
извлечения информации о медицинских технологических процессах:

евклидова метрика
1
N
2
d ik    ( xij  xkj ) 2  Другая форма представления для сравнения двух векторов.
 j 1

RE2 ( x1 , x 2 )  ( x1  x 2 ) T  ( x1  x 2 ) ;

мера сходства Хемминга
 ijN 

nik
, где nik - число совпадающих признаков у образцов X i и X k ;
N
вероятностная мера сходства
 N
2
   ( wij  xi )
Pj  exp  i 1 2

j




,



где
j-номер
эталона,
Xi
(i  1,2,..., N ) -
элемент
неизвестного входного образца, wij – значение весового коэффициента, соответствующее
математическому ожиданию
i -го
элемента (признака)
j -го эталона. Величина
среднеквадратичного отклонения  j - находится в результате экспериментов для каждого
эталона;

мера сходства Роджерса-Танимото;
ikRT  nik (ni  nk  nik ) ,
где:
nik - число совпадающих единичных признаков у образцов X i и X k ;
ni , n k - общее число единичных признаков у образцов X i и X k соответственно;

метрика Махалонобиса;
Метрика Евклида используемая для определения расстояния между точками
пространства признаков x1 x2
55
RE2 ( x1 , x2 )  ( x1  x2 )T  ( x1  x2 )
(1)
удовлетворяет всем аксиомам расстояния, она удобна для определения расстояния
между двумя точками, например, между точкой наблюдаемых параметров и центром
(выборочным средним) класса. Она не учитывает распределение точек в классе.
Метрика Махаланобиса описывается, как
RM2 ( x, X )  ( x  x) T C 1 ( x  x) ,
(2)
где x – выборочное среднее класса Х. Она представляет собой квадратичную форму,
где С-1 – матрица, обратная корреляционной для рассматриваемого класса.
Элементы матрицы C1 вычисляются по формуле:
cij 
1 n 

 (x1i  x1i )( x1 j  x1 j ) ,
n  1  1
где i, j – все возможные пары индексов измеряемых признаков, (i, j  1,2,..., N ) .
Выражения в скобках есть отклонения значений переменных x1k от соответствующего
среднего
xik .
N
–количество
объектов
в
классе.
При
ik
вычисляются
среднеквадратичные отклонения, которые соответствуют дисперсиям параметров, а при
i  k оценивается ковариация между двумя параметрами
Метрика Махаланобиса
неприменима, если выборочная дисперсия хотя бы одного из параметров равна нулю;

метрика Журавлева

N
1, если xij  x kj  
;
d ik   I ikj , где I ikj  
j 1

0
,
иначе


манхэттенская метрика
N
d ik   xij  x kj
j 1
Показано, что евклидова и манхеттенская метрики приводят к близким результата;

расстояние Чебышева
d ik  arg max xij  xkj
1 j  N
где N - количество переменных (признаков) i и j номера объектов
56
Частично используется в нечетких нейронных сетях в виде минимаксных критериев.
Недостаток - кластеры, полученные с помощью расстояния Чебышева, «склеиваются»
друг с другом;

метрика Брея-Кертиса
N
d ik 
 xij  x kj
j 1
N
 xij  x kj
j 1
В этом случае значения заключены между 0 и 1. Обычно перед использованием этой
метрики
данные
стандартизуют.
Данные
после
стандартизации
должны
быть
неотрицательными;

метрика Чекановского
d ik 
bc
2a  b  c
Коэффициенты a, b, c, и d берутся из таблицы (матрицы) ассоциативности,
построенной для двух объектов i и k, в которой 1 указывает на наличие признака у
объекта, 0 – на его отсутствие. Проще всего рассмотреть эти коэффициенты, обратившись
к таблице (матрице) ассоциативности размера 2 х 2:

1
0
1
a
b
0
c
d
метрика Жаккара
d ik 
a
abc
Как и в случае метрики Чекановского, коэффициенты a, b, c, и d берутся из таблицы
ассоциативности.

обобщенное расстояние Евклида-Махаланобиса
Рассмотрим эту метрику.
Для определения расстояния от точки, координаты которой представляют собой
параметры наблюдаемого объекта, до класса n сходных объектов обычно пользуются
57
метриками Евклида и Махаланобиса. Каждая из этих метрик имеет свои преимущества и
недостатки.
Метрика Евклида, используемая для определения расстояния между точками, x1, x2
RE2 ( x1 , x2 )  ( x1  x2 )T  ( x1  x2 )
удовлетворяет всем аксиомам расстояния, она удобна для определения расстояния
между двумя точками, например, между точкой наблюдаемых параметров и центром
(выборочным средним) класса. Она не учитывает распределение точек в классе.
Метрика Махаланобиса неприменима, если выборочная дисперсия хотя бы одного из
параметров равна нулю:
2
lim R M
( x, X )   .
D 0
i
Метрика Махаланобиса совпадает с Евклидовой в случае, если класс представляет
собой вектор реализаций нормированных (дисперсии Di=1, i=1,…, n) независимых
(ковариации Kij=0, i,j=1,…, n, ij) случайных величин. Если дисперсии больше 1, то
2
расстояние Махаланобиса меньше Евклидова, если меньше, то RM
 RE2 . Проверка
аксиом расстояния затруднена тем, что метрика используется для определения расстояния
между разнородными объектами. Расстояние между двумя точками согласно (3) почти
всегда бесконечно велико. Исключением является случай, рассмотренный ниже, который
2
можно считать доказательством, что RM
( x, x)  0.
Рассмотрим класс, состоящий из трех точек: X={(0, 0), (0, -), (-, 0)}.
C помощью метрики Махаланобиса определим расстояние от точки х=(0, 0) до класса
Х. При , стремящемся к нулю, предел этого расстояния должен быть равен RM2 ( x, x) .
Составим матрицу С-1
1
 22 9  2 9 
 6 2
 
C   2
2

 3 2
   9 2 9 

1
3 2 
.
6 2 
Расстояние Махаланобиса составляет:

  6 2

0

,
0



3
3  3 2



3 2  0  3 

  2,
6 2  0   


3

и не зависит от величины .
58
Таким образом,
lim RM2 ( x, X )  RM2 ( x, x)  2 , что противоречит первой аксиоме
0
расстояния.
Метрику Евклида можно, как и метрику Махаланобиса, представить в виде
квадратичной формы, матрицей которой является единичная матрица:
RE2 ( x1 , x2 )  ( x1  x2 )T E ( x1  x2 )
Метрика Махаланобиса может также использоваться и для измерения расстояния
между двумя классами Х1 и Х2. Для этого используют среднее взвешенное расстояний
Махаланобиса от выборочных средних:
~2
2
2
RM
( X1, X 2 )  RM
( x1 , X 2 )  (1   ) RM
( x 2 , X1 ).
Такая метрика неудобна, т.к. если класс Х1 состоит из единственной точки х1, то
~2
2
RM
( x1 , X 2 )  RM
( x1 , X 2 ). Рассмотрим обобщенную метрику Евклида – Махаланобиса
[8], определяющую расстояние между двумя классами Х1 и Х2, в виде квадратичной
формы
2
RG
( X 1 , X 2 )  ( x1  x 2 )T A 1 ( x1  x 2 ),
где x 1 и x 2 – средние выборочные классов, матрица А-1 является обратной матрицей
произведения
A=(C1+E)(C2+E),
(7)
C1 и C2 – корреляционные матрицы для первого и второго классов соответственно.
2
Для любых двух классов Х1 и Х2 у которых x1 = x 2 , расстояние RG
( X 1 , X 2 )  0. Если
класс Х1 представляет собой точку, то соответствующая ему корреляционная матрица
состоит из нулей и мы получаем расстояние, аналогичное расстоянию Махаланобиса, с
2
той разницей, что RG
( x1 , X 2 )  RE2 ( x1 , x 2 ) в случае если дисперсия Di=0, (i=1,…, n). Если
2
оба класса представляют собой точки, то RG
( x1 , x2 )  RE2 ( x1 , x2 ) . Такая метрика удобна
для
решения
задач
распознавания
образов,
в
которых
некоторые
параметры,
описывающие наблюдаемые объекты, не изменяются. Рассмотрим, в качестве примера,
задачу классификации объектов (табл.2).
Таблица 2.
Объекты
Параметр x1
Параметр x2
Параметр x3
59
1 (класс-1)
16,7
13,46
5,15
2 (класс-1)
19,75
14,015
5,139
3 (класс-1)
17,1
14
6
4 (класс-1)
17,32
11,36
4,73
5 (класс-1)
22,69
13,46
5,15
6 (класс-2)
21,935
14,7
5,932
7 (класс-2)
21,94
14,7
6,36
8 (класс-2)
22
14,7
5,93
9 (класс-2)
21,19
14,7
5,93
10 (класс-2)
22,18
14,7
6,35
11 (класс-2)
22,183
14,698
6,433
12 (класс-2)
21,9
14,7
5,9
Видно, что данные по x2 практически одинаковы, что затрудняет использование
метрики Махаланобиса. Рис.3. поясняет относительное расположение объектов. Каждый
объект представлен точкой ( x1 , x3 ) в пространстве только двух параметров.
7
6,5
y = 0,1601x + 2,6242
x2
6
5,5
5
y = -0,0313x + 5,8189
4,5
4
15
17
19
21
23
25
27
x1
Рис.3. Относительное расположение объектов
Линии наилучшего приближения к множеству точек каждого класса построены по
методу наименьших квадратов. Зеленые точки соответствуют Классу 1, красные – Классу
2. Рассмотрим в качестве примера произвольную точку A c координатами (20.828, 14, 6.1)
60
трехмерного пространства (в соответствии с размерностью табл.1). Измерим для
сравнения расстояния от заданной точки до классов с помощью различных метрик.
Результаты измерений отражены в таблице 3.
Таблица 3.
Расстояния до классов от заданной точки
Расстояние:
Класс 1
Класс 2
Евклида
5.7768
1.4877
Обобщенное
1.3580
1.3590
Махаланобиса
5.3884
1218130.7445
Видно, что расстояние Махаланобиса достаточно велико. Предложенная обобщенная
метрика Евклида-Махаланобиса, учитывает корреляционные свойства классов, таким
образом, что расстояние между точкой и классом стремится к расстоянию Евклида, когда
дисперсии параметров класса стремятся к нулю. Это обстоятельство делает обобщенную
метрику более предпочтительной, особенно, в условиях неопределенности, когда
корреляционные
характеристики
классов
заранее
не
известны
и
сами
классы
формируются и уточняются в процессе измерений в реальном времени.
Согласование прецедентов.
Особенность задач, которые предстоит рассмотреть в ближайших главах
состоит в том, что для построения описаний прецедентов во многих случаях требуется
не только метрическая характеристика их близости, но и некоторая другая
характеристика, которая позволяет сделать вывод о степени соответствия их
структур. Для этой цели в настоящем параграфе вводится понятие согласования [28].
Coгласование
можно рассматривать как количественную характеристику близости
структур прецедентов.
Нахождение количественной оценки степени согласования должно основываться на
соответствии элементов различных прецедентов.
Это соответствие задается локальной функцией согласования.
Определение 8.1. Локальная функция согласования 
: E  E R такова, что
( е, е1 ) = r  R
61
Согласование можно рассматривать как меру сравнимости элементов е1 и е. Если
элементы
е1 и е
несравнимы, то локальная функция согласования на них не
определена. Множество всех элементов е, с которыми сравним элемент е1 обозначим
через  ={e если  ( е, е1 ) определена)}.
Содержательно, сравнимость элементов означает, что они принадлежат одному и тому
же типу или домену и тогда ( е, е1 )0 может рассматриваться как «напоминание» о е1
при обнаружении e; ( е, е1 )=0 означает, что напоминание о е1 отсутствует, а ( е, е1
)0 указывает, что е не может рассматриваться в качестве напоминания о е1.
Определение 8.2.. Согласование между парой прецедентов описывается глобальной
функцией согласования :
: П(Е) x П(Е)  R,
(где R- множество рациональных чисел)
такой, что большее значение (i,  j) соответствует большей степени
согласования прецедентов.
Функция согласования может принимать как положительные так и отрицательные и
нулевое
значения.
Отрицательные
значения
будут
интерпретироваться
как
рассогласование, а нулевое - как нейтральное.
Если ввести функцию ф - композиции локальных функций согласования, то можно
записать
((q1 ,…,qn), (1,…, n)) = ф(1(q1, 1),…n (qn, n))
где. qi, I – прецеденты.
Например, ф может быть линейной формой локальных функций согласования,
коэффициенты которой gi являются весами соответствующих значений локальных
функций, т.е.
((q1 ,…,qn), (1,…, n)) =  gii(qi, i) (i=1,…,n).
Рассмотрим теперь несколько более сложный случай, а именно случай, когда в
прецеденте присутствует несколько элементов е, сравнимых с некоторым
элементом е1 прецедента.
62
Определение 8.3. Пусть
{e1 ,e2 ,…,en} – множество элементов, таких, что с
каждым из них сравним некоторый элемент е (т.е.
={ei  что  ( е, е i)
определена}).
Функцию
е: R…R  R , такую что
е = е (a1 ,…,an),
где
ai = f(aq (еi), (ei,e)),
aq (е) = 1 (если еq) или aq (е) =
0 – в противном случае, будем называть функцией композиции.
Что касается функции f, то в простейшем случае можно считать, что она есть
произведение a и , т.е. ai = aq (еi) (ei,e).
Предпочтения и глобальная релевантность.
Введем теперь некоторую величину, которая будет характеризовать
релевантность
прецедента некоторому элементу или частичную функцию
релевантности
: E  П(Е)  R, так что r =  (e,).
Предпочтения служат для обнаружения
таких прецедентов, которые могут
оказаться наиболее подходящими для некоторого заданного прецедента.
Можно полагать, что такую «предпочтительность» можно задать с помощью
отношения предпочтения на множестве прецедентов, а запись 1 q2 означает что 1
предпочтительнее 2 в смысле некоторого прецедента q.
Однако, надо располагать некоторым априорным критерием, позволяющим
использовать отношение предпочтения. Сформулировать такой критерий позволяет
следующая гипотеза, которую можно назвать гипотезой компактности[29] :
сходные ситуации описываются сходными прецедентами.
63
В соответствии с этой гипотезой, сходство прецедентов
будем описывать
глобальной функцией релевантности, которую можно считать линейной формой
частичных функций релевантности. Глобальную функцию релевантности обозначим
через rel (x,y).
Тогда rel (1 , 2) =  ( (e1, 2), …,  (en, 2)), где e1 , … ,en – элементы 1
.
Положим также, что 1 q2  rel (1, q)  rel (2, q).
Будем считать, что функция релевантности нормирована так, что всяких 1, и 2 rel (1,
2)[0,1]
Величину dist (1 ,2) = (1/ rel (1
,
2)) -1
будем называть расстоянием между
прецедентами.
Лекция 9. Методы планирования поведения. Поиск плана в пространстве
состояний.
Работы по созданию эффективных алгоритмов синтеза плана уже около 30 лет
сохраняют высокую степень актуальности в искусственном интеллекте, что
привело в последние годы к появлению достаточно интересных результатов.
В задаче планирования выделяются две фундаментальные составляющие – среда
и агент:
1) Среда. Для построения плана и управления его выполнением необходимо
построить формальное описание (модель) среды. Основные способы, используемые для
описания среды, базируются на таких методах представления знаний, как системы правил,
логические методы, семантические сети, фреймовые структуры.
2) Агент – аппаратная или программная система, обладающая следующими
свойствами:

автономность – способность работать без внешнего управляющего воздействия;

реактивность – возможность воспринимать среду, реагировать на ее изменения;

активность – способность ставить цели и инициативно действовать для
достижения поставленной цели;

коммуникативность – способность взаимодействовать с другими агентами (или
людьми).
План – последовательность действий, формируемая агентом на основе общих
целей, информации о текущем состоянии среды и динамике её изменения.
Сложность задачи синтеза плана зависит от множества свойств среды и агента, в
том числе:
64
(1) причины изменения среды – только лишь в результате действий агента или вне
зависимости от них;
(2) состояние среды - полностью или частично известно;
(3) достаточность источников данных для получения информации о состоянии
среды;
(4) характр изменения среды - детерминированное или стохастическое.
Когда среда статична (изменения в ней возникают лишь в результате действий
агента)
и
состояние
полностью
известно,
а
действия
агента
производят
детерминированное воздействие на состояние среды, тогда синтез плана называется
задачей планирования при классических допущениях.
Трудность разработки эффективного алгоритма синтеза плана объясняется его
вычислительной сложностью. Эта задача относится к классу PSPAСE-полных задач
[31,32].
Ещё один важный момент состоит в том, что работы в области планирования при
классических
допущениях
способствуют
пониманию
проблем
планирования
с
неклассическими допущениями, которое более адекватно задачам реального уровня
сложности [33].
При описании методов планирования в пространстве состояний использованы
материалы из [61].
9.1. Планирование как поиск доказательства теорем
Один из примеров применения методов доказательства теорем для поиска плана
доставляет система QA3 [55] .
В системе QA3 одно множество утверждений используется для описания
начального состояния, а другое – для описания эффектов действий. Чтобы связать
истинность фактов с состояниями, в каждый предикат включаются выделенные
переменные состояния. Целевое условие описывается формулой с переменной, связанной
квантором существования.
Задача системы состоит в том, чтобы доказать существование состояния, в
котором истинно целевое условие. В основе доказательства лежит метод резолюций.
Эксплуатация
QA3
продемонстрировала
её
низкую
вычислительную
эффективность.
Важно иметь ввиду, что всякое действие
действие может иметь нелокальный
эффект (так называемая проблема фрейма), иначе говоря, неясно какие формулы,
65
описывающие состояние системы, изменяются при применении действия. Это приводит к
тому, что в описание действия включаются утверждения об изменении (не изменении)
каждого факта, представленного в состоянии. Очевидно, что в сложных предметных
областях описание эффектов действий значительно усложняется.
Подход, основанный на методах доказательства теорем не давал сколько-нибудь
приемлемого решения проблемы фрейма.
9.2. Планирование в пространстве состояний
Первым планировщиком, осуществляющим планирование в пространстве
состояний, является STRIPS (STanford Research Institute Problem Solver) [Error! Reference
source not found.6], который предполагалось
применить для решения задачи
формирования плана поведения робота, перемещающего предметы через множество
помещений.
Собственно, идея алгоритма STRIPS заимствована из системы GPS [57]. Метод,
использованный в GPS, назывался анализ средств и целей (means-ends analysis). Он
подразумевает рассмотрение в текущем состоянии тех действий, которые имеют
отношение к цели. Однако, при таком подходе возникает следующая проблема: применять
ли действия, связанные с целью, немедленно, как только они найдены или же
приостановить применение действия до тех пор, пока не будут найдены все действия
имеющие отношение к цели? STRIPS применяет действия не откладывая, достигая каждой
цели по отдельности.
МакДермот [38] показал, что эффективность планирования с использованием
метода анализа средств и целей может быть намного повышена задержкой применения
действия до тех пор, пока не будут найдены все релевантные (относящиеся к цели
действия) и повторением поиска релевантных действий заново, после каждого
применения действия.
Для решения проблемы фрейма STRIPS предлагает в состоянии, к которому
применяется правило (действие), изменять выполнимость лишь тех формул, которые
описаны в эффекте действия, а выплнимость всех остальных оставлять неизменной.
Рассмотрим постановку задачи планирования при классических допущениях в
терминах STRIPS.
Постановка задачи STRIPS-планирования
Как и выше, фактом будем называть замкнутую атомарную формулу языка
исчисления предикатов 1-го порядка (ИПП), а состоянием – некоторое множество фактов.
66
Неформально,
состояние
представляет
модель
среды,
в
которой
действует
интеллектуальный агент.
Приведём пример описания среды в терминах STRIPS:
s = {ATR(a), AT(B,b), AT(C,c), uxy ((AT(u,x)  (x ≠ y))  ¬AT(u,y)) }
Здесь, ATR(a) означает, что "робот находится в комнате a", AT(B,b) – "ящик B
находится в комнате b", AT(C,c) – "ящик C находится в комнате c". Имена конкретных
объектов из этого множества: 'a', 'b', 'c' – соответственно 'комната a', 'комната b', 'комната
c'; 'A', 'B', 'C' – соответственно, 'ящик A', ' ящик B', 'ящик C'.
Действия агента будем описывать с помощью правил, при этом, для упрощения
таких описаний, примем некоторые соглашения.
При описании STRIPS-задачи планирования как в множествах добавляемых, так и
в множествах удаляемых фактов будем использовать
лишь атомарные формулы без
функциональных символов.
Пример правила.
Имя правила:
Push (x, y, z)
Условие:
C(R) = {ATR (y), AT(x, y)}
Список добавлений:
A(R) = {ATR (z), AT(x, z)}
Список удалений:
D(R) = {ATR (y), AT(x, y)}
В приведённом примере STRIPS-правило Push (x, y, z) описывает действие робота
по перемещению ящика x из комнаты y в комнату z. Здесь, x, y, z – переменные.
Выполнение агентом действия сводится к применению правила. Применение правила
модифицирует состояние s.
Определение применимости правила было приведено в Главе 1.
.Применение правила R преобразует состояние s в s' следующим образом:
s' = (s \ (D(R)))  (A(R))).
Это преобразование обозначается так:
R,θ
s  s' ,
где через θ обозначена подстановка
элементов предметной области вместо переменных.
STRIPS-допущение
67
При применении некоторого правила R к состоянию s выполнимость факта fs
изменяется, только если факт f описан либо в списке удалений D(R), либо в списке
добавлений A(R).
Технически, при проверке применимости некоторого правила R, STRIPS
выполняет полную подстановку на места всех переменных индивидов предметной
области. Возможны различные варианты подстановок. Некоторые варианты подстановки
могут давать примеры правил, применимых (или же неприменимых) в состоянии s.
Однако, в алгоритм STRIPS можно внести незначительные модификации для применения
неполностью означенных правил. В этом случае, в состоянии S появились бы факты с
переменными в описании. Как будет видно далее, неполная подстановка активно
используется планировщиками в пространстве планов. Соответствующее свойство этих
планировщиков получило название малого связывания (least commitment).
Приведем постановку задачи STRIPS-планирования.
Определение 9.1. Будем называть доменом планирования P = <s0, ΣR>, где s0 – начальное
состояние, ΣR – конечное множество правил.
Определение 9.2. Будем называть задачей планирования T = <P, G>, где G –описание
целевого факта агента, или просто цель.
Решение задачи планирования T заключается в нахождении плана, который
достигает цели G.
Определение 9.3. План Plan – это последовательность состояний s0, …, sn,
последовательность правил R1, …, Rn, и последовательность подстановок 1,…, n, такая
что, G выполнима в sn. Длина плана Plan равна n.
R ,
R ,θ
R ,θ
n n
1 1
2 2
Plan : s0  s1  s2...  sn
Алгоритм STRIPS
Алгоритм STRIPS приведен в табл.1
STRIPS
вход: R, s, G
выход: plan
1
S=S0
2
пока G не выполнимо в s
68
делать
2.1. выбрать компоненту g из G
2.2. выбрать правило RR такое, что gA(R)
2.3. STRIPS (R, s, C(R))
2.4. применить R к s
2.5. добавить R в plan
3
вернуть plan
Табл.1. Алгоритм STRIPS
На вход алгоритма STRIPS подаётся множество правил R, начальное состояние
s0, цель G.
Будем полагать, что в множестве R все правила полностью конкретизированы.
Вначале в стек целей помещается главная цель G.
Если цель не является простой, т.е. содержит конъюнкцию литералов, то система
STRIPS добавляет в стек в некотором порядке каждый из литералов составной цели
(п.1.1). Когда верхняя цель стека является однолитеральной, система ищет действие
(п.1.2), которое содержит в списке добавлений литерал, сопоставимый с этой целью. Если
такое действие не применимо к текущему состоянию, тогда его предусловие помещается в
стек целей, иначе действие применяется к текущему состоянию (п.1.5.) и помещается в
план (plan). Если верхняя цель в стеке соответствует текущему состоянию, то она
удаляется из стека. Алгоритм STRIPS завершается, когда стек пуст.
Неполнота алгоритма STRIPS.
Существуют задачи, для которых STRIPS либо не может построить план, либо
находит не минимальный план.
Причина этого кроется в том, что STRIPS удовлетворяет каждую компоненту
составной цели по отдельности, без учёта их взаимосвязи. Особенность предметной
области, где цели взаимосвязаны (взаимодействуют) получила название взаимосвязи
целей.
Примечание. Впервые некорректность STRIPS'а в этом случае была вскрыта в
1973 году Аленом Брауном из Массачусетского Технологического института. Браун
попытался решить задачу, рассматриваемую в этом разделе на планировщике HACKER.
HACKER был создан Джеральдом Суссманом на основе планировщика STRIPS, поэтому
задача получила название аномалия Суссмана (Sussman Anomaly) [58] .
Рассмотрим аномалию Суссмана
Дано:
69
Объекты:
3 кубика – A, B, C.
Состояние описывается предикатами:
ontable (x) – кубик x на столе,
clear (x) – над кубиком x пусто,
handempty – рука агента пуста,
holding (x) – рука агента держит кубик x,
on (x,y) – кубик x находится на кубике y.
x, y –переменные.
Правила:
R1: pickup (x) – поднять кубик со стола
C (R1): ontable (x) & clear (x) handempty
A (R1): holding (x)
D (R1): ontable (x), clear (x), handempty
R2: putdown (x) – опустить кубик на стол
C (R2): holding (x)
A (R2): ontable (x), clear (x), handempty
D (R2): holding (x)
R3: stack (x,y) – положить кубик на другой кубик
C(R3): holding (x) & clear (y)
A(R3): handempty, on (x,y), clear (x)
D(R3): holding (x), clear (y)
R4: unstack (x,y) – снять кубик с другого кубика
C(R4): handempty & on(x,y) & clear (x)
A(R4): holding (x), clear (y)
D(R4): handempty, on(x,y), clear (x)
Начальное состояние s0 и цель G изображены на рис.1.
Таким образом, цель G= {On (A,B) & On (B,C)}.
начальное
состояние
целевое
состояние
A
C
A
B
B
C
Рис.1. Аномалия Суссмана
70
Поскольку цель G является составной, то STRIPS расщепляет её на отдельные
компоненты – On (A,B) и On (B,C), которые помещаются в стек и удовлетворяются по
очереди.
Положим, что On (A,B) наверху стека, тогда планировщик находит следующую
последовательность
правил
для
удовлетворения
On
(A,B):
UNSTACK(C,A),
PUTDOWN(C), PICKUP(A), STACK (A,B). Применяет найденную последовательность к
состоянию s0. Получается ситуация, изображённая на рис.2, в которой On (A,B)
выполнима. Цель On (A,B) удаляется из стека целей.
On (A,B)
удовлетворено
A
C
B
Рис. 2. Удовлетворение первой цели
Далее, из ситуации на рис.2 , удовлетворяется следующая цель в стеке – On (B,C).
В результате имеем: UNSTACK(C,A), PUTDOWN(C), PICKUP(A), STACK (A,B),
UNSTACK(A,B),
PUTDOWN(A),
PICKUP(B),
STACK
(B,C).
Применяем
последовательность подчёркнутых правил. Получаем ситуацию на рис.3. Цель On (B,C)
удовлетворена и удаляется из стека. Однако цель On(A,B), удовлетворённая на
предыдущем этапе, перестаёт быть выполнимой.
On (B,C)
удовлетворено
On (A,B)
нарушено
B
C
A
Рис. 3. Удовлетворение второй цели
Поэтому, далее планировщик пытается из ситуации на рис.3 удовлетворить On
(A,B). Это приводит к добавлению ещё двух правил к имеющейся последовательности.
В результате получаем план: UNSTACK(C,A), PUTDOWN(C), PICKUP(A),
STACK (A,B), UNSTACK(A,B), PUTDOWN(A), PICKUP(B), STACK (B,C), PICKUP(A),
STACK (A,B). Подчёркнутые правила применяются. Цель On (A,B) & On (B,C)
достигается. План построен.
Однако существует другой план, содержащий меньше действий:
UNSTACK(C,A),
PUTDOWN(C),
PICKUP(B),
STACK
(B,C),
PICKUP(A),
STACK(A,B).
71
Список литературы
1. C.Клини. Математическая логика.М.:МИР,1973
2. Г.Кейслер, Ч.Ч.Чен. Теория моделей. М.: Мир, 1977.
3. Мальцев А.И. Алгебраические системы. М.: Наука, 1970
4. Fikes R.E., Nilsson N.J. STRIPS: a new approach to application of theorem proving to problem
solving. Artificial Intelligence 1971, 2.
5. Нилсон Н.Принципы искусственного интеллекта. М. МИР, 1977
6. Лорьер Ж.-Л. Системы искусственного интеллекта.М.:МИР, 1991
7. Quillian M.R. Semantic memory // Semantic Information Processing, с. 227-268, MIT Press,
1968
8. Р.Ковальски, Логика в решении проблем. М.: «НАУКА», 1990
9. В.Н.Вагин. Дедукция и обобщение в системах принятия решений.
М.: НАУКА, 1988
10. Г.С.Осипов. Приобретение
ФИЗМАТЛИТ, 1997.
знаний
интеллектуальными
системами.
М.Наука.
11. Жилякова Л.Ю. Об одном классе отношений в неоднородных семантических сетях.//
Изв. ТРТУ №2, Таганрог, 2000, стр. 70-73.
12. Клещёв А.С. Семантические порождающие модели. Общая точка зрения на фреймы и
продукции в экспертных системах. Препринт. Владивосток: ИАПУ ДВНЦ РАН, 1986,
39 стр.
7.
13. Donini, Francesco M., Maurizio Lenzerini, Daniele Nardi, Werner Nutt. The
Complexity of Concept Language. // In Proc. of the 2nd Int. Conf. On the Principles of
Knowledge Representation and Reasoning (KR-91), 1991.
8.
14. Dorofeyeva A. Analysis of Semantic Networks By Means of Description Logics//
In Proceedings of the 1999 International Workshop on Description Logics(DL'99)
Linkцping, Sweden July 30 - August 1, 1999. pp.167 – 168.
9.
15. Шушакова А.Г. Решение задач представления и обработки знаний средствами
дескриптивной логики. // Программные продукты и системы №3, 2002 – М: НТП
«Фактор» – с. 14 – 19.
10.
16.Donini F.M., Lenzerini M., Nardi D., Nutt W., Reasoning in Description Logics //
In Procedings of the Second International Conference on Principles of Knowledge
Representation and Reasoning. (KR-91), pp. – 151 – 162, 1991.
11.
17.Donini F.M., Lenzerini M., Nardi D., Nutt W., The complexity of concept
languages // Inform.and Comp. 134, 1997. pp: 1-58.
72
12.
13.
18. Kurtonona N., Rijke M., Expressivenes of concept espressions in first-order
description logics // Artificial Intelligence, v.107, 1999.
14.
19. F.Baader, PHanschke. A Scheme for Integrating Concrete Domains into Concept
Languages.
15.
Proc. IJCAI-91, Sydney, Australia, 1991, p 452-457.
16.
20. Lutz C., Reasoning with Concrete Domains // Proceedings of the Sixteenth
International Joint Conference on Artificial Intelligence (IJCAI'99), 31 july
–
6
august, 1999, Stockholm, Sweden.
17. С.Ю.Маслов. Обратный метод установления выводимости в классическом исчислении
предикатов // Доклады АН СССР, - 1964, т. 159, № 1, стр. 17-20
18. Robinson J. A. Machine Oriented Logic Based on the Resolution Principle. J. ACM, 12
(January 1965), pp.23 – 41.
19. Ч.Чень, Р.Ли.Математическая логика и автоматическое доказательство теорем.
М.:»Наука», 1983
20. В.К.Финн. Интеллектуальные системы и общество. М.: УРСС, 2006
21. В.Н.Вагин, Е.Ю.Головина, А.А.Загорянская, М.В. Фомина. Достоверный
правдоподобный вывод в интеллектуальных системах. М.: Физматлит, 2004
и
22. Финн В.К. Правдоподобные рассуждения в ителлектуальных системах тиа ДСМ //
Итоги науки и техники. М., 1991. Т. 15, стр. 54-101.
23. Аншаков О.М. Об одной интерпретации ДСМ-метода автоматического порождения
гипотез. // НТИ*, №1, 1999.
24. Prakken, H. & Vreeswijk, G.A.W. (2002). Logics for defeasible argumentation. In D.M.
Gabbay & F. Guenthner (Eds.), Handbook of Philosophical Logic, 2nd edition, Vol 4 (pp. 219318). Dordrecht/Boston/London: Kluwer Academic Publishers.
25. А.Б.Беляев, М.Н.Годовников, С.А.Голубев, Е.П.Куршев, Г.С. Осипов, Л.И.Сазонова.
Технология создания распределённых интеллектуальных систем. Учебное пособие.
Университет г. Переславля, Переславль-Залесский, 1997.
26. Gordon A.D., Classification. London: Chapman & Hall, 1999.
27. Эфрон Б. Нетрадиционные методы многомерноо статистического аализа. М.: Финансы
и статистика, 1988.
28. Назаренко Г.И., Осипов Г.С. Основы теории медицинских технологических
процессов. Ч.2. Иследование медицинских технологических процессов на основе
интеллектуального анализа даных. М.: Наука, Физматлит, 2006.
73
29. Аркадьев А.Г., Браверман Э.М. Обучение машины распознаванию образов. М.: Наука,
1964.
30. Lenz, Mario; Bartsch-Sporl, Brigitte; Burkhard, Hans-Dieter; Wess, Stefan (ed).
Case-Based Reasoning Technology: From Foundations to Applications. Lecture Notes in
Artificial Intelligence. Springer, 1998.
31. Kumar V. Algorithms for constraint-satisfaction problems: A survey. // AI Magazine,
13(1):32--44, 1992. http://citeseer.nj.nec.com/kumar92algorithms.html
32. Kambhampati S., Nigenda R., Nguyen X. AltAlt: Combining the advantages of Graphplan
and Heuristic State Search. // ASU Technical Report
33. Maler O., Manna Z., Pnueli A. From Timed to Hybrid systems // Real-Time: Theory in
Practice, LNCS, Vol.600, с.447-484, Springer-Verlag, 1992
34. McCarthy J. Formalisation of STRIPS in situation calculus // Technical report formal
reasoning Group, Dep. of Computer Science, Stanford University, 1985
35. Williams B., Nayak P. A Reactive Planner for a Model-Based Execution // Proceedings of
the Fifteenth International Joint Conference on Artificial Intelligence (IJCAI-15). – Menlo Park,
California, 1997. – c.1178-1185
36. Long D., Fox M. Efficient Implementation of the Plan Graph in STAN, V.10, p. 87-115,
1999
37. Raphael B. The frame problem in problem solving systems // Artificial Intelligence and
Heuristic Programming. –1971, c.159-169. Edinburgh Univ. Press, Edinburgh, Scotland
38. McDermott, D. A Heuristic Estimator for Means-Ends Analysis in Planning // In
Proceedings of the Third International Conference on AI Planning Systems. – 1996. –c.142–149.
Menlo Park, Calif.: AAAI Press
39. Sussman G. A Computational Model of Skill Acquisition. // PhD thesis, MIT, Cambridge,
Massachusetts, August 1973
40. Chapman D. Planning for Conjunctive Goals // Artificial Intelligence. - 1987. – №32(3). –
с.333–377
41. Tate A. Generating Project Networks // Proceedings of the Fifth International Joint
Conference on Artificial Intelligence. – Menlo Park, California. – 1977. – с.888–893
42. McAllester D., Rosenblit D. Systematic nonlinear planning // Proceedings of AAAI-91,
Anaheim, Ca, 1991
43. Sacerdoti E.D. Planning in a hierarchy of abstraction spaces // Artificial Intelligence. –
1974. – №5. – С.115-135
44. Sacerdoti E.D. The nonlinear nature of plans // Proceedings of the Fourth International Joint
Conference on Artificial Intelligence (IJCAI-75). – Tbilisi, Georgia. – 1975. – c.206-214
74
45. Tate A., Currie K. O-Plan: The Open planning architecture // Artificial Intelligence. – 1991.
– № 52. – с.49-86
46. Wilkins D. Can AI planners solve practical problems? // Computational Intelligence. – 1990.
– Том 6. – №4. – с.232-246
47. Blum A., Furst M. Fast planning through planning graph analysis // Proceedings of the 14th
International Joint Conference on Artificial Intelligence (IJCAI – 95). – Montreal, Canada. –
1995. – с.1636 – 1642
48. Kautz H., Selman B. Planning as Satisfiability // Proceedings of the Tenth European
Conference on Artificial Intelligence ({ECAI}'92)", с.359-363, 1992.
49. Koehler J., Nebel B., Hoffmann J., Dimopoulos Y. Extending Planning Graphs to an ADL
Subset, ECP-97, pages 273-285, Springer LNAI 1348
50. Stoerr H. BDDPlan // http://www.ki.inf.tu-dresden.de/~stoerr/bddplan.html
51. Bonet B., Geffner H. Planning as heuristic search. // Artificial Intelligence. –2001.
http://citeseer.nj.nec.com/bonet01planning.html
52. Hoffmann J., Nebel B. The FF planning system: Fast plan generation through heuristic
search // Journal of Artificial Intelligence Research, 2001
53. Kambhampati S., Nigenda R., Nguyen X. AltAlt: Combining the advantages of Graphplan
and Heuristic State Search. // ASU Technical Report
54. Refanidis I., Vlahavas I. "The GRT Planner: Backward Heuristic Construction in Forward
State-Space Planning", Journal of Artificial Intelligence Research, 15 (2001), с. 115-161
55. Green C.C. Theorem proving by resolution as a basis for question answering systems. In
Bernard Meltzer and Donald Michie, editors // Machine Intelligence, Edinburgh University
Press, Edinburgh, Scotland, 1969, 4
56. Fikes R.E., Nilsson N.J. STRIPS: a new approach to application of theorem proving to
problem solving // Artificial Intelligence 1971, 2
57. Newell A., Simon H. GPS, a program that simulates human thought // Computers and
Thought, eds: E.A. Feigenbaum and J. Feldman, McGraw Hill, NY, 1963
58. Sussman G. A Computational Model of Skill Acquisition. // PhD thesis, MIT, Cambridge,
Massachusetts, August 1973
59. Erol K., Nau D., Subrahmanian V. Complexity, Decidability and Undecidability Results
for Domain-Independent Planning. A Detailed Analysis / Технический отчёт Университета
Мэрилэнд №CS-TR-2797
60. Pednault E. ADL and the state-transition model of action // Journal of Logic and
Computation. – 1994. – № 4(5). – с. 467-512
61. Planning, scheduling and constraint satisfaction: from theory to practice. IOS Press, 2005
75
62.Тарханов
Т.С.
Семейство
алгоритмов
автоматического
синтеза
целенаправленного поведения в доменах планирования с обратимостью
// Препринт ИПС РАН.—2004
планов
63.Blum A., Furst M. Fast planning through planning graph analysis // Proceedings of the 14th
International Joint Conference on Artificial Intelligence (IJCAI – 95). – Montreal, Canada. –
1995. – с.1636 – 1642
64. Трофимов И. В. Использование фокусировки при решении задач планирования. Труды
XI Национальной конференции по искусственому интеллекту. Дубна, 2008.
65 S. Hanks, D.S. Weld. A Domain-Independent Algorithm for Plan Adaptation. Journal of
Artificial Intelligence Research, vol. 2, pp. 319-360, 1995
66. Laurie H. Ihrig, Subbarao Kambhampati Derivational Replay for Partial-Order Planning. In
Proceedings AAAI-94, 1994.
67. D.B. Leake, A. Kinley, D.C. Wilson. A Case Study of Case-Based CBR. In proc.
International Conference on Case-Based Reasoning, pp. 371-382, 1997.
68. R.Bergmann, W. Wilke. PARIS: Flexible Plan Adaptation by Abstraction and Refinement. In
ECAI'96 Workshop "Adaptation in CBR", Budapest, 1996.
69. R. Alterman. Issues In Adaptive Planning. Report No. UCB/CSD 87/304, 1986.
70. K. Sycara. Using Case-Based Reasoning for Plan Adaptation and Repair. In Proc. of the
DARPA Case-Based Reasoning Workshop, 1988.
71. K.J. Hammond. Explaining and Repairing Plans that Fail. Artificial Intelligence, 45(12):173-228, 1990.
72. Veloso M.M., Carbonell J.G. Towards Scaling Up Machine Learning: A Case Study with
Derivational Analogy in PRODIGY. In Machine Learning Methods for Planning, Morgan
Kaufmann, ed. S. Minton, pp. 233-272, 1993.
73. С.Н.Васильев, А.К.Жерлов, Е.А.Федосов, ,Б.Е.Федунов.
Интеллектное управление динамическими системами. М.: ФИЗМАТЛИТ, 2000
74. Осипов Г.С. Динамика в системах, основанных на знаниях // Известия РАН. Теория и
системы управления.  №5. – 1998. – с.24-28.
75. Osipov Gennady. Dynamics in Integrated Knowledge-Based Systems. Proceedings
of the 1998 IEEE Joint Conference, Gaithersburg, MD, USA, September , 1998.
76. Gennady Osipov. Attainable Sets and Knowledge Base Architecture in Discrete Dynamic
Knowledge-based Systems. Proc. Of Workshops of the ECAI 2000 14-th European Conference
of Artificial Intelligence. Berlin. 2000, 39-43.
76
77. Лебедева Т.Г., Осипов Г.С. Архитектура и управляемость дискретных динамических
систем, основанных на знаниях. // Известия АН. Теория и системы управления.  №5. – 2000.
– с.703-709.
78. Виноградов А. Н., Осипов Г.С., Жилякова Л.Ю. Динамические интеллектуальные системы.
Ч.1. Представление знаний и основные алгоритмы. Известия АН. Теория и системы управления,
Наука, 2002, №6, 119-127
79.Виноградов А. Н., Осипов Г.С., Жилякова Л. Ю. Динамические интеллектуальные системы.
Ч.2. Моделирование целенаправленного поведения. Известия АН.
Теория и системы управления, М: Наука, 2003, №1. стр.
80. Г.С.Осипов. Динамические интеллектуальные системы. Искусственный интеллект и
принятие решений, М.: URSS, 2008, № 1.
81. Месарович М., Такахара Я. Общая теория систем. Математические основы. – М.: Мир,
1978. – 311с.
82. Р.Калман, П.Фалб, М.Арбиб. Очерки по математической теории систем.
М.: МИР, 1971.
83. Стефанюк В.Л. Поведение квазистатической оболочки в изменяющейся нечёткой
среде // Труды 4-ой национальной конференции по искусственному интеллекту (КИИ-94),
т.1 // Рыбинск, 1994, с.199-203.
84. Мееров М.В. Синтез структур систем автоматического регулирования высокой
точности. М.:Наука, 1967.
85. Емельянов С.В., Коровин С.К. Новые типы обратной связи. Управление при
неопределённости.- М.: Наука. Физматлит, 1997, 352 стр.
86. Емельянов С.В., Коровин С.К.Расширение множества типов обратных связей и их
применение при построении замкнутых динамических систем//Изв.АН СССР.
Техническая кибернетика. 1981 №5, С. 173-183.
87. Емельянов С.В., Коровин С.К. Новые типы обратной связи. Синтез нелинейного
управления в условиях неопределённости// Юбилейный сборник трудов ОИВТиА РАН.
Т.1. 1993. С. 115-137.
88. Т.А.Гаврилова, В.Ф.Хорошевский. Базы знаний интеллектуальных систем.
С.-Петербург.: ПИТЕР, 2000
89. Boose J.H. Personal Construct Theory and the Transfer of Human Expertise. Advances in
Artificial Intelligence/Ed.T.O`Shea.North-Holland: Elsevir, 1984, p. 27-33
90. J. Kelly. The Psychology Personal Constructs.- N.Y.:Norton, 1955
77
91. Т.А.Гаврилова, К.Р.Червинская. Извлечение и структурирование знаний для
экспертных систем. М.: Радио и связь,, 1992
92. G.S.Osipov. The Method of direct Knowledge Acquisition from human experts. Proceeding
of the 5th Banff Knowledge Acquisition for Knowledge-Based Systems Workshop, Banff,
Canada, November, 1990 , pp.104-116.
93. Cтепанов Ю.С. Имена, предикаты, предложения. Семиологическая грамматика. – М.:
Наука, 1981, 360 стр.
94. Караулов, Ю.Н. Общая и русская идеография. – М.: Наука, 1976
95. Ю.И.Журавлев. Об алгебраическом подходе к решению задач распознавания или
классификации. Проблемы кибернетики, Т.38, с. 5-68.
96. Quinlan, J, R. Induction of Decision Trees. Machine Learning 1:81-106,1986
97. Michalski, R. S. A Theory and Methodology of Inductive Learning. Artificial Inteligence,
20:111-161, 1983
98. Michalski, R.S. and Stepp, R. Learning from Observation: Conceptual Clustering. In: R.S.
Michalski, J.G. Carbonnell, and T.M.Mitchell (eds): Machine Learning: An Artificial
Intelligence Approach, Morgan Kaufmann.
99. Mitchell, T.M. Machine Learning, McGraw Hill, 1996.
100. Hirsh, H. Incremental Version-Space Merging: A General Framework for Concept
Learning. Kluwer Academic Publishers, 1990.
101. Winston, P.H. Learning Structural Descriptions from Examples. Technical report AI-TR231, MIT Cambridge, MA, 1970
102. Miroslav Kubat, Ivan Bratko, Ryszard Michalsky. A Review of Machine Learning
Methods. In: Machine Learning and Data Mining: Methods and Applications, John Wiley&Sons
Ltd, 1996
103. Niblett, T. and Bratko, I. Learning decision Trees in noisy domains. In: Expert Systems 86:
Proc. Expert Systems 86 Conf. Cambridge Univ. Press
104. Michalski, R.S. AQVAL/1-Computer Implementation of a Variable-Valued Logic System
VL1 and Examples of its Application to Pattern ecognition. Proc. Of the First Int. Joint Conf. on
Pattern Recognition, Washington, DS, pp.3-17, 1973.
109.Люгер Д. Ф. Искусственный интеллект: стратегии и методы решения сложных
проблем. - М.: Изд. дом «Вильямс», 2003. – 864 с.
114. И.М.Кобозева. Лингвистическая семантика. М.:УРСС, 2000
115. Хомский Н. Синтаксические структуры. Пер. с англ. К. И. Бабицкого и В. А.
Успенского // Новое в зарубежной лингвистике. II. М.: ИИЛ, 1962. С. 412—527.
78
116. Montague, Richard. Formal Philosophy: Selected Papers of Richard Montague. Edited and
with an introduction by Richmond Thomason, New Haven: Yale Univ. Press. 1974
117. Филлмор Ч. Дело о падеже. // Новое в зарубежной лингвистике. Вып. X. М., 1981. С.
400-444
118.Филлмор Ч. Дело о падеже открывается вновь. // Новое в зарубежной лингвистике.
Вып. X. М., 1981. С. 496-530.
119. И.А.Мельчук. Опыт теории лингвистических моделей «СМЫСЛ ↔ ТЕКСТ». М.:
Наука, 1974
120. Ю.Д.Апресян. Лексическая семантика. Синонимические средства языка. Избранные
труы, Т.1. М.:ЯРК, 1995.
121.Золотова, Г.А.; Онипенко, Н.К.; Сидорова, М.Ю. Коммуникативная граматика руского
языка. М.: Институт русского языка им. В.В.Виноградова РАН, 2004.
122. Золотова, Г.А. Синтаксическй словарь. Репертуар элементарных единиц русского
синтаксиса. М.:Наука, 1988.
123. Смирнов И.В. Метод автоматического установления значений минимальных
семантико-синтаксических
единиц
текста.
Информационные
технологии
и
вычислительные системы. 2008, № 3, с. 30-45.
124. Г.С.Осипов, И.В.Смирнов, И.А. Тихомиров. Реляционно-ситуационный метод поиска
и анализа текстов и его приложения. Искусственный интеллект и принятие решений. 2008,
№2, с. 3-10.
125. http://www.aot.ru
79
Download