Загрузил polishedfeller

Лекции по экспертным системам

реклама
1
Contents
Введение ...................................................................................................................................................... 3
«Горячие точки» ИИ (Д.А. Поспелов, Г.С. Осипов) .................................................................................... 6
Основные этапы развития ИС (ЭС) ............................................................................................................. 7
Классификация ЭС как приложений ........................................................................................................11
Методы обработки плохоопределенной информации в ИС (ЭС) .........................................................12
Теоретико-вероятностные методы оперирования с неопределенностью ..........................................13
Байесовские сети доверия (Bayesian belief networks) ............................................................................16
Метод субъективных коэффициентов уверенности (субъективных вероятностей) ............................17
Теория свидетельств Демпстера-Шефера...............................................................................................18
Правило объединения свидетельств .......................................................................................................20
Вероятностная логика ...............................................................................................................................21
Поиск решения в условиях неопределенности с использованием деревьев решения (ДР) .............22
Методы обработки неопределенности в GURU .....................................................................................24
Использование нечетких переменных ....................................................................................................26
Обработка неопределенности лингвистического характера ................................................................27
Конструирование ЭС (СОЗ)........................................................................................................................32
Структура современных инструментальных средств для разработки ЭС ............................................34
Классификация инструментальных средств конструирования ЭС ........................................................35
Тенденции развития инструментальных средств конструирования ЭС ...............................................37
Приобретение знаний ...............................................................................................................................38
Средства приобретения знаний ...............................................................................................................41
Методы психосемантики ..........................................................................................................................42
2
3
Введение
AI (Artificial Intelligence): McCarthy, LISP – первый символьный язык.
1956г. – Дармутский конгресс (школа-семинар) по ИИ – термин AI появился официально.
Критерии задач (по McCarthy):
 Обработка символьных данных;
 Большие поисковые пространства и недетерминизм в процессе поиска решения.
Примеры творческих задач:
 Доказательство теорем в формальных теориях (ИППП)
GPS (General Problem Solver), Newell, Shaw, Sinar.
 Игровые задачи с большими поисковыми пространствами(шашки, шахматы)
Deep Thought, 1987г.
Deep Blue, 1997г.
Deep Fritz, 2003г.
 Естественный язык
Тх
Текст
Тх U Cntx
Контекст
Таких кругов много
Архетипический текст
Интеллект – это:
 Мыслительная способность, умственное начало у человека, определяющее его
деятельность (© словать Ожегова);
 (лат.) ум; интеллектуальный, умственный, т.е. все относящееся до познания;
 Способность учиться, приобретать, адаптировать, модифицировать и пополнять
знания в целях решения задач.
Знания – это:
 Совокупность сведений, познания в какой-либо области;
 Проверенный практический результат познания действительности, верное ее
отражение в мышлении человека;
 Адекватное отображение реального мира в мышлении человека, которое позволяет
объективно рассуждать и действовать в этом мире;
 Обоснованные истинные убеждения.
Данные – это отдельные факты, характеризующие объекты, процессы, явления в
некоторой конкретной области.
Основные отличия знаний от данных:
1. Интерпретируемость знаний
Понятия – базовые конструкции.
Суждения – конструкции на основе понятий
Умозаключения: Если <Условие применимости>, То <Результат>, cf
(cf – коэффициент уверенности)
4
Семиотика – наука о знаках
 Синтактика (выражение)
 Семантика (содержание, смысл)
 Прагматика (целеполагание)
Frege:
Концепт (смысл)
Фрейм
Образ (денатат)
Имя (десигнат)
Прагматика
(ввел Поспелов)
Система, основанная на данных:
Решение = Данные + Алгоритм
Система, основанная на знаниях:
Решение = Знания + Вывод + Обоснование
2. Структурируемость
Данные, как правило, слабо структурированные или вообще не структурируемые.
ISA (isa): A isa B  A ⊆ B
Part of: A Pof B  A ∈ B
3. Ситуативность (динамичность)
Введем отношение «быть рядом»
1) Рефлексивность – ara
2) Симметричность – arb => bra
3) Транзитивность – arb & brc => arc
Знания ситуативны
4. Наличие статуса истинности и шкалирование
Данные достоверны (как правило)
Знания правдоподобны
Приведем пример шкалы «Красивый человек»
Антипод
Некрасивый
(Квазимодо)
Ж
Идеал
50%
Красивый
(Аполлон)
0
М
разрыв
5
5. Активность знаний (на основании одних знаний можем получать новую
информацию)
Данные пассивны, знания активны.
Логики знаний (веры, убеждений, мнений и тп) – belief – обычно строятся на основе
модальных логик.
Нормальная модальная логика
□ – L (знаю); ◊ – M (возможно)
◊ ≡ ⌐□⌐
◊р ≡ ⌐□⌐р
1) Множество всех теорем логических высказываний
2) Схема аксиом дистрибутивности (К-схема)
K: L(p → q) → (Lp → Lq)
3) Modus ponens
pq
Нормальная модальная система
P:
q
(К-система)
4) Модальные правила необходимости
p
Lp
_____________________________________________
5) Схема аксиомы знаний
T: Lp → p («если что-то известно, то это верно»)
6) Схема аксиомы позитивной интроспекции
4: Lp → LLp («ничего не забывает»)
_____________________________________________
7) Схема аксиомы негативной интроспекции
5: Mp → LMp или Lp →LLp («сомнения в рассуждениях»)
Логики КТ4 (или S4) – нет сомнений, КТ45 (или S5) – есть сомнения.
ИИ – попытка моделирования свойств естественного интеллекта:
1. Способность выделять существенное в имеющихся знаниях, т.е. способность
упорядочивать знания (data mining & knowledge discovery)
2. Способность к целеполаганию и планированию действий
Цель → план → алгоритм действий
3. Способность к отбору знаний (способность выбрать посылки из БЗ для
рассуждений)
4. Способность извлекать следствия из имеющихся знаний (способность к
рассуждениям как достоверным, так и правдоподобным)
5. Способность к аргументированному принятию решений (базируется на
упорядоченности знаний и способности человека рассуждать)
6. Способность к рефлексии (оценка своих знаний и действий)
7. Наличие познавательного любопытства
8. Способность и потребность находить объяснения (объяснения не обязательно
должны быть дедуктивными)
9. Способность к синтезу познавательных процедур, образующих эвристику поиска
решения задачи.
ДСМ-метод – это метод автоматического порождения гипотез. Формализует схему
правдоподобного и достоверного вывода, называемую ДСМ-рассуждением.
6
ДСМ-рассуждение является синтезом познавательных процедур: индукции
(гипотезы), аналогии (перенос информации из гипотез на явления) и абдукции
(причины).
10. Способность к обучению и использованию памяти
11. Способность к рационализации идей (способность формировать понятия, которые
позволяют строить рассуждения)
12. Способность к созданию целостной картины мира относительно предмета
мышления (создание приближенной теории предметной области рассуждений)
13. Способность к адаптации в условиях изменения жизненной ситуации и знаний
(способность к коррекции теории и поведения)
Интеллектуальная система (ИС) = Решатель + Информационная среда (БЗ+БД) +
интеллектуальный интерфейс.
Решатель:
1. Рассуждатель (правдоподобный)
2. Вычислитель (достоверный)
3. Синтезатор
Квазиаксиоматическаяя
теория
(КАТ)
=
теория
правдоподобного
вывода
(гипотезы+правила правдоподобного вывода) + теория достоверного вывода (аксиомы +
правила достоверного вывода)
«Горячие точки» ИИ (Д.А. Поспелов, Г.С. Осипов)
1. Переход от достоверного вывода к правдоподобному (от классического вывода к
аргументации)
Дедукция → индукция + абдукция + аналогии + аргументация
2. Проблема обоснования результата
СОД: Решение = данные + алгоритм
ИИ (СОЗ): Решение = знания + вывод + обоснование
3. Порождение объяснения
Продукционные правила: Если <условие применимости>, то <результат, k>
Why
How
F1 v F2 → ci, ki
F3 & F4 → cj, kj
ci & cj → R, kR
R
Трассировка вверх
ci
Движение вниз
kR
why
cj
ki
kj
how
F1
F2
F3
F4
7
Пример:
Человек разглядывает портрет. "Чей это портрет вы рассматриваете?" спрашивают у него, и человек отвечает: "В семье я рос один, как перст, один. И все
ж отец того, кто на портрете, - сын моего отца". Чей портрет разглядывает человек?
С – смотрящий, П – портрет, отношение Сын (х, у)
(1) Сын (Отец(С), Отец(П))
(2) ∀х (Сын(Отец(С), х))→х=С \\ «нет братьев и сестер»
Отец(П) = С
4. Поиск релевантных знаний (data mining & knowledge discovery)
DM – прагматический аспект:
Хранилище → отбор данных → информация (связанные структурированные
данные, которые точно имеют отношение к задаче) → знания → метод
решения.
KD – когнитивный познавательный аспект:
Наблюдаемые факты → обобщенные факты → эмпирические гипотезы →
теоретические законы.
5. Понимание текста
Система ТЕКРИС: текст ↔ образ
6. Синтез текста
Синтактика – формализуема
Семантика – частично формализуема
Прагматика - ?
Semantic Web
7. Когнитивная графика
Когнитивные науки (связанные с познавательными процессами)
Лица Чернова (Chernoff)
8. Мультиагентные системы
Реактивные агенты когнитивные агенты
интеллектуальные агенты
Карл Саган «Драконы Эдема: рассуждения об эволюции»
Мозг 1375грамм в среднем
Homo habilis – 500 – 800 гр
Homo erectus – 750 – 1250 гр
Homo sapiens – 1100 – 2200 гр
9. Семантические сети (СС) + антологии
10. Формализация метазнаний (знания о знаниях)
Основные этапы развития ИС (ЭС)
ИИ
Бионический подход
(Нейробиологический)
Попытки моделировать
человека или органы
человека
(распознавание образов,
символов)
Информационный подход
(символьно-логический)
Х→F→Y
Y = F(X)
8
α1
λ1
1
1
λn
11
αn
Σ
Ψ
θ
n
Ψ(х) = 1    i i ( x)  
i 1
Сейчас популярен системный подход – используются оба направления.
Soft computing («мягкие» вычисления) – нейро-сети + генетические алгоритмы + нечеткие
логики → эволюционное моделирование
Конец 50х-60е – логическая парадигма (моделирование левополушарных механизмов)
Была построена GPS (Newell, Shaw, Simon)
1958г – LISP (McCarthy)
70е – Prolog
70е годы – отказались от парадигмы универсальных решений; упор на системы,
основанные на знаниях (ЭС); ориентировка на решение определенного класса задач на
уровне эксперта.
Для плохо формализованных слабо структурированных задач:
F(x) → ext
x ⊆ Xдоп
Модели (средства) представления знаний:
1. Логические МПЗ (ИППП) → неклассические логики
Дедукция → абдукция + индукция + аналогии + аргументация
2. Продукционные МПЗ (90% всех систем)
С помощью правил продукции «если <УП>, то <результат, k>»
1975г – OPS5 (написан на LISP): правила продукции + фреймы; плохо
представляются структурированные знания (поэтому использовались фреймы)
1965г – Dendral (спектрограммы)
1969г – Macsima
70е годы – системы Hearsai I → Hearsai II – агент-коммуникатор (идея классной
доски); Mycin → ЕMycin → Teirasias Prospection (полезные ископаемые,
используется байесовский метод) → Kas
3. Модели представления структурированных знаний
Семантические сети и фреймы (M. Minsky)
<имя фрейма, <слот>>
<имя слота, тело, комметарий>
4. Интегрированные (объектно-ориентированные) МПЗ
85г – CLIPS(COOL)
1948г – Н.Виннер «Кибернетика»
1955г – «Логик-теоретик», Newell, Simon, Shaw
1955-56г – J. McCarthy → AI
1956г – школа-семинар – официально озвучили термин AI
9
1957г – универсальный решатель задач GPS
1971-74г – Prolog
Начало 70х – новые исследования в ИИ (ЭС) и представлении знаний, работы по анализу
естественного языка и машинного обучения, машинное зрение и тп.
1975г – Minsky предложил Frame
Середина 70х – ЭС – Dendral и Mycin
Конец 70х – первые коммерческие ЭС: XCon для фирмы Dec (3000 правил, позволила
комплектовать 10 типов компьютеров)
Устройство: дисковод
Тип: Е1203
фрейм
…
1980г - создание американской ассоциации ИИ (AAAI)
 Середина 80х – бум по поводу успехов ЭС
 Prospector
 Folio
 Willard
 Empty и Shell (пустые ЭС и системные оболочки)
 LISP и Prolog машины для разработки ЭС
Конец 80х – проблемы:
1. сложность поддержки массивных БЗ,
2. негибкость,
3. высокая стоимость разработки,
4. трудности работы с противоречиями,
5. невозможность обмена знаниями между ЭС,
6. необучаемость,
7. проблема извлечения и структурирования знаний.
Появилось направление «Инженерия Знаний» (Knowledge Engineering)
Статические ЭС
Ядро ЭС
БД(РП)
Решатель
Интерфейс с
внешними
программными
средствами
БЗ
Пользователь
Блок
приобретения и
накопления
знаний
Блок объяснения
результата
Интерфейс
пользователя
ЛПР
1) формирование знаний → полнота, неопределенность
2) принятие решений
этапы
Э (КЕ)
10
1997г – Deep Blue vs Каспаров
Конец 1999-2000е – коммерческие ИС:
 Звук в текст (распознавание речи > 100 тыс слов+дикторский текст, распознавание
голосовых сообщений <1000 слов+ «зашумленные» данные)
 Автоматизированное реферирование текста (Semantic Web)
 СППР (финансы, банковская сфера)
 Множественные ЭС
 Системы-помощники (Help Desk Support Systems)
 Интегрированные и динамические ЭС
Динамические ЭС:
Статическая ЭС
Блок моделирования
Интерфейс с внешним объектом
Датчики
Контроллеры
1) Генерация исходной информации
2) Прогнозы при нескольких
вариантах решения
3) Прогнозы последствий
принимаемых решений
Rethink
G2
GDA
NeurOnline (моделирование нейронных сетей)
Основные преимущества ЭС:
1. Расширение сферы решаемых задач на трудно формализуемые и слабо
структурированные
2. Тиражирование уникальных знаний экспертов
3. Устранение недостатков современного программирования
4. Объединение технологии ИИ и современного программирования
5. Широкая доступность ЭС
6. Робастность ЭС (по мере ухудшения исходных данных уменьшается качество
ответа, но система не отказывается найти его)
7. Устойчивость работы
8. Быстрый отклик системы, возможность объяснения результата
9. Используются как интеллектуальный доступ к информации и в качестве учителя
11
Классификация ЭС как приложений
I.
По типу приложения
1) взаимозависимость с внешними программыми средствами (ЭТ, СУБД,
датчики, контроллеры)
изолированные \ интегрированные
2) возможность модификации
закрытая \ открытая
3) переносимость&масштабируемость
непереносимые \ переносимые
немасштабируемые \ масштабируемые
4) по архитектуре
ориентированные на централизованную архитектуру (или
отдельные копии ОС на компьютерах, или на одну ОС по всем
компьютерам) \ ЭС
II.
По типу проблемной области
Тип проблемной области = f (тип предметной области, тип решаемой задачи)
1) Тип предметной области
1. Характеристика предметной области
Статическая \ динамическая
2. Способ описания элементов БД
Фиксированный состав \ изменяемый состав
3. Способ организации БЗ
Неструктурированная \ структурированная
продукционные правила и тп.
сети, фреймы, антологии
2) Тип решаемых задач
1. Форма
Замкнутая \ открытая
2. Класс решаемых задач
 Задачи
анализа:
интерпретация,
диагностика,
мониторинг
 Задачи синтеза: планирование, проектирование
 Комбинированные задачи: управление, обучение
3. Тип используемых утверждений
Частные(специальные) \ обобщенные
Конкретный случай
возможно использование
конструкции типа предикатов
3) Отношение к реальному времени
СРВ \ не СРВ
1. Псевдо РВ (время не критично, ограничено некоторыми
рамками)
2. Мягкое РВ (> 1 cек) (подавляющее большинство систем)
3. Жесткое РВ (< 0.5-1 сек)
Статические проблемные области = статическая предметная область +
фиксированный состав элементов в БД + неструктурированная БЗ +
решаются статические задачи анализа в замкнутой форме + используются
частные утверждения + нет РВ. → статическая ЭС
12
Динамические проблемные области = динамическая предметная область +
структурированная БЗ + изменяющийся состав элементов в БД + открытая
форма задачи + обобщенные утверждения + РВ → динамическая ЭС
III.
По стадии существования
Концепция прототипирования (ЭС проходит ряд стадий):
1. Демонстрационная стадия (демонстрационный прототип)
(~0,5-1 год) – несколько десятков правил
2. Рабочий прототип (действующая версия, решает все задачи +
краевые) (~1-2 года) – сотни обобщающих правил
3. Промышленная система (доработали интерфейс, оптимизация
продукции) (~2 года)
4. Коммерческая система (более дружественный интерфейс,
обобщение системы, маркетинг) (~1-3 года)
IV.
По типу используемой вычислительной системы
1. ПК (в основном обучающие)
2. Рабочие станции (основные системы)
3. суперЭВМ
4. специальные компьютеры (LISP, Prolog машины)
Методы обработки плохоопределенной информации в ИС (ЭС)
Природа неопределенности:
 Неопределенность в исходной информации (данных)
Фактор с некоторым коэффициентом уверенности
 Неопределенность в имеющихся знаниях
pi : (fi → Ri, ki)
 Неопределенность в задании цели
Например цель задана качественно, а не количественно
Задача оптимизации
F(x) → ext
x ∈ Xk
pi : (ci → Ri, ki)
условие результат
k(Ri) = f(ki, k(ci)) – если исходные данные недостоверны.
Наиболее часто используются
1. Модель maxmin (наиболее осторожная, но не гибкая)
2. Вероятностная модель (теория вероятности)
13
Теоретико-вероятностные методы оперирования с
неопределенностью
1. Схема Байеса
pi = (ci → Ri, ki)
Ei – свидетельство
Hi – гипотеза
P(H|E) = P(E|H) =
P(H)
P(E)
Условная вероятность
Формула Байеса
P(H&E)
P(H|E) = def P(E)
P(E) = P(E|H)P(H) + P(E|⌐H)P(⌐H)
Модифицированная схема Байеса:
P(H|E)
P(E|H) P(H)
=
∙
P(⌐H|E) P(E|⌐H) P(⌐H)
Апостериорный шанс
O(H|E)
отношение правдоподобия
R(H|E)
априорный шанс
O(H)
Шанс справедливости гипотезы Н:
O(H) =
P(H)
P(H)
=
1 − P(H) P(⌐H)
Отношение правдоподобия:
𝑅(𝐻|𝐸) = def
P(H)=
𝑃(𝐸|𝐻)
𝑃(𝐸|⌐H)
O(H)
1+O(H)
O(H|E)=R(H|E)∙O(H) – модифицированная схема Байеса
P(H|E)=
O(H|E)
1+O(H|E)
Если R(H|E) = 1, свидетельство нейтральное (P(E|H) = P(E|⌐H))
Если R(H|E) < 1, в качестве свидетельства используется контрсвидетельство, т.е. Е
противоречит гипотезе.
Если R(H|E)>1, Е – свидетельство.
𝐸𝑖 ≽ 𝐸𝑗 => 𝑅(𝐻|𝐸𝑖 ) ≥ 𝑅(𝐻|𝐸𝑗 )
P(H|E)
̅(H|E)
P
P(H|E)
△2
△1
R(H|E)
𝑅̅ (H|E)
△3
R(H|E)
14
∆1 – отбросить Н
∆3 – принять Н как достоверную
∆2 – P(H|E) – степень правдоподобия
Ряд свидетельств {Ei}, i=1..n, используется для ряда гипотез {Hj}, j=1..n
P(H|E1..En) – случай зависимости от многих свидетельств
В случае независимости свидетельств Ei справедливо:
O(H|E1..En) = R(H|E1) ∙…∙R(H|En) ∙O(H)
P(H|E1..En) =
O(H|E1 …En )
1+O(H|E1 …En )
, т.е. схема Байеса применима
Определение важности свидетельства Ei:
𝑛
𝑤(𝐸𝑖 ) = ∑|𝑃(𝐻𝑗 |𝐸𝑖 ) − 𝑃(𝐻𝑗 |⌐𝐸𝑖 )|
𝑖=1
Пример
Обозначим:
𝑃 ≡ 𝑃(𝐻)
P(H|E)=
𝑃𝑖+ ≡ 𝑃(𝐸𝑖 |𝐻)
𝑃𝑖− ≡ 𝑃(𝐸𝑖 |⌐𝐻)
𝑃∙𝑃𝑖+
𝑃𝑖+ ∙𝑃+𝑃𝑖− (1−𝑃)
𝑃∙𝑃1+ ∙…∙𝑃𝑛+
P(H|E1..En) =
𝑃∙𝑃1+ ∙…∙𝑃𝑛+ +(1−𝑃)∙𝑃1− ∙…∙𝑃𝑛−
БЗ: <Hj, Pj, Kj, {(NEi, 𝑃𝑖𝑗+ , 𝑃𝑖𝑗− )}>
БД: < NEi, название свидетельства, источник получения>
Например: <Грипп, р, {(1; 0,99; 0,01), (2; 0,9; 0,1)}>
<1, повышенная температура, осмотр>
<2, наличие кашля, осмотр>
2 случая: А) нет эпидемии
Априорная вероятность заболевания р=0,01
1) Наблюдается Е1 – повышение температуры
𝑃1+ 𝑃
0.99 ∙ 0.01
𝑃(𝐻|𝐸1 ) = +
=
=
−
𝑃1 𝑃 + 𝑃1 (1 − 𝑃) 0.99 ∙ 0.01 + 0.01 ∙ 0.99
= 0.5
2) Кашель Е2
𝑃2+ 𝑃
0.9 ∙ 0.01
𝑃(𝐻|𝐸2 ) = +
=
= 0.1
𝑃2 𝑃 + 𝑃2− (1 − 𝑃) 0.9 ∙ 0.01 + 0.1 ∙ 0.99
3) Е1 и Е2
+
𝑃+
1 𝑃2 𝑃
𝑃(𝐻|𝐸1 , 𝐸2 ) = + +
≈ 0.9
−
𝑃1 𝑃2 𝑃 + 𝑃−
1 𝑃2 (1 − 𝑃)
15
Б) есть эпидемия р=0,1
1) Е1
𝑃(𝐻|𝐸1 ) ≈ 0,9
2) Е2
𝑃(𝐻|𝐸2 ) ≈ 0,5
3) Е3
𝑃(𝐻|𝐸1 , 𝐸2 ) ≈ 1
Ограничения для схемы Байеса:
1) Независимость свидетельств (при использовании Байесовских сетей доверия
неважно)
2) Сложности в использовании правдоподобных свидетельств
Шкалы
0
1 (100%)
-а
+а
-100
0
А
+100
0 – не проявляется
1 – очень слабо
2 – слабо
3 – средне
4 – сильно
5 – очень сильно
P(H|A) = P(H|E)P(E|A) + P(H|⌐E)P(⌐E|A)
А – ответ пользователя по опыту свидетельства
P(H|A=0)=P(H)
Не знаю
Используются графики пересчета
P(H|А)
P(H|E)
P(H|А)
P(H)
P(H|⌐E)
-а
А
3) Базируется на классической теории вероятности
P(H)+P(⌐H) = 1
а
А
16
P(H|E1..En) = 0.6
P(⌐H|E1..En) = 0.4
P(H)
P(⌐H)
P(H)
зона
P(⌐H)
неопределенности
Зона противоречия
Решение: использовать
трехзначную логику {0; 0,5; 1},
четырехзначную логику {t, f, τ, 0},
шестизначную логику {-1; -0,5; 0; τ; 0,5; 1}
Байесовские сети доверия (Bayesian belief networks)
1988г – Pearl предложил эти сети
Ситуация снижения скорости движения на дороге:
Ремонт дороги(R)
Дорожные рабочие(D)
авария (A)
замедление(Z)
- гипотезы
машина с мигалкой(M)
При классической схеме:
𝑃(𝑅|𝑍) =
𝑃(𝑅&𝑍)
𝑃(𝑍)
P(Z) = P(Z&R)+P(Z&⌐R)
Надо иметь статистику:
R
Z
P
T
T
0.3
T
F
0.2
F
T
0.1
F
F
0.4
P(R|Z) = 0.3 / (0.3+0.1) ≈ 0.75
P(R,A,D,Z,M) = P(R) ∙ P(A|R) ∙ P(D|R, A) ∙ P(Z|R, A, D) ∙ P(M|R, A, D, Z)
Таблица 25
17
При использования Байесовского метода:
P(R,A,D,Z,M) = P(R) ∙ P(A) ∙ P(D) ∙ P(Z|R, A) ∙ P(M|A)
5 параметров, таблица 20 строк
30 параметров, не более двух родителей → <250 строк
30 параметров, не более трех родителей → <480 строк
Построение: сводят к циклическим графам или к ациклическим направленным
графам.
Метод субъективных коэффициентов уверенности (субъективных
вероятностей)
MYCIN
1, 𝑃(𝐻) = 1
Mд(H,E) = max{𝑃(𝐻 |𝐸 ),𝑃(𝐻)}
, 𝑃(𝐻) ≠ 1
1−𝑃(𝐻)
Доверие (гипотеза, мера)
1, 𝑃(𝐻) = 0
Mн(H,E) = 𝑃(𝐻)−𝑚𝑖𝑛{𝑃(𝐻 |𝐸 ),𝑃(𝐻)}
, 𝑃(𝐻) ≠ 0
1−𝑃(𝐻)
Недоверие
K(H,E) = Мд(Н,Е) – Мн(Н,Е)
Мн ≤ 1, Мд ≥ 0
-1 ≤ 𝐾(𝐻, 𝐸) ≤ 1
P(R)=0.5
Мд =
Мн=
P(R|Z)=0.75
max{0.75;0.5}− 0.5
1−0.5
0,5−min{0.75;0.5}
0.5
= 0.5
=0
K(R,Z) = 0.5 – 0 = 0.5
Можно ввести Kверхпорог(H,E) = 0.2
Kнижпорог(H,E) – не зависит от ситуации
18
Сложное свидетельство – есть ряд свидетельств, которые используются для
гипотезы.
Если Е1 и Е2 независимы, то:
0, если Мн(𝐻, 𝐸1&𝐸2) = 1
(1) Мд(H,E1&E2) = Мд(Н, Е1) + Мд(Н, Е2) − Мд(Н, Е1) ∙ Мд(Н, Е2),
если Мн(𝐻, 𝐸1&𝐸2) < 1
0, если Мд(𝐻, 𝐸1&𝐸2) = 1
(2) Мн(H,E1&E2) = Мн(Н, Е1) + Мн(Н, Е2) − Мн(Н, Е1) ∙ Мн(Н, Е2),
если Мд(𝐻, 𝐸1&𝐸2) < 1
Сложная гипотеза – свидетельство в поддержку всех гипотез
Мд(H1&H2, E) = min{ Мд (H1,E), Мд (H2,E)}
Мн(H1&H2, E) = max{ Мн (H1,E), Мн (H2,E)}
Мд(H1&H2, E) = max{ Мд (H1,E), Мд (H2,E)}
Мн(H1&H2, E) = min{ Мн (H1,E), Мн (H2,E)}
Мд(Ht&Hq, Ei&Ej) = min{ Мд (Ht, Ei&Ej), Мд (Hq, Ei&Ej)}
по (1)
Мн(Ht&Hq, Ei&Ej) = max{ Мн (Ht, Ei&Ej), Мн (Hq, Ei&Ej)}
по (2)
Если сами свидетельства правдоподобны, то надо перейти на метод шкалирования.
-а
0
+а
Мд(H, E) = Мд (H,E)∙max{ К(E,А); 0}
Мн(H, E) = Мн (H,E)∙max{ К(E,А); 0}
Теория свидетельств Демпстера-Шефера
Схема Байеса основывается на:
1) Р(Н)+Р(⌐Н)=1 – свойство дополнительности
2) Свойство индифферентности
3) Точечная оценка
Аксиоматика ТВ по Колмогорову:
1) 0 ≤ 𝑃(𝐻) ≤ 1
2) P(true)=1, P(false)=0
19
3) P(HvQ) = P(H)+P(Q)-P(H&Q) => P(Hv⌐H)=1
Базовые посылки ТС:
1) Использование субъективных свидетельств
2) Различение ситуаций неопределенности и незнания
3) Использование правила объединения свидетельств
1967г
[Р+(Н), Р+(Н)] – вероятностный интервал доверия
Шефер ввел понятия меры (функции) доверия гипотезы Н (Bel(H)) и меры правдоподобия
Pl(H)=1 - Bel(⌐H). Вероятностный интервал доверия – [Bel(H), Pl(H)]
̃ – множество всех возможных подмножеств из {H} гипотез.
𝐻
̃:
Задается базовое распределение вероятностей (мера m(Нi)) на множестве 𝐻
∑ 𝑚(ℎ𝑖 ) = 1,
𝑚(∅) = 0
̃
ℎ𝑖 ∈𝐻
̃ )(𝑚(𝐻) = ∑ 𝑚(ℎ𝑖 )),
(∀𝐻 ⊆ 𝐻
0 ≤ 𝑚(𝐻) ≤ 1
̃
ℎ𝑖 ∈𝐻
Функция (мера) доверия к гипотезе Н:
𝐵𝑒𝑙(𝐻) ≡ 𝑚(𝐻) = ∑ 𝑚(ℎ𝑖 )
Мера недоверия (правдоподобия) к гипотезе Н:
ℎ⊆𝐻
𝑃𝑙(𝐻) = 1 − 𝐵𝑒𝑙(𝐻) = ∑ 𝑚(ℎ𝑖 )
ℎ𝑖 ⋂𝐻≠∅
Пример
Вы миллионер и думаете, покупать ли фирму.
1. 1) пригласили эксперта А
Р(Ав)=0,9
Р(Ан)=0,1
h – покупать акции
Bel(h)=0,9
Pl(h)=1- Bel(⌐h)=1
Вероятностный интервал доверия – [0.9; 1]
2)пригласили эксперта Б
Р(Бв)=0,8
Р(Бн)=0,2
Эксперт Б говорит h.
Нужно посчитать:
Р(Ав&Бв) = Р(Ав) ∙Р(Бв) = 0,9∙0,8 = 0,72
Р(Ан&Бн) = Р(Ан) ∙Р(Бн) = 0,1∙0,2 = 0,02
Р(Ав v Бв) = 1 - Р(Ав&Бв) = 1 – 0,02 = 0,98
Bel(h)=0,98
Pl(h)=1- Bel(⌐h)=1
Вероятностный интервал доверия – [0.98; 1]
2. А → h, Б → ⌐h
Р(Ав&Бн) = Р(Ав) ∙Р(Бн) = 0,9∙0,2 = 0,18
Р(Ан&Бв) = Р(Ан) ∙Р(Бв) = 0,1∙0,8 = 0,08
Р(Ан&Бн) = Р(Ан) ∙Р(Бн) = 0,1∙0,2 = 0,02
Р(Ав v Бв) = 1 - Р(Ав&Бв) = 0,18 + 0,08 + 0,02 = 0,28
20
0.18
𝐵𝑒𝑙(ℎ) = 0.28 = 0.643
𝑃𝑙(ℎ) = 1 − 𝐵𝑒𝑙(⌐ℎ) = 0.714
0.08
𝐵𝑒𝑙(⌐ℎ) = 0.28 = 0.286
𝑃𝑙(⌐ℎ) = 1 − 𝐵𝑒𝑙(ℎ) = 0.357
Вероятностный интервал доверия h – [0.643; 0.714]
Вероятностный интервал доверия ⌐h – [0.286; 0.357]
3. Р(Aв)=0,9
Р(Бв)=0,9
1) А → h, Б → h
Вероятностный интервал доверия h – [0.99; 1]
2) А → h, Б → ⌐h
Вероятностный интервал доверия h – [0.47; 0.53]
Вероятностный интервал доверия ⌐h – [0.47; 0.53]
Правило объединения свидетельств
̃ – образует всевозможные подмножества взаимоисключающих гипотез.
𝐻
̃
𝐻 ⊆𝐻
̃
ℎ𝑖 ⊆ 𝐻
mn(H) – мера доверия к гипотезе Н, а n – число источников свидетеств.
𝑚𝑛 (𝐻) =
∑𝑋⋂𝑌=𝐻(𝑚𝑛−2 (𝑋)∙𝑚𝑛−1 (𝑌))
1− ∑𝑋⋂𝑌≠𝐻(𝑚𝑛−2 (𝑋)∙𝑚𝑛−1 (𝑌))
(*)
Пример
4 гипотезы: пациент – h1 – в шоке, h2 – грипп, h3 – мигрень, h4 – минингит
Свидетельство 1: у пациента лихорадка
m1({h1,h2,h4})=0.6
̃ )=0.4
m1(𝐻
Свидетельство 2: у пациента рвота
m2({h1,h2,h3})=0.7
̃ )=0.3
m2(𝐻
m1
m1({h1,h2,h4})=0.6
̃ )=0.4
m1(𝐻
m1({h1,h2,h4})=0.6
̃ )=0.4
m1(𝐻
m2
m2({h1,h2,h3})=0.7
m2({h1,h2,h3})=0.7
̃ )=0.3
m2(𝐻
̃ )=0.3
m2(𝐻
m3
m3({h1,h2})=0.42
m3({h1,h2,h3})=0.28
m3({h1,h2,h4})=0.18
̃ )=0.12
m3(𝐻
Вывод:
1) Высокая мера доверия ∅ свидетельствует о конфликте свидетельств на множестве
2) При наличии большого множества гипотез и сложности свидетельств метод хотя и
может привести к большим и сложным вычислениям, но их все же меньше, чем для
Байесовской схемы.
21
3) Подход Демпстера-Шефера, основанный на свидетельствах, во многих
приложениях позволяет более адекватно учитывать неопределенность, чем строгий
Байесовский подход.
Вероятностная логика
Нильсон, Банди
Множество инциденций
w – множество элементарных событий
i(A), 𝐴 ⊆ 𝑤 – инциденция А (множество элементарных событий, где А истинно)
Постулируется, что:
𝑖(𝑇) = 𝑤
𝑖(𝐹) = ∅
𝑤
𝑖(⌐𝐴) =
𝑖(𝐴)
𝑖(𝐴&𝐵) = 𝑖(𝐴)⋂𝑖(𝐵)
𝑖(𝐴 ∨ 𝐵) = 𝑖(𝐴) ∪ 𝑖(𝐵)
𝑖(∀𝑥𝐴) ⊆ 𝑖(𝐴𝑠) ⊆ 𝑖(∃𝑥𝐴)
|𝑖(𝐴)|
𝑃(𝐴) =
|𝑤|
Для моделирования качественных рассуждений используются модальные логики (для
представления правдоподобных рассуждений).
□ → L – вероятно
◊→М
LA – вероятно А
LLA – вероятно, что вероятно А (менее вероятно, чем LA)
LnA слабее LmA, если n>m
Вводятся продукционные правила: если Е, то LnН
n – показатель доверия
22
Поиск решения в условиях неопределенности с использованием
деревьев решения (ДР)
1) Конъюнктивные вершины
Р(ci&cj → R, k)
R
k
ci
k(ci)
cj
k(cj)
k(R) = f(k(ci),k)
1. Maxmin
k(R) = min{k(ci), k(cj)}∙k
2. Вероятностная логика
𝑘(𝑅) = 𝑘(𝑐𝑖 ) ∙ 𝑘(𝑐𝑗 ) ∙ 𝑘
2) Дизъюнктивные вершины
Р(ci → R, ki)
Р(cj → R, kj)
R
ki
Pi
kj
Pj
ci
k(ci)
cj
k(cj)
1. Maxmin
k(R) = min{k(ci), k(cj)}∙k
2. Вероятностная логика
k(R) = k(ci)∙ki + k(cj) ∙kj + k(ci) ∙k(cj) ∙ki ∙kj
Пример
{Ri} – набор правил
{Fj} – наблюдаемые факторы (свидетельства)
{ci} – промежуточные заключения
R – целевое заключение
P1 = (F1 → c1, 0.8)
P2 = (F2 → c1, 0.7)
P3 = (F3 → c2, 1)
P4 = (F4&F5 → c3, 0.9)
P5 = (F6 → c6, 1)
23
P6 = (F7 → c6, 0.7)
P7 = (F8&F9 → c4, 0.4)
P8 = (c1&c2&c3 → c5, 0.9)
P9 = (c4→ c6, 0.8)
P10 = (c5&c6 → R, 1)
1) Построить ДР (обратный проход)
Видим, что R выводимо и есть альтернативные пути решения (ДР строим сверхувниз)
R
P10
c5
c6
P9
P8
c1
c2
P1
P2
F1
F2 F3
P5
P6
F6
F7
c3
P3
c4
P4
F4
P7
F5
F8
Вводится 𝑆н = (𝐹̂𝑖 ), 𝑖 = 1. .9, 𝐹̂𝑖 = 𝑘(𝐹𝑖 )
Если меньше порогового значения (kпорог = 0,2), то данные не учитываются.
Пусть 𝑆н = (0,9; 0; 1; 0.8; 0.9; 0.1; 0.8; 0.7; 0.5)
Отсюда видно, что F2 и F6 не учитываются, т.к. < 0.2.
2) Расчет k(R) (прямой проход)
1. Maxmin (MM)
k(c1) = max{(0,9∙0,8); (0,7∙0)} = 0,72
k(c2) = 1
k(c3) = min{0,8; 0,9}∙0,9 = 0,72
k(c4) = min{0,7; 0,5}∙0,4 = 0,2
k(c5) = min{0,72; 1; 0,72}∙0,9 = 0,65
k(c6) = max{(0,7∙0,8); (0,8∙0,2)}∙0,56
k(R) = min{0,65; 0,56} = 0,56
2. Вероятностная логика
k(c1) = 0,8∙0,9= 0,72
k(c2) = 1
k(c3) = 0,9∙0,8∙0,9 = 0,65
k(c4) = 0,4∙0,7∙0,5 = 0,14
k(c5) = 0,72∙1∙0,6∙0,9 = 0,42
k(c6) = 0,8∙0,7 + 0,14∙0,8 – 0,56∙0,112 = 0,57
k(R) = 0,42∙0,57∙1 = 0,24
F9
24
Если
R
0,6
с5
с6
0,5
(*)
(**)
1. (*) = k(R) = max{0.56; 0.6} = 0.6
(**) = k(R) = max{0.6; 0.5} = 0.6
Зависит от максимальной ветки
2. Вероятностная логика
(*) = k(R) = 0.24 + 0.6 – 0.24∙0.6 = 0.7
(**) = k(R) = 0.7 + 0.5 – 0.35 = 0.85
Методы обработки неопределенности в GURU
AND (&)
Pi = (ci → Ri, ki)
интерпретируется
а
b
k(Ri) = f(a,b)
OR (v)
Pi = (ci → R, ki) → a
Pj = (cj → R, kj) → b
k(R) = f(a,b)
Основные логики: maxmin и вероятностная
E.CFVA = xx
AND OR
Тип метода
M
Вероятностная (P)
Смешанная (A)
Специальная (B)
AND (&)
Min{a,b}
ab
< 𝑀 > +< 𝑃 >
2
(ab)(2 – min{a,b})
OR (v)
Max{a,b}
a + b – ab
< 𝑀 > +< 𝑃 >
2
Max{a,b} + min{a,b}(1 – a)(1 – b)
25
Пример
R – надежность поставщиков
R
Финансовое состояние
с1
с11
рентабельность
нет рекламаций
с2
Статус (с3)
1. Государс.
2. Индивид.
3. Частный
4. Корпор.
Удаленность
(с4)
 Близко
(<500км)
 Далеко
(>500км)
с12
нет задолженностей
P1 = (c1 → R; 0.9)
P2 = (c2 → R; 0.8)
P31 = (c3 = «гос» → R; 0.6)
P32 = (c3 = «корпор» → R; 0.5)
P33 = (c3 = «инд» → R; 0.4)
P34 = (c3 = «частн» → R; 0.4)
P41 = (c4 → R; 0.6)
P42 = (⌐c4 → R; 0.3)
P11 = (c11&c12 → c1; 1.0)
P12 = (⌐c11&c12 → c1; 0.6)
P13 = (c11&⌐c12 → ⌐c1; 0.6)
P14 = (⌐c11&⌐c12 → ⌐c1; 1.0)
Существенные факторы ставят первыми, т.к. в случае неудовлетворительных результатов
можно сразу остановить консультацию.
1. Логика РР:
0,9 + 0,8 – 0,72 = 0,98
0,98 + 0,5 – 0,49 = 0,99
0,99 + 0,6 – 0,594 = 1,0
ММ:
Max{0,9; 0,8; 0,5; 0,6} = 0,9
2. Изменим дерево: с1 – 0,6; с2 – 0,6; с3 – 1; с4 – 1
Логика РР:
0,6∙0,9 + 0,6∙0,8 – 0,54∙0,48 = 0,76
0,76 + 0,5 – 0,76∙0,5 = 0,88
0,88 + 0,6 – 0,88∙0,6 = 0,95
ММ:
Max{min{0,6; 0,9}; min{0,6; 0,8}; min{0,5; 1}; min{0,6; 1}} = 0,6
26
P1 = (c1 → R; k1)
P2 = (c2 → R; k2)
R
k1= a
P1
0.9
k2=b
P2
0.8
c1
+
c2
+
k(R) = a + b – ab
Если на c2 стоит –1, на с1 - +1, то: k(R) = a(1 – b)
k(R) = 0.9 + 0.8 – 0.72 = 0.98 – неправильно
k(R) = 0,9 ∙ 0,2 = 0,18 – правильно
R
k1= a
P1
0.9
k2=b
P2
0.8
c1
+0,6
c2
+0,6
k(R) = 0,6∙0,9 + 0,6 ∙0,8 – 0,54 ∙0,48 = 0,76
Когда при с2 стоит -0,6, то k(R) = 0,6∙0,9∙ (1 – 0,8∙0,6) = 0,28
При использовании вероятностной логики система не проверяет данные на
удовлетворение аксиоме вероятности, поэтому это надо проверять вручную.
If k(R)≥50, then «поставщик надежен с коэффициентом k(R)», else «поставщик не
надежен с коэффициентом 100 - k(R)»
Использование нечетких переменных
Нечеткая переменная – одновременно может принимать несколько значений с разными
коэффициенами уверенности.
Пример: изменение цен
E.IFUZ = n
Vпредлож = (200 cf 90; 100 cf 30)
Vспроса = (150 cf 80; 50 cf 20)
P1 = (Vпр > Vсп → цена = падает)
P2 = (Vпр < Vсп → цена = возрастает)
27
P3 = (Vпр = Vсп → цена = сохраняется)
Нечеткая переменная «Цена» = {возрастает cf, падает cf, сохраняется cf}
Классическая максиминная логика Заде:
Cf(Vпр>Vсп) = max{min{90, 80}; min{90, 20}; min{30, 20}} = 80
Cf(Vпр<Vсп) = min{80, 30} = 30
Cf(Vпр=Vсп) = 0
«Цена» = {возрастает cf 30, падает cf 80, сохраняется cf 0}
Пример: банк предоставляет вклады: образовательные, жилищные, сберегательные. Банк
хочет максимальную прибыль и определенную клиентуру. Клиент характеризуется:
возрастом, семейным статусом, производственным статусом.
P1 = (возраст<20 → вклад+ = (образов cf 40; жилищ cf 10; сбер cf 5))
P2 = (возраст>20&возраст<30 → вклад+ = (образов cf 20; жилищ cf 20; сбер cf 10))
P3 = (сем.статус = один → вклад+ = (образов cf 30; жилищ cf 10; сбер cf 20))
P4 = (сем.статус = семейный → вклад+ = (образов cf 10; жилищ cf 40; сбер cf 20))
P5 = (произв.статус = рабочий → вклад+ = (сбер cf 20), вклад- = (образов cf 60))
Клиент: возраст <20, сем.статус = семейный, произв.статус = рабочий
P1
P4
Σ1
P5
образов
40
10
46
-60
жилищ
10
40
46
---сбер
5
20
24
20
Σ2
18
46
39
PP: вклад = (образов cf 18; жилищ cf 46; сбер cf 39)
После нормировки (Σ = 100%): вклад = (образов cf 17,6 ; жилищ cf 44,6; сбер cf 37,8)
ММ: вклад = (образов cf 40; жилищ cf 40; сбер cf 20)
Обработка неопределенности лингвистического характера
L. Zadeh – понятие нечеткого множества и лингвистической переменной.
Пример лингвистической конструкции:
Z = <N, U, T, P1, P2>
N – имя
U – универсум
T – терм
P1 – правила синтаксиса
P2 – правила вывода
Переменная «возраст»:
U = [0, 150]
T = {«молодой», «старый»}
Нечеткое множество А: функция принадлежности μА: u → [0, 1]
μА (u) ∈ [0, 1] – степень принадлежности
красивый
min
Квазимодо
0
max
Аполлон
28
Можно задать непрерывно:
𝜇𝐴
𝑢∈𝑈 𝑢
𝐴 ≝ ∫
Дискретно:
𝑛
𝐴= ∑
𝑖=1
𝜇𝐴 (𝑢𝑖 )
𝑢𝑖
Пример:
𝑢−25 2 −1
25 1
150 (1+( 5 ) )
«молодой» ≝ ∫0
+ ∫25
𝑢
𝑢
молодой
старый
μА
u
25
50
𝑢−25 2 −1
150 (1+( 5 ) )
«старый» ≝ ∫25
𝑢
μА
u0
29
Трапецевидные или треугольные формы:
1
α
а
β
1
α
а
β
b
«Несколько»
U = [1, 2…10] или U = 1 +2 +3 +….+ 10
«несколько» ≜
0,1
2
+
0,5
3
+
0,9
4
1
1
+ 5+ 6 +
0,3
7
«очень А» ≜ А2
«очень А» ≜ con(A) = А2
«более менее А» ≜ dil(A) = А1/2
«не А» ≜ ⌐А = (1 – А) = ∫𝑢
(1− 𝜇𝐴 (𝑢))
𝑢
«молодой»: ⌐А = 1 – А
0,1
0,9
1
«сильный студент» ≜ 3 + 4 + 5
1
1
1
2
«несильный студент» = (1 – А) = +
Операция увеличения нечеткости:
1
k(u) ≜ 𝑢
F(A, k) ≜ ∫𝑢 𝜇𝐴 ∙ 𝑘(𝑢)
«злая собака»
U = [болонка, такса, овчарка, бульдог]
слабо
средне
сильно
сильно
А ≜ болонка + овчарка + такса + бульдог
+
0,9
3
+
0,1
4
30
k(2010) = 1/2010 + 0.9/2009
k(2009) = 0.7/2008 + 1/2009 + 0.9/2010
Правила вывода:
 Классические:
А→В
А
--------В
 Нечеткие:
А→В
А*
--------А*∙(А → В)≜(АхВ)∪(⌐АхU)
Чем ближе А* к А, тем результат ближе к В
Серые шкалы (непрерывные):
Min
max
0%
100%
50%
Ч\б шкалы:
возрастает
убывает
Min
Дьявол
max
разрыв
бог
Пример:
«красивый мужчина»
Min
max
Квазимодо
Аполлон
Рост
Min
0
max
Вес
Цвет волос
Блондин
брюнет
«красивый мужчина» ≜(высокий и стройный и светловолосый)
31
Операции на шкалах:
1) Дизъюнкция
2) Конъюнкция
3) Проекция
1. Прямая
Min
А
х
Min
В
x’
y≽x → y’≽x’
max
у
max
у’
преступление
а
b
тяжесть преступления
a’
b’
наказание
a’’
b’’
2. Обратная
Min
max
цена
a
b
Min
max
спрос
b’
b≽ a→ a’≽b’
4) Инверсия
Min
Min
a’
max
max
«хотя, зато»
Разные ценностные шкалы или одна шкала, но разные ценности.
«добрый человек»
Min
max
Малюта Скуратов
мать Тереза
Min
max
отзывчивость
Холодный
Min
отзывчивый
max
ум
Идиот
Min
гений
max
Свойства характера
Легкий
тяжелый
32
«добрый человек» ≜(отзывчивый и разумный и легкий характер)
Надо строить столько шкал, пока не доберемся до физической интерпретации
шкал.
Конструирование ЭС (СОЗ)
Состав разработчиков:
1) Эксперт
2) Инженер знаний
3) Системный программист
4) ЛПР
ответы
Э
ИЗ
вопросы
создание
отладка
модификация
использование
отладка
модификация
вопросы
ЭС
создание
отладка
модификация
Инструментальная
среда
ЛПР
создание
СП
Перед созданием системы надо решить 2 вопроса:
1) Целесообразность создания системы
2) Возможность создания системы
Целесообразность:
1) Экспертов мало, потребность в них большая
2) Экономическая (коммерческая) эффективность
3) Принятие решений во враждебной среде и жестких временных ограничениях
4) Потеря информации при удаленном общении с экспертом
Возможность:
1) Имеются эксперты
2) Если экспертов несколько и их знания согласованы
3) Знания эксперта должны быть достаточно формализованы (рассуждения эксперта
не должны базироваться на здравом смысле)
4) ЭС должна базироваться на рассуждениях, а не действиях
5) Решаемая задача должна соответствовать задаче ИИ (задача должна иметь
эвристический характер, оперировать символьной информацией, не должна быть
33
сверхсложной или очень общей, должна быть достаточно узкой и базироваться на
имеющихся знаниях)
Основные этапы разработки ЭС:
1) Идентификация (ЛПР, Э, ИЗ)
Переконструирование
2) Концептуализация (Э, ИЗ)
ТЗ
Переформализ.
3) Формализация (ИЗ)
Рабочее проектирование
4) Реализация (СП, ИЗ, Э)
Усовершениствование
Модификация
Прототип ЭС
5) Тестирование и отладка (ИЗ, Э, ЛПР)
Демонстрационный прототип
6) Апробация (ЛПР)
ЭС
ЭС
1-2 – до 70% времени разработки
3 – выбор модели представления знаний
1 – определение основных черт системы, состав разработчиков, время выполнения
2 – уточнение основных понятий
34
Структура современных инструментальных средств для разработки
ЭС
Ядро
Программный уровень
Интерфейсный уровень
Ядро:
1) ООТ
2) РВ
Программный уровень:
1) Активная графика
2) Естественные языковые средства
3) Наличие средств моделирования
4) Поддержка специальных и общих утверждений
5) Представление формул
6) Представление процедур
Интерфейсный уровень:
1) Интегрированность + внешний интерфейс (СУБД, ЭТ, PLC)
2) Повторное использование (система может работать на аналогичной задаче)
3) Поддержка архитектуры клиент-сервер
4) Масштабируемость приложения
5) Открытость и переносимость
6) Инкрементальная разработка приложений (нет проблем с модификацией)
35
Классификация инструментальных средств конструирования ЭС
I.
Уровень используемого языка
1) Традиционные языки (C++, C#, Java)
2) Символьные языки (LISP, Prolog, Clips)
3) Инструментальные средства типа TOOLS (OPS5, KEE, KRT)
4) Инструментальные средства типа SHELLS (1stClass, GURU)
5) Инструментальные средства, ориентированные на динамические ЭС и ЭС
реального времени
6) Предметно-проблемно ориентированные инструментальные среды (G2,
RTWORKS)
II.
Технология программирования
1) Традиционное программирование
2) Программирование на основе технологии datа-flow
F(x1…xn)
x
y
Im
Exp
3) Программирование на основе правил (rule-based)
РП(БД), БЗ(БП), Решатель
P = {𝑃𝑖 }1𝑛
Продукционный цикл:
1. Сопоставление текущей ситуации S c P → конфликтное множество CS
2. Разрешение конфликта
Жесткая стратегия
гибкая стратегия
параллельное выполнение
Активное множество AS⊆CS
3. Выполнение правил из AS → состояние S’
4. Оценка результатов
Если S’∈ Sц и удовлетворяет критериям, то выдаем результат, иначе go
to 1 с S ∶= S’
4) ООП
III.
Способ представления знаний
1) Логические МПЗ
Переход от классической логики (prolog) к неклассическим логикам
(аргументация, абдукция,темпоральные логики, логики знаний и веры)
2) Продукционные модели
3) Модели представления структурированных знаний (семантические сети,
фреймы, антологии)
4) ОО МПЗ (Clips( COOL))
IV.
Средства поиска решения и моделирования
1) Ориентация на создание статических ЭС
1. По структуре (форме) используемых знаний
С построением ДР(СР) \ без построения ДР(СР)
36
2. По стратегии поиска решения
С полным перебором \ с ограниченным перебором
- В глубину
- В ширину
- Комбинированно
эвристики
2) Ориентация на создание динамических ЭС
1. По структуре (форме) используемых знаний
Компиляция ДР(СР) \ генерация ДР(СР)
Динамика слабая,
перекомпиляция при
изменениях в БЗ
Сильная динамика,
ДР постоянно обновляется
2. По средствам получения результата и проверки БЗ
 Наличие средства поддержки истинности
(средства удовлетворения ограничений)
 Средства планирования поиска решения
РБ – гибкие алгоритмы
(улучшение результата по мере увеличения ресурсов)
3. По средствам моделирования
 Стандартные средства (классические марковские процессы)
Информация должна быть достоверна; в G2 – метод Эйлера и
Рунге-Кутта
𝑆(𝑡 + Δ𝑡) = 𝑓(𝑆(𝑡), 𝑈(𝑡), 𝑉(𝑡))
 Специальные средства
𝑆(𝑡 + Δ𝑡) = 𝑓(𝑆(𝑡), 𝑆(𝑡 − Δt) … S(t − kΔt), 𝑈(𝑡), 𝑈(𝑡 − Δt) … U(t − kΔt),
𝑉(𝑡), 𝑉(𝑡 − Δt) … V(t − kΔt))
Дописывается разработчиком или СП
V.
Средства приобретения знаний
1) Уровень используемого языка
 Формализованный язык
 Ограниченный естественный
 Язык пиктограмм и изображений
 Естественный язык + язык изображений
2) По типу приобретаемых знаний
 Простые \ глубинные

VI.
Продукционные правила
сети, антологии, фреймы
с триплетами
неструктурированные \ структурированные
Технология разработки приложений на основе знаний
На основе простых знаний \ на основе глубинных знаний
37
Тенденции развития инструментальных средств конструирования
ЭС
I.
II.
III.
ИС для создания интеллектуальных систем
1) Ориентированные на РС (1stclass, EXSES, Nexpert…)
2) Ориентированные на рабочие станции (Nexpert object prof, Level5 object
prof, GURU, Clips)
1. Предметно-проблемно ориентированные ИС (G2, RTWorks)
2. Средства для создания систем-советчиков (help check application)
3. Средства case based reasoning
3) Ориентированные на main frame (KBMS, TIRS…)
4) Ориентированные на спецмашины (LISP-машины, Prolog-машины)
Естественно-языковые системы
1) Средства для создания естественно-языкового интерфейса к СУБД
2) Естественно-языковой интерфейс для поиска и сканирования текстов
3) Средства для распознавания речи (словари >100 тыс слов + дикторский
текст)
4) Средства для голосового ввода (словари < 1000 слов + зашумленные этапы)
5) Средства (компоненты) речевой обработки
Средства soft computing
1) Нейронные сети
1. Общего назначения \ специального назначения (предметноориентированные)
2. Управление процессами
3. Фейс-контроль
4. Финансовые модели
5. Оценка недвижимости
2) Нечеткие логики (fuzzy logic)
1. Нечеткие контроллеры
2. Моделирование рассуждений (нечеткие алгоритмы)
3) Генетические алгоритмы (эволюционное моделирование)
Выбор популяции (хромосом) t=0
Отбор для скрещивания(селекция) t=t+1
Скрещивание, получение новой популяции p(t)
Эволюция (мутация)
IV.
Средства приобретения знаний
1) Извлечение знаний из текста
2) Извлечение знаний из эксперта
3) Формирование знаний на основе обучения
38
Data Mining (прагматический аспект)
Хранилище
Данные
Информация
Знания
Метод решения
Knowledge Discovery (машинное обучение) (познавательный аспект)
Наблюдаемые факторы
Обобщенные факторы
Эмпирические гипотезы
Теоретический результат
Приобретение знаний
Извлечение знаний
(knowledge elicitation)
Приобретение знаний
(knowledge acquisition)
100%
Эксперт
Вербализация
Формирование знаний
(machine learning)
25-30%
Инженер знаний
высказано
услышано
осмыслено
39
Знания в голове эксперта
К1
Неформализованы
(невербализованы)
К2
вербализованы
К3
Полуформализованы
(определены основные понятия и отношения между ними)
К4
Формализованы
(модель представления)
К5
База знаний системы
Плохо формализованы → формирование знаний
Хорошо формализованная предметная область → четкие алгоритмы
Средне формализовано → ЭС
Основные алгоритмы извлечения знаний:
1) Лингвистический → антологии
Синтактика
Семиотика
Прагматика
Семантика
синтактика
Acer
прагматика
ЛПР
(целеполагает)
Компьютер
семантика
40
Концепт
Десигнат
(имя)
Денотат(образ)
Прагматика
2) Гносеологический
Прагматический подход
Хранилище
Гносеологический подход
наблюдения
Данные
обобщение
Информация
гипотезы (эмпирические знания)
Знания
теоретические знания
Метод решения
3) Психологический
Контантный слой
Процедурный слой
Когнитивный слой
Специфика эксперта
теория вопросников
Экстраверт\интроверт;
Импульсивность\
рефлексивность;
Гибкость\ригидность;
Эратетические знания
поверхностные
денотативные
фактографические
знания\конотативные
глубинные;
Достоверные\
правдоподобные
МПЗ
Классические
Неклассические
Продукционные
Структурированные
Интегрированные
ОО МПЗ
По глубине
Поверхностные
Глубокие
+
+
+
+
+
+
По достоверности
Достоверные
Правдоподобные
+
+
+
+
+
+
+
+
41
Методы извлечения знаний:
1) Текстологические (текст, книга)
2) Коммуникационные (эксперт)
Пассивные
 Наблюдение
 Лекции
 Мысли вслух
Активные
Индивидуальные
- Интервью
- Анкетирование
- Диалог
- Экспертные игры
Групповые
- Мозговой штурм
- Круглый стол
- Ролевые игры
Уровни познания
Наблюдаемые
Обобщенные
факторы
факторы
Уровень восприятия
 Построение признакового

пространства
 Выявление отношений между

признаками

(семиотическое кодирование)
 Структурирование предметной
области
Эмпирические
Теоретические
законы
законы
Уровень отражения
Структурирование ПО
(глубинное структурирование)
Образная память (воображение, ассоциации)
Понятийное мышление (объяснение ситуации и
прогнозирование ее развития; если человек его
теряет, то впадает в ступор)
Средства приобретения знаний
1) По области примемения
1. Зависимые \ независимые от ПО
2. Ориентирвоанные на задачи анализа \ синтеза
2) По методам приобретения знаний
Ориентированные на ИЗ \ Э \ группу экспертов
3) По способу организации диалога с экспертом
1. Проблемно-ориентированные системы \ естественно-языковые системы
2. с \ без БЗ
3. с \ без использования метода психосемантики
4) по типу приобретенных знаний
1. поверхностные \ глубинные
2. структурированные \ неструктутрированные
42
Методы психосемантики
1) метод семантических дифференциалов Остуда
задача: перейти от наблюдений к обобщениям и определить их надежность.
Основные шкалы:
1. шкала оценки (знаний)
2. шкала силы (важности)
3. шкала активности (надежности)
На основе шкал строим вектор «сила управляющего воздействия»
у
надежность
А
х
знание
z
важность
Сила управляющего воздействия
Активное использование знаний
А
Уровень тонкой коррекции
Уровень уточнения знаний
2) метод репертуарных решеток Келли
Элементы
Конструкты
Доминирование \ подчиненность
Народ
Активность \ пассивность
….
Действие \ бездействие
Акция
….
Активная \ пассивная
Власть
….
43
Элемент\конструкт
1
2
3
…
1
R11
2
R12
3
…
Rij
Учитывает степень важности конструкта для элемента
Модели конфликта (С2𝑛 )
Если она необозрима, то используется треугольник Хайдера (С3𝑛 )
Начальник
Ситуация общего согласия
+
Зам
+
+
Главбух
Начальник
+
Зам
+
-
Ассонанс
( неглубокий диссонас)
Главбух
Начальник
-
Зам
+
+
Может понадобиться удаление
элемента
Главбух
Начальник
-
Зам
+
-
Главбух
Обязательно будет удаление
одной стороны
44
Начальник
Глубокий диссонанс
-
Зам
-
+
Главбух
Начальник
-
Зам
-
-
Критическая ситуация
структура нежизнеспособна
Главбух
Надо учитывать важность отношений (веса wij)
3) многомерные семантические шкалы
4) кластерный анализ
5) использование когнитивных графов
1. выделить понятия
народ
?
+w11
власть
-w12
правоохранительные органы
территория
2.
3.
4.
5.
6.
отношения
направленность отношений
сила отношений
использование некоторых методов
группировка (выделение сильных и слабых отношений)
Скачать