2. объем дисциплины и виды учебной работы.

реклама
РОССИЙСКАЯ ФЕДЕРАЦИЯ
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ
Федеральное государственного бюджетное учреждение
высшего профессионального образования
ТЮМЕНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
«УТВЕРЖДАЮ»:
Проректор по учебной работе
_______________________ /Л. М. Волосникова/
__________ _____________ 2011 г.
ИНТЕЛЛЕКТУАЛЬНЫЕ ИНФОРМАЦИОННЫЕ СИСТЕМЫ
Учебно-методический комплекс
для студентов специальности 230201.65 –
Информационные системы и технологии
«ПОДГОТОВЛЕНО К ИЗДАНИЮ»:
Автор работы ____________________ Кугаевских А.В.
«___» ____________ 2011 г.
Рассмотрено на заседании кафедры информационных систем протокол
№ _____ от «___» ___________ 2011 г.
Соответствует требованиям к содержанию, структуре и оформлению.
«РЕКОМЕНДОВАНО К ЭЛЕКТРОННОМУ ИЗДАНИЮ»:
Объем 9 стр.
Зав. кафедрой Ивашко А.Г.
«______»___________ 2011 г.
Рассмотрено на заседании УМК института математики, естественных
наук и информационных технологий,
протокол № ___ от «___» __________ 2011 г.
Соответствует ФГОС ВПО и учебному плану образовательной
программы.
«СОГЛАСОВАНО»:
Председатель УМК ________________________ /И. Н. Глухих/
«___»_____________2011 г.
«СОГЛАСОВАНО»:
Зав. методическим отделом УМУ_____________ /С. А. Федорова/
«___»_____________2011 г.
РОССИЙСКАЯ ФЕДЕРАЦИЯ
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ
Федеральное государственного бюджетное учреждение
высшего профессионального образования
ТЮМЕНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
Институт математики, естественных наук и технологий
Кафедра информационных систем
Кугаевских А.В.
ИНТЕЛЛЕКТУАЛЬНЫЕ ИНФОРМАЦИОННЫЕ СИСТЕМЫ
Учебно-методический комплекс
для студентов специальности 230201.65 –
Информационные системы и технологии,
очной формы обучения
Тюменский государственный университет
2011
Кугаевских
А.В.
Интеллектуальные
информационные
системы. Учебно-методический комплекс. Рабочая программа для
студентов очной формы обучения специальности 230201.65 –
Информационные системы и технологии. Тюмень. 2011. 9 стр.
Рабочая программа составлена в соответствии с требованиями
ФГОС ВПО с учетом рекомендаций и ПрООП ВПО по направлению и
профилю подготовки.
Рабочая программа дисциплины опубликована на сайте ТюмГУ:
Интеллектуальные информационные системы [электронный ресурс] /
Режим доступа: http://www.umk.utmn.ru., свободный.
Рекомендовано к изданию кафедрой информационных систем.
Утверждено
проректором
по
учебной
работе
Тюменского
государственного университета.
Ответственный редактор:
заведующий кафедрой
информационных систем Ивашко А.Г.
© Тюменский государственный университет, 2011.
© Кугаевских А.В., 2011.
2
1. ПОЯСНИТЕЛЬНАЯ ЗАПИСКА
1.1 Цели и задачи дисциплины
Целью данной дисциплины является формирование у студентов
знаний в области современных и перспективных интеллектуальных
систем и принципов их построения, а также знаний по применению
современных алгоритмов и технологий интеллектуальной обработки
данных.
Задачи: ознакомить студентов с современным состоянием
исследований в области искусственного интеллекта, робототехники и
применения интеллектуальных алгоритмов к задачам анализа данных,
дать основы для самостоятельной разработки новых интеллектуальных
алгоритмов.
1.2. Требования к уровню освоения содержания дисциплины
В результате освоения дисциплины студенты должны:

Знать: основные виды, особенности функционирования и области
применения систем искусственного интеллекта; основные методы
построения интеллектуальных систем.

Уметь: проводить анализ предметной области и определять
задачи, для решения которых целесообразно использование
технологий интеллектуальных систем; определять назначение,
выбирать методы и средства для построения прикладных
интеллектуальных систем.

Владеть: навыками разработки интеллектуальных систем с
использованием всех достижений науки и навыками разработки
новых алгоритмов и технологий систем искусственного интеллекта.
2. ОБЪЕМ ДИСЦИПЛИНЫ И ВИДЫ УЧЕБНОЙ РАБОТЫ.
Семестр: 7.
Форма промежуточной аттестации: экзамен.
Общая трудоемкость дисциплины составляет 102 часа.
3
3. ТЕМАТИЧЕСКИЙ ПЛАН ИЗУЧЕНИЯ ДИСЦИПЛИНЫ.
1.
2.
3.
1.
2.
3.
1.
2
Модуль 1
Современное состояние
исследований в области
искусственного интеллекта и
робототехники.
Многоагентные системы
Интеллектуальный анализ
данных. Кластеризация
Всего
Модуль 2
Распознавание образов.
Бустинг
Генетические алгоритмы
Искусственные нейронные
сети
Всего
Модуль 3
Автоматизация рассуждений
3
4
6
Самостояте
льная
работа
из них в интерактивной
форме, в час.
Лабораторн
ые занятия
1
Виды учебной
работы и
самостоятельн
ая работа, в
час.
Лекции
Тема
недели семестра
№
7
8
Итог
о
часо
в по
теме
Итого
количест
во
баллов
9
10
1-2 6
2
2
0
10
0-6
3
4
2
2
2
2
4
6
1
1
8
10
0-12
0-12
4
10
6
12
2
28
0-30
5-7 6
2
6
1
14
0-5
8
910
6
2
4
2
2
6
6
1
1
10
12
0-10
0-15
12
6
18
3
36
0-30
2
6
1
12
0-10
2
6
1
12
0-15
2
6
2
14
0-15
6
18
5
18
48
4
4
9
9
38
102
0-40
0 – 100
11- 4
12
13- 4
14
15- 6
17
2. Алгоритмы принятия
решений
3. Автоматическое
планирование поведения
агента
Всего
7
Итого (часов, баллов):
17
из них часов в интерактивной
форме
14
36
0
4
Таблица 2.
Планирование самостоятельной работы студентов
№
Модули и темы
Модуль 1
1.1 Современное
состояние
исследований в
области
искусственного
интеллекта и
робототехники.
1.2 Многоагентные
системы
1.3 Интеллектуальный
анализ данных.
Кластеризация
Виды СРС
обязательные
Дополнитель
ные
Неделя
семест
ра
Объе
м
часов
Колво
балло
в
Проработка
лекций;
Реферат
1-2
2
0-6
Проработка
лекций;
Выполнение
заданий
по
программам
практикумов;
Проработка
лекций;
Выполнение
заданий
по
программам
практикумов;
Реферат;
Анализ
ситуаций;
3
4
0-12
Реферат;
Анализ
ситуаций;
4
6
0-12
Всего по модулю 1:
Модуль 2
2.1 Распознавание
Проработка
образов. Бустинг
лекций;
Выполнение
заданий
по
программам
практикумов;
2.2 Генетические
Проработка
алгоритмы
лекций;
Выполнение
заданий
по
программам
практикумов;
2.3 Искусственные
Проработка
нейронные сети
лекций;
Выполнение
заданий
по
программам
практикумов;
Всего по модулю 2:
Модуль 3
3.1 Автоматизация
Проработка
5
12
0-30
Реферат;
Анализ
ситуаций;
5-7
6
0-5
Реферат
8
6
0-10
Реферат;
Анализ
ситуаций;
9-10
6
0-15
18
Реферат;
11-12
6
0-30
0-10
рассуждений
3.2 Алгоритмы
принятия решений
3.3 Автоматическое
планирование
поведения агента
лекций;
Выполнение
заданий
по
программам
практикумов;
Проработка
лекций;
Выполнение
заданий
по
программам
практикумов;
Проработка
лекций;
Выполнение
заданий
по
программам
практикумов;
Анализ
ситуаций;
Реферат;
Анализ
ситуаций;
13-14
6
0-15
Реферат;
Анализ
ситуаций;
15-17
6
0-15
Всего по модулю 3:
ИТОГО:
18
48
0-40
0-100
4. СОДЕРЖАНИЕ РАЗДЕЛОВ ДИСЦИПЛИНЫ
Модуль 1.
Тема 1.1. Основные понятия искусственного интеллекта. Области
применения и классификация ИИС. Тенденции развития теории
искусственного интеллекта. Тест Тьюринга. Информационные системы,
имитирующие творческие процессы. Информация и данные.
Тема 1.2. Интеллектуальные информационно-поисковые системы.
Экспертные системы. Инструментальные средства баз данных. Методы
инженерии знаний.
Тема
1.3.
Системы
интеллектуального
интерфейса
для
информационных
систем.
Интеллектуальный
анализ
данных.
Классификация алгоритмов. Алгоритмы кластеризации.
Модуль 2.
Тема 2.1. Распознавание образов. Классификация образов и алгоритмов
их распознавания. Бустинг. Машины опорных векторов. Описание
ядерных машин опорных векторов. Скрытые марковские модели.
Тема 2.2. Генетические алгоритмы (назначение, основные этапы,
классификация операторов кроссовера).
Тема 2.3. Искусственные нейронные сети (назначение, классификация,
понятие формального нейрона). Многослойный перцептрон. Сети
свертки (неокогнитрон, LeNet-5). Карты Кохонена.
Модуль 3.
Тема 3.1. Информационные модели знаний. Семантические сети
(логико-лингвистические и функциональные), фреймовые модели.
6
Семантическая сеть как реализация интегрированного представления
данных, категорий типов данных, свойств категорий и операций над
данными и категориями. Модель прикладных процедур, реализующих
правила обработки данных. Методы представления знаний.
Тема 3.2.
Автоматизация рассуждений. Дедуктивный вывод.
Индуктивный вывод методом JSM. Автоматическое порождение гипотез.
Тема 3.3. Алгоритмы принятие решений. Алгоритмы автоматического
планирования поведения агента. Формирование стратегий действий.
5. ТЕМАТИКА ПРАКТИЧЕСКИХ ЗАНЯТИЙ
1. Кластеризация методом K-средних
В качестве учебных данных для проверки работы алгоритма
используется случайно распределение 100 точек на компоненте Image.
После работы алгоритма кластеризации на том же компоненте Image
должны быть отображены центры кластеров, каждый кластер точек
должен быть окрашен в свой цвет.
Общая идея алгоритма: заданное фиксированное число k кластеров
наблюдения сопоставляются кластерам так, что средние в кластере (для
всех переменных) максимально возможно отличаются друг от друга.
Действие алгоритма таково, что он стремится минимизировать
суммарное квадратичное уклонение точек кластеров от центров этих
кластеров:
где k - число кластеров, Si - полученные кластеры i=1,2,…,k и μi - центры
масс векторов
.
1. Первоначальное распределение объектов по кластерам.
 Выбирается число k, и на первом шаге эти точки считаются
"центрами" кластеров. Каждому кластеру соответствует один
центр.
 Выбор начальных центроидов может осуществляться следующим
образом:
◦ выбор k-наблюдений для максимизации начального
расстояния;
◦ случайный выбор k-наблюдений;
◦ выбор первых k-наблюдений.
 В результате каждый объект назначен определенному кластеру.
2. Итеративный процесс.
7
 Вычисляются центры кластеров, которыми затем и далее
считаются покоординатные средние кластеров. Объекты опять
перераспределяются.
 Процесс вычисления центров и перераспределения объектов
продолжается до тех пор, пока не выполнено одно из условий:
◦ кластерные центры стабилизировались, т.е. все наблюдения
принадлежат кластеру, которому принадлежали до текущей
итерации;
◦ число итераций равно максимальному числу итераций.
 Как правило, алгоритм сходится за 2-6 итераций
2. Бустинг на примере алгоритма AdaBoost для прогнозирования
ситуаций
Построить простейшей классификатор для прогнозирования победы
лошадей в скачках. В качестве H должно быть 3 простейших
классификатора, строящихся на базе решающих правил.
В качестве результата работы программы принимается таблица
значений вероятностей уверенности каждого простого классификатора и
итоговая вероятность уверенности по алгоритму AdaBoost.
8
3. Разработка генетических алгоритмов для решения различных
задач
Разработать генетический алгоритм для минимизации функции
Швефеля.
Размер популяции – 200, вероятность скрещивания – 90%, вероятность
мутации – 10%, количество хромосом – 10.
Ограничение на 100 поколений.
В программе должно быть предусмотрено изменение параметров. В
качестве результата работы считается итоговое значение функции
Швефеля и график зависимости значения функции от номера
поколения.
4. Многослойный перцептрон для распознавания букв
Структура нейросети перцептрон.
Индексы i, j и k относятся к различным нейронам сети. Когда сигнал
проходит по сети слева направо, считается, что нейрон j находится на
один слой правее
нейрона i, а нейрон k - еще на один слой правее нейрона j, если
последний принадлежит скрытому слою.
Итерация (такт времени) n соответствует n-му обучающему образу
(примеру), поданному на вход сети.
Символ Е(n) означает текущую сумму квадратов ошибок (или энергию
ошибки) на итерации n. Среднее значение Е(n) по всем значениям n (т.е.
9
по всему обучающему множеству) называется средней энергией ошибки
Еav
Символ ej(n) описывает сигнал ошибки на выходе нейрона j на итерации
n.
Символ dj(n) означает желаемый отклик нейрона j и используется для
вычисления ej(n).
Символ yj(n) описывает функциональный сигнал, генерируемый на
выходе нейрона J на итерации n.
Символ wji(n) используется для обозначения синаптическоrо веса,
связывающего выход нейрона i со входом нейрона j на итерации n.
Коррекция, применяемая к этому весу на шаге n, обозначается Δwji(n).
Индуцированное локальное поле (т.е. взвешенная сумма всех
синаптических входов плюс порог) нейрона j на итерации n обозначается
символом vj(n). Это значение передается в функцию активации,
связанную с нейроном j.
Функция активации, соответствующая нейрону j и описывающая
нелинейную взаимосвязь входного и выходного сигналов этого нейрона,
обозначается φj(·).
Порог, применяемый к нейрону j, обозначается символом bj. Eгo влияние
представлено синапсом с весом wj0 = bj , соединенным с фиксированным
входным сигналом, равным +1.
i-й элемент входного вектора обозначается xi(n)
k-й элемент выходного вектора (образа) обозначается ok(n)
Параметр скорости (интенсивности) обучения обозначается символом η.
Символ ml обозначает размерность (количество узлов) слоя l
многослойного перцептрона; l = 1, 2,..., L, где L - "глубина" сети. Таким
образом, символ m0 означает размерность входного слоя; m1 - первого
cкpытoгo слоя; mL - выходнoгo слоя. Для описания размерности
выходного слоя будет также использоваться символ М.
Локальные признаки (local feature) извлекаются в первом скрытом слое,
Т.е. Heкоторые скрытые нейроны первого слоя можно использовать для
разделения входного пространства на отдельные области, а остальные
нейроны слоя обучать локальным признакам, характеризующим эти
области.
Глобальные признаки (global feature) извлекаются во втором скрытом
слое. В частности, нейрон второго скрытого слоя "обобщает" выходные
сигналы нейронов первого скрытого слоя, относящихся к конкретной
области входного пространства. Таким образом он обучается
10
глобальным признакам этой области, а в остальных областях eгo
выходной сигнал равен нулю.
Обучение методом обратного распространения ошибки предполагает
два прохода по всем слоям сети: прямого и обратного. При прямом
проходе (forward pass) образ (входной вектор) подается на сенсорные
узлы сети, после чего распространятся по сети от слоя к слою. В
результате генерируется набор выходных сигналов, который и является
фактической реакцией сети на данный входной образ.
Во время прямого прохода все синаптические веса сети фиксированы.
Во время обратного прохода (backward pass) все синаптические веса
настраиваются в соответствии с правилом Koppeкции ошибок, а именно:
фактический выход сети вычитается из желаемого (целевого) отклика, в
результате чего формируется сигнал ошибки (error signal). Этот сигнал
впоследствии распространяется по сети в направлении, обратном
направлению синаптических связей.
1. Инициализация (initialization). Предполагая отсутствие априорной
информации, генерируем синаптические веса и пороговые значения с
помощью датчика paвномерно распределенных чисел со средним
значением О. Дисперсия выбирается таким образом, чтобы стандартное
отклонение индуцированного локального поля нейронов приходилось на
линейную часть сигмоидальной функции активации (и не достигало
области насыщения).
2. Предъявление примеров обучения (presentation oftraining examples). В
сеть подаются образы из обучающего множества (эпохи). Для каждого
образа последовательно выполняются прямой и обратный проходы,
описанные Далее в пп. 3 и 4.
3. Прямой проход (forward computation). Пусть пример обучения
представлен парой (х(n), d(n)), где х(n) - входной вектор, предъявляемый
входному слою сенсорных узлов; d(n) - желаемый отклик,
предоставляемый выходному слою нейронов для формирования
сигнала ошибки. Вычисляем индуцированные локальные поля и
функциональные сигналы сети, проходя по ней послойно в прямом
направлении. Индуцированное локальное поле нейрона j слоя l
вычисляется по формуле
11
где yil-1(n) - выходной (функциональный) сигнал нейрона i,
расположенного в предыдущем слое l-1, на итерации n; wjil(n) синaптический вес связи нейрона j слоя l с нейроном i слоя l-1. Для i=0
y0l-1(n) = +1, а wj0l (n) = bjl(n) - поpoг, применяемый к нейрону j слоя l. Если
используется сигмоидальная функция, то выходной сигнал нейрона j
слоя l выражается следующим образом:
.
Если нейрон j находится в первом скрытом слое (т.е. l = 1), то
где xj(n) - j-й элемент входного вектора х(n). Если нейрон j находится в
выходном слое (т.е. l = L, где L - глубина сети), то
Вычисляем сигнал ошибки
где dj(n) - j-й элемент вектора желаемого отклика d(n).
4. Обратный проход (backward computation). Вычисляем локальные
градиенты узлов сети по следующей формуле:
где штрих в функции φj’(·)
обозначает дифференцирование по
аргументу. Изменение синаптических весов слоя l сети выполняется в
соответствии с обобщенным дельта-правилом
где η - параметр скорости обучения; α - постоянная момента.
5. Итерации (iteration). Последовательно выполняем прямой и обратный
проходы (согласно пп. 3, 4), предъявляя сети все при меры обучения из
эпохи, пока не будет достигнут критерий останова.
Примечание. Порядок представления примеров обучения может
случайным образам меняться от эпохи к эпохе. Параметры момента и
скорости обучения настраиваются (и обычно уменьшаются) по мере
роста количества итераций. Объяснение этого факта будет приведено
ниже.
12
5. ИНС Неокогнитрон для распознавания букв
Структура нейросети неокогнитрон.
Первый слой сети (U0) представляет собой слой фоторецепторных
нейронов, которые непосредственно реагируют на входящие образы.
Каждый S- и C-слой нейронов разделен на подгруппы, называемые
плоскостями в соответствии с признаками образа которые они
выделяют, а каждая плоскость нейронов организована в 2-мерный
массив ячеек.
S-ячейки слоя US1 соответствуют простым ячейкам в первичной
зрительной зоне коры головного мозга и выделяют характерные
признаки символа (4-9 на символ). Ячейки последующих S-слоев, кроме
US4, выделяют детали признаков, выделенных слоем US1.
В результате обучения S-нейрон активизируется только тогда, когда в
его рецептивном поле оказывается именно тот признак образа, на
который обучали данный нейрон. Каждый C-нейрон получает в качестве
входа сигналы, поступающие от группы S-нейронов, которые выделяют
одинаковый признак образа, но с небольшими смещениями в положении
рецептивного поля. Таким образом, C-нейрон распознает выделяемый
элемент образа, даже если он немного сдвинут в своем положении, что
обеспечивает инвариантность к сдвигам.
Уровень UC4 является уровнем распознавания, реакция которого
показывает конечный результат распознавания образов сетью в виде
имени класса.
13
aS
l
US
S
aC
l
l
C
bS
Vl
cS
l
l
V
Структура связей между ячейками.
Выход S- и V-ячеек соответственно равен:
(10)
где
(≥0) - сила переменной возбуждающей связи, идущей
от C-ячейки
предыдущей стадии,
ASl - радиус рецептивного поля ячейки,
– номер плоскости предыдущего слоя,
– номер плоскости текущего слоя,
bl(k) (≥0) - сила переменной тормозящей связи, идущей от Vячейки,
(<1) - порог чувствительности S-ячейки,
– угол наклона признака символа (
с шагом 15°),
– тормозная ячейка, выход которой рассчитывается по
формуле (11),
– выход нейронов предыдущего C-слоя, для l=1
вместо
на вход подается
.
где cSl(x,y) - сила постоянной возбуждающей связи с V-ячейкой.
14
Для расчета массива начальных значений параметров
и
чаще всего применяются вейвлеты. В данной работе сила постоянной
возбуждающей связи вычисляется с помощью двумерного вейвлета
«сомбреро».
Ответом C-ячейки UCl, исключая самую высокую стадию UC4,
является
где
,
- сила постоянных возбуждающих связей, сходящихся от
группы S-ячеек, которые распространяются в пределах радиуса ACl.
Для
представителя
S-ячейки
усиливаются
только
входные
соединения, через которые приходят не равные нулю сигналы. С этой
процедурой представитель S-ячейки становится выборочно отзывчивым
только на те характеристики стимула, который представлен. Все другие
S-ячейки в S-плоскости, от которых выбран представитель, имеют такое
же усиление своих входных соединений, как и их представитель.
Алгоритм обучения представлен следующими шагами:
Шаг 1. Для каждой плоскости выбрать простой узел, веса синапсов
которого должны быть увеличены (представитель). Если
максимален, то в плоскости
ячейка с индексом n становится
представителем.
Шаг 2. Для представителя усиливаются только
и
. С этой процедурой представитель S-ячейки становится
выборочно отзывчивым только на характеристики стимула, который
представлен. Все другие ячейки в S-плоскости, от которых выбран
15
представитель, имеют такое же усиление своих входных соединений,
как и их представитель.
Пусть ячейка
была выбрана в качестве начальной,
следовательно, изменяющиеся связи
с этой ячейкой, как и со
всеми S-ячейками в этой плоскости, увеличиваются следующим
образом:
где ql - положительная константа, определяющая скорость
обучения.
определяется исходя непосредственно из возбуждающих
связей
При
, следующим образом:
этом
в
ячейках
S-плоскости,
от
которых
не
выбран
представитель, входные соединения не изменяются.
Шаг 3. Если слой полностью обучен переход к шагу 4 иначе
переход к другой плоскости слоя и возврат к шагу 1.
Шаг 4. Если обучается не
, то переход к следующему слою и
возврат к шагу 1, иначе запоминание метки класса символа и выход из
алгоритма.
16
Пример послойной работы нейросети.
На вход нейросети подаются изображения печатных кириллических
букв. Программа должна распознать изображения.
Результатом лабораторной работы является результат эксперимента по
оценке среднего качества распознавания.
6. Самообучающееся дерево решений для прогнозирования
ситуации
Требуется разработать дерево для прогнозирования ситуации на базе
алгоритма ID3.
Ситуацию для прогнозирования разрабатывает студент исходя из своих
знаний предметной области.
17
В качестве значения Gain использовать критерий Гини, рассчитываемый
по формуле:
6. Учебно - методическое обеспечение самостоятельной работы
студентов.
Оценочные
средства
для
текущего
контроля
успеваемости, промежуточной аттестации по итогам освоения
дисциплины.
 Комплект
материалов
электронных
контрольно-измерительных
Вопросы к экзамену:
 Понятие интеллектуальной системы, основные свойства
 Теории искусственного интеллекта
 Тест Тьюринга и его варианты
18

















Области применения ИИС и их классификация
Многоагентные системы (понятие, основные элементы)
Кластеризация данных (основные алгоритмы)
Основы интеллектуального анализа данных
Распознавание образов (понятие, основные алгоритмы)
Бустинг
Машины опорных векторов
Скрытые марковские модели для распознавания образов
Генетические алгоритмы
Искусственные нейронные сети (понятие, классификация)
Понятие
формального
нейрона.
Классификация
функций
активации
Многослойный перцептрон
Сети свертки
Карты Кохонена
Автоматизация рассуждений (основные алгоритмы)
Метод JSM
Основные алгоритмы принятия решений
Примерные темы рефератов:
 Передовые разработки в области робототехники
 Основные
теории
организации
ИИ
(алгоритмическая,
нейроморфные структуры и др.)
 Применение ИИ для анализа бизнес-данных
 Многозначные логики и их применение в автоматизации
рассуждений
 Алгоритмы решения задач
 Робоэтика
9. Учебно-методическое и информационное обеспечение
дисциплины.
Основная литература:
1. Глухих, Игорь Николаевич. Интеллектуальные информационные
системы: учеб. пособие для студ. вузов/ И. Н. Глухих; Тюм. гос. унт. - Москва: Академия, 2010
Дополнительная литература:
1. Люгер Дж. Искусственный интеллект. Стратегии и методы решения
сложных проблем. - Вильямс, 2005
2. Осипов Г.С. Лекции по искусственному интеллекту. - Красанд, 2009
19
3. Хайкин С. Нейронные сети. Полный курс. - Вильямс, 2006
4. Автоматическое порождение гипотез в интеллектуальных системах
/ Сост. Е.С. Панкратова, В.К. Финн. - М.: Либроком, 2009
5. ДСМ-метод автоматического порождения гипотез. Логические и
эпистемологические основания / Сост. О.М. Аншаков, Е.Ф.
Фабрикантова. - М.: Либроком, 2009
6. Барсегян А.А. Анализ данных и процессов. – СПб.: БХВ-Петербург,
2009
7. Вагин В.Н. и др. Достоверный и правдоподобный вывод в
интеллектуальных системах. - Физматлит, 2008
8. Пегат А. Нечеткое моделирование и управление. - Бином, 2009
9. Рассел С., Норвиг П. Искусственный интеллект. Современный
подход. - Вильямс, 2007
10.
Лю Б. Теория и практика неопределенного
программирования. - Бином, 2009
11.
Жданов А.А. Автономный искусственный интеллект. - М.:
Бином, 2009
12.
Рапопорт Г.Н., Герц А.Г. Биологический и искусственный
разум. Часть 1. Сознание, мышление и эмоции. - М.: Либроком,
2011
13.
Рапопорт Г.Н., Герц А.Г. Биологический и искусственный
разум. Часть 2. Модели сознания. Может ли робот любить,
страдать и иметь другие эмоции? - М.: Либроком, 2011
14.
Форсайт Д. Компьютерное зрение. Современный подход. Вильямс, 2004
15.
Бишоп О. Настольная книга разработчика роботов. - МКПресс, 2010
16.
Юревич Е.И. Основы робототехники. – СПб.: БХВ-Петербург,
2010
17.
Шамис А.Л. Пути моделирования мышления. Активные
синергические нейронные сети, мышление и творчество,
формальные модели поведения и "распознавания с пониманием". КомКнига, 2006
20
Скачать