Uploaded by Дмитрий Серов

Кузнецов+диплом

advertisement
ТЕРМИНЫ И ОПРЕДЕЛЕНИЯ
В настоящей дипломной работе применяют следующие термины с
соответствующими определениями:
Автоматизированная система – система, состоящая из персонала и
комплекса
средств
автоматизации
его
деятельности,
реализующая
информационную технологию выполнения установленных функций.
Безопасность информации – состояние защищенности информации, при
котором обеспечены ее конфиденциальность, доступность и целостность.
Защита информации от несанкционированного доступа – защита
информации, направленная на предотвращение получения защищаемой
информации заинтересованными субъектами с нарушением установленных
нормативными и правовыми документами или обладателями информации прав
или правил разграничения доступа к защищаемой информации.
Информация – сведения независимо от формы их представления.
Информационная система – совокупность содержащейся в базах данных
информации и обеспечивающих ее обработку информационных технологий и
технических средств.
Система
защиты
информации
–
совокупность
органов
и
(или)
исполнителей, используемой ими техники защиты информации, а также
объектов защиты информации, организованная и функционирующая по
правилам и нормам, установленным соответствующими документами в области
защиты информации.
Средство вычислительной техники — совокупность программных и
технических элементов систем обработки данных, способных функционировать
самостоятельно или в составе других систем.
Средство защиты информации – техническое, программное, программнотехническое средство, вещество и (или) материал, предназначенные или
используемые для защиты информации.
3
ОБОЗНАЧЕНИЯ И СОКРАЩЕНИЯ
В настоящей дипломной работе применяются следующие сокращения:
АС – автоматизированная система
АИС – автоматизированная информационная система
АСНИ – автоматизированные системы научных исследований
АСУ – автоматизированные системы управления
АСУП – автоматизированные системы управления предприятиями
ИБ – информационная безопасность
ИС – информационная система
НИР – научно-исследовательская работа
НС – нейронные сети
НСД – несанкционированный доступ
РД – Руководящий документ
САПР – системы автоматизированного проектирования
СВТ – средство вычислительной техники
СЗИ – система защиты информации
СПР – система принятия решений
ЭМ – эвристическая модель
4
ВВЕДЕНИЕ
В настоящее время вполне очевидна необходимость постоянного
совершенствования информационных и телекоммуникационных технологий,
позволяющая с максимальной эффективностью связать воедино процессы сбора,
обработки, передачи, отображения и использования данных для решения
практических задач как в мирное, так и военное время.
Интенсивное внедрение новейших достижений науки и техники в
важнейшие
сферы
общественной
жизни
сопровождается
повышением
уязвимости информационных систем государственных и коммерческих
структур.
В связи с этим одной из главных задач является задача по обеспечению
надежной защиты передаваемой (принимаемой) информации, которая решается
практическим использованием системы разработанных мер, начиная от
структуры сигнала и заканчивая комплексом специальных инженернотехнических решений.
Меры по защите информации неразрывно связаны с ужесточением
требований
информационной
техническим
системам.
безопасности
Широкое
к проектируемым сложным
использование
современных
средств
вычислительной техники, научные достижения в системных направлениях
исследований обеспечивают необходимые предпосылки для принятия на всех
этапах создания техники решений, определяющих высокую эффективность её
применения.
Обеспечение надежного и устойчивого функционирования сложных
технических систем, автоматизированных систем управления (АСУ) тесно
связано с решением задачи лицензирования и сертификации технических
средств защиты информации (СЗИ).
5
1 ИСПОЛЬЗОВАНИЕ ТЕОРИИ НАДЕЖНОСТИ В ВОПРОСЕ
ЭФФЕКТИВНОСТИ СИСТЕМЫ ЗАЩИТЫ ИНФОРМАЦИИ
1.1
Расчет
эталонной
модели
количественных
характеристик
показателей защищенности АС
Согласно РД ФСТЭК «Автоматизированные системы. Защита от
несанкционированного
доступа
к
информации.
Классификация
автоматизированных систем и требования по защите информации», комплекс
программно-технических средств и организационных (процедурных) решений
по защите информации от НСД реализуется в рамках системы защиты
информации от НСД, условно состоящей из следующих четырех подсистем [2.1]:
1. Управления доступом.
2. Регистрации и учета.
3. Криптографической.
4. Обеспечения целостности.
Таблица 2.1 – Эталонная модель системы защиты информации
Подсистемы и требования
1
1. Подсистема управления доступом
1.1. Идентификация, проверка подлинности и контроль
доступа субъектов:
в систему
к терминалам, ЭВМ, узлам сети ЭВМ, каналам связи,
внешним устройствам ЭВМ
к программам
к томам, каталогам, файлам, записям, полям записей
Количественная
характеристика
показателей
защищенности СЗИ
2
∑ 𝑖УД = 1
1
∑ 𝑖УД
= 0,5
0,125
0,125
0,125
0,125
1.2. Управление потоками информации
2. Подсистема регистрации и учета
2.1. Регистрация и учет:
входа (выхода) субъектов доступа в (из) систему(ы)
(узел сети)
выдачи печатных (графических) выходных документов
2
∑ 𝑖УД
= 0,5
∑ 𝑖РУ = 1
1
∑ 𝑖РУ
= 0,25
0,0361
0,0359
запуска (завершения) программ и процессов (заданий,
задач)
0,0358
доступа программ субъектов доступа к защищаемым
файлам, включая их создание и удаление, передачу по
линиям и каналам связи
0,0357
доступа программ субъектов доступа к терминалам,
ЭВМ, узлам сети ЭВМ, каналам связи, внешним
устройствам ЭВМ, программам, томам, каталогам,
файлам, записям, полям записей
изменения полномочий субъектов доступа
создаваемых защищаемых объектов доступа
2.2. Учет носителей информации
2.3. Очистка (обнуление, обезличивание)
освобождаемых областей оперативной памяти ЭВМ и
внешних накопителей
2.4. Сигнализация попыток нарушения защиты
3. Криптографическая подсистема
3.1. Шифрование конфиденциальной информации
0,0356
0,0355
0,0354
2
∑ 𝑖РУ
= 0,25
3
∑ 𝑖РУ
= 0,25
4
∑ 𝑖РУ
= 0,25
∑ 𝑖КП = 1
1
∑ 𝑖КП
= 0,3332
3.2. Шифрование информации, принадлежащей
различным субъектам доступа (группам субъектов) на
разных ключах
2
∑ 𝑖КП
= 0,3333
3.3. Использование аттестованных
(сертифицированных) криптографических средств
3
∑ 𝑖КП
= 0,3335
4. Подсистема обеспечения целостности
∑ 𝑖ОЦ = 1
4.1. Обеспечение целостности программных средств и
обрабатываемой информации
1
∑ 𝑖ОЦ
= 0,1664
4.2. Физическая охрана средств вычислительной
техники и носителей информации
2
∑ 𝑖ОЦ
= 0,1665
4.3. Наличие администратора (службы) защиты
информации в АС
3
∑ 𝑖ОЦ
= 0,1666
4.4. Периодическое тестирование СЗИ НСД
4
∑ 𝑖ОЦ
= 0,1669
4.5. Наличие средств восстановления СЗИ НСД
5
∑ 𝑖ОЦ
= 0,1673
4.6. Использование сертифицированных средств
защиты
6
∑ 𝑖ОЦ
= 0,1663
Эти данные являются входными для обученной нейронной сети.
Из таблицы 2.1 видно, что эталон можно рассчитать для каждого класса
защищенности АС по формуле 2.1:
𝐹=
∑𝑛
1 𝑖𝑛
𝑛
∙ 100% =
1+1+1+1
4
∙ 100% = 100%
(2.1)
где F – эффективность системы защиты,
n – количество подсистем СЗИ, при условии ∑ 𝑖𝑛 > 0.
Для каждого из класса защищенности АС соответствует свой эталон,
который можно также рассчитать по формуле 2.1.
Группа 3 классифицирует АС, в которых работает один пользователь,
допущенный ко всей информации АС, размещенной на носителях одного уровня
конфиденциальности - razgovorodele.ru. В группе устанавливается два класса 3Б
и
3А. В
классе
3Б, соответствующем
низшему
уровню
защиты,
регламентируются требования обязательной парольной идентификации и
аутентификации пользователя при входе в систему, регистрации входа/выхода
пользователей,
учета
используемых
внешних
носителей,
обеспечения
целостности средств защиты информации, обрабатываемой информации и
программной среды, а также наличие средств восстановления СЗИ [2.2].
В классе 3А выполняются все требования класса 3Б и дополнительно
устанавливаются
требования
по
регистрации
распечатки
документов,
физической очистке освобождаемых областей оперативной памяти и внешних
носителей, усиливаются требования по обеспечению целостности СЗИ и
программной среды через проверку целостности при каждой загрузке системы,
периодическое тестирование функций СЗИ при изменении программной среды
и персонала АС [2.2].
Таблица 2.2 – Расчет эталонной модели СЗИ для 3 класса защищенности АС
Подсистемы и требования
1
Классы
3Б
2
3А
3
Количественная
характеристика
показателей
защищенности СЗИ
3Б
3А
4
5
1. Подсистема управления доступом
∑ 𝑖УД = 1
1.1. Идентификация, проверка подлинности и
контроль доступа субъектов:
в систему
+
+
1
∑ 𝑖УД
=1
1
∑ 𝑖УД
=1
1
1
2. Подсистема регистрации и учета
∑ 𝑖РУ = 1
2.1. Регистрация и учет:
1
∑ 𝑖РУ
= 0,5
1
∑ 𝑖РУ
= 0,3332
входа (выхода) субъектов доступа в
(из) систему(ы) (узел сети)
+
+
0,5
0,1666
выдачи печатных (графических)
выходных документов
-
+
0
0,1666
+
+
2
∑ 𝑖РУ
= 0,5
2
∑ 𝑖РУ
= 0,3333
-
+
0
3
∑ 𝑖РУ
= 0,3335
2.2. Учет носителей информации
2.3. Очистка (обнуление,
обезличивание) освобождаемых
областей оперативной памяти ЭВМ и
внешних накопителей
4. Подсистема обеспечения целостности
∑ 𝑖ОЦ = 1
4.1. Обеспечение целостности
программных средств и
обрабатываемой информации
+
+
1
∑ 𝑖ОЦ
= 0,25
1
∑ 𝑖ОЦ
= 0,2
+
+
2
∑ 𝑖ОЦ
= 0,25
2
∑ 𝑖ОЦ
= 0,2
4.4. Периодическое тестирование СЗИ
НСД
+
+
3
∑ 𝑖ОЦ
= 0,25
3
∑ 𝑖ОЦ
= 0,2
4.5. Наличие средств восстановления
СЗИ НСД
+
+
4
∑ 𝑖ОЦ
= 0,25
4
∑ 𝑖ОЦ
= 0,2
4.6. Использование
сертифицированных средств защиты
-
+
0
5
∑ 𝑖ОЦ
= 0,2
4.2. Физическая охрана средств
вычислительной техники и носителей
информации
Эти данные являются входными для обученной нейронной сети.
Группа 2 классифицирует АС, в которых пользователи имеют одинаковые
права доступа (полномочия) ко всей информации АС, обрабатываемой и (или)
хранимой на носителях различного уровня конфиденциальности. В группе также
устанавливается два класса - 2Б и 2А. Регламентируемые требования класса 2Б в
основном совпадают с требованиями класса 3Б с некоторым усилением
требований по подсистеме обеспечения целостности (при загрузке системы)
[2.2].
В классе 2А выполняются все требования класса 2Б с усилением
требований по подсистеме управления доступом (идентификация терминалов,
ЭВМ, узлов сети ЭВМ, каналов связи, внешних устройств, а также программ,
томов, каталогов, файлов, записей, полей
записей, что обеспечивает
избирательное управление доступом) и усилением требований по подсистеме
регистрации и учета (регистрация не только входа/выхода субъектов, но загрузки
и инициализации операционной системы, программных остановов, регистрация
выдачи документов, запуска программ, обращений к файлам и другим
защищаемым объектам, автоматический учет создаваемых файлов, что
обеспечивает
регистрацию
всех
потенциально
опасных
событий).
Дополнительно регламентируется управление потоками информации с помощью
меток конфиденциальности (элементы полномочного управления доступом razgovorodele.ru), очистка освобождаемых участков оперативной и внешней
памяти,
а
также
шифрование
всей
конфиденциальной
информации,
записываемой на совместно используемые различными субъектами доступа
носители данных [2.2].
Таблица 2.3 – Расчет эталонная модели СЗИ для 2 класса защищенности АС
Подсистемы и требования
Классы
2Б
2А
1
2
3
1. Подсистема управления доступом
1.1. Идентификация, проверка подлинности и
контроль доступа субъектов:
в систему
+
+
к терминалам, ЭВМ, узлам сети
ЭВМ, каналам связи, внешним
устройствам ЭВМ
-
+
Количественная
характеристика
показателей
защищенности СЗИ
2Б
2А
4
5
∑ 𝑖УД = 1
1
∑ 𝑖УД
=1
1
∑ 𝑖УД
= 0,5
1
0,125
0
0,125
Продолжение таблицы 2.3
1
к программам
к томам, каталогам, файлам,
записям, полям записей
1.2. Управление потоками информации
2
3
4
5
-
+
0
0,125
-
+
0
0,125
-
+
0
2
∑ 𝑖УД
= 0,5
2. Подсистема регистрации и учета
2.1. Регистрация и учет:
входа (выхода) субъектов доступа в (из)
систему(ы) (узел сети)
+
выдачи печатных (графических)
выходных документов
запуска (завершения) программ и
процессов (заданий, задач)
доступа программ субъектов доступа к
защищаемым файлам, включая их
создание и удаление, передачу по
линиям и каналам связи
доступа программ субъектов доступа к
терминалам, ЭВМ, узлам сети ЭВМ,
каналам связи, внешним устройствам
ЭВМ, программам, томам, каталогам,
файлам, записям, полям записей
создаваемых защищаемых объектов
доступа
2.2. Учет носителей информации
2.3. Очистка (обнуление,
обезличивание) освобождаемых
областей оперативной памяти ЭВМ и
внешних накопителей
∑ 𝑖РУ = 1
1
∑ 𝑖РУ
= 0,5
1
∑ 𝑖РУ
= 0,3332
+
0,5
0,0552
-
+
0
0,0553
-
+
0
0,0554
-
+
0
0,0556
-
+
0
0,0558
-
+
0
0,0559
+
+
2
∑ 𝑖РУ
= 0,5
2
∑ 𝑖РУ
= 0,3333
-
+
0
3
∑ 𝑖РУ
= 0,3335
Продолжение таблицы 2.3
1
2
3
3. Криптографическая подсистема
3.1. Шифрование конфиденциальной
информации
3.3. Использование аттестованных
(сертифицированных)
криптографических средств
4
5
∑ 𝑖КП = 0
∑ 𝑖КП = 1
-
+
0
1
∑ 𝑖КП
= 0,5
-
+
0
2
∑ 𝑖КП
= 0,5
4. Подсистема обеспечения целостности
4.1. Обеспечение целостности
программных средств и обрабатываемой
информации
∑ 𝑖ОЦ = 1
+
+
1
∑ 𝑖ОЦ
= 0,25
1
∑ 𝑖ОЦ
= 0,1664
+
+
2
∑ 𝑖ОЦ
= 0,25
2
∑ 𝑖ОЦ
= 0,1665
4.3 Наличие администратора (службы)
защиты информации в АС
-
+
0
3
∑ 𝑖ОЦ
= 0,1666
4.4. Периодическое тестирование СЗИ
НСД
+
+
3
∑ 𝑖ОЦ
= 0,25
4
∑ 𝑖ОЦ
= 0,1669
4.5. Наличие средств восстановления
СЗИ НСД
+
+
4
∑ 𝑖ОЦ
= 0,25
5
∑ 𝑖ОЦ
= 0,1673
4.6. Использование сертифицированных
средств защиты
-
+
0
6
∑ 𝑖ОЦ
= 0,1663
4.2. Физическая охрана средств
вычислительной техники и носителей
информации
Расчет эталонной модели для 2 класса защищенности полностью
соответствует формуле 2.1.
Группа
1 классифицирует
многопользовательские
АС,
в
которых
одновременно обрабатывается и (или) хранится информация различных уровней
конфиденциальности и не все пользователи имеют право доступа ко всей
информации АС. Группа содержит пять классов-1Д, 1Г, 1В, 1Б и 1А [2.2].
Класс
1Д включает
требования,
содержательно
совпадающие с требованиями классов 3Б и 2Б.
и
идеологически
Класс 1Г помимо выполнения всех требований класса 1Д включает
требования, содержательно и идеологически сходные с требованиями класса 2А
(за исключением требований по шифрованию информации) с учетом различий в
полномочиях
пользователей
избирательное
-
управление
доступом
в
соответствии с матрицей доступа, регистрация потенциально опасных событий,
очистка освобождаемых участков оперативной и внешней памяти.
Класс
1В включает
выполнение
всех
требований
класса
1Г.
Дополнительно регламентируется полномочное управление доступом (метки
конфиденциальности объектов и полномочия субъектов доступа), усиливаются
требования к подсистеме регистрации опасных событий, вводится требование
наличия администратора защиты и его интерактивного оповещения о попытках
несанкционированного доступа.
Класс 1Б включает все требования класса 1В и дополнительно требования
по шифрованию информации (аналогично классу 2А).
Класс 1А (высший уровень защиты) включает все требования класса 1Б с
дополнительным требованием использования разных ключей шифрования
различными субъектами доступа [2.2].
Таблица 2.4 – Расчет эталонной модели СЗИ для 1 класса защищенности АС
Подсистемы и
требования
1
Классы
1Д
2
1Г
3
1В
4
1Б
5
1А
6
Количественные показатели защищенности
СЗИ
1Д
1Г
1В
1Б
1А
7
8
9
10
11
1. Подсистема управления доступом
∑ 𝑖УД = 1
1.1. Идентификация,
проверка подлинности
и контроль доступа
субъектов:
в систему
к терминалам, ЭВМ,
узлам сети ЭВМ,
каналам связи,
внешним устройствам
ЭВМ
1
∑ 𝑖УД
1
∑ 𝑖УД
1
∑ 𝑖УД
1
∑ 𝑖УД
1
∑ 𝑖УД
=1
=1
= 0,5
= 0,5
= 0,5
+
+
+
+
+
1
0,25
0,125
0,125
0,125
-
+
+
+
+
0
0,25
0,125
0,125
0,125
Продолжение таблицы 2.4
1
к программам
2
3
4
5
6
7
8
9
10
11
-
+
+
+
+
0
0,25
0,125
0,125
0,125
к томам, каталогам,
файлам, записям,
полям записей
-
+
+
+
+
0
0,25
0,125
0,125
0,125
1.2.Управление
потоками информации
2
-
+
+
+
0
0
∑ 𝑖УД
2
-
∑ 𝑖УД
∑ 𝑖УД
= 0,5
= 0,5
= 0,5
2. Подсистема регистрации и учета
2.1. Регистрация и
учет:
входа (выхода)
субъектов доступа в
(из) систему(ы) (узел
сети)
2
∑ 𝑖РУ = 1
∑ 𝑖РУ
1
∑ 𝑖РУ
1
∑ 𝑖РУ
1
∑ 𝑖РУ
1
∑ 𝑖РУ
1
= 0,5
= 0,3332
= 0,25
= 0,25
= 0,25
+
+
+
+
+
0,5
0,06664
0,0361
0,0361
0,0361
выдачи печатных
(графических)
выходных документов
-
+
+
+
+
0
0,06664
0,0359
0,0359
0,0359
запуска (завершения)
программ и процессов
(заданий, задач)
-
+
+
+
+
0
0,06664
0,0358
0,0358
0,0358
-
+
+
+
+
0
0,06664
0,0357
0,0357
0,0357
-
+
+
+
+
0
0,06664
0,0356
0,0356
0,0356
-
-
+
+
+
0
0
0,0355
0,0355
0,0355
доступа программ
субъектов доступа к
защищаемым файлам,
включая их создание и
удаление, передачу по
линиям и каналам
связи
доступа программ
субъектов доступа к
терминалам, ЭВМ,
узлам сети ЭВМ,
каналам связи,
внешним устройствам
ЭВМ, программам,
томам, каталогам,
файлам, записям,
полям записей
изменения
полномочий субъектов
доступа
Продолжение таблицы 2.4
1
создаваемых
защищаемых объектов
доступа
2.2. Учет носителей
информации
2.3. Очистка
(обнуление,
обезличивание)
освобождаемых
областей оперативной
памяти ЭВМ и
внешних накопителей
2.4. Сигнализация
попыток нарушения
защиты
2
3
4
5
6
7
8
9
10
11
-
-
+
+
+
0
0
0,0354
0,0354
0,0354
+
+
+
+
+
-
+
+
+
+
0
-
-
+
+
+
0
∑ 𝑖РУ
2
∑ 𝑖РУ
2
∑ 𝑖РУ
2
∑ 𝑖РУ
2
∑ 𝑖РУ
= 0,5
= 0,3333
= 0,25
= 0,25
= 0,25
∑ 𝑖РУ
3
∑ 𝑖РУ
3
∑ 𝑖РУ
3
∑ 𝑖РУ
= 0,3335
= 0,25
= 0,25
= 0,25
4
∑ 𝑖РУ
4
0
∑ 𝑖РУ
∑ 𝑖РУ
= 0,25
= 0,25
= 0,25
∑ 𝑖КП = 0
3. Криптографическая подсистема
3.1.Шифрование
конфиденциальной
информации
3.2. Шифрование
информации,
принадлежащей
различным субъектам
доступа (группам
субъектов) на разных
ключах
3.3. Использование
аттестованных
(сертифицированных)
криптографических
средств
4.2. Физическая
охрана средств
вычислительной
техники и носителей
информации
3
4
∑ 𝑖КП = 1
1
1
-
-
-
+
+
0
0
0
∑ 𝑖КП
∑ 𝑖КП
= 0,5
= 0,3332
-
-
-
-
+
0
0
0
0
∑ 𝑖КП
-
-
-
+
+
0
0
0
2
= 0,3333
2
4. Подсистема обеспечения целостности
4.1. Обеспечение
целостности
программных средств и
обрабатываемой
информации
2
3
∑ 𝑖КП
∑ 𝑖КП
= 0,5
= 0,3335
∑ 𝑖ОЦ = 1
+
+
+
+
+
+
+
+
+
+
∑ 𝑖ОЦ
1
∑ 𝑖ОЦ
1
∑ 𝑖ОЦ
1
∑ 𝑖ОЦ
1
∑ 𝑖ОЦ
= 0,25
= 0,25
= 0,1664
= 0,1664
= 0,1664
∑ 𝑖ОЦ
2
∑ 𝑖ОЦ
∑ 𝑖ОЦ
2
∑ 𝑖ОЦ
2
∑ 𝑖ОЦ
= 0,25
= 0,25
= 0,1665
= 0,1665
= 0,1665
2
1
2
Продолжение таблицы 2.4
1
4.3. Наличие
администратора
(службы) защиты
информации в АС
2
3
4
5
6
7
8
9
10
11
3
-
+
+
+
0
0
∑ 𝑖ОЦ
3
-
∑ 𝑖ОЦ
∑ 𝑖ОЦ
= 0,1666
= 0,1666
= 0,1666
+
+
+
+
+
4.5. Наличие средств
восстановления СЗИ
НСД
+
+
+
+
+
4.6 Использование
сертифицированных
средств защиты
-
-
+
+
+
4.4. Периодическое
тестирование СЗИ НСД
3
3
∑ 𝑖ОЦ
3
∑ 𝑖ОЦ
∑ 𝑖ОЦ
4
∑ 𝑖ОЦ
4
∑ 𝑖ОЦ
= 0,25
= 0,25
= 0,1669
= 0,1669
= 0,1669
∑ 𝑖ОЦ
4
∑ 𝑖ОЦ
∑ 𝑖ОЦ
5
∑ 𝑖ОЦ
5
∑ 𝑖ОЦ
= 0,25
= 0,25
= 0,1673
= 0,1673
= 0,1673
6
0
∑ 𝑖ОЦ
6
0
∑ 𝑖ОЦ
∑ 𝑖ОЦ
= 0,1663
= 0,1663
= 0,1663
4
4
5
6
Эти данные являются входными для обученной нейронной сети.
Расчет эталонной модели для 1 класса защищенности полностью
соответствует формуле 2.1.
2.2 Описание технических состояний и отказов АС
Согласно ГОСТ 27.002-89 «Надежность в технике. Основные понятия.
Термины и определения» различают пять основных видов технического
состояния объектов [2.3].
Рисунок 2.1 – Классификация технических состояний объекта
Исправное
соответствует всем
состояние. Состояние
требованиям
объекта, при
котором
нормативно-технической
он
и
(или)
котором
он
конструкторской (проектной) документации [2.4].
Неисправное
состояние. Состояние
объекта, при
не соответствует хотя бы одному из требований нормативно-технической и (или)
конструкторской (проектной) документации [2.4].
Работоспособное
состояние. Состояние
объекта, при
котором
значения всех параметров, характеризующих способность выполнять заданные
функции,
соответствуют
требованиям
нормативно-технической
и
(или)
конструкторской (проектной) документации [2.4].
Неработоспособное
состояние. Состояние
объекта, при
котором
значения хотя бы одного параметра, характеризующего способность выполнять
заданные функции, не соответствует требованиям нормативно-технической и
(или) конструкторской (проектной) документации [2.4].
Предельное состояние. Состояние объекта, при котором его дальнейшая
эксплуатация недопустима или не целесообразна, либо восстановление его
работоспособного состояния невозможно или нецелесообразно [2.4].
Данные понятия охватывают основные технические состояния объекта.
Каждое
из них
характеризуется
совокупностью значений
параметров,
описывающих состояние объекта, а также качественных признаков, для которых
не применяют количественные оценки. Номенклатуру этих параметров и
признаков, а также пределы допустимых их изменений устанавливают в
нормативно-технической и (или) конструкторской (проектной) документации.
Работоспособный объект в отличие от исправного должен удовлетворять
лишь тем требованиям нормативно-технической и (или) конструкторской
(проектной) документации, выполнение которых обеспечивает нормальное
применение объекта по назначению. Работоспособный объект может быть
неисправным, например, если он не удовлетворяет эстетическим требованиям,
причем ухудшение внешнего вида объекта не препятствует его применению по
назначению.
Для сложных объектов возможны частично неработоспособные состояния,
при которых объект способен выполнять требуемые функции с пониженными
показателями или способен выполнять лишь часть требуемых функций, в этом
случае можно сказать, что объект "правильно функционирует".
Переход объекта (изделия) из одного вышестоящего технического
состояния в нижестоящее обычно происходит вследствие событий: повреждений
или отказов, под которыми понимаются следующие понятия:
1. Повреждение – событие, заключающееся в нарушении исправного
состояния объекта при сохранении работоспособного состояния.
2. Отказ – событие, заключающееся в нарушении работоспособного
состояния объекта.
Отказы разделяют на две категории в зависимости от возможности
прогнозирования момента наступления отказа – "внезапные" и "постепенные". В
отличие от внезапного отказа, наступлению постепенного отказа предшествует
непрерывное и монотонное изменение одного или нескольких параметров,
характеризующих способность объекта выполнять заданные функции. Ввиду
этого удается предупредить наступление отказа или принять меры по
устранению (легализации) его нежелательных последствий.
Четкой границы между внезапными и постепенными отказами, однако,
провести не удается. Механические, физические и химические процессы,
которые составляют причины отказов, как правило, протекают во времени
достаточно медленно. Так, усталостная трещина в стенке трубопровода или
сосуда давления, зародившаяся из трещинно-образного дефекта, медленно
растет в процессе эксплуатации; этот рост в принципе может быть прослежен
средствами неразрушающего контроля. Однако собственно отказ (наступление
течи) происходит внезапно. Если по каким-либо причинам своевременное
обнаружение несквозной трещины оказалось невозможным, то отказ придется
признать внезапным. По мере совершенствования расчетных методов и средств
контрольно-измерительной техники, позволяющих своевременно обнаруживать
источники возможных отказов и прогнозировать их развитие во времени, все
большее число отказов будет относиться к категории постепенных.
Можно сказать, что внезапный отказ - это отказ, наступление которого не
может быть предсказано предварительным контролем или диагностированием.
Критерий отказа – признак или совокупность признаков нарушения
работоспособного состояния объекта, установленные в нормативно-технической
и (или) конструкторской (проектной) документации.
Причина отказа – явления, процессы, события и состояния, вызвавшие
возникновение отказа объекта.
Последствия отказа – явления, процессы, события и состояния,
обусловленные возникновением отказа объекта
На рисунке схема основных событий и состояний, указаны переходы из
одного состояния в другое [2.5].
Рисунок 2.2 – Схема основных событий и состояний
Переход объекта из исправного состояния в неисправное работоспособное
состояние происходит из-за повреждений.
Предельное состояние – состояние объекта, при котором его дальнейшая
эксплуатация недопустима или нецелесообразна, либо восстановление его
работоспособного состояния невозможно или нецелесообразно.
Объект
может
перейти
в
предельное
состояние,
оставаясь
работоспособным, если, например, его дальнейшее применение по назначению
станет недопустимым по требованиям безопасности, экономичности и
эффективности.
Кроме того, объект может перейти в предельное состояние вследствие
морального старения, при этом его параметры и нормы технических условий
могут соответствовать нормативной документации.
Критерий предельного состояния – признак или совокупность признаков
предельного состояния объекта, установленные нормативно-технической и (или)
конструкторской (проектной) документацией.
Переход объекта в предельное состояние влечет за собой временное или
окончательное
прекращение
эксплуатации
объекта.
При
достижении
предельного состояния объект должен быть снят с эксплуатации, направлен в
средний или капитальный ремонт, списан, уничтожен или передан для
применения не по назначению. Если критерий предельного состояния
установлен из соображений безопасности хранения и (или) транспортирования
объекта, то при наступлении предельного состояния хранение и (или)
транспортирование объекта должно быть прекращено. В других случаях при
наступлении предельного состояния должно быть прекращено применение
объекта по назначению.
В зависимости от условий эксплуатации для одного и того же объекта
могут быть установлены два и более критериев предельного состояния.
Восстановление – процесс перевода объекта в работоспособное состояние
из
неработоспособного
состояния.
Восстановление
включает
в
себя
идентификацию отказа (определение его места и характера), наладку или замену
отказавшего элемента, регулирование, контроль технического состояния
элементов объекта и заключительную операцию контроля работоспособности
объекта в целом.
Восстанавливаемый объект – объект, для которого в рассматриваемой
ситуации
проведение
восстановления
работоспособного
состояния
предусмотрено в нормативно-технической и (или) конструкторской (проектной)
документации.
Невосстанавливаемый объект – объект, для которого в рассматриваемой
ситуации
проведение
восстановления
работоспособного
состояния
не
предусмотрено в нормативно-технической и (или) конструкторской (проектной)
документации.
Перевод объекта из предельного состояния в работоспособное состояние
осуществляется при помощи ремонта, при котором происходит восстановление
ресурса объекта в целом. В ремонт могут входить разборка, дефектовка, замена
или восстановление отдельных блоков, деталей и сборочных единиц, сборка и т.
д. Содержание отдельных операций ремонта может совпадать с содержанием
операций технического обслуживания.
Объекты могут быть ремонтируемые и неремонтируемые. Деление
объектов на ремонтируемые и неремонтируемые связано с возможностью
восстановления
работоспособного
состояния
путем
ремонта,
что
предусматривается и обеспечивается при разработке и изготовлении объекта.
Объект может быть ремонтируемым, но не восстанавливаемым в конкретной
ситуации.
2.2.1 Определение показателей безотказности невосстанавливаемых
систем
Под показателем понимается количественная величина, показывающая
степень проявления того или иного свойства. Для безотказности такими
показателями, в соответствии с ГОСТ 27.002-89, являются:
1. Вероятность безотказной работы – 𝑃(𝑡).
2. Интенсивность отказов – 𝜆(𝑡).
3. средняя наработка до отказа – 𝑇0 .
Вероятность безотказной работы – вероятность того, что в пределах
заданной наработки отказ объекта не возникнет.
Вероятность безотказной работы определяется в предположении, что в
начальный момент времени (момент начала исчисления наработки) объект
находился в работоспособном состоянии. Обозначим через 𝑡 время или
суммарную наработку объекта (в дальнейшем для краткости называем 𝑡 просто
наработкой). Возникновение первого отказа — случайное событие, а наработка
𝜏 от начального момента до возникновения этого события — случайная
величина. Вероятность безотказной работы 𝑃(𝑡) объекта в интервале от 0 до 𝑡
включительно определяют как 2.2 [2.6]:
𝑃(𝑡) = Р( 𝜏 > 𝑡 )
(2.2)
Здесь Р( 𝜏 > 𝑡 ) – вероятность того, что время наработки до отказа 𝜏
больше заданного 𝑡.
В период нормальной эксплуатации для вероятности безотказной работы
характерно экспоненциальное распределение случайной величины 2.3 [2.4]:
𝑃(𝑡 ) = 𝑒 −𝜆𝑡
(2.3)
где 𝜆 - интенсивность отказов элементов.
Иногда практически целесообразно пользоваться не вероятностью
безотказной работы, а вероятностью отказа 𝑄(𝑡). Поскольку работоспособность
и отказ являются состояниями несовместимыми и противоположными, то их
вероятности связаны зависимостью 2.4 и 2.5 [2.6]:
Р(𝑡) + 𝑄(𝑡) = 1,
(2.4)
𝑄(𝑡) = 1 − Р(𝑡).
(2.5)
следовательно:
Если задать время Т, определяющее наработку объекта до отказа, то Р(𝑡) =
𝑃(𝑇 > 𝑡), то есть вероятность безотказной работы - это вероятность того, что
время Т от момента включения объекта до его отказа будет больше или равно
времени 𝑡, в течение которого определяется вероятность безотказной работы.
Графики этих функций приведены на рисунке 2.3 [2.6].
Рисунок 2.3 – Зависимость изменения P(t) и Q(t) от времени эксплуатации t
Интенсивность отказов – условная плотность вероятности возникновения
отказа объекта, определяемая при условии, что до рассматриваемого момента
времени отказ не возник.
Интенсивность отказов 𝜆 (𝑡) определяется по формуле 2.6 [2.6]:
𝜆 (𝑡 ) =
𝑛(𝑡+∆𝑡)−𝑛(𝑡)
𝑁∆𝑡
(2.6)
где 𝑁 - число объектов, работоспособных в начальный момент
времени;
𝑛(𝑡) - число объектов, отказавших на отрезке от 0 до t;
∆𝑡 - промежуток времени после момента времени начала работы
объекта 𝑡 (см. рисунок 2.4).
Рисунок 2.4 – Пояснения к временному интервалу для определения
статистической оценки интенсивности отказов
Статистическая интенсивность отказов (ИО) показывает какая доля от
работающих в некоторый момент времени t невосстанавливаемых изделий
выходит из строя в единицу времени после этого момента.
Графически 𝜆 (𝑡) имеет вид, представленный на рисунке 2.5 [2.7]:
Рисунок 2.5 – Временная зависимость интенсивности отказов от времени
эксплуатации
Кривую можно условно разделить на три участка: период приработки,
период нормальной эксплуатации, период старения объекта.
Период приработки объекта имеет повышенную ИО, вызванную
приработочными отказами, обусловленными дефектами производства, монтажа,
наладки. Иногда с окончанием этого периода связывают гарантийное
обслуживание объекта, когда устранение отказов производится изготовителем.
В период нормальной эксплуатации ИО уменьшается и практически
остается постоянной, при этом отказы носят случайный характер и появляются
внезапно, прежде всего из-за несоблюдения условий эксплуатации, случайных
изменений нагрузки, неблагоприятных внешних факторов и т. п. Именно этот
период соответствует основному времени эксплуатации объекта.
Возрастание ИО относится к периоду старения объекта и вызвано
увеличением числа отказов от износа, старения и других причин, связанных с
длительной эксплуатацией.
Средняя наработка до отказа 𝑇0 – математическое ожидание наработки
объекта до первого отказа.
В период нормальной эксплуатации, когда 𝜆 (𝑡) = 𝑐𝑜𝑛𝑠𝑡, 𝑇0 определяется
формулой 2.7 [2.6]:
𝑇0 =
1
(2.7)
𝜆 (𝑡)
2.2.2 Определение показателей безотказности восстанавливаемых систем
Вероятность
безотказной
работы
восстанавливаемого
объекта
–
вероятность того, что в пределах заданной наработки отказ объекта не возникнет.
Математические
выражения
остаются
такими
же,
как
и
для
невосстанавливаемого объекта.
Однако в период нормальной эксплуатации, т.е. когда параметр потока
отказов постоянен наиболее характерен экспоненциальный закон распределения
случайной величины и вероятность безотказной работы принимает вид 2.8 [2.7]:
𝑃(𝑡 ) = 𝑒 −𝜔(𝑡)𝑡
(2.8)
где 𝜔(𝑡) – параметр потока отказов.
Параметр потока отказов - отношение математического ожидания числа
отказов восстанавливаемого объекта за достаточно малую его наработку к
значению этой наработки.
Параметр потока отказов (𝜔(𝑡)) определяется по формуле 2.9 [2.7]:
𝜔 (𝑡 ) =
𝑛(𝑡,𝑡+∆𝑡)
𝑁0 ∆𝑡
(2.9)
где 𝑛(𝑡, 𝑡 + ∆𝑡) - число отказавших образцов за промежуток времени;
𝑁0 – число образцов, первоначально поставленных на испытания.
Средняя наработка на отказ – отношение суммарной наработки
восстанавливаемого объекта к математическому ожиданию числа его отказов в
течение этой наработки.
Данный показатель введен применительно к восстанавливаемым объектам,
при эксплуатации которых допускаются многократно повторяющиеся отказы.
Эксплуатация таких объектов может быть описана следующим образом: в
начальный момент времени объект начинает работать и продолжает работать до
первого отказа; после отказа происходит восстановление работоспособности, и
объект вновь работает до отказа и т.д. (см. рисунок 2.6) [2.5]. На оси времени
моменты отказов образуют поток отказов, а моменты восстановлений - поток
восстановлений. На оси суммарной наработки (когда время восстановления не
учитывается) моменты отказов образуют поток отказов.
Рисунок 2.6 – Периоды эксплуатации системы
где 𝑡𝑛 - время работы ;
𝑟𝑛 - время восстановления.
В период нормальной эксплуатации, когда 𝜔(𝑡 ) = 𝑐𝑜𝑛𝑠𝑡 2.10 [2.6]:
𝑇0 =
1
𝜔
Вывод по разделу 2
В ходе разработки эвристической модели системы принятия решений по
противодействию методам НСД в данном разделе были приведены: расчет
эталонных значений количественных показателей защищенности системы
защиты информации от НСД на основе РД ФСТЭК России и показатели
надежности невосстанавливаемых и восстанавливаемых систем.
Применение основных положений, терминов и определений теории
надежности в информационной безопасности открывает больше возможностей
для разработки моделей СЗИ, повышения достоверности оценок характеристик
надежности СЗИ и их отдельных компонентов, в особенности тех, на которые не
распространялись ранее классические подходы теории надежности технических
систем, расширяет базу создания алгоритмов и методик анализа надежности
СЗИ, выбора эксплуатационных показателей их качества.
Глава 2. Искусственный интеллект в системе управления
беспилотными транспортными средствами
Центральной проблемой современных интеллектуальных технологий
является обработка знаний. Системы, ядром которых является база знаний или
модель предмета области, описанная на языке сверхвысокого уровня,
приближенном к естественному языку, называют интеллектуальными. Будем
называть такой язык сверхвысокого уровня – языком представления знаний
(ЯПЗ), созданием баз знаний, образующих ядро экспертных систем (ЭС). Чаще
всего интеллектуальные системы (ИС) применяются для решения сложных
задач, где основная сложность решения связана с использованием слабо
формализованных знаний специалистов-практиков и где логическая (или
смысловая)
обработка
информации
превалирует
над
вычислительной.
Например, понимание естественного языка, поддержка принятия решения в
сложных ситуациях, постановка диагноза и рекомендации по методам лечения,
анализ визуальной информации, управление диспетчерскими пультами и др. [1].
Прикладные интеллектуальные системы используются в десятках тысяч
приложений. Годовой доход от продаж программных и аппаратных средств
искусственного интеллекта еще в 1989г. в США составлял 870 млн. долларов, а
в 1990 г 1.1 млрд. долларов. В дальнейшем почти тридцатипроцентный прирост
дохода сменился более плавным наращиванием темпов [1].
На
рис.
2.1.
отраженны
различные
аспекты
состояния
рынка
искусственного интеллекта ИИ и инвестиции в разработку в области ИИ (рис.
2.1, а) доля систем искусственного интеллекта в информатике (программном
обеспечении) (рис. 2.1, б); доходы от продаж традиционных языков
программирования (рис. 2.1, в); инвестиции только в программное обеспечение
(США) (рис. 2.1, г); инвестиции в аппаратное обеспечение (США) (рис. 2.1, д);
структура рынка ЭС (США, 1993) (рис. 2.1, е) [1].
Наиболее распространенным видом интеллектуальных информационных
систем (ИИС) являются экспертные системы (ЭС), которые ориентированы на
тиражирование опыта высококвалифицированных специалистов в областях, где
качество принятия решения традиционно зависит от уровня экспертизы,
например, медицина, юриспруденция, геология, экономика, военное дело и др.
Рис. 2.1. Состояние и перспективы рынка искусственного интеллекта
ЭС эффективно используются лишь в специфических «экспертных»
областях, где важен эмпирический опыт специалистов. Только в США
ежегодный доход от продаж инструментальных средств для разработки ЭС
составлял в начале 90-х годов (300 – 400) млн. долларов, а от применения ЭС (80
– 90) млн. долларов [1]. Ежегодно крупные фирмы разрабатывают десятки ЭС
типа «in-house» для внутреннего пользования. Эти системы интегрируют опыт
специалистов компании по ключевым и стратегически важным технологиям. В
начале
90-х гг. появилась новая наука
management),
ориентированная
на
«менеджмент знаний» (knowledge
методы
обработки
и
управления
корпоративными знаниями.
Современные ЭС это сложные программные комплексы, аккумулирующие знания специалистов в конкретных предметных областях и
распространяющие этот эмпирический опыт для консультирования менее
квалифицированных пользователей. Разработка ЭС, как активно развивающаяся
ветвь информатики, направлена на использование ЭВМ для обработки
информации в тех областях науки и техники, где традиционные математические
методы моделирования малопригодны. В этих областях важна смысловая и
логическая обработка информации, важен опыт экспертов.
Приведем некоторые условия, которые свидетельствуют о необходимости
разработки и внедрения экспертных систем [1]:
 нехватка специалистов, затрачивающих значительное время для оказания
помощи другим;
 выполнение небольшой задачи требует многочисленного коллектива
специалистов, поскольку ни один из них не обладает достаточным
знанием;
 сниженная производительность, поскольку задача требует полного
анализа сложного набора условий, а обычный специалист не в состоянии
просмотреть (за отведенное время) все эти условия;
 большое расхождение между решениями самых хороших и самых плохих
исполнителей;
 наличие конкурентов, имеющих преимущество в силу того, что они
лучше справляются с поставленной задачей.
Подходящие задачи имеют следующие характеристики:
 являются узкоспециализированными;
 не зависят в значительной степени от общечеловеческих знаний или
соображений здравого смысла;
 не являются для эксперта ни слишком легкими, ни слишком сложными
(время, необходимое эксперту для решения проблемы, может составлять
от трех часов до трех недель).
ЭС достаточно молоды, первые системы такого рода MYCI и DENDRAL
появились в США в середине 70-х годов. В настоящее время в мире
насчитывается несколько тысяч промышленных ЭС, которые дают советы [1]:
 при управлении сложными диспетчерскими пультами, например сети
распределения электроэнергии, — Alarm Analyser;
 постановке медицинских диагнозов ARAMIS, NEUREX;
 при поиске неисправностей в электронных приборах, диагностика
отказов контрольно-измерительного оборудования — Intelligence Ware,
Plant Diagnostics, FOREST;
 по проектированию интегральных микросхем DAA, NASL, QO;
 по управлению перевозками AIRPLAN;
 по прогнозу военных действий ANALYST, BATTLE;
 по формированию портфеля инвестиций, оценке финансовых рисков
RAD, налогообложению RUNE и т. д.
Наиболее популярные приложения ИИС отображены на рисунке 2.2. [1].
Рис. 2.2. Основные приложения ИИС
Сейчас легче назвать области, где еще нет ЭС, чем те, где они уже
применяются.
Уже в 1987 году опрос пользователей, проведенный журналом «Intelligent
Technologies» (США), показал, что примерно:
 25 % пользователей используют ЭС;
 25 % собираются приобрести ЭС в ближайшие 2–3 года;
 50 % предпочитают провести исследование об эффективности их
использования.
Главное отличие ИС и ЭС от других программных средств - наличие базы
знаний (БЗ), в которой знания хранятся в форме, понятной специалистам
предметной области, и могут быть изменены и дополнены также в понятной
форме. Это и есть языки представления знаний (ЯПЗ).
До последнего времени именно различные ЯПЗ были центральной
проблемой при разработке ЭС. Сейчас существуют десятки языков или моделей
представления знаний. Наибольшее распространение получили следующие
модели [1]:
 продукции (OPS5, ROSIE);
 семантические сети (SIMER+MIR, NET);
 фреймы (FRL);
 логическое программирование (ПРОЛОГ);
 объектно-ориентированные языки (SMALLTALK, CLOS).
Для
перечисленных
математическая
нотация,
выше
моделей
разработаны
существует
системы
соответствующая
программирования,
реализующие эти ЯПЗ, и имеется большое количество реальных коммерческих
ЭС.
Современное состояние разработок в области ЭС в России можно
охарактеризовать как стадию все возрастающего интереса среди широких слоев
специалистов-финансистов,
топ-менеджеров,
преподавателей,
инженеров,
медиков, психологов, программистов, лингвистов. В последние годы этот
интерес имеет пока достаточно слабое материальное подкрепление, явная
нехватка учебников и специальной литературы, отсутствие символьных
процессоров и рабочих станций, ограниченное финансирование исследований в
этой области, слабый отечественный рынок программных продуктов для
разработки ЭС.
Поэтому появляется возможность распространения «подделок» под ЭС в
виде многочисленных диалоговых систем и интерактивных пакетов прикладных
программ, которые дискредитируют в глазах пользователей это чрезвычайно
перспективное направление. Процесс создания экспертной системы требует
участия высококвалифицированных специалистов в области искусственного
интеллекта, которых пока выпускает небольшое количество высших учебных
заведений страны.
Наибольшие трудности в разработке ЭС вызывает сегодня не процесс
машинной реализации систем, а домашинный этап анализа знаний и
проектирования базы. Этим занимается специальная наука инженерия знаний.
2.1. Классификация экспертных систем, основанных на знаниях
Класс ЭС сегодня объединяет несколько тысяч различных программных
комплексов, которые можно классифицировать по различным критериям. На
рисунке 2.3 представлена одна из таких классификаций [1].
2.1.1. Классификация экспертных систем по решаемой задаче
Рассмотрим указанные на рисунке 2.3 типы задач подробнее [1].
1. Интерпретация данных. Это одна из традиционных задач для экспертных
систем. Под интерпретацией понимается процесс определения смысла данных,
результаты которого должны быть согласованными и корректными. Обычно
предусматривается многовариантный анализ данных:
 обнаружение и идентификация различных типов океанских судов по результатам аэрокосмического сканирования – SIAP;
 определение основных свойств личности по результатам психодиагностического тестирования в системах ABTAНTECT, МИКРОЛЮШЕР и др.
Рис. 2.3. Классификация экспертных систем
2.
Диагностика. Под диагностикой понимается процесс соотнесения
объекта с некоторым классом объектов и/или обнаружение неисправности в
позволяет с единых теоретических позиций рассматривать неисправность оборудования в технических системах, и заболевания живых организмов, и всевозможные природные аномалии. Важной спецификой является здесь
необходимость
понимания
функциональной
структуры
(«анатомии»)
диагностирующей системы:
 диагностика и терапия сужения коронарных сосудов ANGY;
 диагностика ошибок в аппаратуре и математическом обеспечении ЭВМ –
система CRIB и др.
3.
Мониторинг.
Основная
задача
мониторинга
–
непрерывная
интерпретация данных в реальном масштабе времени и сигнализация о выходе
тех или иных параметров за допустимые пределы. Главные проблемы –
«пропуск» тревожной ситуации и инверсная задача «ложного» срабатывания.
Сложность этих проблем в размытости симптомов тревожных ситуаций и
необходимость учета временного контекста:
 контроль за работой электростанций СПРИНТ, помощь диспетчерам
атомного реактора – REACTOR; .
 контроль аварийных датчиков на химическом заводе – FALCON и др.
Проектирование. Проектирование состоит в подготовке спецификаций на
создание «объектов» с заранее определенными свойствами. Под спецификацией
понимается весь набор необходимых документов – чертеж, пояснительная записка и т.д. Основные проблемы здесь – получение четкого структурного
описания знаний об объекте и проблема «следа». Для организации эффективного
проектирования и в еще большей степени перепроектирования необходимо
формировать не только сами проектные решения, но и мотивы их принятия.
Таким образом, в задачах проектирования тесно связываются два основных
процесса, выполняемых в рамках соответствующей ЭС:
 процесс вывода решения и процесс объяснения;
 проектирование конфигураций ЭВМ VAX – 11/780 в системе XCON (или
R1), проектирование БИС – CADHELP;
 синтез электрических цепей – SYN и др.
Прогнозирование. Прогнозирование позволяет предсказывать последствия
некоторых событий или явлений на основании анализа имеющихся данных.
Прогнозирующие системы логически выводят вероятные следствия из заданных
ситуаций. В прогнозирующей системе обычно используется параметрическая
динамическая модель, в которой значения параметров «подгоняются» под
заданную ситуацию. Выводимые из этой модели следствия составляют основу
для прогнозов с вероятностными оценками:
 предсказание погоды система WILLARD;
 оценки будущего урожая PLANT;
 прогнозы в экономике ECON и др.
Планирование. Под планированием понимается нахождение планов
действий, относящихся к объектам, способным выполнять некоторые функции.
В таких ЭС используются модели поведения реальных объектов с тем, чтобы
логически вывести последствия планируемой деятельности:
 планирование поведения робота STRIPS;
 планирование промышленных заказов ISIS;
 планирование эксперимента MOLGEN и др.
7. Обучение. Под обучением понимается использование компьютера для
обучения какой-то дисциплине или предмету. Системы обучения диагностируют
ошибки при изучении какой-либо дисциплины с помощью ЭВМ и подсказывают
правильные решения. Они аккумулируют знания о гипотетическом «ученике» и
его характерных ошибках, затем в работе они способны диагностировать
слабости в познаниях обучаемых и находить соответствующие средства для их
ликвидации. Кроме того, они планируют акт общения с учеником в зависимости
от успехов ученика с целью передачи знаний:
 обучение языку программирования ЛИСП в системе «Учитель
ЛИСПа»;
 система PROUST обучение языку Паскаль и др.
8. Управление. Под управлением понимается функция организованной
системы, поддерживающая определенный режим деятельности. Такого рода ЭС
осуществляют управление поведением сложных систем в соответствии с
заданными спецификациями:
 помощь в управлении газовой котельной GAS;
 управление системой календарного планирования Project Assistant и др.
9. Поддержка принятия решений. Поддержка принятия решения – это
совокупность процедур, обеспечивающая лицо, принимающее решения
необходимой информацией и рекомендациями, облегчающими процесс
принятия
решения.
Эти
ЭС
помогают
специалистам
выбрать
и/или
сформировать нужную альтернативу среди множества выборов при принятии
ответственных решений:
 выбор стратегии выхода фирмы из кризисной ситуации CRYSIS;
 помощь в выборе страховой компании или инвестора CHOICE и др.
В общем случае все системы, основанные на знаниях, можно подразделить
на системы, решающие задачи анализа, и на системы, решающие задачи синтеза.
Основное отличие задач анализа от задач синтеза заключается в том, что если в
задачах анализа множество решений может быть перечислено и включено в
систему, то в задачах синтеза множество решений потенциально не ограничено
и строится из решений компонент или подпроблем. Задачами анализа являются:
интерпретация данных, диагностика, поддержка принятия решения; к задачам
синтеза
относятся
Комбинированные
проектирование,
системы
планирование,
обеспечивают
обучение,
управление.
мониторинг
и
прогнозирование [1].
2.1.2. Классификация экспертных систем по типу ЭВМ
На сегодняшний день существуют:
 ЭС для уникальных стратегически важных задач на супер-ЭВМ (Эльбрус,
CRAY, CONVEX и др.);
 ЭС на ЭВМ средней производительности (типа ЕС ЭВМ, mainframe);
 ЭС на символьных процессорах и рабочих станциях (SUN, Silicon Graphics,
APOLLO);
 ЭС на мини- и супермини-ЭВМ (VAX, micro-VAX и др.);
 ЭС на персональных компьютерах (IBM PC, MAC II и т. п.) [1].
2.1.3. Классификация экспертных систем по степени интеграции
с другими программами
Автономные ЭС работают непосредственно в режиме консультаций с
пользователем для специфически «экспертных» задач, для решения которых не
требуется привлекать традиционные методы обработки данных (расчеты,
моделирование и т. д.).
Гибридные ЭС представляют программный комплекс, агрегирующий
стандартные пакеты прикладных программ (например, математическую
статистику, линейное программирование или системы управления базами
данных)
и
средства
манипулирования
знаниями.
Это
может
быть
интеллектуальная надстройка над ППП (пакетами прикладных программ) или
интегрированная среда для решения сложной задачи с элементами экспертных
знаний.
Несмотря на внешнюю привлекательность гибридного подхода, следует
отметить, что разработка таких систем являет собой задачу на порядок более
сложную, чем разработка автономной ЭС. Стыковка не просто разных пакетов,
а разных методологий (что происходит в гибридных системах) порождает целый
комплекс теоретических и практических трудностей [1].
2.1.4. Статические и динамические экспертные системы
Статические ЭС разрабатываются в предметных областях, в которых база
знаний и интерпретируемые данные не меняются во времени. Они стабильны.
Пример 1.
Диагностика
неисправностей
в
автомобиле.
Квазидинамические
ЭС
интерпретируют ситуацию, которая меняется с некоторым фиксированным
интервалом времени.
Пример 2.
Микробиологические ЭС, в которых снимаются лабораторные измерения
с технологического процесса один раз в 4-5 часов (например, производство
лизина) и анализируется динамика полученных показателей по отношению к
предыдущему измерению.
Динамические ЭС работают в сопряжении с датчиками объектов в режиме
реального времени с непрерывной интерпретацией поступающих в систему данных.
В
качестве
примера
можно
привести
управление
гибкими
производственными комплексами, мониторинг в реанимационных палатах программный инструментарий для разработки динамических систем G2 [1].
Система искусственного интеллекта (ИИ) — программная система,
имитирующая на компьютере процесс мышления человека. Для создания такой
системы требуется изучение самого процесса мышления человека, решающего
конкретные задачи или принимающего решения в определенной области. Кроме
того, необходимо выявление основных шагов этого процесса и разработка
программных средств, воспроизводящих их на компьютере. Следовательно,
методы ИИ предполагают структурный подход к разработке сложных
программных систем принятия решений.
Важнейшую роль в системе ИИ играет информатика, способствующая
создавать
аппаратно-программные
средства,
позволяющие
пользователю
ставить и решать интеллектуальными задачи, общаясь с ЭВМ на ограниченном
подмножестве естественного языка.
Первыми теоретическими работами в области искусственного интеллекта
являются публикации Лейбница и Декарта, которые независимо друг от друга
продолжили эту идею на основе универсальных языков классификации для всех
наук.
Окончательное рождение искусственного интеллекта как научного
направления произошло только после создания ЭВМ в 1940-х гг., когда Норберт
Винер создал свои основополагающие работы по новой науке ˗ кибернетике.
Уровень теоретических исследований по искусственному интеллекту в
России всегда был ничуть не ниже общемирового. Однако начиная с 1980-х гг.
на прикладных работах начинало сказываться постепенное отставание в
технологии. На данный момент отставание в области разработки промышленных
интеллектуальных систем составляет примерно 3–5 лет. Основные области
применения систем ИИ: доказательство теорем, игры, распознавание образов,
принятие решений, адаптивное программирование, сочинение машинной
музыки, обработка данных на естественном языке, обучающиеся сети
(нейросети), вербальное концептуальное обучение.
Функциональная структура системы ИИ (рис. 2.4) состоит из трех
комплексов вычислительных средств. Первый из них представляет собой
исполнительную систему (ИС) — совокупность средств, выполняющих
программы и спроектированных с позиций эффективного решения задач; этот
комплекс имеет в ряде случаев проблемную ориентацию. Второй комплекс —
это совокупность средств интеллектуального интерфейса, имеющих гибкую
структуру, которая обеспечивает возможность адаптации в широком спектре
интересов конечных пользователей.
Интеллектуаль
ный интерфейс
Решающее
устройств
о
Конечные пользователи
Система
обмена
информацией
Исполнител
ьная
система
Программно
е
обеспечение
База данных
[концептуальны
й уровень и
информационны
й уровень]
[трансляторы,
система обеспечения
взаимопонимания]
[вычислительные
логические
поисковые
средства]
Рис. 2.4. Функциональная структура системы ИИ
Третьим комплексом средств, с помощью которых организуется
Конечный
Предметная
Типы задач
взаимодействие первых двух комплексов, является база знаний, обеспечивающая
пользователь
область
использование вычислительными средствами первых двух комплексов
целостной и независимой от обрабатывающих программ системы знаний о
проблемной среде. Исполнительная система при этом объединяет всю
совокупность
программы;
программных
средств,
обеспечивающих
интеллектуальный
и
аппаратных
интерфейс
средств,
выполнение
сформированной
представляет
собой
систему
для
конечного
обеспечивающих
пользователя возможность работы с компьютером для решения задач,
возникающих в его профессиональной деятельности, без посредников или с
незначительной их помощью; база знаний (БЗ) же занимает центральное
положение по отношению к остальным компонентам вычислительной системы в
целом, через нее осуществляется интеграция средств вычислительной системы,
участвующих в решении задач.
Основным
перспективным
направлением
развития
ИИ
является
представление знаний и разработка систем, основанных на накопленном опыте.
Оно связано с разработкой моделей представления знаний, созданием баз
знаний, образующих ядро экспертных систем (ЭС). В настоящее время это
направление включает в себя модели и методы извлечения и структурирования
знаний и сливается с инженерией знаний.
Одним из важных направлений ИИ считается разработка естественно
языковых интерфейсов и машинный перевод. В 1950-х гг. одной из популярных
тем исследований искусственного интеллекта являлась область машинного
перевода. Первой компьютерной программой в этой области стал переводчик с
английского языка на русский. Однако использованная в нем идея пословного
перевода оказалась неплодотворной. В настоящее время для решения подобных
задач используется более сложная модель, включающая в себя анализ и синтез
естественно-языковых сообщений и состоящая из нескольких блоков.
Традиционное направление искусственного интеллекта, берущее начало у самых
его истоков, — это распознавание образов. Здесь каждому объекту ставится в
соответствие матрица признаков, по которой происходит распознавание этого
объекта. Данное направление близко к машинному обучению и тесно связано с
нейрокибернетикой. Такое направление как новые архитектуры компьютеров
занимается
разработкой
новых
аппаратных
решений
и
архитектур,
ориентированных на обработку символьных и логических данных. Последние
разработки в этой области посвящены компьютерам баз данных, параллельным
компьютерам и нейрокомпьютерам.
Направление, которое также заслуживает внимание — интеллектуальные
роботы. Робот — это электромеханическое устройство, предназначенное для
автоматизации человеческого труда. В настоящее время в мире изготавливается
более 60 тыс. роботов в год. Роботы с жесткой схемой управления. Практически
все современные промышленные роботы принадлежат к этой группе и
фактически представляют собой программируемые манипуляторы. Адаптивные
роботы с сенсорными устройствами. Существуют отдельные образцы таких
роботов,
но
в
промышленности
они
пока
не
используются.
Самоорганизующиеся, или интеллектуальные роботы. Это — идеал, конечная
цель
развития
робототехники.
Основная
проблема
при
создании
интеллектуальных роботов — проблема машинного зрения. В рамках такого
направления как специальное программное обеспечение разрабатываются
специальные языки для решения задач не вычислительного плана. Эти языки
ориентированы на символьную обработку информации — Lisp, Prolog,
SmallTalk, Рефал и др. Кроме них создаются пакеты прикладных программ,
ориентированные на промышленную разработку интеллектуальных систем, —
программные
инструментарии
искусственного
интеллекта.
Достаточно
популярно и создание так называемых «пустых экспертных систем» —
«оболочек», которые можно наполнять базами знаний, создавая различные
экспертные системы.
Еще одна активно развивающаяся область искусственного интеллекта —
обучение и самообучение. Эта область включает в себя модели, методы и
алгоритмы, ориентированные на автоматическое накопление знаний на основе
анализа и обобщения данных, обучение на примерах (или индуктивное), а также
традиционные подходы распознавания образов. Появление сети Интернет
оказало
существенное
влияние
«искусственный интеллект» и
на
развитие
научного
наоборот. Можно
направления
отметить следующие
существующие и перспективные применения технологий ИИ в Интернете:
управление порталами, крупными интернет-магазинами и другими сложными
web-системами; маршрутизация пакетов информации при их передаче по сети;
прогнозирование и оптимизация загрузки каналов передачи информации;
управление сетевыми роботами и др.
2.2. Представление данных и знаний в интеллектуальных системах
В рамках направления «Представление знаний» решаются задачи,
связанные
с
формализацией
и
представлением
знаний
в
памяти
интеллектуальной системы (ИС). Для этого разрабатываются специальные
модели представления знаний и языки для описания знаний, выделяются
различные типы знаний. Изучаются также источники, из которых ИС может
черпать знания, и создаются процедуры и приемы, с помощью которых
возможно приобретение знаний для ИС. Проблема представления знаний для ИС
чрезвычайно актуальна, так как ИС — это система, функционирование которой
опирается на знания о проблемной области, которые хранятся в ее памяти.
Однако чтобы моделировать знания, нужно вначале ответить на целый ряд
вопросов: Что такое знания? Чем они отличаются от данных? Чем отличаются
базы знаний от баз данных? Информация, с которой имеют дело компьютеры,
разделяется на процедурную и декларативную. При этом процедурная
информация реализуется в форме программ, которые выполняются в процессе
решения задач, а декларативная информация — в форме данных, с которыми
работают эти программы. Данные — это отдельные факты, характеризующие
объекты, процессы и явления в предметной области, а также их свойства.
Одновременно
с
развитием
структуры
ЭВМ
происходило
развитие
информационных структур для представления данных. Появились способы их
описания в виде векторов и матриц, возникли списочные и иерархические
структуры. В настоящее время в языках программирования высокого уровня
используются
абстрактные
типы
данных,
структура
которых
задается
программистом. Появление баз данных Искусственный интеллект ознаменовало
собой еще один шаг на пути организации работы с декларативной информацией.
В базах данных могут одновременно храниться большие объемы информации, а
специальные средства, образующие систему управления базами данных (СУБД),
позволяют эффективно манипулировать данными, при необходимости извлекать
их из БД или записывать в БД в нужном порядке, вести поиск данных в БД и пр.
По мере развития исследований в области ИС возникла концепция знаний,
которые объединили в себе многие черты процедурной и декларативной
информации. В компьютере знания, так же как и данные, отображаются в
знаковой форме — в виде формул, текста, файлов, информационных массивов и
т. д. Поэтому можно сказать, что знания — это особым образом организованные
данные. Но это слишком узкое понимание. Знания связаны с данными,
основываются на них, но, в отличие от данных, представляют результат
мыслительной деятельности человека, обобщают его опыт, полученный в ходе
выполнения какой-либо практической деятельности. Знания добываются
эмпирическим путем. Знания — это выявленные закономерности предметной
области (принципы, связи, законы), позволяющие решать задачи в этой области.
В системах ИИ знания являются основным объектом формирования, обработки
и исследования. База знаний (БЗ) — это необходимая составляющая
программного комплекса ИИ. Машины, реализующие алгоритмы ИИ, также
называют машинами, основанными на знаниях. Любая база знаний содержит в
себе базу данных в качестве составляющей, но вовсе не сводится к ней. Главное
отличие базы знаний от базы данных состоит в следующем: из базы данных
можно извлечь лишь ту фактическую информацию, которая в нее заложена,
тогда как благодаря закономерностям и связям из базы знаний можно выводить
новые факты, которые непосредственно в нее заложены не были. При
построении баз знаний традиционные средства, основанные на числовом
представлении данных, являются неэффективными. Для этого используются
специальные языки представления знаний, основанные на символьном
представлении данных.
Существуют десятки моделей (языков) представления знаний для
различных предметных областей. Большинство из них может быть сведено к
следующим классам:

семантические сети;

фреймы;

формальные логические модели;

продукционные.
2.2.1. Семантические сети
Термин «семантическая» означает «смысловая», а сама семантика — это
наука, устанавливающая отношения между символами и объектами, которые они
обозначают, т. е. наука, определяющая смысл знаков.
Семантическая сеть — это ориентированный граф, вершины которого
представляют собой понятия, а дуги — отношения между ними. В качестве
понятий обычно выступают абстрактные или конкретные объекты, а отношения
— это связи типа: «это», «имеет частью», «принадлежит», «любит» и т. д.
Характерной особенностью семантических сетей является обязательное наличие
трех типов отношений:

класс — элемент класса;

свойство — значение;

пример элемента класса.
Проблема поиска решения в базе знаний типа семантической сети сводится
к поиску путей на графе, позволяющих от вершин с исходными данными
добраться до вершин с искомыми величинами. Такой поиск можно
автоматизировать. Вывод (продуцирование) новых знаний в семантической сети
может проводиться «в двух направлениях»: от известных данных
к цели
(результатам) или, наоборот, от цели к известным данным.
Первый способ называется прямой волной, прямым поиском, прямой
стратегией вывода, а второй — обратной волной, обратным поиском, обратной
стратегией вывода. Пример: на рисунке 2.5 изображена семантическая сеть, где
вершинами являются понятия: «Человек», «Иванов», «Волга», «Автомобиль»,
«Вид транспорта», «Двигатель». Основной недостаток подобной модели —
сложность поиска вывода на семантической сети.
Красный
значение
Цвет
Двигатель
свойство
имеет частью
Волга
это
Автомобил
ь
это
Вид
транспорта
любит
принадлежит
например
Иванов
Человек
Рис. 2.5. Семантическая сеть
2.2.2. Фреймы
В основе этой теории (автор М. Минский) лежат психологические
представления о том, как мы видим, слышим и концентрируем внимание на
воспринимаемом. Сам Минский считал теорию фреймов скорее «теорией
постановки задач», чем продуктивной теорией, и суть ее излагалась следующим
образом. Каждый раз, попадая в некую ситуацию, человек вызывает в своей
памяти соответствующую этой ситуации структуру, именуемую фреймом
(«frame» — «рамка»). Таким образом, фрейм — это единица представления
знания, заполненная в прошлом, детали которой по необходимости изменяются
и уточняются. Каждый такой фрейм может быть дополнен различной
информацией, касающейся способов применения этого фрейма, последствий
такого применения и т. п. Например, образ жизни каждого человека — это
большей частью череда типовых ситуаций, различающихся каждый раз в
деталях, но в целом повторяющихся. В психологии и философии известно
понятие абстрактного образа. Например, слово «комната» вызывает у слышащих
его примерно следующий образ комнаты: «жилое помещение с четырьмя
стенами, полом, потолком, окнами и дверью, средней площади». В таком
описании ничего нельзя пропустить по существу (например, убрав из него окна,
мы получим уже чулан, а не комнату), но в нем есть «лакуны», или «слоты», —
незаполненные значения некоторых атрибутов — конкретное количество окон,
цвет стен, высота потолка, покрытие пола и др. В теории фреймов такой образ и
называется фреймом, равно как и формализованная модель для отображения
такого образа. С точки зрения пользователя различают три уровня общности
фреймов:
 скелетный, пустой фрейм (шаблон), превращаемый после его
заполнения в общее или конкретное понятие;
 фрейм общего понятия (прототип) — шаблон, заполненный не
конкретными значениями (константами), а переменными;
 фрейм конкретного понятия (экземпляр) — прототип, заполненный
конкретными значениями (константами).
Каждому фрейму присваивается имя, которое должно быть уникальным во
всей фреймовой системе. Описание фрейма состоит из ряда описаний,
именуемых слотами, которым также присвоены имена (они должны быть
уникальны в пределах фрейма). Каждый слот предназначен для заполнения
определенной структурой данных. Значением слота может быть практически все,
что угодно (числа, математические соотношения, тексты на естественном языке,
программы, правила вывода, ссылки на другие слоты данного фрейма или других
фреймов). При конкретизации фрейма ему и его слотам присваиваются
конкретные имена и происходит заполнение слотов их значениями. Переход от
исходного фрейма-прототипа к фрейму-экземпляру может быть многошаговым
(за счет постепенного уточнения значений слотов). Внутреннее (машинное)
представление фрейма имеет более сложную организацию и содержит средства
для создания иерархии фреймов, их взаимодействия, обмена информацией,
порождения конкретных фреймов из общих и общих — из скелетных.
Важнейшим свойством теории фреймов является заимствованное из
теории семантических сетей наследование свойств. И во фреймах, и в
семантических сетях наследование происходит по АКО-связям («A-Kind-Of» —
«это»). Слот АКО указывает на фрейм более высокого уровня иерархии, откуда
неявно наследуются (переносятся) значения аналогичных слотов.
Отдельные специалисты по искусственному интеллекту полагают, что нет
необходимости специально выделять фреймовые модели в представлении
знаний, так как в них объединены все основные особенности моделей остальных
типов. Поэтому фреймовые модели часто рассматривают в общем контексте с
сетевыми моделями. В частности, сеть фреймов можно рассматривать как
семантическую сеть с блочной структурой, позволяющую реализовать
альтернативные интерпретации предметных областей. Фрейм в такой сети
содержит информационный и процедурный элементы, которые обеспечивают
преобразование информации внутри фрейма и его связь с другими фреймами, а
слоты фрейма заполняются конкретной информацией в процессе.
2.2.3. Формальные логические модели
В основе моделей такого типа лежит формальная система, задаваемая
четверкой множеств вида: M = ⟨𝑇, 𝑃, 𝐴, 𝐵⟩. Здесь множество T — это множество
базовых элементов различной природы (например, слов из некоторого
ограниченного словаря, деталей детского конструктора, входящих в состав
некоторого набора, и т. д.). Важно, что для множества T существует некоторый
способ определения принадлежности или непринадлежности произвольного
элемента к этому множеству. Процедура такой проверки может быть любой, но
за конечное число шагов она должна давать положительный или отрицательный
ответ на вопрос: является ли x элементом множества T? Обозначим эту
процедуру как П(T). Множество P есть множество синтаксических правил. С их
помощью из элементов T образуют синтаксически правильные совокупности.
Например, из слов ограниченного словаря строятся синтаксически правильные
фразы, из деталей детского конструктора с помощью гаек и болтов собираются
новые конструкции и т. д. Декларируется также существование процедуры П(P),
с помощью которой за конечное число шагов можно получить ответ на вопрос:
является ли совокупность X синтаксически правильной? В множестве
синтаксически правильных совокупностей выделяется некоторое подмножество
A, элементы которого называются аксиомами. Как и для других составляющих
формальной системы, должна также существовать процедура П(A), с помощью
которой для любой синтаксически правильной совокупности можно получить
ответ на вопрос о принадлежности ее к множеству A. Наконец, множество B —
это множество правил вывода. Применяя их к элементам A, можно получать
новые синтаксически правильные совокупности, к которым снова можно
применять правила из B, и т. д. Так формируется множество выводимых в данной
формальной системе совокупностей. Если имеется процедура П(B), с помощью
которой можно определить для любой синтаксически правильной совокупности,
является ли она выводимой, то соответствующая формальная система
называется разрешимой. Это показывает, что именно правило вывода является
наиболее сложной составляющей формальной системы. Для знаний, входящих в
базу знаний, можно считать, что множество A образуют все информационные
единицы, которые введены в базу знаний извне, а с помощью правил вывода из
них выводятся новые производные знания. Другими словами, формальная
система представляет собой генератор порождения новых знаний, образующих
множество выводимых в данной системе знаний. Это свойство логических
моделей делает их привлекательными для использования в базах знаний, оно
позволяет хранить в базе лишь знания, которые образуют множество A, а все
остальные знания получать из них по правилам вывода.
2.2.4. Продукционные модели
Продукционная модель, или модель, основанная на правилах, позволяет
представить знания в виде предложений типа: «Если (условие), то (действие)».
Здесь под условием понимается некоторое предложение — образец, по которому
осуществляется поиск в базе знаний, а под действием — действия, выполняемые
при успешном исходе поиска (они могут быть промежуточными, выступающими
далее тоже как условия, либо терминальными, или целевыми, завершающими
работу системы). При использовании продукционной модели база знаний
состоит из набора правил. Программа же, управляющая перебором этих правил,
называется машиной вывода. Чаще всего вывод бывает прямым (от данных — к
поиску цели) или обратным (от цели, для ее подтверждения, — к данным).
Машина вывода выполняет две функции:
 просмотр существующих фактов (из рабочей памяти) и правил (из базы знаний)
и добавление в рабочую память новых фактов;
 определение порядка просмотра и применения правил.
Действие машины вывода основано на применении следующего правила:
если известно, что истинно утверждение А, и существует правилВопромо вида
«если А, то В», тогда утверждение В также истинно. Правила срабатывают, если
найдены факты, удовлетворяющие их левой части: если истинна посылка, то
должно быть истинно и заключение. Управляющий компонент машины вывода
определяет порядок применения правил и выполняет четыре следующих
функции:
 сопоставление — образец правила сопоставляется с имеющимися фактами;
 выбор — если может быть применено несколько правил, то выбирается только
одно из них по какому-либо критерию;
 срабатывание — если образец правила совпал с каким-либо фактом, то данное
правило срабатывает;
 действия — в рабочую память добавляются заключения сработавшего правила.
2.3.
Экспертные системы
В начале 1980-х гг. в исследованиях по искусственному интеллекту
сформировалось
самостоятельное
направление,
получившее
название
«экспертные системы». Экспертные системы (ЭС) — это сложные программные
комплексы, аккумулирующие знания специалистов в конкретных предметных
областях и тиражирующие этот эмпирический опыт для оказания консультаций
менее квалифицированным пользователям. Исследователи в области ЭС для
названия своей дисциплины часто используют также термин «инженерия
знаний», введенный Е. Фейгенбаумом и означающий «привнесение принципов и
инструментария исследований из области искусственного интеллекта в решение
трудных прикладных проблем, требующих знаний экспертов». Программные
средства, базирующиеся на технологии экспертных систем, или инженерии
знаний, получили значительное распространение в современном мире.
Экспертные системы отличаются от систем обработки данных тем, что в них в
основном используются символьный (а не числовой) способ представления,
символьный вывод и эвристический поиск решения (а не исполнение известного
алгоритма). Экспертные системы способны пополнять свои знания в ходе
взаимодействия с экспертом. В настоящее время технология экспертных систем
используется для решения различных типов задач (интерпретация, предсказание,
диагностика, планирование, конструирование, контроль, отладка, инструктаж,
управление) в самых разнообразных прикладных областях, таких как финансы,
нефтяная и газовая промышленность, энергетика, транспорт, фармацевтическое
производство, космос, металлургия, горное дело, химия, образование,
целлюлознобумажная промышленность, телекоммуникации и связь и др.
2.3.1. Структура экспертной системы
Типичная статическая ЭС состоит из следующих основных компонентов
(рис. 2.6): решатель (интерпретатор); рабочая память (РП), называемая также
базой данных (БД); база знаний (БЗ); компоненты приобретения знаний;
объяснительный компонент; диалоговый компонент. База данных (рабочая
память) предназначена для хранения исходных и промежуточных данных
решаемой в текущий момент задачи. База знаний (БЗ) в ЭС предназначена для
хранения долгосрочных данных (а не текущих), описывающих рассматриваемую
область, и правил, описывающих целесообразные преобразования данных этой
области. Решатель, используя исходные данные из рабочей памяти и знания из
БЗ,
формирует
такую
последовательность
правил,
которые,
будучи
примененными к исходным данным, приводят к решению задачи. Компонент
приобретения знаний автоматизирует процесс наполнения ЭС знаниями,
осуществляемый пользователем-экспертом.
Диалоговый
компонент
Интерфейс БД
Объяснительный
компонент
Решающее устройство
Компонент
приобретения знаний
База знаний
Рабочая память
Рис.2.6. Структура статической экспертной системы
Объяснительный компонент расшифровывает, как система получила
решение задачи (или почему она не получила решения) и какие знания она при
этом использовала, что облегчает эксперту тестирование системы и повышает
доверие пользователя к полученному результату. Диалоговый компонент
ориентирован на организацию дружественного общения с пользователем как в
ходе решения задач, так и в процессе приобретения знаний и объяснения
результатов работы.
2.3.2. Разработка и использование экспертных систем
В
разработке
ЭС
обычно
участвуют
представители
следующих
специальностей: эксперт в проблемной области, задачи которой будет решать
ЭС; инженер по знаниям — специалист по разработке ЭС (используемую им
технологию (методы) называют технологией (методами) инженерии знаний);
программист по разработке инструментальных средств (ИС), предназначенных
для ускорения разработки ЭС. Эксперт определяет знания (данные и правила),
характеризующие проблемную область, обеспечивает полноту и правильность
введенных в ЭС знаний. Инженер по знаниям помогает эксперту выявить и
структурировать знания, необходимые для работы ЭС, осуществляет выбор
инструментальных средств, которые наиболее подходят для данной проблемной
области, и определяет способ представления знаний в этом инструментарии,
выделяет и программирует (традиционными средствами) стандартные функции,
типичные для данной проблемной области, которые будут использоваться в
правилах, вводимых экспертом. Программист разрабатывает ИС (если
инструментарий
разрабатывается
заново),
содержащие
все
основные
компоненты ЭС, и осуществляет их сопряжение с той средой, в которой они
будут использованы. Необходимо отметить, что отсутствие среди участников
разработки инженеров по знаниям (т. е. их замена программистами) чаще всего
приводит к неудаче процесса создания ЭС либо значительно удлиняет его.
Экспертная система может работать в двух режимах: в режиме приобретения
знаний и в режиме решения задачи (называемом также «режимом консультации»
или «режимом использования ЭС»). В режиме приобретения знаний общение с
ЭС осуществляет (через посредничество инженера по знаниям) эксперт. Он,
используя компонент приобретения знаний, наполняет систему знаниями,
которые позже позволят ЭС в режиме решения самостоятельно (уже без
эксперта) решать задачи из определенной проблемной области. Эксперт
описывает проблемную область в виде совокупности данных и правил, где
данные определяют объекты, их характеристики и значения, существующие в
области экспертизы, а правила определяют способы манипулирования с
данными, характерные для рассматриваемой области. В режиме консультации
общение с ЭС осуществляет конечный пользователь, которого интересует
результат и (или) способ его получения. При этом данные о задаче пользователя
после их обработки диалоговым компонентом поступают в рабочую память.
Решатель на основе входных данных из рабочей памяти, общих данных о
проблемной области и правил из БЗ формирует решение задачи. Заметим, что ЭС
при решении задачи не только исполняет предписанную последовательность
операции, но и предварительно формирует ее.
Глава 3 Нейронные сети
3.1. Общие сведения о нейронных сетях и перспективы их применения
Еще одно базовое направление развития искусственного интеллекта
основано не на моделировании процесса принятия решения человеком (как в
экспертных системах), а на попытке создать нейронную модель мозга. В силу
слабой изученности физиологии человеческого мозга адекватность такой модели
представляется весьма сомнительной. Тем не менее, даже те малые (а возможно,
и ошибочные) знания физиологии мозга, которые были получены в 1960-е гг.,
позволили создать работоспособные нейронные модели.
Теория искусственных нейронных сетей (НС) зародилась еще в 1940-х гг.,
и к 1960-м гг. уже были разработаны однослойные НС (перцептроны), которые в
ряде случаев оказались способны обучаться, осуществлять предсказания и
распознавать образы. Появилась надежда, что механизм работы мозга «угадан»
правильно, и скоро удастся создать настоящий искусственный интеллект, —
надо лишь создать (на программном или аппаратном уровне) побольше
нейронов. Однако перцептроны хорошо показали себя именно «в ряде случаев»,
тогда как во многих других, казалось бы, похожих ситуациях они работать
почему-то отказывались. Один из «отцов-основателей» теории нейронных сетей,
Марвин Минский, используя точные математические методы, доказал, что
существует теоретический предел (причем довольно низкий) возможностей
однослойных сетей, и они не способны решать многие простые задачи. К тому
же он высказал собственное мнение, что нейронные сети перспектив не имеют.
Авторитет Минского был настолько велик, а его расчеты — настолько
убедительны, что все исследования в этой области повсеместно были свернуты,
и в течение почти 20 лет интерес к ним не проявлялся, а энтузиастов-одиночек
никто не хотел слушать. Только в 1980-х гг. в этой области произошел прорыв
благодаря революционным работам Джона Хопфилда и Тейво Кохонена.
Многослойные нейронные сети нового поколения успешно справлялись с
задачами, которые были недоступны для перцептронов. Началось
лавинообразное развитие данного направления. К этому моменту искусственный
интеллект уже рассматривался как вполне утилитарная область с достаточно
четко очерченными задачами. Элементная база позволила создать мощные
нейрокомпьютеры и программные нейропакеты для распознавания образов,
прогнозирования и решения ряда других задач, в которых входные данные были
неполны, зашумлены и даже противоречивы. Значительное финансирование эти
исследования получили даже не столько благодаря широкому внедрению НСсистем в военное дело, сколько из-за их способности делать весьма точные
прогнозы в социально-экономической сфере (в бизнесе). Так, современные
нейросистемы способны предсказывать колебания курсов валют и акций на
достаточном промежутке времени точнее самых опытных брокеров, учитывая
при этом массу косвенных параметров — от солнечной активности до
политической ситуации в стране. Поэтому те же брокеры сегодня уже не
обходятся без использования различных НС-систем — от простых программных
реализаций за 300 долларов для ноутбуков до дорогих нейронных
суперкомпьютеров. При этом, такие системы, как правило, предполагают
обязательное наличие доступа в сеть Интернет, что необходимо для обеспечения
следующих задач: получение входных данных для анализа (например, котировок
акций в различных системах валют, индексов инфляции, текущих параметров
рекламной активности и политической ситуации и множества других);
реализация интерфейса (брокер может работать с большим корпоративным
нейрокомпьютером через сеть Интернет); доступ к базам данных, необходимым
для обучения нейросистемы (например, данных о биржевой ситуации за какойлибо прошедший период).
Чем большее количество примеров будет представлено системе для
обучения, тем более точных прогнозов можно от нее добиться. Эта информация
является достаточно дорогой, но существуют базы с данными за десятки лет.
Однако подобные нейронные сети имеют и некоторые специфические
недостатки. Прежде всего, они связаны с недостатками механизмов обучения
нейронных сетей. Не вдаваясь в детали, отметим, что все разнообразные
механизмы обучения имеют свои слабые места, которые могут привести к
неправильной настройке системы. Другой недостаток состоит в том, что
нейронные сети не могут объяснять свои действия (процесс получения того или
иного решения), что является сильной стороной экспертных систем. Наряду с
прогнозированием еще одной очень полезной способностью нейронных сетей,
как уже отмечалось, является распознавание образов в условиях зашумленной
входной информации. И здесь, опять-таки, кроме военного применения
(обнаружение, слежение и т. п.), для нейронных сетей существует масса
приложений в сфере бизнеса, среди которых можно назвать определение
разнообразных рисков и поддержку принятия решений. Последнее в перспективе
может оказаться наиболее эффективным при объединении нейронных сетей и
экспертных систем в единый комплекс (так же, как правое полушарие головного
мозга человека отвечает за первичную обработку входной информации от
органов чувств и рефлекторную деятельность, а левое — за логический анализ и
принятие решений). При этом первичная обработка нейронной сетью скорее
всего потребует наибольших ресурсов. Так, например, с математической точки
зрения мозг футболиста в момент удара по мячу производит гораздо больше
вычислительных операций, чем мозг шахматиста за всю партию. За утилитарным
использованием нейронных сетей собственно моделирование работы мозга
отошло на второй план. Здесь продвинуться удалось не так сильно, и успехи в
практическом применении мало что доказывают. Даже самые мощные
нейрокомпьютеры не сравнимы по своей сложности даже с нервной системой
муравья, — куда уж там до человека! Да и, с другой стороны, достижения
нейробиологов базируются в основном на изучении морских зайчиков
(двустворчатых моллюсков). Работа же человеческого мозга связана с
электромагнитной активностью и другими слабо изученными полями, роль
которых почти неизвестна. К тому же нейроны отнюдь не однородны и не
равноценны даже у того же морского зайчика. Человеческий мозг — это,
наверное, самое сложное, что создала природа, и его изучение — долгий и
трудный процесс даже на простом физиологическом уровне. Вспомним хотя бы,
как долго ученые, а вместе с ними и все остальные обыватели заблуждались,
считая, что нервные клетки «не восстанавливаются». В силу всего этого очень
сомнительна популярная идея о том, что если удастся считать всю информацию
с мозга человека и перенести ее в компьютер, то мы получим «виртуальную
копию личности», которая будет «жить» в машине или в Глобальной сети, даруя
бессмертие данному индивиду... Таким образом, отождествлять искусственный
интеллект с мышлением человека можно лишь весьма условно. Пожалуй, самым
большим их сходством является способность совершать ошибки. Познание
человеком самого себя идет медленнее, чем развитие технологий ИИ, которые
стали самостоятельным научным направлением (хотя сама научная
терминология сохраняет «человекообразный» стиль — «нечеткая логика»,
«генетические алгоритмы» и т. д.). В последние несколько лет мы наблюдаем
буквально «взрыв» интереса к нейронным сетям, которые успешно применяются
в самых различных областях — в бизнесе, медицине, технике, геологии, физике.
Нейронные сети вошли в практику везде, где нужно решать задачи
прогнозирования, классификации или управления. Такой впечатляющий успех
определяется несколькими причинами. Богатые возможности. Нейронные сети
— это исключительно мощный метод моделирования, позволяющий
воспроизводить чрезвычайно сложные зависимости. В частности, нейронные
сети нелинейны по своей природе. На протяжении многих лет линейное
моделирование было основным методом моделирования в большинстве
областей, поскольку для него хорошо разработаны процедуры оптимизации. В
задачах же, где линейная аппроксимация неудовлетворительна (а таких задач
достаточно много), линейные модели работают плохо. Кроме того, нейронные
сети справляются с «проклятием размерности», которое не позволяет
моделировать линейные зависимости в случае большого числа переменных.
Нейронные сети учатся на примерах. Пользователь нейронной сети подбирает
представительные данные, а затем запускает алгоритм обучения, который
автоматически воспринимает структуру данных. При этом от пользователя,
конечно, требуется какой-то набор эвристических знаний о том, как нужно
отбирать и подготавливать данные, выбирать нужную архитектуру сети и
интерпретировать результаты, однако уровень знаний, необходимый для
успешного применения нейронных сетей, гораздо скромнее, чем, например, при
использовании традиционных методов статистики. Нейронные сети
привлекательны и с интуитивной точки зрения, поскольку они основаны на
примитивной биологической модели нервных систем. В будущем развитие таких
нейробиологических моделей может действительно привести к созданию
мыслящих компьютеров либо к реализации возможности прямого подключения
традиционных компьютеров к мозгу, когда нейросеть выполняет функции
некоего «промежуточного звена» для распознавания «мыслей» пользователя
(управляющих сигналов) среди снятой с мозга полной энцефалограммы;
возможно, такая нейросеть будет «обучаться» взаимодействию с конкретным
пользователем («хозяином») еще с младенчества. Нейронные сети возникли из
исследований в области искусственного интеллекта, а именно из попыток
воспроизвести способность биологических нервных систем обучаться и
исправлять ошибки, моделируя низкоуровневую структуру мозга. Основной
областью исследований по искусственному интеллекту в 1960–1980-е гг. были
экспертные
системы,
которые
базировались
на
высокоуровневом
моделировании процесса мышления (в частности, на представлении, что процесс
нашего мышления построен на манипуляциях с символами). Однако очень скоро
стало ясно, что такие системы хотя и могут принести пользу в некоторых
областях, но не охватывают некоторые ключевые аспекты человеческого
интеллекта. Согласно одной из распространенных точек зрения, причина в том,
что они не в состоянии воспроизвести структуру мозга, а чтобы создать
искусственный интеллект, необходимо построить систему с похожей
архитектурой. Мозг человека состоит из очень большого числа (приблизительно
10 000 000 000) нейронов, соединенных многочисленными связями (в среднем
— несколько тысяч связей на один нейрон, однако это значение может сильно
меняться). Нейрон — это специальная клетка, способная распространять
электрохимические сигналы. Нейрон имеет разветвленную структуру вводных
каналов информации (дендриты), ядро и разветвляющийся выходной канал
(аксон). Аксоны такой клетки соединяются с дендритами других нейронов
клеток с помощью синапсов. Будучи активированным, нейрон посылает
электрохимический сигнал по своему аксону, и через синапсы этот сигнал
достигает других нейронов, которые могут, в свою очередь, активироваться.
Нейрон активируется, когда суммарный уровень сигналов, пришедших в его
ядро из дендритов, превысит определенный уровень (порог активации).
Интенсивность сигнала, получаемого нейроном (следовательно, и возможность
его активации), сильно зависит от активности синапсов. Каждый синапс
представляет собой промежуток (синаптическую щель) между аксоном и
дендритом, и специальные химические вещества (медиаторы) передают сигнал
через этот промежуток. Один из самых авторитетных исследователей
нейросистем, Дональд Хебб, сформулировал постулат, что обучение
заключается в первую очередь в изменениях «силы» синаптических связей.
Например, в классическом опыте Павлова каждый раз непосредственно перед
кормлением собаки звонил колокольчик, и собака быстро научилась связывать
звонок колокольчика с пищей. Это произошло потому, что синаптические связи
между участками коры головного мозга, ответственными за слух, и слюнными
железами усилились, так что при возбуждении коры мозга звуком колокольчика
у собаки начиналось слюноотделение. Таким образом, будучи построенным из
очень большого числа совсем простых элементов (каждый из которых
фактически вычисляет взвешенную сумму входных сигналов и если суммарный
вход превышает определенный уровень, то передает дальше двоичный сигнал),
мозг способен решать чрезвычайно сложные задачи.
Применение нейронных сетей
На практике нейросети используются как программные продукты,
выполняемые на обычных компьютерах, либо как специализированные
аппаратно-программные комплексы. Заметим, что в первом случае встроенный
параллелизм нейросетевых алгоритмов чаще всего не используется, поскольку
для многих задач анализа и обобщения баз данных особого быстродействия не
требуется — для них вполне хватает производительности современных
универсальных процессоров. В таких приложениях используется исключительно
способность нейросетей к обучению и к извлечению закономерностей, скрытых
в больших массивах информации. Для второй же группы приложений, обычно
связанных с обработкой сигналов в реальном времени, параллелизм
нейровычислений является критическим фактором. Перечислим основные
задачи, решаемые нейронными сетями.
1. Распределенная ассоциативная память. Распределенная память означает,
что веса связей нейронов имеют статус информации без специфической
ассоциации части информации с отдельным нейроном. Ассоциативная память
означает, что нейронная сеть способна выдать на выход полный образ по
предъявленной на входе его части.
2. Распознавание образов. Задачи распознавания образов требуют
способности одновременно обрабатывать большое количество входной
информации и выдавать категорический или обобщенный ответ. Для этого
нейронная сеть должна обладать внутренним параллелизмом.
3. Адаптивное управление.
4. Прогнозирование.
5. Экспертные системы.
6. Оптимизация (т. е. поиск максимума функционала при наличии
ограничений на его параметры).
В настоящее время нейросети находят широкое применение в различных
областях, таких как экономика (предсказание показателей биржевого рынка,
предсказание финансовых временных рядов), робототехника (распознавание
оптических и звуковых сигналов, самообучение), визуализация многомерных
данных, ассоциативный поиск текстовой информации и др. Нейронные сети
представляют интерес для достаточно большого числа специалистов: для
компьютерщиков нейросети открывают область новых методов для решения
сложных задач; физики используют нейросети для моделирования явлений в
статистической механике и для решения многих других задач; нейрофизиологи
могут использовать нейронные сети для моделирования и исследования функций
мозга; психологи получают в свое распоряжение механизм для тестирования
моделей некоторых своих психологических теорий; другие специалисты
(особенно коммерческих и индустриальных направлений) также могут
интересоваться нейронными сетями по самым разнообразным причинам прежде
всего благодаря достигаемым с их помощью новым возможностям
прогнозирования и визуализации данных.
Оценка применимости сверточных нейронных сетей к задаче
распознавания вредоносного программного обеспечения в системе
управления беспилотных транспортных средств
Главной задачей по обеспечению информационной безопасности
транспорта является сохранение способности различных программно-
управляемых систем автоматического управления к безопасному и
эффективному выполнению функциональных задач в условиях умышленных,
целенаправленных воздействий различной физической природы.
Объектами кибератак на транспорте могут быть системы диспетчерской и
электрической централизации, которые обеспечивают формирование
безопасного маршрута движения транспортных средств, системы защиты и
регулирования энергоснабжения, а также обслуживающий персонал.
Уровень технической оснащенности и информационной осведомленности
злоумышленника может быть довольно высоким - от использования
вредоносного программного обеспечения до заранее размещенных программноаппаратных «закладок».
В последнее время в системе логистики активно шел процесс внедрения
программно-аппаратных систем и комплексов для автоматизированного
управления техническими объектами и технологическими процессами.
Основными целями этого процесса были увеличение эффективности управления
перевозками.
Среди методов, позволяющих оценивать различные модели, позволяющие
распознавать вредоносные программы, затрудняющие работу
информационных систем различных объектов информатизации, применительно
к задачам распознавания без использования сигнатурных или эвристических
признаков для работы в нестандартных ситуациях в условиях постоянно
меняющейся нормативно-методической базы перспективным выглядит метод
сверточных нейронных сетей.
Такой метод предназначен для исследования программного обеспечения,
внедрение которого обеспечит требуемую надежность функционирования
программно-аппаратных средств систем управления. В частности, его
применение в системе управления транспорта позволит предотвратить
потенциальные угрозы и уязвимости программного обеспечения в результате
возможного проникновения вредоносных программ, и, тем самым, повысить
безопасность перевозок.
Особую роль нейронные сети играют в системе транспортной
инфраструктуры на основе интенсивного развития БТС.
Реализация требований кибербезопасности к программно-управляемым
беспилотным системам и комплексам, имеет специфические особенности:
 выделение микропроцессорных систем управления как отдельного класса
АСУ ТП;
 использование методологии оценки рисков как механизма для уточнения
ущерба от кибератак;
 проведение предварительной комплексной проверки на функциональную
безопасность, на недекларируемые возможности (НДВ) и несанкционированный
доступ (НСД);
 практическая проверка кибербезопасности микропроцессорных систем
управления (МПСУ) с применением тестов на проникновение;
 проверки на наличие программно-управляемых закладок и защиты от
направленного воздействия широкополосного электромагнитного излучения.
В настоящее время при анализе вредоносного программного обеспечения
(ВПО) применяются различные экспертные оценки, основанные на выявление
статистических особенностей и закономерностей, в том числе с использованием
технологий машинного обучения [1, 2, 3]. При таком подходе одним из трудно
затратных этапов является выявление и выделение признаков из набора сырых
данных, необходимых для обучения алгоритмов.
Альтернативным подходом может быть интерпретация ВПО как набора
пикселей или текста [4] и сведения задачи его анализа к классической задаче
классификации из области компьютерного зрения с помощью аппарата
нейронных сетей. При обучении нейронных сетей отсутствует необходимость в
извлечении признаков из ВПО, что может позволить снизить временные и
вычислительные ресурсы для его анализа и определения принадлежности.
Для проведения экспериментальной части исследования был подготовлен
набор данных исполняемых файлов с гарантированно известными метками
принадлежности к классам.
Экспериментальная проверка точности нейросетевых
классификаторов
Набор данных А включает 5011 образцов исполняемых файлов: 561 файл
из состава трёх различных антивирусных средств, 1151 файл пяти различных
семейств ВПО, отнесенных к разным классам в соответствии с решениями
антивирусного средства Microsoft Defender из состава операционной системы
Windows и 3299 файлов, которые были размечены по классам на основе
публичных отчетов о компьютерных инцидентах.
Для
экспериментальной
проверки
точности
нейросетевых
классификаторов выполнено преобразование исполняемых файлов к
изображению путем реализации следующих шагов:
1. Приведение байтовых значений к единой шкале в диапазоне [0;1].
2. Преобразование последовательности байт размером m к квадратной
n   m

.
матрице байтовых значений размером n x n, где
3. Заполнение недостающих значений нулями.
4. Сжатие изображения n x n к размеру, пригодному для входа нейронной
сети, например, до размера 300 х 300.
5. Разложение изображения на RGB-каналы путем конкатенации серого
изображения три раза по третьему измерению.
Результаты преобразования исполняемых файлов к графическому
изображению проиллюстрированы на рисунке 3.1.
Стоит отметить, что в изображениях наблюдаются некоторые текстурные
и структурные особенности, однако уловить явные различия между файлами
различных антивирусных программ практически невозможно. Такой вид данных
является подходящим для подачи на вход нейронной сети и позволяет перейти к
обучению алгоритмов.
В рамках данного исследования выполнена оценка применимости
четырех различных архитектур свёрточных нейронных сетей, как наиболее
используемых в области компьютерного зрения, для определения
принадлежности различных образцов исполняемых файлов.
Для обучения нейронной сети каждый набор данных представляется в
виде отдельных выборок, которые делятся на две подвыборки - обучающую и
контрольную. Задается число эпох, то есть одна итерация обучения, в результате
которой алгоритм обрабатывает все предоставляемые данные. Каждая эпоха
состоит из двух основных операций. В ходе первой производится
непосредственно обучение нейронной сети, выполняется настройка весов и ядер
слоев. В ходе второй с использованием контрольной выборки оценивается
качество работы нейронной сети в реальном времени.
Рисунок 3.1. Примеры представления исполняемых файлов из набора А
В процессе экспериментов для каждой архитектуры были использованы
различные оптимизирующие функции: стохастический градиентный спуск
(SGD), среднеквадратичное распространение (RMSProp) и адаптивная оценка
момента (Adam), а выбор оптимальных гиперпараметров проводился перебором
в следующих диапазонах:
 шаг оптимизатора (1e-3, 1e-4);
 число эпох, после которого производится уменьшение шага
оптимизатора (3, 4, 7);
 шаг коррекции оптимизирующей модели (0.1, 0.25, 0.5);
 размер подвыборки (8, 16).
Архитектура сверточной нейронной сети VGGNet
Данная архитектура реализована компанией Visual Geometry Group.
Модель нейронной сети находится в открытом доступе и предварительно
бучена на наборе данных ImageNet. Сверточный слой нейронной сети
представляет собой применение операции свертки к выходам из
предыдущего слоя, где веса ядра свертки являются обучаемыми
параметрами. Важной особенностью архитектуры VGGNet является
использование ядер свертки небольшого размера, например [3 х 3].
Пулинговый слой сети предназначен для снижения размерности
изображения, как правило, с использованием функции максимума. За счет
глубины и многослойности в архитектуре VGGNet доступна возможность
добавления нелинейности между слоями.
Недостатком реализации этой сверточной нейронной сети является то,
что в ней отсутствует решение проблемы затухания градиента функции
ошибки. Кроме того, VGGNet не передаёт более общие признаки с
промежуточных слоёв на выходной классификатор, который обучается
только на карте признаков с последнего свёрточного слоя.
Из семейства свёрточных нейронных сетей VGGNet выбрана
реализация VGG19, включающая 19 слоев, как наиболее глубокая из
доступных. На рисунке 3.2 представлены результаты обучения данной сети
с
различными
оптимизаторами.
Рисунок 3.2. Графики точности распознавания исполняемых файлов из
набора А сетью VGG19 с различными гиперпараметрами и моделями
оптимизирующих функций
Кривые разных цветов соответствуют 36 разным конфигурациям
гиперпараметров, в соответствии со значениями заданными для поиска по
сетке.
Наблюдается быстрое насыщение функции стохастического
градиентного спуска, что может быть вызвано небольшими значениями
шага оптимизатора.
Модель RMSProp показала более высокие результаты по точности
классификации, при этом основной проблемой для нее стало быстрое
уменьшение шага обучения. Обучение с использованием модели Adam
позволило достигнуть наилучших результатов распознавания исполняемых
файлов нейронной сетью VGG19 с точность от 80% до 90%.
Архитектура сверточной нейронной сети ResNet
Для решения проблем с затуханием градиента в глубоких сетях,
используются разные методики.
Рисунок 3.3. Графики точности распознавания исполняемых файлов из
набора А сетью ResNet-152 с различными гиперпараметрами и моделями
оптимизирующих функций
Например, в нейросетевой архитектуре ResNet реализован механизм
соединений [3], основанный в передаче на i-ый свёрточный слой не только
выхода i-1 слоя, но и информации с i-3 слоя.
Таким образом, градиент функции ошибки имеет возможность
достигать первых слоев нейросети при большей глубине (рис.3.3).
По сравнению с архитектурой VGGNet достоинством реализации
ResNet является возможность решения проблемы затухания обратного
распространения градиента ошибки, что позволяет сильно углублять сети,
что в свою очередь дает большую точность.
В рамках эксперимента по оценке точности нейросетевой архитектуры
ResNet использовалась модель ResNet-152, содержащая 152 слоя, т.е. в
восемь раз глубже, чем наиболее глубокая свёрточная нейронная сеть
VGGNet.
Для модели ResNet-152 использование оптимизирующей функции
RMSprop приводит к неустойчивому поведению нейросети. Функции Adam
и SGD более стабильны, но при этом оптимизация методом стохастического
градиентного спуска за 25 эпох дает результат ощутимо ниже, чем при
использовании оптимизатора типа Adam.
Архитектура сверточной нейронной сети DenseNet
В отличие от архитектуры ResNet в сети DenseNet каждый слой
принимает все предыдущие карты признаков в качестве входных данных,
что решает проблему затухания градиентов и позволяет свёрточным слоям
учитывать признаки разной степени абстракции. К достоинствам
реализации нейросетевого классификатора DenseNet можно также отнести:
– возможность передавать карты признаков не только самого высокого
уровня, но и более низких уровней;
– имеются короткие пути для градиента функции ошибки в связи
с чем появляется возможность практически напрямую настраивать все слои
сети;
– в связи с использованием карт признаков всех уровней сложности
DenseNet имеет тенденцию давать более гладкие решения, что позволяет
получать хорошие результаты на малых обучающих выборках.
В рамках эксперимента по оценке точности нейросетевой архитектуры
DenseNet использовалась модель DenseNet -201 (рис.3.4), содержащая 201
слой, что является самой глубокой сетью, применяемой в данном
исследовании.
Рисунок 3.4. Графики точности распознавания исполняемых файлов из
набора А сетью DenseNet-201 с различными гиперпараметрами и моделями
оптимизирующих функций
При использовании стохастического градиентного спуска выбор
гиперпараметров существенно влияет на стабильность результатов
классификации. При использовании оптимизирующих функций RMSprop и
Adam эта проблема практически отсутствует, причем функция Adam
позволяет получать среднюю точность распознавания около 85%.
Архитектура сверточной нейронной сети Inception
В рамках исследования также рассматривалась реализация
нейросетевого классификатора с архитектурой Inception, разработанная
GoogLeNet [5]. Сеть Inception объединяет идеи предыдущих архитектур, она
состоит из свёрточных блоков, каждый из которых содержит 4 пути с
разными ядрами свертки, что позволяет получать карты признаков
изображений в разных масштабах. Это дает возможность классификатору
учитывать детали изображения разной степени абстракции. На выходе
каждого блока все карты признаков объединяются между собой. Модель
Inception имеет несколько выходов со слоем Softmax на разной глубине, что
позволяет решить проблему затухающего градиента. Градиенты с разных
ветвей взвешенно объединяют с коэффициентом равным трём. В получении
конечного результата классификации побочные ветви не участвуют.
Рисунок 3.5. Графики точности распознавания исполняемых файлов из
набора А сетью Inception_v3 с различными гиперпараметрами и моделями
оптимизирующих функций
В рамках эксперимента по оценке точности нейросетевой архитектуры
Inception рассматривалась реализация Inception_v3. Для данной реализации
функция стохастического градиентного спуска еще более чувствительна к
настройке гиперпараметра шага оптимизатора. Функции RMSProp и Adam
обучаются значительно успешнее и даже при неудачном подборе
параметров результаты обучения выше 60 процентов, а при удачной
настройке достигают 90 процентов точности (рис. 3.5).
В таблице 3.1 приведены результаты классификации выборки
исполняемых файлов с использованием различных архитектур сверточных
нейронных сетей и временные параметры их обучения.
Таблица 3.1
Результаты классификации исполняемых файлов
Мак
В
симальна
ремя
Архитек
я
обучен
тура
точность,
ия,
%
мин
VGG19_
84.0
55
Adam
7
.54
VGG19_
41.5
55
SGD
9
.44
VGG19_
81.4
55
RMS
2
.14
ResNet15
85.8
56
2_ Adam
4
.57
ResNet15
55.7
55
2_ SGD
5
.19
ResNet15
56
77.8
2_ RMS
.25
DenseNet
93.8
54
201_ Adam
1
.28
DenseNet
61.9
54
201_ SGD
5
.27
DenseNet
90.2
54
201_ RMS
7
.37
Inception
90.4
52
_v3_Adam
7
.7
Inception
67.2
51
_v3_SGD
6
.54
Inception
89.3
52
_v3_RMS
8
Вре
мя
предсказ
ания, мс
1097
1097
1097
374
374
374
388
388
388
364
364
364
Исследования моделей сверточных нейронных сетей VGGNet, ResNet, DenseNet
и Inception показывают, что они применимы к задаче распознавания
вредоносных исполняемых файлов. Максимальную точность (больше 90%)
показывают модели, в которых использована оптимизирующая функция Adam,
при этом время их обучения практически не отличается. Стоит отметить, что
классические алгоритмы машинного обучения демонстрируют более высокую
точность распознавания для аналогичной выборки [2]. Использование моделей
сверточных нейронных сетей не требует никаких знаний об исследуемых
файлах, что несомненно является их преимуществом. Применение
нейросетевого подхода может позволяет, в отличие от классических алгоритмов
машинного обучения, обеспечить потоковую обработку образцов вредоносных
программ.
Актуальность применение беспилотных транспортных средств
Эффективное управление транспортными процессами и потоками
предполагает наличие информационных систем, обеспечивающих выявление
наличия вредоносного программного обеспечения и информационную
безопасность технологии проведения испытаний в процессе стандартизации и
сертификации. В частности, в субъектах транспортной инфраструктуры должен
быть реализован сертификационный контроль как технических средств,
обеспечивающих безопасность дорожного движения, так и средств защиты
информации, используемых при проведении таких мероприятий.
Одной из ключевых проблем, с которой необходимо считаться при
эксплуатации объектов транспортной инфраструктуры, является проблема
выполнения для них требований постановления Правительства РФ от 26.09.2016
г. № 969 "Об утверждении требований к функциональным свойствам
технических средств обеспечения транспортной безопасности и Правил
обязательной сертификации технических средств обеспечения транспортной
безопасности".
К объектам транспортной инфраструктуры относятся не только объекты
дорожного транспорта, но и объекты беспилотных транспортных систем (БТС)
гражданского и военного назначения
С учётом сложившейся в настоящее время экономико-политической
ситуации транспортная система страны должна быть обеспечена надёжно и
эффективно функционирующей транспортной инфраструктурой, в состав
которой входят БТС различной номенклатуры.
В результате возникает потребность в дооснащении объектов
транспортной инфраструктуры техническими средствами и АСУ на базе
программного обеспечения, защищённого от несанкционированного доступа.
Учёт этого требования показывает, что БТС должны быть оснащены
следующими техническими системами: контроля доступа, видеонаблюдения,
сбора и обработки информации, приёма и её передачи, аудио- и видеозаписи,
досмотра, оснащёнными системами управления на базе программного
обеспечения проверенного на отсутствие уязвимостей в банке данных угроз
безопасности информации.
Для массового внедрения БТС не хватает не только нормативной базы и
приемлемого уровня финансирования, но технологической базы. Например,
беспилотные автомобили испытывают сложности при эксплуатации в сложных
погодных условиях. В этом случае требуется обеспечить их средствами сбора
сведений, которые используют для непрерывного контроля состояния БТС,
испытываемых на полигонах и городских улицах для понимания условий
реагирования на различные ситуации. После каждого тестового заезда БТС
накапливает большой объем данных для последующего анализа. Даже совершенствование алгоритмов обработки информации о ситуациях на дорогах не
всегда позволяет оперативно принимать объективные решения.
Особое внимание следует уделить беспилотным летательным аппаратам
(БПЛА) или дронам, работа которых в значительной степени зависит от
надёжности программного обеспечения (ПО) и его защиты как от воздействий
со стороны противника, так и от метеоусловий: температуры, влажности,
запылённости и пр.
Беспилотный летательный аппарат (БПЛА), широко известный как дрон,
представляет собой воздушный летательный аппарат без пилота, экипажа и
пассажиров на борту. Повышенный интерес к беспилотным летательным
аппаратам вызван их успешным применением при решении задач в различных
областях человеческой деятельности - как в гражданской, так и в военной
сферах.
Как правило, основная задача, возлагаемая на комплексы БПЛА, –
аэрофотосъемка, мониторинг окружающей среды, полицейская деятельность и
наблюдение, проведение разведки труднодоступных районов, в которых
получение информации обычными средствами, включая авиаразведку,
затруднено или же подвергает опасности здоровье и даже жизнь людей.
Особая актуальность БПЛА вызвана их применением в военных операциях
(в частности, в Сирии и на Украине).
Информация собранная бортовыми средствами мониторинга должна
передаваться потребителю или сохранятся на борту в обработанном виде или
сплошным массивом данных. Наибольшее распространение в настоящее время
получила малоразмерные комплексы ближнего радиуса действия, что
обусловлено их невысокой стоимостью и серьезной экономией при применении
БПЛА для задач подобных типов. Вероятность выполнения задачи БПЛА
большей мере зависит от его приборного оснащения. Наличие полноценной
системы автоматического управления — этим по существу и отличается БПЛА
от дистанционно управляемой модели.
Мировой опыт эксплуатации БПЛА оперативно-тактического назначения
показал, что наиболее эффективное управление достигается при четкой
координации действий операторов трех специализаций (таблица 4.1).
Рабочие места операторов объединены в локальную вычислительную сеть
(ЛВС) и строятся на основе многофункциональных мониторов-дисплеев,
многофункциональных пультов управления, а также ручных органов управления
по типу кистевых самолетных ручек с технологией HOTAS, а также
флайтстиков. Командные пункты бортовых авиационных комплексов (БАК)
оперативно-тактического назначения создаются в мобильном варианте на шасси
автомобиля. Помимо основного оборудования, пункты также оснащены
унифицированными вынесенными терминалами, которые дают дополнительные
возможности и гибкость в управлении.
Одна из существующих проблем при эксплуатации БПЛА заключается в
лавинообразном потоке данных, получаемых с БПЛА операторами полезных
нагрузок и интеллектуальной поддержки, на которые необходимо оперативно
реагировать в реальном масштабе. Другая проблема кроется в появлении на
дронах многоспектральных многоапертурных бортовых сенсоров. Одним
из решений этих проблем предполагается использование мультимодальных
дисплеев - систем, в которых зрительная информация дополняется другими
сенсорными данными.
Таблица 1. Функции операторов, эксплуатирующих БПЛА
Наименование
Выполняемые функции
оператора
оператор-пилот БПЛА
непосредственное управление полетом
оператор
бортовых работа с сенсорными системами различного
целевых нагрузок
спектрального диапазона круглосуточного
применения (наблюдение поля боя; поиск,
обнаружение и идентификация объектов
интереса;
принятие
решения
о прицеливании и пуске оружия)
оператор
применение технологии экспертных систем
интеллектуальной
типа «в помощь летчику», и оперативность
поддержки
с опытом в принятии решений
управления БПЛА
В ближайшее время предполагается снижение степени автономности БПЛА
при большой определенности задачи или когда имеется запас времени
на расширение ситуационной осведомленности. Естественно, при увеличении
роли оператора в управлении. Один из показательных случаев — посадка БПЛА.
Опыт эксплуатации БПЛА типа Predator и Reaper показывает, что во время
посадок в автоматическом режиме они склонны заходить на взлетнопосадочную полосу (ВПП) с увеличенным креном, сильно опущенным вниз
носом, иметь первый контакт с землей передним колесом, а при вторичном
касании основными шасси совершать подскоки. В результате могут лопаться
колесные стойки и происходить другие неприятности. В этом случае
непосредственное вмешательство оператора крайне желательно.
По сути, это стало правилом — очень дорогие БПЛА (стоимостью в десятки
миллионов долларов), операторы американских авиабаз часто сажают вручную.
По мере совершенствования технологий управления и снижения затрат
БПЛА может летать автономно или пилотироваться дистанционно, быть
одноразовым или восстанавливаемым и способен нести полезную нагрузку в
соответствии со своим целевым предназначением. Общая схема управления
БПЛА представлена на рисунке 1.
Рис.1. Схема управления БПЛА
Наземные командные пункты (НКП), входящие в состав системы
управления БПЛА, выполняются в мобильном варианте на автомобиле. В
настоящее время наметилась тенденция перехода на мобильные
унифицированные НКП с открытой архитектурой, которая позволяет
наращивать возможности использовать БПЛА различных типов, включая их
совместное применение, а также применение групп смешанного состава из
БПЛА и пилотируемых летательных аппаратов (ЛА). Подобные НКП позволят
управлять одновременно несколькими БПЛА.
Система управления БПЛА - важнейшее звено, представляющее собой
интеллектуальную систему управления (ИСУ), которая в автоматическом
режиме способна обеспечить высокий уровень автономности БПЛА.
Комплекс управления БПЛА состоит из двух частей: наземного комплекса
управления (НКУ) и бортового комплекса управления (БКУ).
Структура НКУ показана на рисунке 2.
На НКУ возлагается решение следующих задач:
- обеспечение командно-телеметрического взаимодействия с БКУ;
- обеспечение ручного управления в реальном масштабе времени;
- формирование программ полета и управление БПЛА;
- предоставление телеметрии в графическом виде;
- предоставление информации о результатах функционирования полезной
нагрузки.
Наземные командные пункты (НКП), входящие в состав системы
управления БПЛА, выполняются в мобильном варианте на автомобиле. В
настоящее время наметилась тенденция перехода на мобильные
унифицированные НКП с открытой архитектурой, которая позволяет
наращивать возможности использовать БПЛА различных типов, включая их
совместное применение, а также применение групп смешанного состава из
БПЛА и пилотируемых летательных аппаратов (ЛА). Подобные НКП позволят
управлять одновременно несколькими БПЛА.
Рис.2. Структура наземного комплекса управления БПЛА
БКУ – главный элемент БПЛА, предназначен для решения задач:

навигации и автоматического управления;

обеспечения командно-телеметрического взаимодействия с НКУ;

обеспечения устойчивого функционирования полезной нагрузки;

обеспечения самодиагностики.
Структурно-функциональная схема БКУ представлена на рисунке 3.
Рис.3. Структурно-функциональная схема БКУ
В качестве бортовой аппаратуры управления, как правило, используются
специализированные
вычислители
на
базе цифровых
сигнальных
процессоров или компьютеры формата PC/104, MicroPC под управлением
операционных систем реального времени (QNX, VME, VxWorks, XOberon).
Программное обеспечение пишется обычно на языках высокого уровня, таких
как Си, Си++, Модула-2, Оберон SA или Ада95.
Для передачи на пункт управления данных, полученных с бортовых
сенсоров, в составе БПЛА имеется радиопередатчик, обеспечивающий
радиосвязь с наземным приёмным оборудованием. В зависимости от формата
изображений и степени их сжатия пропускная способность цифровых
радиолиний передачи данных с борта БПЛА может составлять единицы-сотни
Мбит/с.
Наибольший интерес в настоящее время представляют, так называемые,
интеллектуальные системы управления (ИСУ), которые в автоматическом
режиме способны решать высокоинтеллектуальные задачи и, тем самым,
обеспечить высокий уровень автономности БПЛА. Ряд функций, выполняемых
БПЛА не решается в рамках известных подходов искус-ственного интеллекта и
требует привлечения новых методов, развиваемых в рамках компьютерного
когнитивного моделирования, где используются модели когнитивных функций
человека.
Для построения полноценной системы управления реальным сложным
техническим объектом необходим всесторонний системный анализ, интеграция
методов решения указанных выше интеллектуальных задач с методами решения
таких задач как локализация, планирование траектории, следование по
траектории, т.е. задач более низкого уровня.
ЗАКЛЮЧЕНИЕ
Актуальность данного проекта заключается в необходимости обеспечения
достаточного
защищенности
уровня
целостности
системы
автоматизированной
системы.
защиты
информации
Необходимый
и
уровень
защищенности обеспечивается за счет проверки нейронной сетью каждого
элемента системы защиты информации.
Целью проекта было построение эвристической модели системы принятия
решений по противодействию методам несанкционированного доступа на
основе нейронных сетей.
Для достижения поставленной цели решалась научно-практическая задача
построения алгоритмов системы принятия решений, на основе обученной
нейронных сетей, базирующихся на теории четких и нечетких множеств.
Для решения задач дипломного проектирования в работе применялись
алгоритмы обучения нейронных сетей, теории множеств и теории чисел. В ходе
разработки предлагаемого алгоритма и проверки его работоспособности
проводились вычислительные эксперименты.
Научная новизна работы состоит в обосновании и разработке алгоритма
системы принятия решений на основе нейронных сетей, позволяющего повысить
своевременное реагирование на нарушение системы защиты информации при
сохранении требуемого уровня защищённости.
Новизна проекта обусловлена:
1. подходом реализации контроля целостности СЗИ, особенностью
которого является использование разработанной эвристической модели системы
принятия решений по противодействию методам НСД.
2. проведением формализации процесса обеспечения информационной
безопасности организации в терминах четких и нечетких множеств.
3. решением частной, а не комплексной задачи защиты информации.
4. высокой экономической эффективностью.
Практическая значимость работы заключается в том, что разработанный
алгоритм может использоваться сотрудниками службы информационной
безопасности для создания программной реализации системы обеспечения
информационной безопасности организации. Реализованная экспертная система
может применяться для автоматизированной поддержки принятия решения в
области обеспечения информационной безопасности.
Цель
проекта
достигнута,
что
показывают
экономическая
и
функциональная оценка эффективности проекта эвристической модели системы
принятия решений по противодействию методам несанкционированного доступа
на основе нейронных сетей.
4.
СОДЕРЖАНИЕ ЭКОНОМИЧЕСКОГО (ОРГАНИЗАЦИОННОЭКОНОМИЧЕСКОГО) РАЗДЕЛА
Рекомендации по внедрению технологии, усиливающих защиту
технологии распознавания вредоносного ПО в системе управления БТС
и
защищающую ее от кражи, компрометации, потери или уничтожении, требует
немалых затрат. технологии распознавания вредоносного ПО в системе
управления БТС
тщательно подходят к выбору данного оборудования с
установленными программно-аппаратными средствами.
Необходимо учесть все возможные потери от угроз информационной
безопасности. Для этого используется формула определения эмпирической
зависимости ожидаемых потерь (рисков) от i-ой угрозы информации,
предложенной компанией IBM
𝑅𝑖 = 10𝑆𝑖+𝑉𝑖−4 ,
(1)
где Si - коэффициент, характеризующий возможную частоту возникновения
соответствующей угрозы;
Vi - коэффициент, характеризующий значение возможного ущерба при ее
возникновении. Si и Vi.
Суммарная стоимость потерь определяется по формуле:
(2)
𝑅 = ∑ 𝑅𝑖 ,
𝑖
где i – количество угроз информационным активам.
В связи с тем, что технологии распознавания вредоносного ПО в системе
управления БТС используют различное оборудование и имея свою базу данных
о посетителях, сотрудниках и важно правильно определить критические активы
и возможные угрозы информационной безопасности.
Таблица 1 – Результаты идентификации информационных угроз
Критичный актив
Угроза
Оборудование для распознавания
вредоносного ПО
целостности
Оборудование для распознавания
вредоносного ПО
Оборудование для распознавания
вредоносного ПО
Оборудование для системы
управления БТС
Оборудование для телеметрической
передачи данных
Индивидуальные устройства
обработки информации (компьютер,
планшет, ноутбук)
Индивидуальные устройства
обработки информации (компьютер,
планшет, ноутбук)
Базы данных, содержащие
информацию о посетителях,
сотрудниках
Базы данных, содержащие
информацию о посетителях,
сотрудниках
Базы данных, содержащие
информацию о посетителях,
сотрудниках
Базы данных, содержащие
информацию о посетителях,
сотрудниках
Базы данных, содержащие
информацию о посетителях,
сотрудниках
Базы данных, содержащие
информацию о посетителях,
сотрудниках
конфиденциальности
доступности
целостности
конфиденциальности
целостности
доступности
конфиденциальности
целостности
доступности
конфиденциальности
целостности
доступности
Для расчета вероятных потерь от угроз ИБ необходимо проанализировать
частоту возникновения угроз и ее возможный ущерб для ЛВС предприятия.
Таблица 2 – Оценка параметров информационных угроз до внедрения и
модернизации систем защиты информации
Критичный актив
Оборудование для
распознавания
вредоносного ПО
Оборудование для
распознавания
вредоносного ПО
Оборудование для
распознавания
вредоносного ПО
Оборудование для
системы управления
БТС
Оборудование для
телеметрической
передачи данных
Индивидуальные
устройства
обработки
информации
(компьютер,
планшет, ноутбук)
Индивидуальные
устройства
обработки
информации
(компьютер,
планшет, ноутбук)
Базы данных,
содержащие
информацию о
Угроза
Частота
возникновения
1 раз в месяц
целостности
(примерно, 10
раз в год)
1 раз в месяц
конфиденциальности (примерно, 10
раз в год)
3 раза в день
доступности
(1000 раз в год)
целостности
конфиденциальности
целостности
1 раз в месяц
(примерно, 10
раз в год)
1-2 раза в
неделю
(примерно 100
раз в год)
1 раз в месяц
(примерно, 10
раз в год)
Значение
ожидаемого
ущерба при
проявлении
угрозы
100000
10000
1000
10000
10000
10000
3 раза в день
(1000 раз в год)
доступности
конфиденциальности
10000
1 раз в месяц
(примерно, 10
раз в год)
100000
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
1 раз в год
целостности
доступности
конфиденциальности
100000
1-2 раза в
неделю
(примерно 100
раз в год)
1 раз в месяц
(примерно, 10
раз в год)
10000
100000
1 раз в год
целостности
доступности
100000
1-2 раза в
неделю
(примерно 100
раз в год)
10000
По формуле (9) можно сделать вывод о величине потери (рисков) для
критичных активов до внедрения и модернизации систем защиты информации,
то есть определить значения возможного ущерба.
Таблица 3 - Величина потерь (рисков) для критичных информационных ресурсов
до внедрения и модернизации системы защиты информации
Критичный актив
Угроза
Оборудование для
распознавания
вредоносного ПО
целостности
Значение возможного
ущерба (Ri)
10000
Оборудование для
распознавания
вредоносного ПО
Оборудование для
распознавания
вредоносного ПО
Оборудование для
системы управления
БТС
Оборудование для
телеметрической
передачи данных
Индивидуальные
устройства обработки
информации
(компьютер, планшет,
ноутбук)
Индивидуальные
устройства обработки
информации
(компьютер, планшет,
ноутбук)
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
конфиденциальности
1000
доступности
10000
целостности
1000
конфиденциальности
10000
целостности
1000
доступности
100000
конфиденциальности
10000
целостности
1000
доступности
10000
конфиденциальности
10000
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
целостности
1000
доступности
10000
Таким образом суммарный возможный ущерб от рисков в области
информационной безопасности до внедрения и модернизации защиты
информации составит:
𝑅о = 255000 руб. в год.
Необходимо
собрать
изученные
методы
реализации
угроз
информационной безопасности и определить мероприятия по их митигации.
Данный процесс достаточно трудоемкий, так как на их реализацию требуется
много ресурсов, как денежных и организационно-правовых, так и технических
мер.
Таблица 4 - Оценка параметров информационных угроз после внедрения и
модернизации системы защиты информации
Критичный актив
Угроза
Оборудование для
распознавания
вредоносного ПО
Оборудование для
распознавания
вредоносного ПО
целостности
конфиденциальности
Частота
возникновения
Значение
ожидаемого
ущерба при
проявлении
угрозы
1 раз в год
10000
1 раз в год
10000
Оборудование для
распознавания
вредоносного ПО
доступности
Оборудование для
системы управления
БТС
Оборудование для
телеметрической
передачи данных
Индивидуальные
устройства
обработки
информации
(компьютер,
планшет, ноутбук)
Индивидуальные
устройства
обработки
информации
(компьютер,
планшет, ноутбук)
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
целостности
конфиденциальности
1 раз в месяц
(примерно, 10
раз в год)
1000
1 раз в год
10000
1 раз в месяц
(примерно, 10
раз в год)
10000
1 раз в месяц
(примерно, 10
раз в год)
10000
1-2 раза в
неделю
(примерно 100
раз в год)
10000
1 раз в год
100000
1 раз в год
10000
1 раз в год
10000
1 раз в год
100000
целостности
доступности
конфиденциальности
целостности
доступности
конфиденциальности
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
целостности
доступности
1 раз в год
10000
1 раз в месяц
(примерно, 10
раз в год)
10000
После внедрения и модернизации систем защиты информации и
предпринятые определенных мероприятий вычисляются новые величины потери
(рисков)
для
критичных
информационных
ресурсов
после
внедрения/модернизации защиты информации.
Таблица 5 - Величина потерь (рисков) для критичных информационных ресурсов
ПОСЛЕ внедрения/модернизации защиты информации
Критичный актив
Угроза
Оборудование для
распознавания
вредоносного ПО
Оборудование для
распознавания
вредоносного ПО
Оборудование для
распознавания
вредоносного ПО
Оборудование для
системы управления
БТС
Оборудование для
телеметрической
передачи данных
целостности
Значение возможного ущерба
(Ri)
100
конфиденциальности
100
доступности
100
целостности
100
конфиденциальности
1000
Индивидуальные
устройства обработки
информации
(компьютер, планшет,
ноутбук)
Индивидуальные
устройства обработки
информации
(компьютер, планшет,
ноутбук)
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
Базы данных,
содержащие
информацию о
посетителях,
сотрудниках
целостности
1000
доступности
10000
конфиденциальности
1000
целостности
100
доступности
100
конфиденциальности
1000
целостности
100
доступности
1000
Значение
ожидаемого
Частота
Мероприятия
ущерба при
возникновения
проявлении
угрозы
Оборудование
для
распознавания
1 раз в год
100000
вредоносного
ПО
Оборудование
для
распознавания
1 раз в год
10000
вредоносного
ПО
Оборудование
для
распознавания
1 раз в год
100000
вредоносного
ПО
Оборудование
для системы
1 раз в год
10000
управления
БТС
Защита баз
1 раз в год
10000
данных
Защита баз
1 раз в год
1000000
данных
Защита баз
1 раз в год
100000
данных
Защита баз
1 раз в год
1000000
данных
Защита баз
1 раз в год
100000
данных
Защита баз
1 раз в год
100000
данных
Защита баз
1 раз в год
100000
данных
Si
Vi
Ri = 10 ^
(Si + Vi 4)
4
3
1000
4
2
100
4
3
1000
4
2
100
4
2
100
4
4
10000
4
3
1000
4
4
10000
4
3
1000
4
3
1000
4
3
1000
Суммарный возможный ущерб от рисков в области информационной
безопасности для защиты технологии распознавания вредоносного ПО в системе
управления БТС после внедрения и модернизации систем защиты информации:
𝑅1 =30500 руб. в год.
Общий эффект от внедрения/модернизации защиты информации составит:
𝑅общ = 𝑅0 − 𝑅1
(3)
В данном случае получается:
𝑅общ = 255000 − 30500 = 224500 руб.
(3)
Теперь необходимо рассчитать стоимость комплексных мероприятий по
улучшению информационной безопасности перспективной защиты технологии
распознавания вредоносного ПО в системе управления БТС и затраты на
зарплату специалистам. Для начала необходимо учесть организационноправовые и инженерно-технические меры для достижения данной цели.
Расчет
стоимости
разовых
организационно-правовых
мероприятий
представлен на таблице 8.
Таблица 6 - Расчет стоимости разовых организационно-правовых мероприятий
№
Организационные
Среднечасовая Трудоемкость Стоимость,
мероприятия/выполняемые
зарплата
операции
всего (руб.)
действия
специалиста
(чел.час.)
(руб.)
1.
Регламентация допуска
сотрудников к
информации, документам
и ресурсам
информационной системы
Разработка Положения о
регламентации допуска
сотрудников к
информации, документам и
ресурсам информационной
системы
1.1
1150
18
20700
Разработка протоколов для
различных классов
850
приоритетности доступа
2.
Обучение персонала
компании основам
информационной
безопасности.
2.1 Повышение квалификации
сотрудников отдела
информационной
безопасности у сторонней
организации
2.2 Обучение персонала
компании основам
информационной
750
безопасности своими
силами
… …
…
…
Стоимость разовых организационно-правовых мероприятий, всего (руб.)
1.2
18
15500
-
20 000
30
22500
…
78700
Пример расчета стоимости разовых инженерно-технических мероприятий
представлен в таблице 10.
Таблица 7. Расчет стоимости разовых инженерно-технических мероприятий
№
1.
1.1
1.2
1.3
2.
Номенклатура средств
защиты информации и
работы по ее установке
Покупка и установка IP
камер
Стоимость IP камер
Система архивирования
записи видеонаблюдения
Установка и настройка
Приобретение лицензии на
антивирусную систему
Стоимость
за ед.(руб.)
Кол-во
Стоимость,
всего (руб.)
10 000
20
120000
10000
1
10000
-
-
35000
22000
2
44000
(комплексное решение в
комплекте с антиспам,
фаервол, защита эл. почты
и т.д.)
3
Установка
противопожарной системы
оповещения
3.1
Противопожарная система
1000
оповещения
3.2
Комплектующие (Провода,
соединители, разъемы и
300
т.п.)
3.3
Монтаж противопожарной
систем оповещения (20% от
стоимости)
4
Разработка плана
обеспечения непрерывности
бизнеса (BCP)
…
…
…
…
Стоимость разовых инженерно-технических
мероприятий, всего (руб.)
10
10000
20
6000
-
5000
10000
…
238000
Итого стоимость разовых мероприятий со внедрению/модернизации
системы информационной безопасности составит:
орг
инж−тех
Собщ
раз = Сраз +Сраз
(4)
Для нашего примера Собщ
раз будут равны:
Собщ
раз =78700 + 238000= 316700 руб.
Постоянные расходы — это расходы на дальнейшее поддержание
системы информационной безопасности в работоспособном состоянии.
Примером таких расходов являются:
- заработная плата сотрудникам службы безопасности
- поддержание определенного уровня безопасности, прежде всего, путем
эксплуатации технических средств и контроля эффективности защиты
(проведение постоянной аттестации и мониторинга системы сторонними
организациями)
Пример расчета стоимости постоянных затрат на дальнейшее поддержание
системы
информационной
безопасности
в
работоспособном
состоянии
представлен для мероприятий организационного характера представлен в
таблице 8, а инженерно-технических, - в таблице 9.
Таблица 8. Расчет стоимости постоянных организационно-правовых
мероприятий
№
Организационные
Среднечасовая Трудоемкость Стоимость,
мероприятия/выполняемые зарплата
операции
всего (руб.)
действия
специалиста
(чел. час.)
(руб.)
Регулярное
проведение
инструктажей
по
810
информационной
безопасности
2
Регулярное
проведение
инструктажей по работе с
710
регламентами доступа
3
Работа
комиссии
по
610
аттестации объектов
4
Уничтожение бумажных
120
отходов
… …
…
…
Стоимость постоянных организационно-правовых
мероприятий, всего (руб.)
1
10
8100
20
14200
40
24400
100
12000
…
58700
Таблица 12. Расчет стоимости постоянных инженерно-технических
мероприятий
№
Номенклатура средств
защиты информации и
работы по ее установке
Стоимость
за ед. (руб.)
Кол-во
Стоимость,
всего (руб.)
Обновление
ПО
на
антивирусную систему
2.
Обслуживание
камер
710
видеонаблюдения
3
Обслуживание
противопожарной
650
системы
…
…
…
…
Стоимость
постоянных
инженерно- технических мероприятий, всего (руб.)
1.
-
10000
10
7100
10
6500
…
28600
Итого стоимость постоянных расходов на дальнейшее поддержание
системы информационной безопасности в работоспособном состоянии
орг
инж−тех
Собщ
пост = Спост +Спост
(5)
Исходя из расчетов, можем вычислить: Собщ
пост = 58700+23600 = 86300 руб.
Сведем результаты расчетов в таблицу 13:
Таблица 9. Общие затраты проекта по внедрению/модернизации системы
защиты информации
Наименование видов затрат
Разовые расходы, в том числе
 на организационные мероприятия
 на
инженерно-технические
мероприятия
Постоянные расходы, в том числе
 на организационные мероприятия
 на
инженерно-технические
мероприятия
Итого
Сумма
316700
78700
238 000
82300
58700
23600
399000
Таким образом, для внедрения/модернизации системы информационной
безопасности требуется единовременно 333300 руб., а для ежегодной поддержки
– 97000 руб.
В качестве ключевых показателей эффективности рассчитаем следующие:
1)
DR (Discount Rate), учетная ставка или ставка дисконтирования –
предполагаемая процентная ставка для расчета приведенной стоимости. Обычно
DR рассматриваемой альтернативы соответствует процентной ставке, которую
можно получить, вложив деньги в другой вариант. Поскольку в долгосрочном
периоде (свыше 2-х лет) доля неопределенности выше, чем продолжительнее
период анализа, тем больше учетная ставка. Это позволяет оценить
потенциальное воздействие различных факторов риска, которые могут оказать
негативное влияние на финансовую привлекательность проекта и снизить его
PV/NPV.
В нашем примере значение DR будем устанавливать в зависимости от
источника средств, за счет которых планируется осуществление комплекса
мероприятий по улучшению информационной безопасности:
- за счет собственных средств предприятия. В этом случае значение DR
принимают равным внутренней рентабельности операций компании, но не ниже
существующего уровня инфляции. Если внутренняя рентабельность меньше
инфляции, то значение DR принимают равным уровню инфляции.
- за счет привлеченных средств. В этом случае значение DR принимают
равным стоимости кредитных средств.
2)
Kd - Коэффициент дисконтирования денежных потоков – это
цифровой показатель, используя который можно понять, сколько денег удастся
получить через определенное время с учетом временного фактора и возможного
риск
Kd =
1
(1 + DR)𝑛
(6)
где n — порядковый номер временного интервала получения дохода.
Для данной формулы год осуществления разовых затрат принимается как
базовый, то есть нулевой.
3) NPV (Net Present Value), чистая дисконтированный доход/стоимость —
этот показатель является одним из самых важных и используемым из
показателей оценки эффективности вложений. В общем виде он представляет
собой разность между дисконтированными по времени поступлениями от
реализуемого проекта и вложениями в него. Если NPV >0, то вложения окупятся
и принесут прибыль.
NPV определяется по формуле:
𝑛
NPV = ∑
𝐶𝐹𝑘
𝑛
1 (1 + DR )
(7)
Где n — временной отрезок, за который производится расчет;
𝐶𝐹𝑘 (Cash Flow) —денежный поток за выбранный интервал времени;
DR — ставка дисконтирования;
IC (Invest Capital) — денежные средства, вложенные на этапе первоначальном
этапе.
Общий алгоритм расчета Алгоритм расчета NPV представлен ниже:
1) нужно оценить денежные потоки от проекта — первоначальное вложение
(отток) денежных средств и ожидаемые поступления (притоки)
денежных
средств в будущем
2) определить стоимость капитала (cost of capital) для вас — это будет ставкой
дисконтирования.
3) продисконтировать все денежные потоки (притоки и оттоки) от проекта по
ставке, которую вы оценили в п.2)
4) Сложить. Сумма всех дисконтированных потоков и будет равна NPV
проекта
4) IRR
(Internal Rate of Return),
внутренняя
норма
доходности
(рентабельности) – уникальный показатель для каждой компании. IRR не
учитывает внешних влияний, таких как инфляция, изменения бизнес-контекста
и пр. По сути, это процентная ставка, при которой инвестиция (вложения)
окупается. Показатель используется для оценки привлекательности вложений
или для сопоставительного анализа с другими проектами. Вместе с NPV этот
показатель помогает определить, стоит ли предлагаемое решение инвестиций.
Проще говоря, IRR определяет ставку дисконтирования при которой инвестиции
равны 0 (NPV=0), или другими словами затраты на проект равны его доходам.
5) Срок (период) окупаемости– это срок, который требуется для того,
чтобы были полностью возмещены первоначальные инвестиции, вложенные в
проект. То есть это тот период, после которого первоначальные вложения
начнут генерировать стабильный денежный поток и позволят инвестору
получать прибыль.
Существует 2 способа расчета срока окупаемости:
 Простой срок окупаемости (PP - Payback Period).
Простой срок окупаемости рассчитывается по формуле:
𝑃𝑃 =
IC
CF
(8)
𝐶𝐹 — ожидаемый среднегодовой денежный поток;
IC денежные средства, вложенные на этапе первоначальном этапе.
 Дисконтированный/
динамичный
срок
окупаемости
(DPP
-
Discounted Pay-Back Period).
Дисконтированный метод расчета основывается на приведении стоимости
будущих доходов к сегодняшнему времени, то есть, сколько будут стоит
будущие доходы в "сегодняшних деньгах".
𝑛
𝐷𝑃𝑃 = ∑
CF𝑖
𝑖
𝑖=1 (1 + DR)
Рассмотрим расчет этих показателей на нашем примере.
1.
Рассчитаем Kd, при условии, что DR (ставку дисконтирования) мы
примем равной инфляции. Как следует из данных Росстата среднегодовая
инфляция в стране в 2022 г. составила 13,75%.
Для базового (нулевого) периода Kd будет равен 1.
Kd0 =
1
=1
(1 + 0,1375)0
Для первого периода Kd будет равен 0,879.
Kd0 =
1
= 0,879
(1 + 0,1375)1
Все значения коэффициента дисконтирования приведены в таблице 14.
Таблица 14. Значения коэффициента дисконтирования
Год
Коэффициент дисконтирования
0
1
2
3
4
5
1,000
0,879
0,773
0,679
0,597
0,525
2. Рассчитаем денежный поток Проекта (СF), руб
Зная, что эффект от внедрения вследствие снижения возможных потерь от
угроз безопасности информационной системе организации равен 216000 руб, а
разовые расходы Проекта составляют 333300 и Постоянные расходы Проекта
97000 в год, рассчитаем для нашего примера денежный поток CF Проекта как
разность между готовым эффектом от внедрения и суммарными затратами в
каждом периоде (Таблица 15)
Таблица 15. Расчет денежного потока (CF) Проекта
Год
Эффект от внедрения
Разовые расходы Проекта
Постоянные расходы
Проекта
Денежный поток (CF)
3.
0
1
2
3
4
5
224500
224500
224500
224500
224500
-82300
-82300
-82300
-82300
-82300
142200
142200
142200
142200
142200
-316700
-316700
Определим чистый дисконтированный доход Проекта (NPV) (Net
Present Value)
Для расчета чистого дисконтированного дохода Проекта необходимо
сначала рассчитать дисконтированный денежный поток как произведение
денежного потока в каждом периоде на соответствующий коэффициент
дисконтирования:
𝐷𝐶𝐹 = 𝐶𝐹𝑖 × Kd𝑖
(10)
Согласно приведённым выше формулам, NPV будет равен сумме
дисконтированных денежных потоков за весь горизонт расчета:
𝑛
NPV = ∑ 𝐷𝐶𝐹𝑖
1
(11)
Расчет
чистого
дисконтированного
дохода
для
нашего
примера
представлен в Таблице 16.
Таблица 16. Расчет чистого дисконтированного дохода (NPV ) Проекта
Год
0
1
2
3
4
5
Денежный поток (CF)
-316700 142200 142200 142200 142200 142200
Коэффициент
дисконтирования (Kd)
1 0,87912 0,77285 0,67943 0,5973 0,5251
Дисконтированный денежный
поток (𝐷𝐶𝐹)
-316700 125011 109900 96615,2 84936,4 74669,4
NPV, руб.
174431,7512
4)
Внутреннюю норму доходности (рентабельности) Проекта–IRR
(Internal Rate of Return).
Значения – здесь задается диапазон ячеек с числовыми аргументами, для
которых нужно посчитать внутреннюю норму доходности. Для того, чтобы
функция
работала,
хотя
бы
одно
значение
денежного
потока
быть
отрицательным. В нашем примере это первое значение.
Предположение – величина, которая предположительно близка к значению
ВСД (аргумент необязательный; но, если функция выдает ошибку, аргумент
нужно задать). Примем его условно равным 2.
Результат функции ВСД будет выглядеть следующим образом (см. рис. 1).
Рисунок 1 – Окно MS Excel с результатами функции ВСД
В нашем примере внутренняя норма доходности Проекта (IRR) равна 23%.
В дальнейшем при проведении более углубленного анализа, например, при
оценке возможности привлечения заёмных средств для осуществления Проекта
значение IRR сравнивается с кредитной ставкой банков.
5. Определение Дисконтированного/ динамичного срока окупаемости
Проекта (DPP - Discounted Pay-Back Period).
Опередим Дисконтированного/ динамичного срока окупаемости Проекта
графическим методом. Для этого построим график дисконтированный денежный
поток накопительным итогом для всего горизонта расчета. В точка, в которой
накопленный дисконтированный поток станет равным нулю. – и есть
дисконтированный срока окупаемости Проекта.
Построим накопленный дисконтированный поток для нашего примера.
Результаты представлены на рисунке 2.
Как видно из данных, представленных на рис. 2 дисконтированный срока
окупаемости Проекта составит около 3 лет .
Рисунок 2 – Окно MS Excel с примером исходных данных и результатом
построения накопленного дисконтированного потока
Проект окупается за 3 года, что доказывает экономическую эффективность
предлагаемой системы внедрения/модернизации системы информационной
безопасности.
Заключение по экономическому разделу
В организационно-экономическом разделе проведён анализ стадий
проведения исследований, рассчитана трудоёмкость разработки программных
средств, определены затраты и капитальные вложения в проект и основные
технико-экономические показатели проекта.
.
СПИСОК ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ
1.1 ГОСТ Р 50922-2006 Защита информации. Основные термины и
определения [Электронный ресурс]: ГОСТ разработан ФГУ "ГНИИИ ПТЗИ
ФСТЭК России" (утвержден и введен в действие Приказом Федерального
агентства по техническому регулированию и метрологии от 27 декабря 2006 г. N
373-ст.). Доступ из справочно-правовой системы «Консультант – плюс» //
Официальное издание М.: Стандартинформ, 2008 г..
1.2 Попов В.В. Комплексная защиты информации на предприятии: курс
лекций. – МАИ, 2009. – Лекция №5, 15 с.
1.3 Криминалистика: Учебник / Под ред. Е.П. Ищенко. – М.: Юристъ,
2000. – 751 с.
1.4 Википедия – свободная энциклопедия [Электронный ресурс]. –
http://wikipedia.org. (Дата обращения: 14.02.2018).
1.5 Безопасность
нефтяного
бизнеса:
Обеспечение
корпоративной
безопасности нефтяной компании: [сайт]. URL: http://neft-biz.ru/ (Дата
обращения: 17.02.2018).
1.6 Румянцева Е.Л., Слюсарь В.В. Информационные технологии: учеб.
пособие. М.: Форум, Инфра-М, 2007. [Электронный ресурс] – 256 с. URL:
http://yourlib.net/content/view/12925/153/ (Дата обращения: 17.02.2018).
1.7 Е. А. Витенбург, А. В. Никишова, канд. техн. наук, А. Е. Чурилина
Системы принятия решений в информационной безопасности // Вестник
компьютерных и информационных технологий. 2015. № 4. С. 50-56. URL:
(Дата
http://www.vkit.ru/index.php/archive-rus/359-050-056/
обращения:
19.02.2018).
1.8 Автоматическая классификация: Мера расстояния. [Электронный
ресурс] // Портал искусственного интеллекта: [сайт]. [2009 – 2018]. URL:
(Дата
http://www.aiportal.ru/articles/autoclassification/measure-distance.html
обращения: 05.03.2018).
1.9 Система
[Электронный
поддержки
ресурс].
принятия
URL:
решений
Microsoft
Dynamics
http://www.microsoft.com/ru-ru/dynamics/
default.aspx (Дата обращения: 05.03.2018).
1.10 Система принятия решений Prognoz [Электронный ресурс]. URL:
http://www.prognoz.ru/sites/default/files/adddocs/listovkaprognoz.analitikadlyakomp
anii.pdf (Дата обращения: 05.03.2018).
1.11 STATISTICA
[Электронный
ресурс].
URL:
http://www.statsoft.ru/products/overview. (Дата обращения: 05.03.2018).
1.12 Основы
теории
нейронных
сетей.
[Электронный
ресурс]
//
Национальный открытый университет «ИНТУИТ»: [сайт]. [2003 – 2018]. URL:
https://www.intuit.ru/studies/courses/88/88/info. (Дата обращения: 05.03.2018).
1.13 Методы обучения нейронной сети. [Электронный ресурс] // ФБ:
Размещение и публикация статей: [сайт]. [2018]. URL: http://fb.ru. (Дата
обращения: 05.03.2018).
1.14 Борисов С.Е. Нейронные сети: обучение с учителем [Электронный
ресурс] // Сборник статей по исследованиям психических явлений: [сайт].
[2018]. URL: http://masters.donntu.org/2012/fknt/kovalyov_a/library/article8.htm.
(Дата обращения: 05.03.2018).
1.1 Руководящий документ ФСТЭК России Автоматизированные системы.
Защита от несанкционированного доступа к информации. Классификация
автоматизированных систем и требования по защите информации [Электронный
ресурс]: Утверждено решением председателя Государственной технической
комиссии при Президенте Российской Федерации от 30 марта 1992 г. Доступ из
официального сайта ФСТЭК России. URL: https://fstec.ru/ (Дата обращения:
30.03.2018).
1.2 Утечка информации на современном предприятии и обеспечение
информационной безопасности: [сайт]. URL: http://www.razgovorodele.ru/ (Дата
обращения: 13.04.2018).
1.3 Виноградов С.А., Чистопрудов Д.А., Крикунов А.А. Основы теории
надежности: учебное пособие – ВА РВСН, 2015 – 318 с.
1.4 ГОСТ 27.002-89 Надежность в технике. Основные понятия. Термины и
определения [Электронный ресурс]: ГОСТ разработан и внесен Институтом
машиноведения АН СССР, Межотраслевым научно-техническим комплексом
"Надежность машин" и Государственным Комитетом СССР по управлению
качеством продукции и стандартам (утвержден и введен в действие
Постановлением Государственного комитета СССР по стандартам от 15.11.89
N 3375.) Доступ из справочно-правовой системы «Консультант – плюс». – 32 с.
1.5 Дедиков
Е.М.,
Никитин
В.С.,
Солдатенко
В.С.
Техническая
эксплуатация средств АСУ: учебное пособие – М.: МО РФ, 2010 – 78 с.
1.6 Абрахимов Б.С., Гончаров И.В., Гладченко В.В. Эксплуатация
радиотехнических систем. 3-е издание: учебное пособие – М.: МО РФ, 2014 – 198
с.
1.7 Шейко С.А., Нижниковский В.С., Кузьмин О.В. Эксплуатация АСУ.
Часть 1: учебное пособие – ВА РВСН, 2012 – 112 с.
1.1 Безопасность жизнедеятельности: учебник для вузов /С.В. Белов, В.А.
Деви- силов, А.В. Ильницкая и др.; под общ. ред. С.В. Белова. – 5-е изд. испр. и
доп. – М.: Высшая школа, 2012. – 605 с.
1.2 ГОСТ 12.0.003-15 ССБТ. Опасные и вредные производственные
факторы. Классификация. – М.: Изд-во стандартов, 2015. – 88 с.
1.3 СанПиН 2.2.2/2.4.1340–03 «Гигиенические требования к ПЭВМ и
организации работы».—М.: Федеральный центр госсанэпиднадзора Минздрава
России, 2003.—54 с.
1.4 Безопасность жизнедеятельности: учебное пособие для студентов
ВУЗов / под ред. д.т.н., проф. А.И. Сидорова. – М.: Кнорус, 2008. – 496 с.
1.5 Гетия И.Г., Леонтьева И.Н. Экологическая оценка материалов и
характеристика отходов компьютерной техники. Материалы научно-технической
конференции факультета «Технологическая информатика». Межвузовский сборник
научных трудов. Информатика и технология. -М.: МГУПИ, 2008 г. -142-147 с.
1.6 Фролов, А.В. Безопасность жизнедеятельности. Охрана труда: учебное
пособие для вузов / А.В. Фролов, Т.Н. Бакаева. – Ростов-на-Дону: Феникс, 2012.
– 735 с.
5.1. Методические указания по выполнению курсовой работы для
студентов специальности 22.01.05 на тему “Организация, планирование и
управление предприятием машиностроительной промышленности” М.,МГАПИ,
2003.
5.2. Чаплыгин В.А. Организационно-экономический раздел дипломных
работ научно-исследовательского характера. М., МГАПИ. 2000.
5.3. Методические указания по сбору материалов на преддипломной
практике и выполнению организационно-экономического раздела дипломных
проектов. М., МГАПИ, 2004.
5.4. Капелюш Г.С., Шестоперов С.Б. Технико-экономическое обоснование
дипломных проектов по созданию математической модели вычислительной
техники и информатики. Учебное пособие для студентов специальности 22.01. –
М., МГАПИ, 2001.
5.5. «Сетевые графики и планирование», учебное пособие, Н. И. Новицкий,
М., Высшая школа, 2004.
Download