BIG DATA Новый вызов. - Школа бизнес

реклама
“В ближайшие 5 лет все компании на рынке
разделятся на победителей и побежденных в
зависимости от качества их аналитики”
Вирджиния Рометти - IBM CEO 2 марта 2012 года
BIG DATA
Новый вызов.
Будзко В.И.
заместитель директора по научной работе
Института проблем информатики РАН,
д.т.н., член-корреспондент Академии
криптографии РФ
Рост цифровых данных и доступной
памяти
Прогноз роста данных до 2015
года
Глобальный объем данных в экзабайтах
К 2015 году количество устройств, объединенных в
сеть вдвое будет превышать население земли.Всем
этим сенсорным данным присуща
неопределенность
П
р
о
ц
е
н
т
н
о
е
с
о
о
т
н
о
ш
е
н
и
е
Суммарное число позиций в средствах
массовой информации превышает население
земли. Эти данные крайне неопределенны по
представлению и содержанию
Управленческие решения,
традиционно определяемые
данными организации
Обвал данных
• Каждый день в мире производится 2,5 квинтильона
(1018) байтов данных. 90% данных созданы за
последние два года.
• Каждый час Wal-Mart совершает 1 миллион сделок,
пополняя базу данных на 2,5 петабайта (1015)- в 170
раз больше объема данных Библиотеки Конгресса
США.
• Объем отправлений, доставляемых американской
Почтовой службой за один год, равен 5 петабайтам,
а Google обрабатывает такой же объем данных
всего за один час.
• Суммарный объем всей существующей на земле
информации составляет несколько больше одного
зеттабайта (1021).
Новый взгляд – старые принципы
•
•
•
В какой степени доступные данные отражают реальное состояние
моделируемой предметной области? Полнота.
Насколько правильно данные описывают предметную область?
Точность.
Система высокой доступности данных: доступные данные
достаточной полноты и точности обработаны и вовремя получен
аналитический продукт. (Своевременный отбор данных и
своевременное получение аналитического продукта)
выявление (Discovery),
отбор (Discrimination),
переработка (Distillation),
доведение в нужном представлении
(Delivery/Dissemination).
В информационно-аналитической АИС получение
аналитического информационного продукта возможно только
при использовании структурированных данных.
Если для решения аналитической задачи требуется привлечь
неструктурированные или слабо структурированные данные,
то требуется разработать средство их преобразования в
структуру.
После преобразования речи в текст по тексту определяется
смысловое содержание сказанного и преобразовывается в
некоторый структурированный формат.
Словосочетание Большие Данные появилось в
конце 1990-ых среди ученых, у которых
отсутствовала возможность сохранить или
проанализировать огромные и возрастающие
данные, произведенные все более и более
сложными цифровыми технологическими
средствами, применяемыми при решении задач
физики элементарных частиц, экономики,
климатологии, астрофизики.
К середине 2000-ых проводились интенсивные
исследования Больших Данных в таких
компаниях как Google, Yahoo, Amazon и Netflix, в
которые поступали возрастающие объемы
данных из Web.
Google разработал в 2004 году структуры
MapReduce.
В 2008 году в результате исполнения проекта
Apache была реализована система Hadoop (как
общедоступное изделие) для параллельной
обработки больших файлов в одном пакете.
Hadoop, использует структуру MapReduce и
файловую систему, чтобы действовать как
хранилище данных.
Файл-ориентированного подхода Hadoop
оказалось недостаточно, требовалась функция
базы данных.
NoSQL решения BigTable Google в 2006 и
разработка Amazon Dynamo – в 2007 стали
первыми реализациями в этом направлении.
Общедоступные продукты - Amazon SimpleDB,
Cassandra, MongoDB и Terrastore.
Маркетологи вендоров аппаратного и
программного обеспечения начали
перемаркировывать многие продукты и решения
на Большие Данные. Реляционные и другие
традиционные подходы обработки бросались в
"общий котел".
Традиционные данные
составляют меньше чем 10%
цифровой информации, которой
управляет бизнес
Стратегия IBM Big Data :
приблизить аналитику к данным
Новые аналитические приложения выдвигают
требования к платформе big data:
•
Объединять и управлять всем
разнообразием (Variety), скоростью
(Velocity) и объемом (Volume),
достоверностью (Veracity) и
обоснованностью (Validity) данных
•
Применять передовую аналитику к
информации в ее исходной форме
•
Визуализировать все доступные
данные для специального анализа
•
Среда проектирования для создания
новых аналитических приложений
•
Оптимизация рабочей нагрузки и
планирование
•
Безопасность и управление
Analytic Applications
BI /
Exploration / Functional Industry Predictive Content
BI /
Reporting Visualization
App
App
Analytics Analytics
Reporting
IBM Big Data Platform
Visualization
& Discovery
Application
Development
Systems
Management
Accelerators
Hadoop
System
Stream
Computing
Data
Warehouse
Information Integration & Governance
Более умная аналитика!!!
Analytic Accelerators Designed for Variety
Text
(listen, verb),
(radio, noun)
Простые и
сложные тексты
Акустика
Продвинутые
математические модели
Ускоренный data
mining
Прогнозы
 R(s , a ) Статистика
t
t
population
Геоаналитика
Изображения и
видео
Watson – взгляд изнутри
Технологии IBM
Content
Analytics
90 IBM P750
Servers
Business
Analytics
16 Terabytes Memory
(RAM) – 20TB Disk
Big Data
80 Teraflops (80
trillion operations per
second)
Databases /
Data
Warehouses
Workload Optimized
Systems
Cores x 20 + 1 = 57600 + 2880 =
60480 On Oncology Task
Информируемость
2880 Processing Cores
Интеллектуальность
Системные спецификации
2002
IBM получает заказ на разработку технологии:
1. Любые виды источников
2. Любая скорость потока данных от источника
3. Принятие решения – в потоке (миллисекунды)
Большие данные – горячая тема, потому что
технологии сделали возможным анализ ВСЕХ
доступных данных
Эффективно с точки зрения затрат управлять и анализировать
все доступные данные,
в их первозданном виде – структурированные,
неструктурированные, потоковые
Social Media
Website
Billing
ERP
CRM
RFID
Network Switches
17
Общая схема компонентов платформы Big Data
Всего около 900 «кирпичей»
Streams
NZ
Декларативные языки
Готовые
средства
разработки
DE
Big
Ins
SPSS
(Декларати
вный язык
PMML)
Инструменты
Коннекторы
Cognos BI
Языки программирования 3-го поколения: Java,
C/C++, Python, Perl
Современная схема принятия решений:
Что делают люди?
Подтверждение
решения
CEO
Задания
интегральной
инфо потребности
Детализация
области
интересов
Область
интересов
Обсуждение
области
интересов
Big Data
Цифровая
реальность
Принятие
решения
Поиск в
области
интересов
Креативная
команда
Обучение в
области
интересов
Угрозы и проблемы
1. Отставание:
• кадры,
• подготовка кадров,
• технологическая платформа,
• постановка задач,
• и пр.
Только МО США ежегодно выделяет на исследования в
области Больших данных 300 млн. долларов.
Big Data –национальная программа США.
Угрозы и проблемы
2. Доступность наших источников:
•
•
•
•
•
Интернет, социальные сети (Twitter, Faceook,
Одноклассники и пр). Основатель социальной сети
Facebook Марк Цукерберг – 15 млрд. долларов
мобильные телефоны, планшеты, смартфоны и пр.
облачные вычисления и хранилища,
технологические достижения в открытой
публикации или по эл почте,
и пр.
Угрозы и проблемы
3. Отсутствие наработок по
информационнойбезопасности Больших
данных.
4. Огромный объем «неведанного» ПО, даже
в открытых кодах, затрудняет выполнение
соответствующих исследований.
Сокращение отставания СССР
в области информатизации
• 1968 год. Письмо Дородницина в ЦК.
Решение по ЕС ЭВМ. Инициатива М.Р. ШураБура и В.К. Левина о построении ЕС ЭВМ,
программно совместимой с IBM/360.
• 1972 год. Решение Ю.В. Андропова
• 1973-1975 годы. Работа коллектива
специалистов (КГБ, МО, НИЦЭВТ, НИИ
"Восход", НИИАА под вывеской МНИИПИ
АСУ ГХ) по освоению продуктов IBM на
площадке ОКБА Минхимпром
Отечественные аналоги
Продукт IBM
(прототип)
Отечественный
аналог
Исполнитель
IMS/360
ОКА
НИЦЭВТ
CICS
КАМА
НИЦЭВТ
OS/360
ОС/ЕС
НИЦЭВТ
GIS
УНИС
Центр Программ
Систем
Позднее НИИ «Восход» выпустил аналог ADABAS – ДИСОД
НИИАА выпустил аналог IDMS - СЕТЬ
Катализатор повышения профессионализма. Собственные разработки.
Что делать?
Учиться, учиться, учиться…
Спасибо за внимание
Скачать