“В ближайшие 5 лет все компании на рынке разделятся на победителей и побежденных в зависимости от качества их аналитики” Вирджиния Рометти - IBM CEO 2 марта 2012 года BIG DATA Новый вызов. Будзко В.И. заместитель директора по научной работе Института проблем информатики РАН, д.т.н., член-корреспондент Академии криптографии РФ Рост цифровых данных и доступной памяти Прогноз роста данных до 2015 года Глобальный объем данных в экзабайтах К 2015 году количество устройств, объединенных в сеть вдвое будет превышать население земли.Всем этим сенсорным данным присуща неопределенность П р о ц е н т н о е с о о т н о ш е н и е Суммарное число позиций в средствах массовой информации превышает население земли. Эти данные крайне неопределенны по представлению и содержанию Управленческие решения, традиционно определяемые данными организации Обвал данных • Каждый день в мире производится 2,5 квинтильона (1018) байтов данных. 90% данных созданы за последние два года. • Каждый час Wal-Mart совершает 1 миллион сделок, пополняя базу данных на 2,5 петабайта (1015)- в 170 раз больше объема данных Библиотеки Конгресса США. • Объем отправлений, доставляемых американской Почтовой службой за один год, равен 5 петабайтам, а Google обрабатывает такой же объем данных всего за один час. • Суммарный объем всей существующей на земле информации составляет несколько больше одного зеттабайта (1021). Новый взгляд – старые принципы • • • В какой степени доступные данные отражают реальное состояние моделируемой предметной области? Полнота. Насколько правильно данные описывают предметную область? Точность. Система высокой доступности данных: доступные данные достаточной полноты и точности обработаны и вовремя получен аналитический продукт. (Своевременный отбор данных и своевременное получение аналитического продукта) выявление (Discovery), отбор (Discrimination), переработка (Distillation), доведение в нужном представлении (Delivery/Dissemination). В информационно-аналитической АИС получение аналитического информационного продукта возможно только при использовании структурированных данных. Если для решения аналитической задачи требуется привлечь неструктурированные или слабо структурированные данные, то требуется разработать средство их преобразования в структуру. После преобразования речи в текст по тексту определяется смысловое содержание сказанного и преобразовывается в некоторый структурированный формат. Словосочетание Большие Данные появилось в конце 1990-ых среди ученых, у которых отсутствовала возможность сохранить или проанализировать огромные и возрастающие данные, произведенные все более и более сложными цифровыми технологическими средствами, применяемыми при решении задач физики элементарных частиц, экономики, климатологии, астрофизики. К середине 2000-ых проводились интенсивные исследования Больших Данных в таких компаниях как Google, Yahoo, Amazon и Netflix, в которые поступали возрастающие объемы данных из Web. Google разработал в 2004 году структуры MapReduce. В 2008 году в результате исполнения проекта Apache была реализована система Hadoop (как общедоступное изделие) для параллельной обработки больших файлов в одном пакете. Hadoop, использует структуру MapReduce и файловую систему, чтобы действовать как хранилище данных. Файл-ориентированного подхода Hadoop оказалось недостаточно, требовалась функция базы данных. NoSQL решения BigTable Google в 2006 и разработка Amazon Dynamo – в 2007 стали первыми реализациями в этом направлении. Общедоступные продукты - Amazon SimpleDB, Cassandra, MongoDB и Terrastore. Маркетологи вендоров аппаратного и программного обеспечения начали перемаркировывать многие продукты и решения на Большие Данные. Реляционные и другие традиционные подходы обработки бросались в "общий котел". Традиционные данные составляют меньше чем 10% цифровой информации, которой управляет бизнес Стратегия IBM Big Data : приблизить аналитику к данным Новые аналитические приложения выдвигают требования к платформе big data: • Объединять и управлять всем разнообразием (Variety), скоростью (Velocity) и объемом (Volume), достоверностью (Veracity) и обоснованностью (Validity) данных • Применять передовую аналитику к информации в ее исходной форме • Визуализировать все доступные данные для специального анализа • Среда проектирования для создания новых аналитических приложений • Оптимизация рабочей нагрузки и планирование • Безопасность и управление Analytic Applications BI / Exploration / Functional Industry Predictive Content BI / Reporting Visualization App App Analytics Analytics Reporting IBM Big Data Platform Visualization & Discovery Application Development Systems Management Accelerators Hadoop System Stream Computing Data Warehouse Information Integration & Governance Более умная аналитика!!! Analytic Accelerators Designed for Variety Text (listen, verb), (radio, noun) Простые и сложные тексты Акустика Продвинутые математические модели Ускоренный data mining Прогнозы R(s , a ) Статистика t t population Геоаналитика Изображения и видео Watson – взгляд изнутри Технологии IBM Content Analytics 90 IBM P750 Servers Business Analytics 16 Terabytes Memory (RAM) – 20TB Disk Big Data 80 Teraflops (80 trillion operations per second) Databases / Data Warehouses Workload Optimized Systems Cores x 20 + 1 = 57600 + 2880 = 60480 On Oncology Task Информируемость 2880 Processing Cores Интеллектуальность Системные спецификации 2002 IBM получает заказ на разработку технологии: 1. Любые виды источников 2. Любая скорость потока данных от источника 3. Принятие решения – в потоке (миллисекунды) Большие данные – горячая тема, потому что технологии сделали возможным анализ ВСЕХ доступных данных Эффективно с точки зрения затрат управлять и анализировать все доступные данные, в их первозданном виде – структурированные, неструктурированные, потоковые Social Media Website Billing ERP CRM RFID Network Switches 17 Общая схема компонентов платформы Big Data Всего около 900 «кирпичей» Streams NZ Декларативные языки Готовые средства разработки DE Big Ins SPSS (Декларати вный язык PMML) Инструменты Коннекторы Cognos BI Языки программирования 3-го поколения: Java, C/C++, Python, Perl Современная схема принятия решений: Что делают люди? Подтверждение решения CEO Задания интегральной инфо потребности Детализация области интересов Область интересов Обсуждение области интересов Big Data Цифровая реальность Принятие решения Поиск в области интересов Креативная команда Обучение в области интересов Угрозы и проблемы 1. Отставание: • кадры, • подготовка кадров, • технологическая платформа, • постановка задач, • и пр. Только МО США ежегодно выделяет на исследования в области Больших данных 300 млн. долларов. Big Data –национальная программа США. Угрозы и проблемы 2. Доступность наших источников: • • • • • Интернет, социальные сети (Twitter, Faceook, Одноклассники и пр). Основатель социальной сети Facebook Марк Цукерберг – 15 млрд. долларов мобильные телефоны, планшеты, смартфоны и пр. облачные вычисления и хранилища, технологические достижения в открытой публикации или по эл почте, и пр. Угрозы и проблемы 3. Отсутствие наработок по информационнойбезопасности Больших данных. 4. Огромный объем «неведанного» ПО, даже в открытых кодах, затрудняет выполнение соответствующих исследований. Сокращение отставания СССР в области информатизации • 1968 год. Письмо Дородницина в ЦК. Решение по ЕС ЭВМ. Инициатива М.Р. ШураБура и В.К. Левина о построении ЕС ЭВМ, программно совместимой с IBM/360. • 1972 год. Решение Ю.В. Андропова • 1973-1975 годы. Работа коллектива специалистов (КГБ, МО, НИЦЭВТ, НИИ "Восход", НИИАА под вывеской МНИИПИ АСУ ГХ) по освоению продуктов IBM на площадке ОКБА Минхимпром Отечественные аналоги Продукт IBM (прототип) Отечественный аналог Исполнитель IMS/360 ОКА НИЦЭВТ CICS КАМА НИЦЭВТ OS/360 ОС/ЕС НИЦЭВТ GIS УНИС Центр Программ Систем Позднее НИИ «Восход» выпустил аналог ADABAS – ДИСОД НИИАА выпустил аналог IDMS - СЕТЬ Катализатор повышения профессионализма. Собственные разработки. Что делать? Учиться, учиться, учиться… Спасибо за внимание