Информатика Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности. Термин "информатика" (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика". Информатика – это техническая наука, определяющая сферу деятельности, связанную с процессами хранения, преобразования и передачи информации с помощью компьютера. За рубежом курс обычно называется — "Сomputer science", что означает буквально "компьютерные науки " Приоритетные направления : pазpаботка вычислительных систем и пpогpаммного обеспечения; теоpия инфоpмации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации; математическое моделирование, методы вычислительной и прикладной математики и их применение к фундаментальным и прикладным исследованиям в различных областях знаний; методы искусственного интеллекта, моделирующие методы логического и аналитического мышления в интеллектуальной деятельности человека (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.); системный анализ, изучающий методологические средства, используемые для подготовки и обоснования решений по сложным проблемам различного характера; биоинформатика, изучающая информационные процессы в биологических системах; социальная информатика, изучающая процессы информатизации общества; методы машинной графики, компьютерной анимации, средства мультимедиа; телекоммуникационные системы и сети, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество; разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности. В информатике существует три неразрывно и существенно связанные части технические средства программные алгоритмические Технические средства, или аппаратура компьютеров, в английском языке обозначаются словом Hardware, которое буквально переводится как "твердые изделия" Для обозначения программных средств, под которыми понимается совокупность всех программ, используемых компьютерами, и область деятельности по их созданию и применению, используется слово Software (буквально — "мягкие изделия"), которое подчеркивает равнозначность самой машины и программного обеспечения, а также способность программного обеспечения модифицироваться, приспосабливаться и развиваться Программированию задачи всегда предшествует разработка способа ее решения в виде последовательности действий, ведущих от исходных данных к искомому результату, иными словами, разработка алгоритма решения задачи. Для обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их построения, применяют термин Brainware (англ. brain — интеллект, умственные способности). Информация Использование слова информация приводит к многим недоразумениям. Г.Хакен Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке Пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности Клод Шеннон, американский учёный, заложивший основы теории информации — науки, изучающей процессы, связанные с передачей, приёмом, преобразованием и хранением информации, — рассматривает информацию как снятую неопределенность наших знаний о чем-то Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности. Люди обмениваются информацией в форме сообщений Сообщение — это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п. Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему. Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. ШЕННОН Клод Элвуд (Shannon Claude Elwood) (р. 1916, Гэйлорд, шт. Мичиган), американский инженер и математик. Один из создателей математической теории информации. Основные труды по теории релейно-контактных схем, математической теории связи, кибернетике Учился в Мичиганском университете, где получил два диплома — по математике и по электротехнике. Затем перешел в Массачусетский технологический институт В 1938 году защитил докторскую диссертацию, в которой разработал принципы логического устройства компьютера, соединив булеву алгебру с работой электрических схем. Эта работа стала поворотным пунктом в истории развития современной информатики и вычислительной техники. Позднее Шеннон работал в Bell Telephone Laboratories, где применил новые принципы разработки телефонных станций. В 1948 году опубликовал работу «Математическая теория связи», в которой представил свою унифицированную теорию передачи и обработки информации. Информация в этом контексте включала все виды сообщений, включая те, что передаются по нервным волокнам в живых организмах. В 1956 году Шеннон покинул Bell Labs и со следующего года стал профессором Массачусетского технологического института, откуда ушел на пенсию в 1978 году Шеннон предложил измерять информацию в математическом смысле, сводя ее к выбору между двумя значениями, или двоичными разрядами, — «да» или «нет», заложив таким образом фундамент современной теории связи, которая в настоящее время играет важную роль во многих областях. В пятидесятых годах он создал "предельную машину" ("Ultimate Machine"), основанную на идее Мервина Минского (Mervin Minsky) и описанную в "Голосе над морем" Артура Кларка; машина эта имела вид шкатулки с единственным выключателем. При включении его крышка открывалась, оттуда появлялась рука, которая возвращала выключатель в исходное положение и вновь скрывалась внутри. На пенсии им полностью завладело его давнее увлечение жонглированием. Шеннон построил несколько жонглирующих машин и даже создал общую теорию жонглирования, которая, впрочем, не помогла ему побить личный рекорд — жонглирование четырьмя мячиками. Еще он испытал свои силы в поэзии, а также разработал разнообразные модели биржи акций и опробовал их (по его словам успешно) собственных акциях акциях. Но с начала 60-х годов Шеннон так и не сделал в теории информации практически ничего нового. Клод Шеннон умер 24 февраля 2001 года в возрасте 84 лет после многолетней борьбы с болезнью Альцгеймера. Разработаны различные способы оценки количества информации. В 1928 г. американский инженер Р.Хартли рассматривал процесс получения информации как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. Формула Хартли: I = log2N В качестве примера использования формулы Хартли рассмотрим задачу. Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. А теперь рассмотрим другую задачу: являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Шеннона: I = - ( p1·log2p1 + p2·log2p2 + . . . + pN·log2pN), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли. Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили log22 = 1 бит информации. Предположим, что мы бросили 8 монет. У нас 28 вариантов падения монет. Значит после броска монет мы получим log228 = 8 бит информации. Попробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней – шесть равновероятных событий. Получаем: приблизительно 2,6 бита информации. Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос, мы получаем один бит информации. При этом одно состояние принято обозначать цифрой 0, а другое – цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п. Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения. В качестве единицы информации Клод Шеннон принять один бит (англ. bit — binary digit — двоичная цифра). Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа "орел"—"решка", "чет"— "нечет" и т.п.). В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. предложил Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам Название байт было впервые использовано в 1956 году В. Бухгольцем при проектировании первого суперкомпьютера IBM 7030 для пучка одновременно передаваемых в устройствах ввода-вывода битов (шести штук), позже в рамках того же проекта расширили байт до восьми бит По одной из версий, слово byte произошло как сокращение фразы BInary digiT Eight («двоичное число восемь»), причем в получившемся bite букву i заменили на y. Это было сделано во избежание путаницы с уже существовавшим термином bit (бит). Другая гипотеза гласит, будто byte — аббревиатура BinarY TErm («двоичный термин»). Широко используются также ещё более крупные производные единицы информации: 1 Килобайт (Кбайт) = 1024 байт = 210 байт (1,024 ~103 ) 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт (1,048,576 ~106 ) 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт (1,073,741,824 ~109 ) В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как: 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт (1,099,511,627,776 ~1012 ) 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт (1,125,899,906,842,624 ~1015 ) 1 эксабайт (Эбайт) = 1024 Пбайт = 260 байт (1,152,921,504,606,846,976 ~1018 ) 1 зеттабайт (Збайт) = 1024 Эбайт = 270 байт (1,180,591,620,717,411,303,424 ~1021 ) 1 йоттабайт (Йбайт) = 1024 Збайт = 280 байт (1,208,925,819,614,629,174,706,176 ~1024 ) Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 103, 106 и 109, соответственно, но исторически сложилась практика использования множителей со степенями двойки. 1024 на самом деле меньше на 20.9% чем 1,208,925,819,614,629,174,706,176 Меры информации. Для измерения информации вводятся два параметра: количество информации I и объем данных VД. Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности. Синтаксическая адекватность. Она отображает формальноструктурные характеристики информации и не затрагивает ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т. п. Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, т.к. при этом не имеет значения смысловая сторона. Семантическая (смысловая) адекватность. Эта форма определяет степень соответствия образа объекта и самого объекта. Семантический аспект предполагает учет смыслового содержания информации. На этом уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи. В информатике устанавливаются смысловые связи между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения. Прагматическая (потребительская) адекватность. Она отражает отношение информации и ее потребителя, соответствие информации цели управления, которая на ее основе реализуется. Проявляются прагматические свойства информации только при наличии единства информации (объекта), пользователя и цели управления. Прагматический аспект рассмотрения связан с ценностью, полезностью использования информации при выработке потребителем решения для достижения своей цели. С этой точки зрения анализируются потребительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы. Каждой форме адекватности соответствует своя мера количества информации и объема данных. Синтаксическая мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. Объем данных VД в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных: в двоичной системе счисления единица измерения — бит (bit — binary digit — двоичный разряд); в десятичной системе счисления единица измерения — дит (десятичный разряд). Пример: Сообщение в двоичной системе в виде восьмиразрядного двоичного кода 10111011 имеет объем данных Vд = 8 бит. Сообщение в десятичной системе в виде шестиразрядного числа 275903 имеет объем данных Vд = 6 дит. Энтропия (от греческого entropia -- поворот, превращение). Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь. Энтропия -- это функция состояния, то есть любому состоянию можно сопоставить вполне определенное (с точность до константы -- эта неопределенность убирается по договоренности, что при абсолютном нуле энтропия тоже равна нулю) значение энтропии. Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях). Количество информации определяется по формуле: Iβ(α) = H(β) - H(α), где H(α) – это энтропия, т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы. Энтропия системы Н(а), имеющая N возможных состояний, согласно формуле Шеннона, равна: где Pi — вероятность того, что система находится в i-м состоянии. Для случая, когда все состояния системы равновероятны, ее энтропия определяется соотношением где N — число всевозможных отображаемых состояний; m — основание системы счисления (разнообразие символов, применяемых в алфавите); n — число разрядов (символов) в сообщении. Семантическая мера информации. Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Для этого используется понятие тезаурус пользователя. Тезаурус — это совокупность сведений, которыми располагает пользователь или система. В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Iс, воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рисунке при Sp=0 пользователь не воспринимает, не понимает поступающую информацию; при Sp → ∞ пользователь все знает, поступающая информация ему не нужна. При оценке семантического (содержательного) аспекта информации необходимо стремиться к согласованию величин S (смысловым содержанием информации) и Sp (тезаурусом пользователя). Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему: Iс - количество семантической информации VД - объем данных Прагматическая мера информации. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция. Непрерывная и дискретная информация Информация о различных природных явлениях и технологических процессах воспринимается человеком (с помощью его органов чувств и различной измерительной аппаратуры) в виде тех или иных полей. Поля эти рассматриваются как непрерывные. Иногда для этой цели используется также термин аналоговая информация Если применительно к информации о поле установить минимальные шаги изменения всех характеризующих ее скалярных величин, то получим так называемое дискретное представление информации (дискретная информация). Но любая непрерывная информация может быть аппроксимирована дискретной информацией с любой степенью точности Результаты измерения любых скалярных величин представляется в конце концов в числовом виде, а поскольку при заданной точности измерений эти числа представимы в виде конечных наборов цифр, то дискретную форму представления информации часто отождествляют с цифровой информацией Для преобразования любого аналогового сигнала (звука, изображения) в цифровую форму необходимо выполнить две основные операции: дискретизацию, квантование Дискретизация Представление непрерывного аналогового сигнала последовательностью его значений (отсчетов). Эти отсчеты берутся в моменты времени, отделенные друг от друга интервалом, который называется интервалом дискретизации Величину, обратную интервалу между отсчетами, называют частотой дискретизации. Наиболее часто в телевизионной технике используются изображения с разрешением: 640 х 480 768 х 576 1920 х 1080 NTSC PAL, SECAM HDTV Цифровое фото: отношение 4:3 1280 х 960 1600 х 1200 2560 х 1920 Цифровое фото: отношение 3:2 9х 6 15 х 10 36 х 24 (4:3) (4:3) (16:9) Понятно, что чем меньше интервал дискретизации и, соответственно, выше частота дискретизации, тем меньше различия между исходным сигналом и его дискретизированной копией. Восстановление будет точным только в том случае, если частота дискретизации по крайней мере в 2 раза превышает ширину полосы частот исходного аналогового сигнала (это условие определяется известной теоремой Котельникова) Если это условие не выполняется, то дискретизация сопровождается необратимыми искажениями. Пример искажений возникающих при неправильной дискретизации Аналоговый сигнал (видеосигнал ТВ строки) содержит волну, частота которой сначала увеличивается от 0,5 МГц до 2,5 МГц, а затем уменьшается до 0,5 МГц. Этот сигнал дискретизируется с частотой 3 МГц На рис. последовательно приведены изображения: исходный аналоговый сигнал, дискретизированный сигнал, восстановленный после дискретизации аналоговый сигнал Восстанавливающий фильтр нижних частот имеет полосу пропускания 1,2 МГц. Как видно, низкочастотные компоненты (меньше 1 МГц) восстанавливаются без искажений Волна с частотой 1,5 МГц исчезает и превращается в относительно ровное поле. Волна с частотой 2,5 МГц после восстановления превратилась в волну с частотой 0,5 МГц (это разность между частотой дискретизации 3 МГц и частотой исходного сигнала 2,5 МГц) Эти диаграммы-картинки иллюстрируют искажения, связанные с недостаточно высокой частотой пространственной дискретизации изображения Если объект телевизионной съемки представляет собой очень быстро движущийся или, например, вращающийся предмет, то могут возникать и искажения дискретизации во временной области. Примером искажений, связанных с недостаточно высокой частотой временной дискретизации (а это частота кадров телевизионного разложения), является картина быстро движущегося автомобиля с неподвижными или, например, медленно вращающимися в ту или иную сторону спицами колеса (стробоскопический эффект) Если частота дискретизации установлена, то искажения дискретизации отсутствуют, когда полоса частот исходного сигнала ограничена сверху и не превышает половины частоты дискретизации Квантование Представляет собой замену величины отсчета сигнала ближайшим значением из набора фиксированных величин - уровней квантования Другими словами, квантование - это округление величины отсчета Уровни квантования делят весь диапазон возможного изменения значений сигнала на конечное число интервалов - шагов квантования Расположение уровней квантования обусловлено шкалой квантования. Используются как равномерные, так и неравномерные шкалы Искажения сигнала, возникающие в процессе квантования, называют шумом квантования. При оценке шума вычисляют разность между исходным сигналом и его квантованной копией. Шум квантования убывает с увеличением числа уровней квантования. Квантование на 4 уровня Квантование на 128 уровней Качество изображения зависит от числа (размера) пикселей и от числа уровней квантования. Размер файла зависит от тех же параметров. Поэтому необходимо искать изображения и размером файла. компромисс между качеством 640x480 160x120 320x240 80x60 256 128 64 32 Операции, связанные с преобразованием аналогового сигнала в цифровую форму, выполняются одним устройством - аналогоцифровым преобразователем (АЦП) Обратная процедура, т.е. восстановление аналогового сигнала из последовательности кодовых слов, производится в цифро-аналоговом преобразователе (ЦАП) Сейчас существуют технические возможности для реализации всех обработок сигналов звука и изображения, включая запись и излучение в эфир, в цифровой форме. Однако в качестве датчиков сигнала (например, микрофон, передающая ТВ трубка или прибор с зарядовой связью) и устройств воспроизведения звука и изображения (например, громкоговоритель, кинескоп) пока используются аналоговые устройства. Поэтому аналого-цифровые и цифро-аналоговые преобразователи являются неотъемлемой частью цифровых систем