Кодирование информации с помощью знаковых систем. Подготовила ученица 8 «Б» класса Митусова Яна Знаки: форма значения. С древних времен знаки используют человеком для долговременного хранения информации и ее передачи на большое расстояния. Форма знаков. В соответствии со способом восприятия знаки можно разделить на зрительные, слуховые, осязательные, обаятельные и вкусовые, причем в человеческом общении используются знаки первых трех типов. К зрительным знаком, воспринимаем с помощью зрения относятся буквы и цифры, которые используются в письменной речи, знаки химических элементов, музыкальные ноты, дорожные знаки и т.д. К слуховым знакам, воспринимаемым с помощью слуха, относятся звуки, которые используются в устной речи, а также звуковые сигналы, которые производятся с помощью звонка, колокола, свистка, гудка, сирены и т. д. Знаковая система. Знаковая система — это система однообразно интерпретируемых и трактуемых сообщений/сигналов, которыми можно обмениваться в процессе общения. Иногда знаковые системы помогают структурировать процесс общения с целью придания ему некой адекватности в плане реакций его участников на те или иные «знаки». В качестве примера знаковой системы обычно приводят язык (как в письменной форме так и, в случае естественных языков, в форме речи). Изучает знаковые системы семиотика. Генетический алфавит. Генетический алфавит является «азбукой», на которой строится единая система хранения и передачи наследственной информации живыми организмами. Как слова в языках образуются из букв, так и гены состоят из знаков генетического алфавита. В процессе эволюции от простейших организмов до человека количество генов постоянно возрастало, так как было необходимо закодировать все более сложное строение и функциональные возможности живых организмов. Генетическая информация хранится в клетках живых организмов в специальных молекулах. Эти молекулы состоят из двух длинных скрученных друг с другом в спираль цепей, построенных из четырех различных молекулярных фрагментов. Фрагменты образуют генетический алфавит и обычно обозначаются латинскими прописными буквами {A, G, С, Т}. Двоичная знаковая система. В процессах хранения, обработки и передачи информации в компьютере используется двоичная знаковая система, алфавит которой состоит всего из двух знаков {0, 1}. Физически знаки реализуются в форме электрических импульсов (нет импульса - 0, есть импульс - 1), состояний ячеек оперативной памяти и участков поверхностей носителей информации (одно состояние - 0, другое состояние - 1). Кодирование информации. В настоящее время большая часть пользователей при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков препинания и др. Традиционно для того чтобы закодировать один символ используют количество информации равное 1 байту, т. е. I = 1 байт = 8 бит. При помощи формулы, которая связывает между собой количество возможных событий К и количество информации I, можно вычислить сколько различных символов можно закодировать (считая, что символы - это возможные события): К = 2 I = 2 8 = 256, т. е. для представления текстовой информации можно использовать алфавит мощностью 256 символов. Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255. Количество информации. Процесс познания окружающего мира проводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой информации приводит к расширению знания или, как иногда говорят к уменьшению неопределенности знания. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информации. Например, после сдачи зачета или выполнения контрольной работы вы мучаетесь неопределенностью, вы не знаете какую оценку получили. Наконец, учитель объявляет результат, и вы получаете одно их двух информационных сообщений: «зачет» или «незачет», а после контрольной работы одно из четырех информационных сообщений: «2», «3», «4» или «5». В зависимости от точек зрения, бит может определяться следующими способами: по Шеннону[3]: бит — это двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при равновероятных событиях; см. информационная энтропия; бит — базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода; см. информационная энтропия. Это тождественно количеству информации в ответе на вопрос, допускающий ответ «да» или «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос); один разряд двоичного кода (двоичная цифра) может принимать только два взаимоисключающих значения: «да» или «нет», «1» или «0», «включено» или «выключено», и т. п. В электронике одному двоичному разряду соответствует один двоичный триггер (триггер, имеющий два устойчивых состояния). Возможны две физические (в частности электронные) реализации бита (одного двоичного разряда): однофазный («однопроводный») бит (двоичный разряд). Используется один выход двоичного триггера. Нулевой уровень обозначает либо сигнал логического «0», либо неисправность схемы. Высокий уровень обозначает либо сигнал логической «1», либо исправность схемы. Дешевле двухфазной реализации, но менее надёжен; Спасибо за внимание