Информация и кодирование информации Количество информации как мера уменьшения неопределенности знания 10 класс (профиль)
Существует 2 подхода к измерению информации вероятностный алфавитный Количество информации зависит от информативности. По информативности можно судить о том много информации или мало. Например, для ученика 10 класса учебник физики за 10 класс будет информативным, так как в нем содержится новая и понятная ему информация, а для ученика 1 класса она информативной не будет, так как информация для него непонятна.
Вероятностный подход в измерении информации Если некоторое сообщение является информативным, следовательно, оно пополняет нас знаниями или уменьшает неопределенность наших знаний. Рассмотрим пример 1. Мы бросаем монету и пытаемся угадать, какой стороной она упадет на поверхность.
Возможные события Произошедшее событие События равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из двух положений: «орёл» или «решка». Перед броском существует неопределённость нашего знания (возможны два события), а после броска наступает полная определённость. Неопределённость нашего знания уменьшается в два раза, так как из двух возможных равновероятностных событий реализовалось одно.
Если мы кидаем шестигранный кубик, то мы не знаем перед броском, какой стороной он упадет на поверхность. В этом случае, возможно получить один результат из шести равновероятных. Неопределенность знаний равна шести, т.к. именно шесть равновероятных событий может произойти. Когда после броска кубика мы получаем зрительное сообщение о результате, то неопределенность наших знаний уменьшается в шесть раз. Пример 2.
На экзамен приготовлено 30 билетов. Чему равно количество событий, которые могут произойти при вытягивании билета? Равновероятны эти события или нет? Чему равна неопределенность знаний ученика перед тем как он вытянет билет? Во сколько раз уменьшится неопределенность знания после того как ученик билет вытянул? Зависит ли этот показатель от номера вытянутого билета? Пример 3.
Вывод: Чем больше начальное число возможных равновероятных событий, тем в большее количество раз уменьшается неопределенность наших знаний, и тем большее количество информации будет содержать сообщение о результатах опыта. Мы не получаем информации в ситуации, когда происходит одно событие из одного возможного. Количество информации в этом случае равно нулю. Для того чтобы количество информации имело положительное значение, необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных.
Такое количество информации, которое находится в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту. С точки зрения вероятности 1 бит это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных.
С точки зрения кодирования с помощью 1 бита можно закодировать два сообщения, события или два варианта некоторой информации. Еще одно определение 1 бита: 1 бит это количество информации, уменьшающее неопределенность знаний в два раза.
Количество событий и количество информации Существует формула, которая связывает между собой количество возможных событий и количество информации. N = 2 I ; где N количество возможных вариантов, I - количество информации. Если из этой формулы выразить количество информации, то получится I = log 2 N.
Если мы получили 4 бита информации, то количество возможных событий составляло: N = 2 4 = 16. Наоборот, для определения количества информации, если известно количество событий, необходимо решить показательное уравнение относительно I. Например, в игре «Крестики-нолики» на поле 8x8 перед первым ходом существует 64 возможных события, тогда уравнение принимает вид: 64 = 2 I. Так как 64 = 2 6, то получим: 2 6 = 2 I. Таким образом, I = 6 битов, то есть количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов. Пример 4.
Для определения количества информации можно воспользоваться таблицей NINININI 10, , , , , , , , , , , , , , , , , , , , , , , , , , , '5, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,00000
Единицы измерения информации В компьютере также используется свой алфавит, который можно назвать компьютерным. Количество символов, которое в него входит, равно 256 символов. Это мощность компьютерного алфавита. Закодировать 256 разных символом можно с помощью 8 бит. 8 бит является настолько характерной величиной, что ей присвоили свое название - байт. Итак, следующая по величине единица измерения информации - байт. 1 байт = 8 битам. Используя этот факт можно быстро подсчитать количество информации, содержащееся в компьютерном тексте, т.е. тексте, набранном с помощью компьютера.
Найти информационный объем страницы компьютерного текста. Решение: 1) Найдем информационный объем одного символа: I = log 2 256, N = 256, I = log = 8 бит = 1 байт. 2) Найдем количество символов на странице. Примерно. Как можно это сделать быстро? (Найти количество символов в строке и умножить на количество строк.). Упростите до целого значения. 40 символов *50 строк = 2000 символов. 3) Найдем информационный объем всей страницы: = 2000 байт. Ответ: 2000 байт. Вывод: информационный объем одного символа несет 1 байт информации. Поэтому достаточно подсчитать количество символов в тексте, которое и даст объем текста в байтах. Пример 5.
Для измерения больших объемов информации используют следующие единицы: 1 килобайт = 1 Кб = 2 10 байт = 1024 байта; 1 мегабайт = 1 Мб = 2 10 Кб = 1024 Кб; 1 гигабайт = 1 Гб = 2 10 Мб = 1024 Мб.
Самостоятельное задание на закрепление Решение задач, в которых события являются равновероятными
Домашнее задание § 2.1 – 2.2., Задание Практикум