Тема:«Информация как снятая неопределенность. Единицы измерения информации. Виды информации»
План: 1.Понятие информации. 2.Единицы измерения информации. 3.Как компьютер хранит информацию. 4.Способы измерения информации. 5.Виды информации, выделяемые по функциональному назначению.
Информация Информация первичное понятие информатики. Хранить Передавать Обрабатывать информация это знания, сведения, которыми обладает человек, которые он получает из окружающего мира. информация это содержание последовательностей символов (сигналов) из некоторого алфавита. МОЖНОИНФОРМАЦИЮ
Виды информации 1.Информация, воспринимаемая органами чувств 2.Объективная и субъективная 3.Аналоговая и цифровая 4.Текстовая, графическая, звуковая и так далее…
ИНФОРМАЦИЯ – ЭТО МЕРА РАЗРЕШЕНИЯ НЕОПРЕДЕЛЕННОСТИ. Единицы измерения информации
Номер < 2 Номер < 4 Номер< 6 Номер< 8 Номер 2 Номер 6 Номер 4 ДА НЕТ ДА НЕТ ДА НЕТ ДА НЕТ ДА НЕТ ДА НЕТ ДА НЕТ
БИТ – единица измерения: 1. ИНФОРМАЦИИ 2. НЕОПРЕДЕЛЁННОСТИ 1 бит = [ да, нет] 1 бит = [ 0,1]
N бит позволяет закодировать 2 N различных чисел. 1 бит – 2 комбинации 2 бит – 4 комбинации 3 бит – 8 комбинаций 4 бит – 16 комбинаций Как компьютер хранит информацию?
Сколько двоичных цифр (бит) необходимо, чтобы закодировать одну школьную оценку? Дано: N= I-? Решение: 1.Всего существует пять школьных оценок: 1, 2, 3, 4, 5 (N=5). 2.2 бита позволяют закодировать 2 2 =4 комбинации. 45, следовательно, трех бит будет достаточно. 4.Таким образом, 4
Существует несколько способов измерения информации: 1.Объемный (технический) 2.Алгоритмический 3.Вероятностный Способы измерения информации
Объемный (технический). Каждый символ языка кодируется определенной последовательностью бит, и затем подсчитывается полное количество бит в сообщении. Смысловое содержание сообщения в этом случае не играет никакой роли.
Алгоритмический. Предполагает выбор оптимального способа кодировки, поиск оптимального алгоритма который воспроизвел заданную закодированную последовательность, и определение того, о чем надо предварительно сообщить получателю сообщения для декодирования последнего.
Вероятностный Считается, что двумя двоичными словами исходной длины N или словом длины 2N можно передать в два раза больше информации, чем одним исходным словом. Число возможных равновероятных выборов при этом увеличивается в 2 N раз
N=2 1 =2, I=1 N=2 5 =32, I= 6 N=2 2 =4, I=2 N=2 3 =8, I=3 N=2 4 =16, I=4 N=2 6 =64, I=6 N1=2 k, I1=k N 2 =2 2k, I 2 =2k k 2k2k 2 I =N
формула Хартли N – число возможных исходов опыта I –неопределенность результатов опыта
Сколько бит информации несет сообщение о том, что из колоды в 36 карт достали даму пик? Дано: N= I-? Решение: 1.Согласно формуле Хартли: 2.Таким образом, I=log 2 36=log 10 36/log ,17 бит Ответ: I 5,17 бит
Аво лвадд лоыла оы влаод… символов «а» 200 раз P(a) 0,2 «о» 90 раз P(о) 0,09 «р» 40 раз P(p) 0,04 «ф» 2 раза P(ф) 0,002
I – среднее значение количества информации, приходящейся на 1 символ алфавита формула Шеннона P 1 =1/2, P 2 =1/4, P 3 =1/8, P 4 =1/8. I=-(1/2 · log 2 1/2+1/4 · log 2 1/4+1/8 · log 2 1/8)[бит] =(1/2+2/4+3/8+3/8)[бит]=14/8[бит]=1,75[бит].
Решение: 1.Согласно формуле Шеннона: 2.P ч =P к =P с =0,3; P з =0,1 3.Таким образом, I=-3·(0,3 · log 2 0,3)-0,1 · log 2 0,3 1,74 бит Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика, если в непрозрачном мешочке хранятся: 30 красных, 30 синих, 30 черных и 10 зеленых шариков. Дано: N= I-? Ответ: I 1,74 бит
1.Текстовая информация. Каждому символу сопоставляется его код – последовательность из фиксированного количества нулей и единиц. 2.Графическая информация. Любое графическое изображение хранится в памяти в виде информации о каждом пикселе на экране. 3.Звуковая информация. Реальные звуковые волны преобразуются в цифровую информацию путем измерения звука тысячи раз в секунду. a)цифровая b)MIDI Виды информации (по назначению)
Задания 1.Сколько бит потребуется для того, чтобы закодировать 54 игральных карты?. 2.Какое количество информации получит второй игрок в игре «Угадай число» при оптимальной стратегии, если первый игрок загадал число от 1 до 32?
Домашнее задание 1.Человек способен различать 100 градаций яркости. Сколько бит необходимо, чтобы закодировать конкретное значение яркости? 2.Вероятность первого события 0,4, а второго и третьего – 0,3. Какое количество информации мы получим после реализации одного из них?