10 класс Сафонова Л.Ф., учитель информатики гимназии 184, г. Н.Новгород
Как измерить информацию? Так как определять информацию можно по-разному, то и способы измерения тоже могут быть разными.
Информация ЧеловекЗнания Техническое устройство Последовательность сигналов, символов
Подходы к измерению информации Содержательный (вероятностный) Через неопределенность знаний с учетом вероятности событий Алфавитный Через количество символов с учетом информационного веса символов
Информация и знание Человек получает информацию из окружающего мира с помощью органов чувств, анализирует ее и выявляет существенные закономерности с помощью мышления, хранит полученную информацию в памяти. Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и так далее). Процесс познания Пример: объем знаний выпускника и первоклассника Знания В Знания В Знания П Неопределенность (незнания)
Информация – как мера уменьшения неопределенности знаний Информация – как мера уменьшения неопределенности знаний Информация и знания. Содержательный подход к измерению информации Неопределенность – недостаток знаний (незнание). при получении информации знания увеличиваются, неопределенность уменьшается чем больше получено информации, тем больше уменьшается неопределенность Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию. Пример: сдача экзаменов
Содержательный подход к измерению информации Основоположником этого подхода является американский учёный Клод Элвуд Шеннон ( ). По Шеннону, информация уменьшение неопределенности наших знаний. Неопределенность некоторого события это количество возможных исходов данного события. Так, например, если из колоды карт наугад выбирают карту, то неопределенность равна количеству карт в колоде. При бросании монеты неопределенность равна 2.
Бросание монеты Возможные события Произошедшее событие События равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из двух положений: «орёл» или «решка». Перед броском существует неопределённость нашего знания (возможны два события), а после броска наступает полная определённость. Неопределённость нашего знания уменьшается в два раза, так как из двух возможных равновероятностных событий реализовалось одно.
В теории информации единица измерения информации была определена как бит. Ее определение звучит так: Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации (неопределенность знаний о некотором событии это количество возможных результатов события). Содержательный подход к измерению информации При бросании равносторонней четырехгранной пирамиды существуют 4 равновероятных события. При бросании шестигранного игрального кубика существует 6 равновероятных событий. При угадывании задуманного числа существует 8 равновероятных событий. При вытаскивании карты из колоды существует 32 равновероятных событий. Как определить количество информации?
Количество i информации, содержащееся в сообщении о том, что произошло одно из N равновероятностных событий, определяется из решения показательного уравнения 2 i = N Количество i информации, содержащееся в сообщении о том, что произошло одно из N равновероятностных событий, определяется из решения показательного уравнения 2 i = N Содержательный подход к измерению информации
Задача 3. Сообщение о том, что из колоды в 32 карты выбрали короля пик содержит … N = 2 i = 32 -> i = 5 Ответ: 5 бит Содержательный подход к измерению информации Задача 1. Сообщение о том, что при бросании четырехсторонней пирамиды выпал красный цвет содержит … N = 2 i = 4 -> i = 2 Ответ: 2 бита Задача 2. Сообщение о том, что было задумано число 3 содержит… N = 2 i = 8 -> i =3 Ответ: 3 бита
Содержательный подход к измерению информации Задача 4. В рулетке общее количество лунок равно 128. Какое количество информации мы получим в сообщении об остановке шарика в одной из лунок. N = 128 i - ? Дано: Решение: 2 i = N 2 i = = 128 i = 7 бит Ответ: i = 7 бит
13 Формула Хартли (1928) I – количество информации в битах N – количество вариантов бит Задача 5. Сообщение о том, что при бросании игрального кубика выпало число 6 содержит … 6 вариантов – между 4 (2 бита) и 8 (3 бита ) Ответ: 2, 585 бит
14 Единицы измерения 1 байт (byte) = 8 бит 1 Кб (килобайт) = 1024 байта 1 Мб (мегабайт) = 1024 Кб 1 Гб (гигабайт) = 1024 Мб 1 Тб (терабайт) = 1024 Гб 1 Пб (петабайт) = 1024 Тб 1 байт (byte) = 8 бит 1 Кб (килобайт) = 1024 байта 1 Мб (мегабайт) = 1024 Кб 1 Гб (гигабайт) = 1024 Мб 1 Тб (терабайт) = 1024 Гб 1 Пб (петабайт) = 1024 Тб 2 10
Вероятностный подход Формула Шеннона По этой формуле вычисляется количество информации для событий с различными вероятностями - вероятности отдельных событий N – количество возможных событий
Задача 1. В закрытом ящике имеется 8 черных шаров и 24 белых. Рассчитать вероятность взятия шаров и количества полученной при этом информации. Решение: Вероятностный подход Формула:
17 Вероятностный подход Задача 2. В пруду живут 100 рыб, из них 20 карасей, 30 пескарей, а остальные – окуни. Сколько информации несет сообщение о том, что рыбак поймал карася (пескаря, окуня), если все рыбы одинаково голодны? Формула: Решение: карась пескарь окунь бита бит
Алфавитный подход к измерению информации Основоположником этого подхода является Андрей Николаевич Колмогоров, ( ), великий российский ученый- математик. При алфавитном подходе к измерению информации количество информации зависит не от содержания, а от размера сообщения (K) и мощности алфавита (N). Информационный объем сообщения (I), содержащего K символов вычисляют по формуле: I=К*i где I - информационный объем текста, К - количество символов в тексте, i - информационный объем одного символа, N – мощность алфавита Информационный объем сообщения (I), содержащего K символов вычисляют по формуле: I=К*i где I - информационный объем текста, К - количество символов в тексте, i - информационный объем одного символа, N – мощность алфавита
Алфавитный подход к измерению информации МОЩНОСТЬ АЛФАВИТА число символов в алфавите (его размер) МОЩНОСТЬ АЛФАВИТА число символов в алфавите (его размер) N N ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА количество информации в одном символе ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА количество информации в одном символе I = K i i i АЛФАВИТ – это вся совокупность символов, используемых в некотором языке для представления информации МОЩНОСТЬ АЛФАВИТА ( N ) – это число символов в алфавите. 2 i = N ЧИСЛО СИМВОЛОВ В СООБЩЕНИИ K K КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ I I N N i i I I K K
Задача 1. Сообщение, записанное буквами 32-символьного алфавита, содержит 140 символов. Какое количество информации оно несёт? Алфавитный подход к измерению информации Дано: Решение: N = 32, K = 140 I – ? Ответ: 700 битов. I = K i, N = 2 i 32 = 2 i, i = 5, I = 140 х 5 = 700 (битов)
Задача 2. Информационное сообщение объёмом 720 битов состоит из 180 символов. Какова мощность алфавита, с помощью которого записано это сообщение? Алфавитный подход к измерению информации Решение: I = 720; K = 180; N – ? N = 2 i, I = K i, i = I/K i = 720/180 = 4 (бита); N = 2 4 = 16 (символов) Ответ: 16 символов.
Самостоятельно Задача 3 Информационный объем сообщения – 7,5 Кбайт. Известно, что данное сообщение содержит 7680 символов. Какова мощность алфавита. Задача 4 Для записи сообщения использовался 32-символьный алфавит. Каждая страница содержит 30 строк. Все сообщение содержит 8775 байт информации и занимает 6 страниц. Сколько символов в строке?
Число равновероятных в о з м о ж н ы х событий Число равновероятных в о з м о ж н ы х событий N К о л и ч е с т в о и н ф о р м а ц и и в сообщении о том, что произошло одно из N равновероятных событий К о л и ч е с т в о и н ф о р м а ц и и в сообщении о том, что произошло одно из N равновероятных событий i N = 2 i = 1 бит Число символов в алфавите (его размер) – МОЩНОСТЬ АЛФАВИТА Число символов в алфавите (его размер) – МОЩНОСТЬ АЛФАВИТА N ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА количество информации в одном символе ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА количество информации в одном символе 2 i = N I = K i K I Число символов в символьном сообщении Число символов в символьном сообщении Количество информации в символьном сообщении Количество информации в символьном сообщении i i = 8 бит = 1 байт 1 байт 1 Кб 1 Мб 1 Гб ИНФОРМАЦИЯ N = 256 КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ Содержательный подход Алфавитный подход ИЗМЕРЕНИЕ
Домашнее задание Учебник (стр. 9-11) Ответить на вопросы 6 (стр. 11) письменно
Источники 1. Угринович Н.Д. Информатика и информационные технологии. Учебник для 10 класса. – М.: БИНОМ, 2012; 2. Угринович Н.Д. и др. Практикум по информатике и информационным технологиям. Учебное пособие. – М.: БИНОМ, 2009; 3. Угринович Н.Д. Преподавание курса «Информатика и ИКТ». Методическое пособие для учителей 4. Единая коллекция цифровых образовательных ресурсов Коллекция картинок Яндекс –