Количество информации
Процесс познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и т.д.). Получение новой информации приводит к расширению знаний (уменьшению неопределенности знания) Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию.
Пример 1 Сдали зачет Мучаетесь: зачет? или незачет? Учитель объявил результат. Информационное сообщение об оценке приводит к уменьшению неопределенности вашего знания в 2 раза, так как получено одно из двух возможных информационных сообщений.
Пример 2 Прошла контрольная работа Мучаетесь: 2?, 3?, 4?, 5? Учитель объявил результат Информационное сообщение об оценке за контрольную работу приводит к уменьшению неопределенности вашего знания в 4 раза, так как получено одно из четырех возможных информационных сообщений.
Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.
N = 2 I где N – количество возможных информационных сообщений; I – количество информации
Единицы измерения Длина – метр Масса – килограмм Количество информации – бит За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в 2 раза. Такая информация называется битом.
Пример с зачетом N = 2 2 I = 2 I = 1 Количество информации, которое несет сообщение, равно 1 биту.
Двоичное кодирование в компьютере Вся информация, которую обрабатывает компьютер должна быть представлена двоичным кодом с помощью двух цифр: 0 и 1. Эти два символа принято называть двоичными цифрами или битами. С помощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организованно два важных процесса: кодирование и декодирование. Кодирование – преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код. Декодирование – преобразование данных из двоичного кода в форму, понятную человеку. Привет!
Почему двоичное кодирование С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента: 0 – отсутствие электрического сигнала; 1 – наличие электрического сигнала. Эти состояния легко различать. Недостаток двоичного кодирования – длинные коды. Но в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных. Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вида информации, а именно, что должно кодироваться: числа, текст, графические изображения или звук.
Единицы измерения количества информации 1 байт = 8 бит = 2 3 битов 1 килобайт = 2 10 байт = 1024 байт 1 мегабайт = 2 10 Кбайт = 1024 Кбайт 1 гигабайт = 2 10 Мбайт = 1024 Мбайт
Определение количества информационных сообщений Пример: На экзамене берем билет. Учитель сообщает, что зрительное информационное сообщение о его номере несет 5 битов информации. Какое общее количество экзаменационных билетов? Решение: N = 2 5 = 32
Определение количества информации Пример: Вы управляете движением робота (8 направлений). Какое количество информации будут получать робот после каждого сообщения? Решение: 8 = 2 I I = 3 3 бита информации несет роботу каждое информационное сообщение.
Алфавитный подход к определению количества информации N – количество знаков в алфавитной знаковой системе. I – количество информации, которое несет каждый знак В двоичной системе: N = 2 I = 1 бит В русском алфавите: N = 32 I = 5 бит
Количество информации в сообщении Если знаки несут одинаковое количество информации, то количество информации I c в сообщении вычисляется по формуле: I c = I з · K I з - количество информации, которое несет один знак K – количество знаков в сообщении
Практическая работа