Двоичное кодирование информации Давыдова Елена Владимировна, школа 444 города Москвы
Виды информации
Единицы измерения количества информации
Производные единицы измерения количества информации Бит (Binary DigiT - двойная цифра) В теории информации – наименьшая единица количества информации. В вычислительной технике – двоичная цифра (может принимать значения 0 и 1), двоичный разряд. За единицу измерения количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Такая единица названа бит. Байт (Byte) В теории информации – восемь подряд идущих бит. В вычислительной технике – наименьшая адресуемая единица данных или памяти, равная восьми битам,
Байт, килобайт, мегабайт, … НазваниеБайтКбайтМбайтГбайт Килобайт, Кбайт 2 10 = 1024 Мегабайт, Мбайт 2 20 = = 1024 Гигабайт, Гбайт = = 1024 Терабайт, Тбайт = = 1024 Петабайт, Пбайт = Эксабайт, Эбайт Зеттабайт, Збайт Йоттабайт, Йбайт
Связь между единицами измерения Бит Байт Кбайт Мбайт Гбайт : 8 : 1024 × 8 × 1024
Определение количества информации
Количество информации Процесс познания приводит к накоплению информации (знаний), то есть к уменьшению незнания. Измерить объём накопленных знаний нельзя, а вот оценить уменьшение незнания можно, если известно количество возможных вариантов исходного состояния.
Подходы к измерению информации Алфавитный (объемный) Содержательный (вероятностный) Через неопределенность знаний с учетом вероятности событий. Применяется для измерения информации, используемой человеком. Через количество символов с учетом информационного веса символа. Применяется для измерения информации, используемой компьютером. Измерение
Содержательный (вероятностный) подход Содержательный (вероятностный) Через неопределенность знаний с учетом вероятности событий Количество информации рассматривается как мера уменьшения неопределенности знания при получении информационных сообщений. За единицу измерения количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза. Бит (от binary digit - двоичная цифра)
Формула Ральфа Хартли N - количество возможных событий (информационная неопределенность) I - количество информации N = 2 I Формула позволяет определять: Количество событий ? Количество информации ? Количество возможных событий
Задачи 1 Учитель объявляет результаты зачета: одно из двух – «зачет», «незачет». Сколько возможных событий может произойти? Какова информационная неопределенность сообщения? N = 2 I Дано: N = 2 – количество возможных событий I = ? 2 = 2 I I = 1 бит – количество информации
Задачи 2 Учитель объявляет результаты зачета: одно из четырех – «2», «3», «4», «5». Сколько возможных событий может произойти? Каково количество информации несет сообщение? N = 2 I Дано: N = 4 – количество возможных событий I = ? 4 = 2 I I = 2 бит – количество информации
Задачи 3 Игра крестики-нолики. Поле 8 х 8. Сколько бит необходимо для представления информации о возможных вариантах постановки «крестика» перед первым ходом? N = 2 I Дано: N = 64 – количество возможных событий I = ? 64 = 2 I I = 6 бит – количество информации
Задачи 4 Игра крестики-нолики. Поле 8 х 8. Сколько бит необходимо для представления информации о возможных вариантах постановки «крестика» после 35 хода? N = 2 I Дано: N = 64 – 35 = 29 – количество возможных событий I = ? 2 I 29 I = 5 бит – количество информации
Задачи 5 Сколько бит информации получено из сообщения «Вася живёт на пятом этаже», если в доме 16 этажей? N = 2 I Дано N = 16 – количество возможных событий I = ? I = 5 бит – количество информации
Задачи 6 При приёме некоторого сообщения получили 7 бит информации. Сколько вариантов исхода было до получения сообщения? N = 2 I Дано I = 7 – количество информации N = ? N = 2 7 – количество возможных событий N = 128
Алфавитный (объёмный) подход При определении количества информации, отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность символов определенной знаковой системы. Объем информации связан с общим числом символов и «мощностью» алфавита («информационная емкость» символа) и не учитывает содержание сообщения. Алфавитный (объемный) Через количество символов с учетом информационного веса символа
Определение количества текстовой информации
Формула Ральфа Хартли N – мощность алфавита (количество знаков в алфавите) I – информационная ёмкость символа (количество информации, которое несет один знак) N = 2 I Мощность русского алфавита – 33 знака Информационная емкость буквы в русском алфавите составляет: 2 I 33, т.е. I = 6 бит
Количество информации в сообщении P – количество информации в сообщении I – информационная ёмкость символа (количество информации, которое несет один знак) K – длина сообщения Примечание Знаки несут одинаковое количество информации. P = I K
Задачи 7 Алфавит племени Мумбо-Юмбо составляет 6 символов. Сколько битов информации содержится в слове длиной в 12 символов. N = 2 I Дано: N = 6 – мощность алфавита K = 12 символов – длина сообщения P - ? 2 I 6 I = 3 бита – информационная ёмкость символа P = I K P = 3 12 = 36 бит – количество информации в сообщении
Подходы к измерению информации Алфавитный (объемный) Содержательный (вероятностный) Через неопределенность знаний с учетом вероятности событий Через количество символов с учетом информационного веса символа Измерение Количество информации (I) Информационная емкость символа (I) N = 2 I Количество возможных событий (N) Мощность алфавита (N) N = 2 I Количество информации в сообщении (P) P = I K
Определение количества графической информации
Формула Ральфа Хартли N – количество цветов I – глубина цвета (количество информации, которое несет один цвет) N = 2 I Палитра содержит 60 цветов. Глубина цвета этой палитры составляет: 2 I 60, т.е. I = 6 бит
Объём изображения P – объём изображения I – глубина цвета в битах MxL – разрешение изображения (в пикселях) P = I M L L M
Задачи 8 Изображение размером 640х320 пикселей представлено 128 цветной палитрой. Каков объём этого изображения? N = 2 I Дано: N = 128 – цветов в палитре MxN = 640x320 пикселей – разрешение P - ? 2 I 128 I = 7 битов – глубина цвета P = I M N P = = бит = 175 Кбайт
Объём видеопамяти P – объём видеопамяти I – глубина цвета в битах MxL – разрешение монитора (в пикселях) C – количество видеостраниц P = I M L С L M
Определение количества звуковой информации
Формула Ральфа Хартли N – количество уровней звукового сигнала I – глубина звука (информационная ёмкость) N = 2 I
© Ю.А. Чиркин МОУ СОШ 19 г. Мичуринск, Расчёт объёма звукового файла P – размер (объём) звукового файла (в битах) I – глубина кодирования (в битах) V – частота дискретизации (в Герцах) C – количество дорожек в записи (C=1 – моно, C=2 – стерео) T – время звучания (в секундах) P = I V C T
Задачи 9 Дано: I = 16 бит V = 44,1 КГц T = 3 мин 18 сек С = 2 P - ? 44,1 КГц = Гц 3 мин 18 с = 198 сек P = I V C T = 2·44100 Гц·16 бит·198 сек = = бит = байт 34108,6 Кб 33,3 Мб P = I V C T Определить объём звукового стерео файла записанного разрядностью 16 бит с частотой дискретизации 44,1 КГц, если время его звучания составляет 3 мин 18 сек.