Понятие «информация» Свойства информации
Информация. Информация- сведения, разъяснения, изложения.
Информация- Общенаучное понятие. Используется в различных науках: информатике, физике, кибернетике, биологии, и т.д.
В физике: Энтропия – хаос, отсутствие информации Антиэнтропия – мера упорядоченности и сложности системы. Увеличивается сложность системы – энтропия уменьшается, т.е. величина информации увеличивается. Пример: Открытые, обменивающиеся с окружающей средой системы живой природы.
В биологии: Понятие связывается с поведением живых организмов, которое строится на основе получения использования организмом информации об окружающей среде. Генетическая информация передаётся по наследству и хранится во всех клетках живых организмов. Клонирование :
В кибернетике: Понятие связано с процессами управления в сложных системах (живых организмах или технических устройствах). Процессы управления включают в себя получение, хранение, преобразование и передачу информации.
ЧЕЛОВЕК И ИНФОРМАЦИЯ ОРГАНЫ ЧУВСТВ информационные каналы человека ( зрение, слух, вкус, осязание, обоняние ) Восприятие информации Классификация з н а н и й Процедурные з н а н и я Декларативные з н а н и я Символьная ф о р м а ( я з ы к и ) Формальные я з ы к и Естественные я з ы к и Графическая ф о р м а Мощность алфавита Информационный вес символа Информационный объем текста Единицы информации: бит, байт, килобайт, мегабайт, гигабайт Информация и знанияПредставление информацииИнформационные процессы Внутренняя п а м я т ь В н е ш н я я п а м я т ь Х р а н е н и е информации Источник информации Информационный канал Поиск информации Обработка информации Передача информации Приемник информации Измерение информации алфавитный подход
ДЕКЛАРАТИВНЫЕ З Н А Н И Я ПРОЦЕДУРНЫЕ З Н А Н И Я Знания: о явлениях о событиях о свойствах объектов о зависимостях Я знаю, как... ИНФОРМАЦИЯ И ЗНАНИЯ. КЛАССИФИКАЦИЯ ЗНАНИЙ ЗНАНИЯ Я знаю, что... Знания, определяющие действия для достижения какой-либо цели
ВОСПРИЯТИЕ ИНФОРМАЦИИ Человек воспринимает информацию из внешнего мира с помощью всех своих органов чувств, которые являются информационными каналами, связывающими человека с внешним миром. ЗРЕНИЕ зрительные образы ОБОНЯНИЕ запахи ВКУС вкусовые ощущения СЛУХ звуковые образы ОСЯЗАНИЕ тактильные ощущения
ФОРМЫ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ Формальные ЯЗЫКИ ЯЗЫК – это знаковый способ представления информации Естественные ЯЗЫКИ Мимика и жесты Графическая форма представления информации
ЗНАКОВАЯ И ОБРАЗНАЯ ИНФОРМАЦИЯ ОБРАЗЫЯЗЫКИ зрительные звуковые вкусовые обонятельные осязательные ЕСТЕСТВЕННЫЕ ФОРМАЛЬНЫЕ
ЯЗЫК – это знаковый способ представления информации. Общение на языках - это процесс передачи информации в знаковой форме. ЕСТЕСТВЕННЫЕ ФОРМАЛЬНЫЕ Устная речьПисьменность фонемы символы слова фразы Естественные (разговорные) языки имеют национальную принадлежность. Примеры естественных языков: русский, английский, китайский, французский и пр.... Формальный язык – это язык профессионального общения или определенной области знаний. ЯЗЫКИ ЕСТЕСТВЕННЫЕ И ФОРМАЛЬНЫЕ математическая символика нотная грамота (язык музыки) шахматная нотация языки программирования
ХРАНЕНИЕ ИНФОРМАЦИИ ПЕРЕДАЧА ИНФОРМАЦИИ М О З Г человека носитель информации Внутренняя память Внешние носители информации Внешняя память Записные книжки Справочники Оптическая запись Магнитная запись Энциклопедии Математические вычисления Логические рассуждения Поиск информации КОДИРОВАНИЕ СТРУКТУРИРОВАНИЕ ИСТОЧНИК ИНФОРМАЦИИ К а н а л передачи информации ПРИЕМНИК ИНФОРМАЦИИ помехи КДУ Кодирующее устройство ДКДУ Декодирующее устройство ВИДЫ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ О п е р и р о в а н и е исходной информацией по определенным правилам с целью получения новой и н ф о р м а ц и и ОБРАБОТКА ИНФОРМАЦИИ
АНАЛОГИЯ МЕЖДУ КОМПЬЮТЕРОМ И ЧЕЛОВЕКОМ В памяти компьютера х р а н я т с я данныеданные и программыпрограммы Информационный обмен в к о м п ь ю т е р е Ввод Вывод ПАМЯТЬ ПРОЦЕССОР По своему назначению компьютер – универсальное техническое средство для работы человека с информацией Ч Е Л О В Е К Органы чувств Прием ( ввод ) информации М О З Г Хранение информации Процесс мышления ( обработка информации ) Речь, жесты, письмо Передача (вывод) информации КОМПЬЮТЕР Устройства ввода Устройства памяти П Р О Ц Е С С О Р Устройства вывода
ПЕРЕДАЧА ИНФОРМАЦИИ ПЕРЕДАЧА ИНФОРМАЦИИ происходит между источником и приемником по информационным каналам связи. Источник информацииПриемник информацииКанал связи Источник информации – это объект (субъект), который передает информацию приемнику Приемник информации – это объект (субъект), который принимает информацию от источника Канал связи – это среда, способ или техническое средство, позволяющее передать информацию от источника к приемнику Источник информации Приемник информации Защита от шума (технические способы защиты каналов связи + избыточный код) Шум (помехи) ДКДУ – декодирующее устройствоКДУ – кодирующее устройство КДУДКДУ Канал связи
Формы и способы передачи информации Жест Звук Огонь Бумага Цвет Осязание Обоняние
ОБРАБОТКА ИНФОРМАЦИИ Математические вычисления Логические рассуждения Кодирование информации Сортировка информации Структурирование информации Поиск информации 2 2 = = 2 – – – – – – Код г, б, е, а, д, в а, б, в, г, д, е
Свойства информации
Понятная - на определённом языке Полезная – практическая ценность Достоверная и актуальная – средства массовой информации Недостоверная – может стать причиной социальных потрясений. Полная и точная – чтобы ориенитроваться в окружающем мире.
ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ Получение любых знаний должно идти от известного к неизвестному (новому), от простого к сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести новую информацию для человека. НОВИЗНА Информативное сообщение содержит новые сведения, ранее не известные человеку. Пример неинформативного сообщения: «Дважды два – четыре» ПОНЯТНОСТЬ Принцип последовательности в обучении Сообщение несет информацию для человека (является информативным), если заключенные в сообщении сведения являются для этого человека новыми и понятными. Новые и понятные сведения Новые знания Логическая связь
Знание Незнание Знание Чем большим объёмом познаний обладает человек, тем больше он ощущает недостаток знаний Увеличение границы незнания
Уменьшение неопределённости знаний Если некоторое сообщение приводит к уменьшению неопределённости знаний. То такое сообщение содержит информацию. Этот подход позволяет количественно измерить информацию. Рассмотрим пример с бросанием монеты.
Монета может упасть в одно из двух положений, «орёл» или «решка»т.е. события равновероятны. Перед броском – существует неопределённость знаний. После броска – она уменьшается в два раза Чем больше количество возможных событий, тем больше начальная неопределённость и соответственно тем большее количество информации будет содержать сообщение о результатах опытов.
Единицы измерения количества информации
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределённость знаний в два раза. Такая единица названа «БИТ»
ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ СИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА русские (РУССКИЕ) буквы латинские (LAT) буквы цифры (1, 2, 3, 4, 5, 6, 7, 8, 9, 0) математические знаки (+, -, *, /, ^, =) прочие символы («»,, %,, :, ;, #, &) N = 2 i N = 256 = 2 8 i = 8 бит = 1 байт 1 байт - это информационный вес одного символа компьютерного алфавита 1 килобайт 1 мегабайт 1 гигабайт 1 Кб 1 Мб 1 Гб 2 10 байт 2 10 Кб 2 10 Мб 1024 байта 1024 Кб 1024 Мб = = = = = = = = =
При равновероятных событиях можно воспользоваться формулой Хартли, чтобы определить количество информации I или посчитать количество возможных событий N N = 2 i В случае, если события имеют различные вероятности реализации, то будем применять вероятностный подход, и воспользуемся формулой Шеннона: Н= P 1 log 2 (1/P 1 )+ P 2 log 2 (1/P 2 )+…+ P N log 2 (1/P N )
АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ МОЩНОСТЬ АЛФАВИТА число символов в алфавите (его размер) N ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА количество информации в одном символе I = K i i АЛФАВИТ – это вся совокупность символов, используемых в некотором языке для представления информации МОЩНОСТЬ АЛФАВИТА ( N ) – это число символов в алфавите. 2 i = N ЧИСЛО СИМВОЛОВ В СООБЩЕНИИ K КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ I Ni I K
Число равновероятных в о з м о ж н ы х с о б ы т и й N К о л и ч е с т в о и н ф о р м а ц и и в сообщении о том, что произошло одно из N равновероятных событий i N = 2i = 1 бит Число символов в алфавите (его размер) – МОЩНОСТЬ АЛФАВИТА N ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА количество информации в одном символе 2 i = N I = K i K I Число символов в символьном сообщении Количество информации в символьном сообщении i i = 8 бит = 1 байт 1 байт1 Кб1 Мб1 Гб 1024 ИНФОРМАЦИЯ N = 256 КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ Содержательный подходАлфавитный подходИЗМЕРЕНИЕ
ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА ЗАДАЧА Книга, подготовленная с помощью компьютера, содержит 150 страниц. На каждой странице – 40 строк, в каждой строке – 60 символов (включая пробелы между словами). Каков объем информации в книге? РЕШЕНИЕ Мощность компьютерного алфавита равна 256, поэтому один символ несет 1 байт информации. Значит, страница книги содержит = 2400 байт информации. [кол-во символов в строке] [кол-во строк] = [информационный объем страницы] Объем всей информации в книге (в разных единицах): [информационный объем страницы] [кол-во страниц] = [информационный объем книги] = байт / 1024 = 351,5625 Кбайт / 1024 = 0, Мбайт
Для определения количество информации i, содержащейся в сообщении о том, что произошло одно из N равновероятных событий, нужно решить показательное уравнение: 2 i = N или логарифмическую функцию: I = log 2 N – читается: логарифм от N по основанию 2. Смысл выражения: это степень в которую нужно возвести 2, чтобы получилось N.
Например: вычислим количество информации в сообщении о том, ч то из колоды карт случайным образом достали даму пик (в колоде 36 карт): I = log 2 36 = 5,16993 бит
ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕ NiNiNiNi N i Определение количества информации, содержащейся в сообщении о том, что произошло одно из N равновероятных событий N i Определение количества равновероятных событий N, если известно, сколько информации человек получил в сообщении о том, что произошло одно из этих событий. 2 i = N
КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ Задача 1. При угадывании целого числа в диапазоне от 1 до N было получено 6 бит информации. Чему равно N ? Решение задачи 1. Значение N определяется из формулы N = 2 i. После подстановки значения i = 6 получаем: N = 2 6 = 64. Задача 2. В корзине лежат 16 шаров разного цвета. Сколько информации несет сообщение о том, что из корзины достали красный шар ? Решение задачи 2: Вытаскивание из корзины любого из 16 шаров – события равновероятные. Поэтому для решения задачи применима формула 2 i = N. Здесь N = 16 – число шаров. Решая уравнение 2 I =16 получаем ответ: i = 4 бита 2 i = N N i Количество равновероятных возможных событий Количество информации в сообщении о том, что произошло одно из N равновероятных событий.
СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ Сообщение о том, что произошло одно событие из двух равновероятных (неопределенность знания уменьшилась в два раза), несет 1 бит информации. СОДЕРЖАТЕЛЬНЫЙ ПОДХОД к измерению информации заключается в том, что количество информации связывается с содержанием (смыслом) полученного человеком сообщения. Количество информации, заключенное в сообщении, тем больше, чем более оно пополняет наши знания (уменьшает неопределенность наших знаний). 8 цветных шаров в корзине – 8 равновероятных событий Неопределенность знания о том, что из корзины может быть извлечен шар красного цвета, равна 8.
Вероятность пусть при бросании несимметричной четырёхгранной пирамидки вероятность отдельных событий будет: Р 1 = 1/2 (0,5), Р 2 = 1/4(0,25), Р 3 = 1/8(0,125), Р 4 = 1/8(0,125) Тогда количество информации после реализации каждого можно рассчитать по: 2 i = 1/Р – или через логарифмическую функцию: i = log 2 ( 1/Р)
i 1 = log 2 ( 1/0.5) = log 2 2 = 1бит i 2 = log 2 ( 1/0.25) = log 2 4= 2бита i 3 = log 2 (1/0.125) = log 2 8= 3бита i 4 = log 2 (1/0.125) = log 2 8= 3бита Воспользуемся формулой Шеннона, чтобы посчитать среднюю информативность сообщения : Н= P 1 log 2 (1/P 1 )+ P 2 log 2 (1/P 2 )+…+ P N log 2 (1/P N ) Н= 0,5*1+0,25*2+0,125*3+0,125*3=1.75 бита Количество информации в сообщении зависит от вероятности этого события. Чем меньше вероятность, тем больше информации несёт сообщение о нём.
При равновероятностных событиях формула Шеннона переходит в формулу Хартли: т.к. Р 1 =Р 2 =Р 3 …=1/N i = log 2 ( 1/N)= log 2 4= 2 бита т.е. при бросании симметричной пирамидки. Когда события равновероятны, мы получаем большее количество информации(2 бита), чем при бросании несимметричной(1,75), когда события неравновероятны.
МЕТОД БИНАРНОГО ПОИСКА Игра, использующая метод бинарного поиска Правила игры: Требуется угадать задуманное число из данного диапазона целых чисел. Игрок, отгадывающий число, задает вопросы, на которые можно ответить только «да» или «нет». Если каждый ответ отсекает половину вариантов (уменьшает выбор в 2 раза), то он несет 1 бит информации. Тогда общее количество информации (в битах), полученной при угадывании числа, равно количеству заданных вопросов. Требуется угадать задуманное число из диапазона чисел от 1 до 8 вопросаВопросыданет 1Число меньше 5 ? 2Число меньше 7 ? 3Это число равно 5 ? 8 вариантов возможных событий 3 вопроса 3 бита информации