1 Понятие «информация» и свойства информации
2 «Информация» - от лат. Informatio означает сведение, разъяснение, ознакомление. В биологии понятие «информация» связывается с целесообразным поведением живых организмов. В физике информация рассматривается как антиэнтропия или энтропия с обратным знаком. В кибернетике понятие «информация» связано с процессами управления в сложных системах, живых организмах или технических устройствах. С точки зрения процесса познания информация может рассматриваться как знания.
3 Социально значимые свойства информации: -понятность; -полезность; -достоверность; -актуальность - точность; -полнота.
4 Единицы измерения информации За единицу количества информации принимается количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица называется «бит», а следующей по величине единицей является байт: 1 байт = 2 3 бит = 8 бит
5 Кратные байту единицы измерения: 1 Кбайт = 2 10 байт = 1024 байт; 1 Мбайт = 2 10 Кбайт = 1024 Кбайт; 1 Гбайт = 2 10 Мбайт = 1024 Мбайт Существует формула, связывающая между собой количество возможных событий N и количество информации I: N=2 I
6 Пример: В игре «крестики – нолики» на поле 8х8 перед первым ходом существует 64 возможных события (64 различных варианта расположения «крестика»), тогда уравнение принимает вид: 64 = 2 I. Так как 64 = 2 6, то получим 2 6 =2 I. Таким образом, I = 6 битов, т.е.количество информации, полученное вторым игроком после первого хода первого игрока, составляет 6 битов. Задание 2.1 Какое количество информации получит второй игрок после первого хода первого игрока в игре в «Крестики – нолики» на поле размером 4х4?
7 Алфавитный подход к определению количества информации. Формула Шеннона.
8 Количество информации, которое содержит сообщение закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков. В русском алфавите, если не использовать букву Ё, количество событий (букв) будет равно 32. Тогда: 32= 2 I, откуда I = 5, т.е. каждый символ несет 5 битов информации.
9 Формулу для вычисления количества информации в случае различных вероятностей событий предложил К.Шеннон в 1948 году: где I -количество информации; N - количество возможных событий; Pi – вероятность i-го события
10 Этот подход к определению количества информации называется вероятностным. Когда события равновероятны (Pi=1/N), величину количества информации I можно рассчитать по формуле: Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.
11 Информационная модель игры «Угадай число»: Вопрос второго участника Ответ первого участника Неопределенность знаний (количество возможных событий) Полученное количество информации 161 бит Число больше 8?Нет81 бит Число больше 4?Нет41 бит Число больше 2?Да21 бит Число 3?Да11 бит