Представление информации. Количество и единицы измерения информации. Борисов В.А. КАСК – филиал ФГБОУ ВПО РАНХ и ГС Красноармейск 2011 г.
2 Понятие «информация» и свойства информации
3 Понятие «информация» «Информация» (лат. Informatio) - сведение, разъяснение, ознакомление.
4 Информация Используется в различных науках, при этом в каждой науке понятие «информация» связано с различными системами понятий.
5 Информация в физике Рассматривается как антиэнтропия или энтропия с обратным знаком.
6 Информация в биологии Целесообразное поведение живых организмов
7 Информация в кибернетике Процессы управления в сложных системах.
8 Процессы управления Получение информации Преобразование информации Передача информации
9 Социально значимые свойства информации
10 Свойства информации Полезность Достоверность Актуальность Полнота Точность
11 Формы представления информации знаки; символы; звуковые, световые сигналы и радиоволны; устная речь; магнитные поля; электрический ток или напряжение; био- или энерго-информационные поля и т.д.
12 Единицы измерения количества информации Наименьшей единицей измерения информации является бит. Блоки данных, объединяющие 8 Бит, называют Байтами, а их номера адресами. Определенная количественная совокупность Байт называется машинным словом.
13 Кратные единицы измерения информации 1 КБайт = 2 10 Байт; 1 МБайт = 2 20 Байт; 1 ГБайт = 2 30 Байт; 1 Тбайт = 2 40 Байт; 1 Пбайт = 2 50 Байт
14 Синтаксическая мера информации Используется для определения количественных мер информации.
15 Система измерения объема данных Объем данных в сообщении измеряется количеством символов (разрядов). Единица измерения зависит от системы счисления.
16 Система измерения количества информации Позволяет определить количество информации в сообщении об объекте, который может находиться в одном из равновероятных состояний.
17 Способы представления информации в ЭВМ Информация в памяти ЭВМ записывается в форме цифрового двоичного кода.
18 Информация и знания
19 С точки зрения процесса познания информация может рассматриваться как знания.
20 Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний.
21 Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то такое сообщение содержит информацию.
22 Уменьшение неопределенности знаний
23 Чем больше количество возможных событий, тем больше начальная неопределенность и соответственно тем большее количество информации будет содержать сообщение о результатах опыта.
24 Количество возможных событий и количество информации
25 Формула Шеннона - Хартли количество возможных событий – N; количество информации – i. N = 2 i
26 Алфавитный подход к определению количества информации
27 При определении количества информации на основе уменьшения неопределенности наших знаний мы рассматриваем информацию с точки зрения содержания, ее понятности и новизны для человека.
28 Количество информации в сообщении = количество информации, которое несет один символ количество символов.
29 Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
30 Слово Основной объект языка, последовательность символов алфавита в соответствии с правилами грамматики.
31 Синтаксис Правила, согласно которым образуются предложения из слов данного языка.
32 Основное отличие формальных языков от естественных состоит в наличии строгих правил грамматики и синтаксиса.
33 Представление информации может осуществляться с помощью языков, которые являются знаковыми системами.
34 Каждая знаковая система строится на основе определенного алфавита и правил выполнения операций над знаками.