Язык Знаковая система. Строится на основе алфавита и правилах операций над знаками этого алфавита. Виды языков Естественные (появились в результате исторического развития, используются при общении); Формальные (созданы человеком искусственно, для различных целей). Кодиро- вание Операция замещения знаков и групп знаков одной знаковой системы знаками и группами знаков другой знаковой системы.
Информация (informatio) – сведение, разъяснение, ознакомление. Информация – общечеловеческое понятие. Используется в различных науках (информатике, кибернетике, биологии, физике, химии и т.д.) и других областях человеческой деятельности. В каждой науке понятие «информация» связано с различными системами понятий. Например: в кибернетике (науке об управлении) понятие «информация» связано с процессами управления в сложных системах, т.к. процессы управления включают в себя получение, хранение, преобразование и передачу информации.
Информация должна быть: ПОНЯТНОЙПОЛЕЗНОЙАКТУАЛЬНОЙДОСТОВЕРНОЙПОЛНОЙТОЧНОЙ
ИЗМЕРЕНИЕ ИНФОРМАЦИИ СОДЕРЖАТЕЛЬНЫЙ АЛФАВИТНЫЙ ВЕРОЯТНОСТНЫЙ
ИНФОРМАЦИЯЗНАНИЯИНФОРМАЦИЯ Можно количественно измерить, во сколько раз уменьшилась НЕОПРЕДЕЛЁННОСТЬ ЗНАНИЙ
1 БИТ – количество информации, которое уменьшает неопределённость знания в два раза N = 2 I N – количество возможных событий I – количество информации (бит)
При использовании технических устройств невозможно учитывать СОДЕРЖАНИЕ ИНФОРМАЦИИ При использовании технических устройств при хранении, обработке и передаче информации невозможно учитывать СОДЕРЖАНИЕ ИНФОРМАЦИИ. ИНФОРМАЦИЮ РАССМАТРИВАЮТ КАК ПОСЛЕДОВАТЕЛЬНОСТЬ ЗНАКОВ (СИМВОЛОВ АЛФАВИТА) КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ ЗАВИСИТ ОТ ИНФОРМАЦИОННОЙ ЕМКОСТИ ЗНАКА АЛФАВИТА Определить информационную ёмкость буквы русского алфавита (без учёта буквы «ё»). Решение. В русском алфавите 32 буквы (N (N = 32). Тогда по формуле (N (N = 2I)2I) 32 = 2 I, следовательно I1 I1 = 5 бит. n – число знаков в сообщении, I – количество информации, которое несёт один знак, тогда I o = n I – количество информации в сообщении N = 2 I N – мощность алфавита (количество знаков в алфавите) I – информационная ёмкость знака (бит)
I – количество информации; N – количество возможных событий; Все события – равновероятны. Ральф Хартли 1928 год N = 2 I
I – количество информации; N – количество возможных событий; p i - вероятность i -го события. Клод Шеннон 1948 год