Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 8 лет назад пользователемVitya Klaus
1 Липецкий государственный технический университет Кафедра прикладной математики Кузьмин Алексей Сергеевич Распознавание образов сверточными искусственными нейронными сетями Направление Прикладная математика Научный руководитель д.ф.-м.н., профессор Блюмин С.Л. Липецк 2015 г.
2 Кузьмин А.С.Плакат 1 разработка классификатора на основе сверточной искусственной нейронной сети для распознавания дорожных знаков на изображениях. Задачи исследования обзор и анализ существующих методов распознавания изображений; исследование основных свойств и принципов построения и обучения сверточных нейронных сетей; подбор архитектуры и параметров обучения сверточной искусственной нейронной сети; обучение и оценка работы классификатора. Цель работы ПОСТАНОВКА ЗАДАЧИ
3 Кузьмин А.С.Плакат 2 СВЕРТОЧНАЯ ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ Рисунок 1. Общая структура СИНС
4 Кузьмин А.С.Плакат 3 АЛГОРИТМ СВЕРТКИ ИЗОБРАЖЕНИЯ Пусть дано изображение в формате матрицы чисел X и квадратная матрица W: Тогда операция свертки определяется выражением Ядро Якорь (1) где – это значение элемента ядра свертки в позиции (s,t), – значение пикселя выходного изображения, – значение пикселя исходного изображения, K – размер ядра свертки.
5 Кузьмин А.С.Плакат 3 (1) где – это значение элемента ядра свертки в позиции (s,t), – значение пикселя выходного изображения, – значение пикселя исходного изображения, K – размер ядра свертки. Рисунок 2. Алгоритм свертки изображения АЛГОРИТМ СВЕРТКИ ИЗОБРАЖЕНИЯ
6 Кузьмин А.С.Плакат 4 АЛГОРИТМ СУБДИСКРЕТИЗАЦИИ ИЗОБРАЖЕНИЯ Пусть дано изображение в формате матрицы чисел X и установлено, что размеры окна субдискретизации – k x k: Тогда операция субдискретизации определяется выражением (2) где – это значение пикселя выходного изображения, – значение пикселя исходного изображения.
7 Кузьмин А.С. Пусть дано изображение в формате матрицы чисел X и установлено, что размеры окна субдискретизации – k x k: Тогда операция субдискретизации определяется выражением где – это значение пикселя выходного изображения, – значение пикселя исходного изображения. Плакат 4 Рисунок 3. Алгоритм max-pooling АЛГОРИТМ СУБДИСКРЕТИЗАЦИИ ИЗОБРАЖЕНИЯ (2)
8 Кузьмин А.С.Плакат 5 ПАРАДИГМЫ СИНС Такая архитектура заключает в себе 3 основных парадигмы: 1. Локальное восприятие: 2. Разделяемые веса: 2. Субдискретизация: За счет этого повышается устойчивость входного сигнала к смещениям и незначительным деформациям
9 Кузьмин А.С.Плакат 6 МЕТОД ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ При реализации обратного распространения ошибка выходного слоя выбрана следующим образом где M количество нейронов выходного слоя, k номер выходного нейрона, реальное значение выходного сигнала нейрона, ожидаемое значение. Для обучения сети был выбран стандартный алгоритм градиентного спуска. Коррекция весов осуществляется по формуле где значение весов после коррекции, значение весов до коррекции, характеризует скорость обучения. (3) (4)
10 Кузьмин А.С.Плакат 7 где выход j-го нейрона (n-1)-го слоя, скалярное произведение всех выходов нейронов (n–1)-го слоя и соответствующих весовых коэффициентов. где производная функции активации, а Ошибку необходимо распространить на предыдущий слой. Это делается по следующей формуле (5) (6) (7) МЕТОД ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ
11 Кузьмин А.С.Плакат 8 ИСХОДНЫЕ ДАННЫЕ Для решения задачи распознавания дорожных знаков сверточными искусственными нейронными сетями была сформирована база данных изображений дорожных знаков: объем обучающей выборки – изображений; объем тестовой выборки – изображений; количество классов изображений – 43; размеры изображений – от 15 х 15 до 250 х 250 пикселей; изображения не обязательно квадратные; местоположение знака на изображении не отцентрировано. Рисунок 4. Примеры изображений
12 ОБУЧЕНИЕ Архитектура сети: входной слой 32 х 32 пикселя; сверточный слой: 10 ядер свертки размером 5 х 5; слой субдискретизации: max-pooling 2 х 2; сверточный слой: 30 ядер свертки размером 5 х 5; слой субдискретизации: max-pooling 4 х 4; полносвязный слой: 200 нейронов; выходной слой: 43 нейрона. Функция активации: Кузьмин А.С.Плакат 9 Рисунок 5. График функции активации
13 РЕЗУЛЬТАТЫ ОБУЧЕНИЯ в ходе обучения была достигнута ошибка, равная 1,41%; из изображений обученный классификатор ошибочно распознал 178; Кузьмин А.С.Плакат 10 Рисунок 6. Динамика ошибки обучения
14 РЕЗУЛЬТАТЫ ОБУЧЕНИЯ После обучения есть возможность отобразить весовые коэффициенты на каждом слое сети в формате изображения. Рисунок 7. Ядра первого сверточного слоя Рисунок 8. Ядра второго сверточного слоя Кузьмин А.С.Плакат 11
15 РЕЗУЛЬТАТЫ ОБУЧЕНИЯ Исходной изображение Предсказанный номер класса Эталон для предсказанного класса Кузьмин А.С.Плакат 12 Таблица. Пример верно распознанных изображений
16 РЕЗУЛЬТАТЫ ОБУЧЕНИЯ Кузьмин А.С.Плакат 13 Сравнение результатов обучения СИНС и полносвязной ИНС а) СИНСб) полносвязная ИНС
17 ВЫВОДЫ Кузьмин А.С.Плакат Исследованы основные свойства и принципы построения и обучения СИНС. 2. Показана эффективность применения СИНС в задачах распознавания изображений. 3. Разработан классификатор на основе СИНС для распознавания знаков дорожного движения на изображениях. 4. Разработанный классификатор показал высокую точность распознавания знаков дорожного движения на изображениях.
18 1. LeCun Y. Gradient Based Learning Applied to Document Recognition //IEEE Press с Sermanet P., LeCun Y. Traffic Sign Recognition with Multi-Scale Convolutional Networks // Courant Institute of Mathematical Sciences. USA : New York University, A. Krizhevsky. Learning multiple layers of features from tiny images. Masters thesis, Computer Science Department, University of Toronto, Хайкин С. Нейронные сети: полный курс. М. : Вильямс, с. 5. Гонсалес P. С., Вудс Р. Е. Цифровая обработка изображений. 3-е, дополненное. М. : Техносфера, с. СПИСОК ИСТОЧНИКОВ Кузьмин А.С.Плакат 15
19 Спасибо за внимание!
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.