Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 11 лет назад пользователемОксана Еманова
1 Анисимова Эллина 911 МП
2 Нейронные сети Нечёткая логика Нейро- нечёткие системы
3 Искусственный интеллект это экспериментальная научная дисциплина, задача которой воссоздание с помощью искусственных устройств разумных рассуждений и действий.
4 Lotfi Askar Zadeh
5 Ebrahim Mamdani
6 Нечёткие множества. Нечётким множеством С называется множество упорядоченных пар вида где MFc(x) – степень принадлежности x к нечёткому множеству C; x X, X – универсальное множество
7 Нечёткое множество и чёткое (crisp) классическое множество
8 Пример «Горячий чай" X= 0 C C; С = 0/0; 0/10; 0/20; 0,15/30; 0,30/40; 0,60/50; 0,80/60; 0,90/70; 1/80; 1/90; 1/100.
9 Пересечение двух нечетких множеств (нечеткое "И"): MF AB (x)=min(MF A (x), MF B (x)). Объединение двух нечетких множеств (нечеткое "ИЛИ"): MF AB (x)=max(MF A (x), MF B (x)).
10 Согласно Лотфи Заде лингвистической называется переменная, значениями которой являются слова или предложения естественного или искусственного языка. Значениями лингвистической переменной могут быть нечеткие переменные, т.е. лингвистическая переменная находится на более высоком уровне, чем нечеткая переменная.
11 Каждая лингвистическая переменная состоит из: названия; множества своих значений, которое также называется базовым терм- множеством T. Элементы базового терм-множества представляют собой названия нечетких переменных; универсального множества X; синтаксического правила G, по которому генерируются новые термы с применением слов естественного или формального языка; семантического правила P, которое каждому значению лингвистической переменной ставит в соответствие нечеткое подмножество множества X.
12 Описание лингвистической переменной "Цена акции" X=[100;200] Базовое терм-множество: "Низкая", "Умеренная", "Высокая"
13 Треугольная функция принадлежности
14 Трапецеидальная функция принадлежности
15 Функция принадлежности гауссова типа
16 Описание лингвистической переменной "Цена акции" X=[100;200] Базовое терм-множество: "Низкая", "Умеренная", "Высокая"
17 Описание лингвистической переменной "Возраст"
18 – входные переменные; y – выходная переменная; – заданные нечёткие множества с функциями принадлежности. Результатом нечёткого вывода является чёткое значение переменной y* на основе заданных чётких значений
19 Механизм нечёткого логического вывода
20 Схема нечёткого вывода по Мамдани
21 «Мягкие вычисления" (Soft computing) нечёткая логика, искусственн ые нейронные сети, вероятностн ые рассуждени я эволюционн ые алгоритмы
22 Нейронные сети – самообучающиеся системы, имитирующие деятельность человеческого мозга
23 Warren Sturgis McCulloch
24 Walter Pitts
25 Нейронные сети
26 Искусственный нейрон Х = (x 1, x 2,…, x n ) – множество входных сигналов, поступающих на искусственный нейрон W = (w 1, w 2,…, w n ) – множество весов в совокупности (каждый вес соответствует «силе» одной биологической синаптической связи)
27 Линейная передаточная функция
28 Пороговая функция активации
29 Сигмоидальная функция активации
30 Схема простой нейросети
31 Однослойный трехнейронный персептрон
32 Двухслойный персептрон
33 Алгоритм обратного распространения ошибки
34 Построение сети (после выбора входных переменных) Выбрать начальную конфигурацию сети Провести ряд экспериментов с различными конфигурациями, запоминая при этом лучшую сеть (в смысле контрольной ошибки). Для каждой конфигурации следует провести несколько экспериментов. Если в очередном эксперименте наблюдается недообучение (сеть не выдаёт результат приемлемого качества), попробовать добавить дополнительные нейроны в промежуточный слой (слои). Если это не помогает, попробовать добавить новый промежуточный слой. Если имеет место переобучение (контрольная ошибка стала расти), попробовать удалить несколько скрытых элементов (а возможно и слоёв).
35 Задачи Data Mining, решаемые с помощью нейронных сетей Классификация (обучение с учителем) Прогнозирование Кластеризация (обучение без учителя) распознавание текста, распознавание речи, идентификация личности найти наилучшее приближение функции, заданной конечным набором входных значений (обучающих примеров задача сжатия информации путем уменьшения размерности данных
36 Задача "Выдавать ли кредит клиенту" в аналитическом пакете Deductor (BaseGroup) Обучающий набор - база данных, содержащая информацию о клиентах: – Сумма кредита, – Срок кредита, – Цель кредитования, – Возраст, – Пол, – Образование, – Частная собственность, – Квартира, – Площадь квартиры. Необходимо построить модель, которая сможет дать ответ, входит ли Клиент, желающий получить кредит, в группу риска невозврата кредита, т.е. пользователь должен получить ответ на вопрос "Выдавать ли кредит?" Задача относится к группе задач классификации, т.е. обучения с учителем.
37 Шаг "Настройка назначений столбцов"
38 Шаг "Разбиение исходного набора данных на подмножества"
39 Шаг "Структура нейронной сети"
40 Шаг "Настройка процесса обучения нейронной сети"
41 Шаг "Обучение нейронной сети"
42 Таблица сопряженности
43 Нечёткие нейронные сети (fuzzy-neural networks) осуществляют выводы на основе аппарата нечёткой логики, причём параметры функций принадлежности настраиваются с использованием алгоритмов обучения нейронных сетей (НС).
44 Нечеткие нейроны ИЛИ-нейрон: И-нейрон:
45 Adaptive-Network-Based Fuzzy Inference System (ANFIS) – адаптивная сеть нечёткого вывода
46 Вопросы 1.Что является характеристикой нечёткого множества? 2.Приведите определение нейронных сетей. 3.Перечислите области «мягких вычислений» (Soft computing). 4.Приведите пример нечёткой нейронной системы.
47 СПАСИБО ЗА ВНИМАНИЕ!
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.