Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 11 лет назад пользователемПотап Ясенев
1 МОДУЛЬНАЯ АРХИТЕКТУРА НС
2 Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения. Размерность входного вектора обозначим как l, а количество классов – k. Обозначим количество входов модулей первого слоя как n; количество входных модулей в входном слое m= l*n. Далее принимается, что l=m*n. Модуль – это многослойная прямого распостранения НС, которая определяется тройкой: M=(a, b, H), где a – количество выходов модуля, b – количество выходных вершин, H – список, который содержит число нейронов в каждом из скрытых слоев. Например, многослойный перцептрон модуля М с 8 входами, 12 нейронами в первых скрытых слоях, 10 нейронами во втором скрытом слое и 4 выходами описывается как: М=(8, 4, [12, 10]).
3 Модульная нейронная сеть – это набор связанных модулей, определенных как семерка N=(l, k, m, r,, I, D), где l – количество входов, k – количество класов, m – количество модулей в входном слое, r – тип промежуточного представления, r {маленькое, большое}, π – функция перестановки, I – модуль входного слоя, D – модуль решения. Обучение системы. Начальная обучающая выборка TS: (x 1j, x 2j,…,x lj, d j ), где x ij IR – i-я компонента j-го входного вектора, d j – номер класса, j = 1,…,t, где t – номер обучающего примера. Модуль MLP i связанный с x i n + 1,x i n + 2,…,x (i+1) n. Обучающая выборка TS i для модуля MLP i : (x i n + 1 j, x i n + 2 j,…,x (i+1) n j ; d BIN j ) для всех j=1,…,t, где d BIN j – выходной класс d j представленный в двоичном коде.
4 Преобразование, сделанное входным слоем, обозначим как Φ: R n*m R 7m * log 2 k. Обучающее множество для модуля решения: Φ(x 1 j, x 2 j,…,x l j ); d BIT j и j=1,…,t, где d BIT j – выходной класс d j представленный в 1-с-k коде. Преобразование модуля решения обозначим как Ψ: R m * log 2 k R k. Алгоритм ОБУЧЕНИЯ: Шаг 1. Обучение входного слоя. Выбор обучающих множеств TS i из начального обучающего множества TS для всех i=1,…,m. Обучение всех модулей MLP i на TS i с использованием алгоритма обратного распространения. Шаг 2. Обучение выходного слоя сети. Вычисление выхода r первого слоя для каждого входного вектора j r j = Ф(x 1 j, x 2 j,…,x i j ). Построение обучающего множества для выходного слоя сети TS d ={(r j ; d BIT j ) | j=1,…,t}.
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.