© ElVisti Лекция 10 Основные сведения о нейронных сетях Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ
© ElVisti2 Упрощенная модель мозга Мозг человека содержит нейронов. Состав нейрона: аксон, дендритов, синапсы Состояние нейрона – возбужденное или невозбужденное.
© ElVisti3 Формальный нейрон Нейрон как компьютер: Потенциал нейрона (аксона) – функция от потенциала дендритов. Формальный нейрон: Входные сигналы формируются в рецепторах (не входят нейрон). Далее эти сигналы умножаются на веса соответствующих синапсов (которые могут изменяться при обучении), Затем результаты суммируются. На основе полученной суммы (NET) с помощью активиционной функции вычисляется выходной сигнал нейрона (OUT).
© ElVisti4 Нейрон как компьютер Сигнал сумматора: n – количество синапсов i – индекс сигнала x i – входной сигнал NET – сигнал сумматора Активизационная функция: OUT = F(NET) Примеры активизационных функций: 1.OUT = K*NET 2.OUT=1, NET>T; OUT=0, NET T 3.OUT=1/(1 + e -NET ) 4.OUT=th(NET)
© ElVisti5 Нейронная сеть Нейронная сеть – ориентированный ациклический граф, вершины которого нейроны разбиты на слои. Ребра – синапсы. Каждому ребру приписан свой вес и функция проводимости.
© ElVisti6 Перцептрон Понятие перцептрона было введено в 50-е годы ХХ века Фрэнком Розенблатом. Первая версия перцептрона представляла собой однослойную нейронную сеть. Однослойный перцептрон состоит из слоя рецепторов и слоя нейронов (внутри которых выделяют слой синапсов). В перцептроне каждый нейрон связан через синаптический контакт со всеми рецепторами предыдущего слоя. Было доказано, что однослойные нейронные сети не способны решать многие задачи (например, исключающее ИЛИ). Для решения этих проблем широко используются многослойные нейронные сети. Многослойные сети могут образовываться каскадами слоев. Выход одного слоя является входом для последующего слоя.
© ElVisti7 Нейронная сеть, способная обучаться Нейронная сеть обучается, чтобы для некоторого множества входных сигналов давать желаемое множество выходных сигналов. Каждое множество сигналов при этом рассматривается как вектор. Обучение осуществляется путем последовательного предъявления входных векторов с одновременной подстройкой весов в соответствии с определенной процедурой. В процессе обучения веса сети постепенно становятся такими, чтобы каждый входной вектор вырабатывал требуемый выходной вектор, используя правила, указанные выше. Перцептрон Фрэнка Розенблата
© ElVisti8 Пример практического применения: определение тональности сообщений Алгоритм определения тональности представим в виде нейронной сети. Первый слой этой сети составляют два нейрона – определители весовых значений положительной и отрицательной тональности (положительный и отрицательный нейроны). Можно предположить, что количество дендритов каждого нейрона равно количеству слов из словаря естественного языка. На вход нейронов поступают входные сигналы - значения x 1 …x n, соответствующие входным словам. При этом x i =1, если на вход поступило слово из словаря с номером i, в противном случае x i =0.
© ElVisti9 Определение тональности сообщений: вес синопсов и функция проводимости Весовые значения (веса синапсов), которые соответствуют этим словам, равны w + 1 …w + n для положительного нейрона и w - 1 …w - n - для отрицательного. Именно эти весовые значения могут изменяться в процессе обучения перцептрона. Сумматоры подсчитывают значения NET + и NET -, соответственно. Проводимость нейронов рассчитывается по формуле: где х – число весомых с точки зрения тональности слов в информационном сообщении, α – вес.
© ElVisti10 Определение тональности сообщений: общая схема Аргументом в формуле выступает значение NET + для положительного нейрона и NET - – для отрицательного. Оба нейрона выдают через аксоны градиентные значения, OUT + и OUT -. Эти значения - входные сигналы нейрона второго уровня, сумматор которого вычис- ляет разность OUT + и OUT -, а функция проводимости выдает гради- ентный результат по приведенному условию.
© ElVisti Спасибо за внимание! Ландэ Д.В МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ Киев, Украина