Скачать презентацию
Идет загрузка презентации. Пожалуйста, подождите
Презентация была опубликована 11 лет назад пользователемmatras.itep.ru
1 Институт оптико-нейронных технологий РАН Ассоциация нейроинформатики Редько Владимир Георгиевич МОДЕЛИ И КОНЦЕПЦИИ ЭВОЛЮЦИОННОЙ КИБЕРНЕТИКИ
2 План Кибернетический подход к эволюции В.Ф. Турчина Задача моделирования когнитивной эволюции Направление исследований «Адаптивное поведение» Модель эволюции популяции адаптивных агентов Проект программы будущих исследований (в порядке обсуждения) Данная презентация:
3 Кибернетический подход к эволюции В.Ф. Турчина В.Ф. Турчин ввел термин «Эволюционная кибернетика»
4 Феномен науки В.Ф. Турчин. Феномен науки: Кибернетический подход к эволюции – М.: Наука, 1993 (1-е изд.). М.: ЭТС, 2000 (2-е изд.).
5 Теория метасистемных переходов В.Ф.Турчина Схема метасистемного перехода. S i - системы нижнего уровня, C - управление объединенными подсистемами, S' - система нового уровня иерархии
6 Теория метасистемных переходов В.Ф.Турчина - Метасистемный переход: объединение ряда подсистем S i нижнего уровня и появление дополнительного механизма управления C объединенными подсистемами. - В результате метасистемного перехода формируется система S' нового уровня (S' = C + S 1 + S 2 +…+ S n ), которая может быть включена как подсистема в следующий метасистемный переход. - Перед метасистемным переходом -- количественное накопление "потенциала развития" в подсистемах S i - После метасистемного перехода -- размножения и развития подсистем предпоследнего уровня иерархии. - Метасистемный переход -- кибернетический аналог физического фазового перехода.
7 Теория метасистемных переходов В.Ф.Турчина В.Ф. Турчин характеризует биологическую эволюцию следующими метасистемными переходами: - управление положением = движение - управление движением = раздражимость (простой рефлекс) - управление раздражимостью = (сложный) рефлекс - управление рефлексами = ассоциации (условный рефлекс) - управление ассоциациями = человеческое мышление - управление человеческим мышлением = культура
8 ЗАДАЧА ИССЛЕДОВАНИЯ КОГНИТИВНОЙ ЭВОЛЮЦИИ
9 Гносеологическая проблема Почему логический вывод, сделанный человеком, применим к реальному объекту в природе?
10 Надо разобраться, как наша логика возникла в процессе когнитивной эволюции
11 Можем ли мы исследовать эволюционные корни нашей логики? Математик при доказательстве теорем использует правило modus ponens: «если имеет место А, и из А следует В, то имеет место В», или {А, A --> B} => B После выработки условного рефлекса у собаки И.П. Павлова в памяти формируется связь «за УС должен последовать БС» (УС – условный стимул, БС – безусловный стимул), или УС --> БС. Когда собаке предъявляют УС, то она делает «логический вывод»: {УС, УС --> БС} => БС
12 Методология исследований Использовать «метод последовательных приближений». Первое приближение -- исследовать принципы работы «интеллектуальных изобретений» эволюции, на функциональном уровне, не акцентируя особое внимание на биологической элементной базе (молекулы, нейроны,…). Должен быть набор моделей «интеллекта» разного эволюционного уровня. Использовать задел направления «Адаптивное поведение»
13 НАПРАВЛЕНИЕ ИССЛЕДОВАНИЙ «АДАПТИВНОЕ ПОВЕДЕНИЕ»
14 Адаптивное Поведение From Animal to Animat – модели адаптивного поведения животного и робота Первая конференция: Париж, 1990 г. (Ж.-А. Мейер, С. Вильсон) Основной подход – конструирование и исследование искусственных (в виде компьютерной программы или робота) "организмов" (аниматов, агентов), способных приспосабливаться к внешней среде. ANIMAL + ROBOT = ANIMAT Программа-минимум – исследовать архитектуры и принципы функционирования, которые позволяют животным или роботам жить и действовать в переменной внешней среде Программа-максимум – попытаться проанализировать эволюцию когнитивных способностей животных и эволюционное происхождение интеллекта человека Предшественники: М.Л. Цетлин, М.М. Бонгард, Д.А. Поспелов Гаазе-Рапопорт М.Г., Поспелов Д.А. От амебы до робота: модели поведения. М.: Наука, 1987, УРСС, 2004.
15 Адаптивное Поведение International Society for Adaptive Behavior Журнал Adaptive Behavior Конференции SIMULATION OF ADAPTIVE BEHAVIOR (SAB'06) September 2006, Roma, Italy
16 Исследователи адаптивного поведения AnimatLab (Paris) (Париж, руководитель – один из инициаторов анимат- подхода Ж.-А. Мейер) Широкий спектр исследований адаптивных роботов и адаптивного поведения животных. Подход AnimatLab предполагает, что система управления анимата может формироваться и модифицироваться посредством 1) обучения, 2) индивидуального развития (онтогенеза) и 3) эволюции.
17 Исследователи адаптивного поведения Лаборатория искусственного интеллекта в университете Цюриха (руководитель Рольф Пфейфер) Основной подход – познание природы интеллекта путем его создания ("understanding by building"). Подход включает в себя 1) построение моделей биологических систем, 2) исследование общих принципов естественного интеллекта животных и человека, 3) использование этих принципов при конструировании роботов и других искусственных интеллектуальных систем. Pfeifer R., Scheier C., Understanding Intelligence. MIT Press,
18 Исследователи адаптивного поведения Институт нейронаук Дж. Эдельмана (Калифорния) Разработки поколений моделей работы мозга (Darwin I, Darwin II, …) Исследования поведения искусственного организма NOMAD (Neurally Organized Mobile Adaptive Device), построенного на базе этих моделей
19 NOMAD
20 Исследователи адаптивного поведения В.А. Непомнящих. Моделирование поискового поведения животных на основе анимат-подхода А.А. Жданов. Схемы и модели автономного адаптивного управления на базе аппарата эмоций. Накопление знаний - одна главных компонент адаптивного управления А.И. Самарин. Самообучающиеся роботы (с 1970-х годов) Л.А. Станкевич. Первые в России антропоморфные роботы. Нейрологические архитектуры систем управления гуманоидных роботов на базе когнитивных агентов В.Г. Редько, М.С. Бурцев, О.П. Мосалов. Модели адаптивного поведения на базе эволюционных и нейросетевых подходов
21 ОТ МОДЕЛЕЙ ПОВЕДЕНИЯ К ИСКУССТВЕННОМУ ИНТЕЛЛЕКТУ (коллективная монография, под редакцией В.Г. Редько, УРСС, 2006) Часть I. Ретроспектива П.К. Анохин. Принципиальные вопросы общей теории функциональных систем М.М. Бонгард и сотр. Проект модели организации поведения - «Животное» М.Н. Вайцвайг, М.Н. Полякова. Об одном подходе к проблеме создания искусственного интеллекта А.И. Самарин. Мобильные роботы и самоорганизация в нейронных структурах - ретроспективный взгляд Часть II. Современные исследования В.Г. Редько. From Animal to Animat - направление исследований адаптивное поведение В.А. Непомнящих. Модели автономного поискового поведения В.Ю. Рощин, А.А. Фролов. Нейросетевая модель выработки пространственной координации на основе сенсомоторного опыта Д. В. Прохоров. Адаптивные критики и нейронные сети М.Н. Вайцвайг, М.Н. Полякова. О моделировании мышления С.В. Корниенко, О.А. Корниенко. Искусственная самоорганизация и коллективный искусственный интеллект: на пути от индивидуума к социуму А.А. Жданов. Бионический метод автономного адаптивного управления Л.А. Станкевич. Когнитивный подход к управлению гуманоидными роботами
22 Наши модели 1.Модель эволюционного формирования целенаправленного адаптивного поведения («Кузнечик») (М.С. Бурцев, Р.В. Гусарев, В.Г.Редько, 2000) 2.Модель эволюционного возникновения иерархии целей (развитие модели «Кузнечик»). (М.С. Бурцев, 2002) 3.Проект "Мозг Анимата". Разработка архитектур систем управления целенаправленным адаптивным поведением на базе теории функциональных систем П.К. Анохина и проекта «Животное» М.М. Бонгарда (В.Г. Редько, Д.В. Прохоров, К.В. Анохин, М.С. Бурцев, 2004) 4.Модель эволюции автономных адаптивных агентов (О.П. Мосалов, Д.В. Прохоров, В.Г. Редько, 2005) 5.Модель возникновения кооперации в популяциях адаптивных агентов (М.С. Бурцев, П.В. Турчин, 2005)
23 МОДЕЛЬ ЭВОЛЮЦИИ ПОПУЛЯЦИИ АДАПТИВНЫХ АГЕНТОВ (О.П. Мосалов, Д.В. Прохоров, В.Г. Редько, 2005)
24 Обучение с подкреплением Цель анимата – максимизировать суммарную награду Σ k r(t+k), получаемую за длительный период времени. В процессе обучения анимат формирует политику (policy). Политика определяет выбор (детерминированный или вероятностный) действия в зависимости от ситуации. Обучение с подкреплением может рассматриваться как развитие автоматной теории адаптации (М.Л. Цетлин и др.) t = 1,2,… S(t) – текущая ситуация, a(t) – действие анимата, r(t) – подкрепление (положительное или отрицательное)
25 Обучение с подкреплением ( Richard Sutton, Andrew Barto) Цель анимата – максимизировать суммарную награду Σ r(t), получаемую за длительный период времени. Оценка награды: U(t) = Σ k γ k r(t+k), γ – дисконтный фактор, фактор забывания, 0 < γ < 1, k = 0,1,… Теоретическая основа обучения с подкреплением (Reinforcement Learning): Динамическое программирование Марковские процессы Обучение с подкреплением – самообучение, без учителя, на основе только наград и наказаний
26 Robot Weightlifting Modeled as a three-link pendulum with Joint constraints Contact constraints Torque constraints start configurationgoal configuration Michael Rosenstein, Univ of Mass
27 Проект "Мозг Анимата". Архитектура системы управления аниматом на базе теории ФС П.К. Анохина (В.Г. Редько, Д.В. Прохоров, К.В. Анохин, М.С. Бурцев, 2004)
28 Функциональная система по П.К. Анохину
29 Архитектура системы управления анимата ФС1, ФС2, … соответствуют ведущим потребностям: питание, размножение, безопасность, накопление знаний ФС - на основе нейросетевых адаптивных критиков
30 Схема адаптивного критика (V-критика) S(t) - ситуация S pr i (t+1) - прогноз a i (t) - i-е действие V(S) - оценка качества ситуации S Критик и Модель - многослойные нейронные сети, Критик показан для двух последователь- ных тактов времени Роль Модели -- прогноз будущих ситуаций Роль Критика -- оценка качества ситуаций
31 Описание модели: Обучение + эволюция
32 Агенты-брокеры Рассматриваются агенты-брокеры. Капитал агента C(t) состоит из денег и акций. Доля капитала в акциях есть u(t). Динамика капитала описывается уравнением: С(t+1) = С(t) [1 + u(t+1) ΔX(t+1) / X(t)], (1) где ΔX(t+1) = X(t+1) – X(t), X(t) – временной ряд курса акций, t = 1,2,… R(t) = log C(t). Текущее подкрепление агента r(t) есть: r(t) = R(t+1) – R(t), r(t) = log [1 + u(t+1) ΔX(t+1) / X(t)] (2) Предполагается, что величина u(t) принимает только два значения: u(t) = 0 (весь капитал в деньгах) или u(t) = 1 (весь капитал в акциях)
33 Система управления агента (обучение) Система управления – адаптивный критик, состоящий из двух нейросетей: Модель и Критик. Модель предсказывает изменения временного ряда, Критик оценивает качество ситуаций V(S). Ситуация S(t) = {ΔX(t), u(t)} Действия выбираются с помощью ε-жадного правила. Действия есть: u(t+1) = 0 – перевести весь капитал в деньги u(t+1) = 1 – перевести весь капитал в акции V (S(t)) - оценка ожидаемого суммарного подкрепления U(t) = Σ γ k r(t+k) для ситуации S(t), k = 0,1,…
34 Алгоритм работы V-критика 1. Модель делает прогноз S pr i (t+1) 2. Критик оценивает V (S(t)), V (S pr i (t+1)) 3. Применяется ε - жадное правило и выбирается действие a k : k = arg max i { V(S pr i (t+1))} с вероятностью 1- ε, k выбирается произвольно с вероятностью ε. 4. Действие a k выполняется 5. Оценивается подкрепление r(t). Происходит переход к следующему такту времени t+1. Критик оценивает V (S(t+1)). 6. Оценивается ошибка временной разности δ(t) = r(t) + γV (S(t+1)) - V (S(t)). 7. Обучаются Модель и Критик V (S(t)) есть оценка ожидаемого суммарного подкрепления U(t) = Σ γ k r(t+k), (k = 0,1,…) для ситуации S(t), V (S(t)) – качество ситуации S(t)
35 Нейронные сети V-критика Нейронная сеть Критика Нейронная сеть Модели
36 Обучение V-критика Обучение проводится путем подстройки весов синапсов Модели и Критика градиентным методом Обучение Модели (уточнение прогноза): ΔW M = α M grad WM (S pr k (t+ )) T (S(t+ )-S pr k (t+ )). Обучение Критика (уточнение оценок качества ситуации): ΔW C = α C δ(t) grad WС (V (t)), W M, и W C - набор весов нейронных сетей Модели и Критика, α M, α C - параметры скоростей обучения.
37 Алгоритм работы V-критика Блок Критик x C = S(t) = {ΔX(t), u(t)}, y C j = th (Σ i W C ij x C i ), V(t) = Σ j V C j y C j. V(t) = V(S(t)) – оценка качества ситуации S(t). δ(t) = r(t) + γ V(t) - V(t-1) ΔV C i (t+1) = α C δ(t) y C j,ΔW C ij (t+1) = α C δ(t) V C j (1 – (y C j ) 2 ) x C i. Блок Модель x M = {ΔX(t-m+1),…, ΔX(t)}, y M j = th (Σ i W M ij x M i ), ΔX pr (t+1) = Σ j V M j y M j. ΔX pr (t+1) – прогноз изменения цены акций ΔV M i (t+1) = - α M (ΔX pr (t+1) – ΔX(t+1)) y M j, ΔW M ij (t+1) = - α M (ΔX pr (t+1) – ΔX(t+1)) V M j (1 – (y M j ) 2 ) x i.
38 Эволюция популяции агентов Эволюционирующая популяция состоит из n агентов. Каждый агент имеет ресурс R(t), который меняется в соответствии с получаемыми наградами r(t): R(t+1) = R(t) + r(t), r(t) = log [1 + u(t+1) ΔX(t+1) / X(t)].(2) Длительность каждого поколения n g равна T тактов времени. Начальный ресурс рождающего агента равен нулю, R(T(n g -1)+1) = 0. Начальные веса синапсов нейронных сетей агента составляют его геном G. Текущие веса W изменяются в процессе обучения. Для вновь рождающегося агента W = G. В конце каждого поколения находится агент, который имеет максимальный ресурс R max (n g ). Этот наилучший агент дает n потомков, которые составляют следующее поколение. Геном потомка G отличается от генома родителя малыми мутациями.
39 Результаты моделирования
40 Схема моделирования Рассматривается два вида временного ряда: 1) синусоида : X(t) = 0.5[1 + sin(2πt/20)] +1, 2) стохастический ряд: X(t) = exp[p(t)/1200], p(t) = p(t-1) + (t-1) + k (t), (t) = (t-1) + (t), где (t) и (t) - случайные нормальные процессы N(0,1), = 0.9, k = 0.3. Параметры моделирования: число входов нейронной сети Модели m = 10, число нейронов в скрытом слое Модели и Критика N hM = N hC = 10, скорость обучения Модели и Критика M = C = 0.01, дисконтный фактор = 0.9. Длительность поколения T, численность популяции n, интенсивность мутаций P mut, параметр ε в ε -жадном правиле варьировались. Анализировались следующие случаи: L - только обучение E - только эволюция LE - обучение совместно с эволюцией
41 Что эффективней: обучение или эволюция? L - обучение E - эволюция LE – обучение совместно с эволюцией Результаты усреднены по 1000 расчетам. P mut = 0.1, ε = 0.05, n = 10, T = 200. ε = 0 после n g =100 (случай LE) и n g =2000 (случай L). Величина ресурса лучшего агента R max, получаемая после 200 временных шагов для синусоиды. n g - номер поколения В случаях E и LE агенты находят оптимальную политику: покупать/продавать при росте/падении курса
42 Обучение в наших экспериментах несовершенно Политика агента u(t) (синяя линия). Случай L. Расчет для синусоиды X(t) (красная линия) P mut = 0.1, ε = 0.05, n = 10, T = 200. Агент явно предпочитает держать капитал в акциях. Политика неплохая, но не оптимальная.
43 Тем не менее, обучение помогает эволюции находить хорошую политику быстрее Ресурс лучшего агента в популяции R max, случай LE, синусоида. n = 10, T = 1000, ε = 0.05, P mut = 0.1. В первых поколениях неплохая политика находится путем обучения. В последних поколениях агент имеет хорошую политику с рождения. Эффект Балдвина: приобретаемые навыки становятся наследуемыми.
44 Особенности предсказания Модели Форма предсказанной кривой правильная. Однако, предсказанные величины ΔX pr (t+1) отличаются множителем 25 от действительных ΔX(t+1). Предсказанные ΔX pr (t+1) (синяя линия) и действительные значения ΔX (t+1) (красная линия). Случай E. Стохастический ряд; n = 10, T = 200, P mut = 0.1, ε = 0.05.
45 Практика не есть критерий истины Предсказываемые значения могут отличаться от действительных не только величиной, но и знаком. Эти неправильные предсказания используются агентом в оптимальной политике. Практика не есть критерий истины. Предсказанные ΔX pr (t+1) (синяя линия) и действительные значения ΔX (t+1) (красная линия). Случай LE. Стохастический ряд; n = 10, T = 200, P mut = 0.1, ε = 0.05.
46 Обучение в нашем моделировании эволюционно неустойчиво. Почему? Задача, которую «решает» эволюция (выбор действия), значительно проще, чем та задача, которую решает обучение (прогноз ситуации S, оценка качества прогнозируемых ситуаций для альтернативных действий, итеративное формирования оценок качества ситуаций V(S) и выбор действия на основе этих оценок), поэтому эволюция «задавливает» сложный механизм обучения. Обучение в наших адаптивных критиках эволюционно нестабильно. Эволюция модифицирует нейронные сети Модели и Критика таким образом, чтобы сделать систему управления эволюционно устойчивой.
47 Эволюционным путем находится поведение, подобное поведению простых животных (есть инерционность и игнорирование мелочей) X(t) - курс акций (красная линия), u(t) – доля капитала в акциях (синяя линия)
48 Поведение ручейников (эксперименты В.А. Непомнящих) Ручейники строят домик. У ручейников есть две тактики поведения: 1) собрать частицы и прикреплять их к домику и 2) искать скопление крупных частиц. Переход от одной тактики к другой характеризуется инерционностью и игнорированием мелочей
49 Следующая версия «Мозга анимата» Есть первичный и вторичный репертуар действий. Первичный – формируется в процессе эволюции популяции аниматов, вторичный – в процессе обучения. Каждая ФС состоит из двух нейронных сетей: Контроллер и Модель. Контроллер предназначен для формирования действий (часть действий – передача управления другим ФС), Модель – для прогноза результатов действий. Достоинство версии – согласованность эволюционного и индивидуального режимов адаптации. Одна из важных задач моделирования – проверить эффективность одновременного формирования цепочек действий, определяемых Контроллерами, и прогнозов результатов действия, определяемых Моделями.
50 Задача моделирования когнитивной эволюции Исследовать происхождение логики, мышления, интеллекта
51 Контуры плана будущих исследований Разработка схем и моделей адаптивного поведения на базе проекта «Мозг Анимата» Исследование перехода от физического уровня обработки информации в нервной системе животных к уровню обобщенных образов, уровню понятий (аналогов слов) Исследование процессов формирования причинной связи в памяти животных. Например, связи между условным стимулом (УС) и следующим за ним безусловным стимулом (БС). Анализ роли прогнозов в адаптивном поведении Исследование процессов формирования логических выводов в «сознании» животных. {УС, УС --> БС} => БС – аналог modus ponens Исследование коммуникаций, процессов возникновения языка
52 Литература Непомнящих В.А. Поиск общих принципов адаптивного поведения живых организмов и аниматов // Новости искусственного интеллекта N. 2. С Редько В.Г. Эволюция, нейронные сети, интеллект. Модели и концепции эволюционной кибернетики. М.: УРСС, «От моделей поведения к искусственному интеллекту» (коллективная монография, под редакцией В.Г. Редько), УРСС, Mikhail Burtsev and Peter Turchin. Evolution of cooperative strategies from first principles // Nature, V. 440, No 7087 (April 20). PP
53 Вопросы для обсуждения 1.Проблема происхождения интеллекта человека -– одна наиболее глубоких проблем современной науки. Попробуйте назвать более глубокую проблему 2.Исследования причин происхождения естественного интеллекта могут стать научной базой для искусственного интеллекта 3.Эти исследования могут поставить эпистемологию на твердую естественнонаучную почву 4.Здесь возможно повышение престижа науки. Как произошел интеллект -- это интересно и ученому, и просто любознательному человеку Так почему же здесь почти никто толком не работает?
Еще похожие презентации в нашем архиве:
© 2024 MyShared Inc.
All rights reserved.