Задача моделирования когнитивной эволюции Центр оптико-нейронных технологий НИИ системных исследований РАН Редько Владимир Георгиевич
Основные вопросы Когнитивная эволюция – эволюция познавательных способностей биологических организмов Как моделировать когнитивную эволюцию? Как это моделирование связано с теорией познания, с основаниями науки, с основаниями математики? Каков задел исследований когнитивной эволюции? Каковы перспективы моделирования когнитивной эволюции?
План 1.Задача моделирования когнитивной эволюции 2.Задел исследований -- модели адаптивного поведения 3.Примеры моделей в направлении «Адаптивное поведение» 3.1. Модели мозга и поведения в Институте нейронаук, руководимом Дж. Эдельманом 3.2. Модель взаимодействия обучения и эволюции в популяции самообучающихся агентов 3.3. Модель поискового поведения 4.Модели обучения и эволюции автономных агентов 5.Контуры программы будущих исследований когнитивной эволюции
Задача моделирования когнитивной эволюции
Гносеологическая проблема Почему логический вывод, сделанный человеком, применим к реальному объекту в природе?
Кто думал над такими вопросами Давид Юм – подверг сомнению понятие причинной связи (1748 г.) Иммануил Кант – провел исследование познавательных процессов в приближении фиксированного мышления взрослого человека («Критика чистого разума», 1781 г.) Конрад Лоренц – от кантовской доктрины априорного к эволюционной теории познания (1941 г.) К. Поппер, Д. Кэмпбелл, Г. Фоллмер – развитие эволюционной теории познания
Может ли человек познавать законы природы? « … хотя вначале это звучит странно, но, тем не менее, верно, если я скажу: рассудок не черпает свои законы (a priori) из природы, а предписывает их ей» И. Кант. Пролегомены ко всякой будущей метафизике, могущей появиться как наука, 1783 г. «Не были бы законы разума, необходимые для априорного мышления, иными, если бы они сформировались иным историческим способом и если бы мы, следовательно, были оснащены иным типом нервной системы? И вообще, возможно ли, чтобы законы нашего когнитивного аппарата не были связаны с законами реального внешнего мира?» К. Лоренц. Кантовская доктрина априорного в свете современной биологии, 1941 г.
Иммануил КантКондрад Лоренц
Подход к исследованию гносеологической проблемы Исследовать происхождение интеллекта путем построения математических и компьютерных моделей когнитивной эволюции, эволюции познавательных свойств биологических организмов Проследить весь путь биологической эволюции от простейших до человека, анализируя c помощью моделей, как на этом пути возникали свойства познания закономерностей природы в результате развития систем управления адаптивным поведением организмов. Разумно использовать задел направлений исследований «Адаптивное поведение»
Проблема происхождения интеллекта
Аналогия Математик (при доказательстве теорем): правило modus ponens: «если имеет место А, и из А следует В, то имеет место В», или {А, A --> B} => B Собака (после выработки условного рефлекса): {УС, УС --> БС} => БС УС – условный стимул, БС – безусловный стимул
Правила логического вывода достаточно хорошо формализованы Математическая теория логического вывода (под ред. А.В. Идельсона и Г.Е. Минца). М.: Наука, В основе этих правил – элементарные правила, такие как modus ponens Пример исследования: Генцен Г. Исследования логических выводов. Непротиворечивость чистой теории чисел // Математическая теория логического вывода. М.: Наука, С. 9-76,
Попытка пересмотра оснований математики Анализ возможности построения предиктивных логических процессов в контексте теории множеств и кибернетического подхода к обоснованию математики: Turchin V.F. A constructive interpretation of the full set theory // Journal of Symbolic Logic, V. 52. No. 1. PP В.Ф. Турчин. Феномен науки: Кибернетический подход к эволюции – М.: Наука, 1993 (1-е изд.). М.: ЭТС, 2000 (2-е изд.).
Направление исследований «Адаптивное поведение»
Адаптивное поведение From Animal to Animat – модели адаптивного поведения животного и робота Первая конференция: Париж, 1990 г. (Ж.-А. Мейер, С. Вильсон) Основной подход – конструирование и исследование искусственных (в виде компьютерной программы или робота) «организмов» (аниматов, агентов), способных приспосабливаться к внешней среде ANIMAL + ROBOT = ANIMAT Программа-минимум – исследовать архитектуры и принципы функционирования, которые позволяют животным или роботам жить и действовать в переменной внешней среде Программа-максимум – попытаться проанализировать эволюцию когнитивных (познавательных) способностей животных и эволюционное происхождение человеческого интеллекта Предшественники: М.Л. Цетлин, М.М. Бонгард. Гаазе-Рапопорт М.Г., Поспелов Д.А. От амебы до робота: модели поведения. М.: Наука, 1987.
Адаптивное поведение Методы: Нейронные сети Эволюционное моделирование Обучение с подкреплением (Reinforcement Learning) Достоинство направления «Адаптивное поведение»: исследование конкретных животных и конкретных роботов Моделирование адаптивного поведения – бионический подход к искусственному интеллекту
Нейронные сети X i – входные сигналы, Y – выходной сигнал, F(.) – активационная функция: Y = F(net – K), net = Σ i w i X i, w i – веса синапсов, K – порог нейрона. Из формальных нейронов строятся нейросети, выполняющие различные алгоритмы: ассоциативная память, распознавание образов и др. Схема формального нейрона
Эволюционное моделирование Есть несколько сходных между собой эволюционных алгоритмов. Наиболее популярен генетический алгоритм. Схема генетического алгоритма Алгоритм моделирует эволюцию популяции искусственных «особей» (J. Holland, 1975). Каждая особь имеет хромосому G k. Хромосома есть цепочка символов, которая определяет приспособленность особи f(G k ). Задача – максимизировать функцию приспособленности f. Эволюция состоит из последовательности поколений. В каждом поколении происходит отбор особей с большими значениями приспособленности f, а также мутации и рекомбинации хромосом.
Обучение с подкреплением (Reinforcement Learning, Richard Sutton, Andrew Barto, Массачусетский университет) t = 1,2,… – время, S(t) – ситуация, a(t) – действие, r(t) – подкрепление (поощрение, r(t) > 0 или наказание, r(t) < 0 ) Цель анимата – максимизировать суммарное подкрепление, которое можно получить в будущем. Схема обучения с подкреплением
Обучение с подкреплением Цель анимата – максимизировать суммарную награду Σ r(t), получаемую за длительный период времени. Оценка награды: U(t) = Σ k γ k r(t+k), γ – дисконтный фактор, фактор забывания, 0 < γ < 1, k = 0,1,… Теоретическая основа обучения с подкреплением: Динамическое программирование Марковские процессы Обучение с подкреплением – самообучение, без учителя, на основе только наград и наказаний
Модели адаптивного поведения в междисциплинарном контексте Модели адаптивного поведения Теория познания Исследования когнитивной эволюции Природа естественного интеллекта: интеллект необходим для организации поведения Модели социальных систем Робототехника Искусственный интеллект
Примеры моделей адаптивного поведения
Модели мозга и поведения в Институте нейронаук, руководимом Дж. Эдельманом J.L. Krichmar, A.K. Seth, D.A. Nitz, J.G. Fleischer, G.M. Edelman. Neuroinformatics, Vol. 3. No 3. PP
Направление исследований – поколения моделей мозга: Darwin-1, Darwin-2, …, Darwin-XI Darwin-X. NOMAD: Neurally Organized Mobile Adaptive Device (Brain Based Device) 1) Устройство помещается в реальную физическую среду 2) Устройство должно решать поведенческую задачу 3) Устройство управляется модельной нервной системой, которая отражает архитектуру мозга и процессы в мозге 4) Поведение устройства и процессы в модельной нервной системе должны допускать сравнение с эксперименталь- ными биологическими данными Институт нейронаук (Калифорния, )
Darwin-X, моделирование поведения мыши в лабиринте Морриса 50 нейронных областей нейронов 1.4·10 6 синапсов Сенсорика: зрение, свои следы, ИК- детекторы J.L. Krichmar, A.K. Seth, D.A. Nitz, J.G. Fleischer, G.M. Edelman. Neuroinformatics, Vol. 3. No 3. PP
Darwin-X Есть комната размером 16 × 14 с цветными полосами на стенах. Есть скрытая платформа диаметром 24, которую Darwin-X может обнаружить, только находясь непосредственно над ней (инфракрасным детектором). В начале каждого эксперимента Darwin-X помещается в одну из 4-х стартовых точек (1–4).
Нейронная сеть Darwin-X V1,V2/4 are analogous to visual cortex IT – inferotemporal cortex PR – parietal cortex HD – the head direction system ATN – anterior thalamic nuclei M HDG – motor areas for egocentric heading BF – basal forebrain S – a value system R+, R– – positive and negative reward areas
Принципы работы и обучения нейронной сети Активность нейронов моделирует частоту импульсации, величины активностей – в интервале от 0 до 1. Обучение – аналогично правилу Хебба. При этом для части весов синапсов модификация весов связей модулируется сигналами подкрепления и активностью системы оценки S. Активность системы оценки S говорит о том, что произошло некоторое важное событие. S активируется при обнаружении скрытой платформы и системой избегания препятствий.
Darwin-X. Результаты В результате серии (16 опытов) запусков Darwin-X приобретал способность находить скрытую платформу вне зависимости от места, на которое он помещался в начальный момент времени. До обучения нахождение платформы требовало около 530 с., после – около 220 с.
Большинство нейронов гиппокампа проявляли активность типичную для клеток места (place cells) у животных. Такие нейроны были активны лишь при нахождении Darwin-X в определенной области исследуемого пространства и почти неактивны для остальной его части Darwin-X. Результаты
Формирование «причинных связей» между различными областями гиппокампа Оценки производились на основе понятия Granger causality (расчет линейной регрессии для временных рядов, характеризующих активности участков нейронной сети) Справа – активность нейронов участка СА1 в начале и конце обучения
Выводы по модели Darwin-X Модель Darwin-X – эмпирическое компьютерное исследование, хорошо продуманное с биологической точки зрения Поведение Darwin-X нетривиально: обучение происходит быстро, формируются «нейроны места» в модельном гиппокампе, исследовано формирование «причинных связей» между областями модельного гиппокампа Работа слишком эмпирическая. Было бы полезно более формализованное исследование, дополнительное к этим эмпирическим работам
Модель взаимодействия обучения и эволюции Redko V.G., Mosalov O.P., Prokhorov D.V. A model of evolution and learning. Neural Networks, Vol. 18. PP
Описание модели: Обучение + эволюция
Эволюция и обучение агентов Изучается эволюция популяции агентов, которые могут самообучаться. Анализ ведется на примере агентов- брокеров, покупающих и продающих акции. Система управления агентов обучается и эволюционирует. Капитал агента состоит из денег и акций. Цель агентов – максимизировать скорость роста капитала. Используется метод обучения с подкреплением. Подкрепление r(t) – текущий прирост капитала агента. Ожидаемое суммарное подкрепление V(t) – ожидаемый в будущем суммарный прирост капитала. В процессе эволюции за счет мутаций весов синапсов и отбора агентов оптимизируются их нейросетевые системы управления.
Агенты-брокеры Рассматриваются агенты-брокеры. Капитал агента C(t) состоит из денег и акций. Доля капитала в акциях есть u(t). Динамика капитала описывается уравнением: С(t+1) = С(t) [1 + u(t+1) ΔX(t+1) / X(t)], (1) где ΔX(t+1) = X(t+1) – X(t), X(t) – временной ряд курса акций, t = 1,2,… R(t) = log C(t). Текущее подкрепление агента r(t) есть: r(t) = R(t+1) – R(t), r(t) = log [1 + u(t+1) ΔX(t+1) / X(t)] (2) Предполагается, что величина u(t) принимает только два значения: u(t) = 0 (весь капитал в деньгах) или u(t) = 1 (весь капитал в акциях)
Обучение с подкреплением (Reinforcement Learning, Richard Sutton, Andrew Barto, Массачусетский университет) t = 1,2,… – время, S(t) – ситуация, a(t) – действие, r(t) – подкрепление (поощрение, r(t) > 0 или наказание, r(t) < 0 ) Цель агента – максимизировать суммарное подкрепление, которое можно получить в будущем. Схема обучения с подкреплением
Система управления агента Система управления агента состоит из Модели и Критика Модель предсказывает изменения временного ряда Критик оценивает ожидаемое суммарное подкрепление V(S) как для текущих, так и для прогнозируемых ситуаций S. X(t) – временной ряд курса акций, u(t) – действие агента. Ситуация S(t) = {ΔX(t), u(t)} Выбирается действие, максимизирующее V u pr (t+1). Действия агента есть: u(t+1) = 0 – перевести весь капитал в деньги u(t+1) = 1 – перевести весь капитал в акции
Нейронные сети агента Нейронная сеть Критика Нейронная сеть Модели
Алгоритм работы системы управления 1. Модель делает прогноз S pr i (t+1) 2. Критик оценивает V (S(t)), V (S pr i (t+1)) 3. Применяется ε - жадное правило и выбирается действие a k : k = arg max i { V(S pr i (t+1))} с вероятностью 1- ε, k выбирается произвольно с вероятностью ε. 4. Действие a k выполняется 5. Оценивается подкрепление r(t). Происходит переход к следующему такту времени t+1. Критик оценивает V (S(t+1)). 6. Оценивается ошибка временной разности δ(t) = r(t) + γV (S(t+1)) - V (S(t)). 7. Обучаются Модель и Критик V (S(t)) есть оценка ожидаемого суммарного подкрепления U(t) = Σ γ k r t+k+1 для ситуации S(t), V (S(t)) – качество ситуации S(t)
Обучение нейронных сетей Обучение проводится путем подстройки весов синапсов Модели и Критика градиентным методом Обучение Модели (уточнение прогноза): ΔW M = α M grad WM (S pr k (t+ )) T (S(t+ )-S pr k (t+ )). Обучение Критика (уточнение оценок качества ситуации): ΔW C = α C δ(t) grad WС (V (t)), W M, и W C - набор весов нейронных сетей Модели и Критика, α M, α C - параметры скоростей обучения.
Алгоритм работы нейронных сетей Блок Критик x C = S(t) = {ΔX(t), u(t)}, y C j = th (Σ i W C ij x C i ), V(t) = Σ j V C j y C j. V(t) = V(S(t)) – оценка качества ситуации S(t). δ(t) = r(t) + γ V(t) - V(t-1) ΔV C i (t+1) = α C δ(t) y C j,ΔW C ij (t+1) = α C δ(t) V C j (1 – (y C j ) 2 ) x C i. Блок Модель x M = {ΔX(t-m+1),…, ΔX(t)}, y M j = th (Σ i W M ij x M i ), ΔX pr (t+1) = Σ j V M j y M j. ΔX pr (t+1) – прогноз изменения цены акций ΔV M i (t+1) = - α M (ΔX pr (t+1) – ΔX(t+1)) y M j, ΔW M ij (t+1) = - α M (ΔX pr (t+1) – ΔX(t+1)) V M j (1 – (y M j ) 2 ) x i.
Эволюция популяции агентов Популяция состоит из n агентов. Эволюция Дарвиновская. Каждый агент имеет ресурс R(t), который меняется в соответствии с получаемыми наградами r(t): R(t+1) = R(t) + r(t), r(t) = log [1 + u(t+1) ΔX(t+1) / X(t)].(2) Длительность каждого поколения n g равна T тактов времени. Начальный ресурс рождающего агента равен нулю, R(T(n g -1)+1) = 0. Начальные веса синапсов нейронных сетей агента составляют его геном G. Текущие веса W изменяются в процессе обучения. Для вновь рождающегося агента W = G. В конце каждого поколения находится агент, который имеет максимальный ресурс R max (n g ). Этот наилучший агент дает n потомков, которые составляют следующее поколение. Геном потомка G отличается от генома родителя малыми мутациями.
Результаты моделирования
Схема моделирования Рассматривается два вида временного ряда: 1) синусоида : X(t) = 0.5[1 + sin(2πt/20)] +1, 2) стохастический ряд: X(t) = exp[p(t)/1200], p(t) = p(t-1) + (t-1) + k (t), (t) = (t-1) + (t), где (t) и (t) - случайные нормальные процессы N(0,1), = 0.9, k = 0.3. Параметры моделирования: число входов нейронной сети Модели m = 10, число нейронов в скрытом слое Модели и Критика N hM = N hC = 10, скорость обучения Модели и Критика M = C = 0.01, дисконтный фактор = 0.9. Длительность поколения T, численность популяции n, интенсивность мутаций P mut, параметр ε в ε -жадном правиле варьировались. Анализировались следующие случаи: L - только обучение E - только эволюция LE - обучение совместно с эволюцией
Динамика ресурса агента L - обучение E - эволюция LE – обучение совместно с эволюцией Результаты усреднены по 1000 расчетам. P mut = 0.1, ε = 0.05, n = 10, T = 200. ε = 0 после n g =100 (случай LE) и n g =2000 (случай L). Величина ресурса лучшего агента R max, получаемая после 200 временных шагов для синусоиды. n g - номер поколения В случаях E и LE агенты находят оптимальную политику: покупать/продавать при прогнозировании роста/падения курса
Тем не менее, обучение помогает эволюции находить хорошую политику быстрее Ресурс лучшего агента в популяции R max, случай LE, синусоида. n = 10, T = 1000, ε = 0.05, P mut = 0.1. В первых поколениях неплохая политика находится путем обучения. В последних поколениях агент имеет хорошую политику с рождения. Эффект Болдуина: приобретаемые навыки становятся наследуемыми.
Выводы по модели взаимодействия обучения и эволюции Исследована модель взаимодействия обучения и эволюции на примере простых самообучающихся агентов-брокеров Для таких агентов эволюционная оптимизация может быть более эффективна, чем обучение с подкреплением Продемонстрирован эффект Болдуина: приобретаемые навыки ассимилируются в геном в течение ряда поколений Дарвиновской эволюции (в течение 5-ти поколений). Целесообразно промоделировать этот эффект для аналогичной биологической модели.
Бионическая модель поискового поведения Непомнящих В.А., Попов Е.Е., Редько В.Г. Бионическая модель адаптивного поискового поведения // Известия РАН. Теория и системы управления С
Ручейник и его чехол-домик Личинки ручейников ведут поиск крупных частиц для строительства чехла-домика
Биологический эксперимент (В.А. Непомнящих, 2002) Личинок ручейников помещали в кольцевой коридор с водой, дно которого было покрыто сплошным слоем песка. На небольшом участке коридора (1/6 площади коридора) были еще крупные плоские частицы (скорлупки). Эксперимент показал, что личинки ручейников находят участок с крупными частицами, где они строят домик в основном из скорлупок.
Геометрия кольцевого коридора Личинка помещалась в точку М. Крупные частицы (скорлупки) расположены на участке 2. Вероятность встречи крупной частицы на участке 2 равна 0.2. На участке 1 расположены только мелкие частицы (песчинки) 2π/6
Результаты биологического эксперимента Эксперимент проводился с 40 личинками, которые наблюдались в течение 1 часа с момента первого прикрепления частицы Все личинки двигались по коридору и посещали участок 2 со скорлупками Личинки преимущественно (36 из 40) вели строительство на участке 2, где они собирали домик из крупных частиц – скорлупок Среднее число прикрепленных частиц для 36 личинок, покидавших и возвращавшихся на участок 2, составило 5 скорлупок и 2 песчинки. 4 личинки, оставшиеся на участке 1, в среднем прикрепили по 7 песчинок
Компьютерная модель Поведение регулируется мотивацией к прикреплению M(t) Возможны три действия личинки: 1) прикрепление протестированной частицы к домику, 2) тестирование частицы, 3) блуждание, поиск нового места Прикрепление происходит при превышении мотивацией M(t) порога, пропорционального площади последней прикрепленной частицы, при M(t) > Th = k 0 S attach, k 0 > 0 Тестирование происходит при Th > M(t) > 0 Блуждание – при 0 > M(t)
Динамика мотивации к прикреплению M(t) M(t) = k 1 M(t-1) + ξ(t) + I(t), время t дискретно, шаг по времени Δt = 1 с, k 1 – параметр, характеризующий инерционность (0 < k 1 < 1, 1-k 1 0, S curr, S last – площади тестируемой и последней протестированной частицы При перемещении и прикреплении I(t) = 0
Параметры расчета Диаметр коридора d = 90 мм Размер песчинки = 0.5 мм (S = 0.25 мм 2 ) Размер скорлупки = 1.5 мм (S = 2.25 мм 2 ) Величина перемещения за один такт времени L = 2 мм k 0 = 1, k 1 = 0.99, k 2 = 0.007, σ = 0.05 Время тестирования / прикрепления = 5/60 c (для песчинки), 10/120 c (для скорлупки) Расчет проводился в течение 7200 с (2 часа) для 40 личинок, аналогично биологическому эксперименту Исходная мотивация к прикреплению M(0) = 0 Сначала личинка помещалась в центр участка 1
Результаты моделирования Почти во всех случаях (в 39 из 40) первой прикреплялась крупная частица (скорлупка) Количество частиц в течение часа после прикрепления первой частицы в среднем по 40 расчетам составило: 4.2 крупные частицы (среднее квадратическое отклонение 1.68) и 0.6 мелких частиц (среднее квадратическое отклонение 1.53) Прикрепление мелких частиц наблюдалось только в 8 расчетах из 40 Среднее время начала прикрепления первой частицы 1815 с (среднее квадратическое отклонение 872 с)
Динамика площади домика S(t) Преимущественно прикрепляются крупные частицы. Есть сильный разброс числа прикрепляемых частиц и момента начала прикрепления. Число прикреплений невелико.
Динамика мотивации к прикреплению M(t) Прикрепление начинается в моменты t = 3288, 5140, 5595, 6090 с. Есть эффект частичного успеха: есть рост мотивации M(t), но мотивация не достигает порога и прикрепление не начинается
Зависимости суммарной площади прикрепленных частиц S(t) и приведенной угловой координаты norm (t) личинки Зависимости S(t) и norm (t)
Модель и биологический эксперимент качественно согласуются (данные по 40 примерам) 1.Личинки (как живые, так и модельные) обследуют весь коридор: участок 1 и участок 2 2.Преимущественно прикрепляются крупные частицы: 4.2 в модели, 5 в эксперименте. Малое число прикрепленных песчинок: 0.6 в модели, 2 в эксперименте 3.Есть сильный разброс числа прикрепляемых частиц и момента начала прикрепления (как в модели, так и в эксперименте) 4.Число прикрепленных частиц в обоих случаях невелико
Выводы Модель адекватна проанализированному поисковому поведению ручейников, имеет смысл развить модель на более общее поведение В модели есть память личинки о размерах последней протестированной и последней прикрепленной частиц Динамика регулирующей поведение мотивации M(t) проста и эффективна. Она включает: 1) инерцию изменения M(t) 2) случайные вариации M(t) 3) направленное изменение M(t) Целесообразно использовать аналогичную динамику мотивации в других моделях, в частности, для автономных агентов с несколькими потребностями
Модели обучения и эволюции автономных агентов Модель адаптивного поведения автономных агентов с естественными потребностями: питание, размножение, безопасность Модель автономного формирования цепочек последовательных действий Бионическая модель взаимодействия между обучением и эволюцией (продемонстрирован эффект Болдуина) Модели представлены на конференциях "Нейроинформатика-2009, 2010"
Редько В.Г., Бесхлебнова Г.А. Модель формирования адаптивного поведения автономных агентов // Труды Международной научно-практической конференции «Интегрированные модели и мягкие вычисления в искусственном интеллекте», Коломна, Модель формирования цепочек последовательных действий
Автономные агенты в двумерной клеточной среде Агент Действия агента: 1) двигаться вперед, 2,3) поворачиваться направо или налево, 4) питаться, 5) отдыхать В среде имеются порции пищи. При питании агент увеличивает свой ресурс, при действиях – расходует Управление агентами: с помощью набора правил: S k (t) A k (t). Правила формируются методом обучения с подкреплением Стрелка показывает направление вперед, кружки – поле зрения агента
Формирование правил и цепочек действий одним самообучающимся агентом (рассматривается только потребность питания) Всего имеется 16 ситуаций, 5 действий. Отбирается 16 правил: 1) пища «здесь» «питаться», 2) пища «впереди» «двигаться вперед», «питаться»; 3,4) пища «справа/слева» «поворачиваться направо/налево», «двигаться вперед», «питаться»; 5) не видно пищи «двигаться вперед», … Зависимость ресурса агента R от времени t. Пища имеется в половине клеток. Используется метод «отжига»: сначала – случайный поиск действий, затем – детерминированное обучение.
Направления развития моделей 1)Развитие модели в случае нескольких потребностей 2)Использование понятия «мотивации» при нескольких потребностях 3)Уточнение процессов сокращения описания 4)Анализ процессов «возникновения семантики» 5)Развитие для правил с предсказанием будущих ситуаций 6)Возникновение планирования, «логики поведения», «мыслительных процессов», организация действий, приводящих к «конечным потребным результатам» (П.К. Анохин) 7)Сопоставление с проектом «Животное» (М.М. Бонгард с сотр., 1975), попытка построения модели мышления
Контуры программы будущих исследований когнитивной эволюции Исследование моделей адаптивного поведения аниматов с несколькими естественными потребностями: питания, размножения, безопасности Исследование перехода от физического уровня обработки информации в нервной системе животных к уровню обобщенных образов, уровню понятий (аналогов слов) Исследование процессов формирования причинной связи в памяти животных. Например, связи между условным стимулом (УС) и следующим за ним безусловным стимулом (БС). Анализ роли прогнозов в адаптивном поведении Исследование процессов формирования логических выводов в «сознании» животных {УС, УС --> БС} => БС – аналог modus ponens
Еще раз об актуальности моделирования когнитивной эволюции Эти исследования связаны с основаниями науки, с основаниями математики Моделирование когнитивной эволюции интересно с точки зрения развития теории познания Есть задел в направлении исследований «Адаптивное поведение» Эти исследования важны с точки зрения развития когнитивных наук: по-видимому, наиболее важные когнитивные процессы – процессы научного познания
Литература Турчин В.Ф. Феномен науки: Кибернетический подход к эволюции. М.: ЭТС, Редько В.Г. Эволюция, нейронные сети, интеллект. М.: УРСС, От моделей поведения к искусственному интеллекту (под ред. В.Г. Редько). М.: УРСС, Лекции по нейроинформатике ( гг.): Текст доклада: Настоящая презентация: