ФИЛОСОФСКИЕ АСПЕКТЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Санкт-Петербургский колледж информационных технологий Студенческое научное общество Шаг в будущее Тема : Искусственный интеллект Работу выполнил: студент группы 02 Городнов Дионисий Преподаватель-консультант: Шапкина Лидия Михайловна Ноябрь 2011
ГИПОТЕЗА ГИПОТЕЗА Чтобы мыслить, материя должна существовать не только в экономической, но и в социальной форме.
АРИСТОТЕЛЬ – ОСНОВАТЕЛЬ ЛОГИКИ АРИСТОТЕЛЬ – ОСНОВАТЕЛЬ ЛОГИКИ «Сократ человек; все люди смертны; следовательно, Сократ смертен». 1. Закон исключенного противоречия 2. Закон исключенного третьего 3. Закон тождества Законы мышления
ТОМАС ГОББС –АНГЛИЙСКИЙ ФИЛОСОФ Томас Гоббс ( ) предположил, что рассуждения аналогичны числовым расчетам и что «в наших неслышимых мыслях мы поневоле складываем и вычитаем»
МОЖЕТ ЛИ МАШИНА МЫСЛИТЬ? Алан Тьюринг ( ) «Может ли машина мыслить?» в 1950 г. в статье «Вычислительные машины и разум»
СИЛЬНЫЙ И СЛАБЫЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ cильный искусственный интеллект Джон Сёрль ( 1932 ) слабый искусственный интеллект «Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум это разум. Разум мозга компьютерная программа?» Гипотеза: существуют Джон Сёрль
ТЕСТ АЛАНА ТЬЮРИНГА Тест Алана Тьюринга В этом тесте один или несколько людей должны задавать вопросы двум тайным собеседникам и на основании ответов определять, кто из них машина, а кто человек. Если не удавалось раскрыть машину, которая маскировалась под человека, предполагалось, что машина разумна.
«КИТАЙСКАЯ КОМНАТА» «Китайская комната» 1980 г. Китайская комната мысленный эксперимент, описанный Джоном Сёрлем, в котором критикуется возможность моделирования человеческого понимания естественного языка, создания так называемого «сильного искусственного интеллекта».
ТРИ ЗАКОНА РОБОТЕХНИКИ 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам
НУЛЕВОЙ ЗАКОН Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества
ОБОБЩЕНИЕ ФИЛОСОФСКИХ ПРОБЛЕМ ОБОБЩЕНИЕ ФИЛОСОФСКИХ ПРОБЛЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА Если в будущем машины смогут рассуждать, осознавать себя и иметь чувства, то что тогда делает человека человеком, а машину машиной? Если в будущем машины смогут осознавать себя и иметь чувства, возможно ли будет их эксплуатировать или придется наделять их правами? Будет ли человек, которому в результате многочисленных медицинских операции заменили 99 процентов тела на искусственные органы, считаться машиной?
ВЫВОД Люди будут постоянно решать проблему искусственного интеллекта, постоянно сталкиваясь со все новыми проблемами. И видимо, процесс этот бесконечен
ССЫЛКИ