Гуманитарная информатика. 2018. № 14. С. 40-50
УДК 167.1
DOI: 10.17223/23046082/14/5
ПРОБЛЕМА ЗОМБИ В КОНТЕКСТЕ ФИЛОСОФИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
В.А. Ладов
Национальный исследовательский Томский государственный университет, Томск, Россия e-mail: ladov@yandex.ru
Статья посвящена рассмотрению вычислительной модели интеллекта. Эксплицируются различные философские интерпретации вычислительной модели интеллекта. Подробно анализируется вычислительная модель интеллекта в интерпретации Д. Деннета. Взгляды Д. Деннета сравниваются с позицией Д. Серла. Эксплицируется концепт «философского зомби» Д. Чалмерса. Осуществляется критический анализ исследований, в которых вычислительная модель интеллекта в деннетовской интерпретации рассматривается в контексте концепта «философского зомби». Автор статьи утверждает, что попытки критиковать вычислительную модель интеллекта через обращение к концепту «философского зомби» основаны скорее на определенном психологическом эффекте, который производит «аргумент зомби», нежели на последовательной логико-эпистемологической аргументации.
Ключевые слова: вычислительная модель интеллекта, Деннет, Серл, Чал-мерс, зомби, искусственный интеллект.
ZOMBIE PROBLEM IN THE CONTEXT OF ARTIFICIAL INTELLIGENCE PHILOSOPHY
Vsevolod A. Ladov
National research Tomsk State University, Tomsk, Russia e-mail: ladov@yandex.ru
The article is devoted to consideration of computational conception of mind. Different philosophical interpretations of the computational conception of mind are expli-
cated. The computational conception of mind in interpretation of D. Dennett is analyzed. Dennett's views are compared with Searle's position. The concept of "Philosophical zombie" in the philosophy of mind of D. Chalmers is explicated. Author analyzes writings in which the computational conception of mind is considered in the context of the concept of "Philosophical zombie". It is asserted that attempts to criticize the computational conception of mind through an appeal to the concept of "philosophical zombies" are based on a certain psychological effect that produces "the zombie argument" rather than on a consistent logical-epistemological argumentation.
Key words: computational model of intelligence, Dennett, Searle, Chalmers, zombie, artificial intelligence.
Различные философские интерпретации вычислительной модели интеллекта
С точки зрения вычислительной модели интеллекта человеческий мозг уподобляется компьютеру. Мы изучаем мозговые процессы, исходя из предположения о том, что на физическом уровне здесь имеют место процессы, аналогичные тем, которые обнаруживаются в технических вычислительных системах. При этом разные группы исследователей, опирающихся на вычислительную модель интеллекта, делают различные выводы философского характера относительно сущности человека и возможностей развития искусственного интеллекта.
Одна группа исследователей подчеркивает, что поскольку мозг человека обладает способностью порождать сознание, мы того же вправе ожидать и от искусственных интеллектуальных систем в будущем. Такого мнения придерживается, например, Д. Хоглэнд: «Что есть сознание? Что есть мышление? Что представляют собой люди помимо всей познанной вселенной? Такие вопросы мучили философов на протяжении тысячелетий, но... скудный прогресс можно было наблюдать... до недавнего времени. Ибо настоящее поколение увидело неожиданное и прекрасное цветение в философии / науке о сознании; теперь не только психология, но и множество соотносимых дисциплин находятся в родовых муках великой интеллектуальной революции. И олицетворение всей драмы есть Искусственный Интеллект, захватывающая новая цель сделать компьютеры мыслящими. Фундаментальная цель этого исследования не состоит просто в имитации интеллекта или продуцировании некоторой умной фальшивки. Вовсе нет. ИИ хочет только подлинную вещь: машины с сознанием в полном и буквальном смысле. Это не научная фантастика, но настоящая наука, основанная на теоретической концепции, столь же глубокой, сколь и дерзкой: мы в основе своей сами компьютеры» [1. P. 2].
Вторая группа исследователей тоже понимает интеллектуальную деятельность человека по аналогии с работой вычислительной машины, но делает на основании этой предпосылки совершенно иной вывод. Искусственный интеллект действительно можно уподобить (не только в будущем, но и в настоящем) человеку, но не потому, что технические интеллектуальные системы уже доросли до уровня человека, а потому, что человеческая ментальная активность ничем особенным от искусственных интеллектуальных систем не отличается. Такой позиции придерживается среди прочих Д. Деннет [2, 3] - один из известных американских исследователей в области искусственного интеллекта.
Дальнейший анализ в рамках данной статьи будет затрагивать именно второе направление философской интерпретации вычислительной модели интеллекта. Д. Деннет обосновывает свой тезис в заочной дискуссии с Д. Серлем - еще одним ярким представителем американской философии сознания и искусственного интеллекта. Знаменитый «аргумент китайской комнаты» Д. Серла [4] указывал на принципиальное различие между человеческим сознанием и технической системой по такому критерию, как интенциональные состояния. Сознание человека представляет собой совокупность интенциональных состояний, в рамках которых человек способен фиксировать объекты как определенные смысловые сущности, в то время как техническая интеллектуальная система продуцировать подобного рода состояния принципиально не способна. Деннет ставит под сомнение тезис Серла о существовании подлинных интенцио-нальных состояний в психике человека, утверждая, что человек способен лишь генерировать иллюзию интенциональной жизни, ограничиваясь на самом деле только операциональной деятельностью с объектами, как это делают и искусственные интеллектуальные системы.
Аргументы Д. Серла и Д. Деннета
Включившись в дискуссию об искусственном интеллекте (ИИ), Д. Серл представил свой, ставший широко известным «аргумент китайской комнаты», суть которого сводится к следующему. Допустим, человека, владеющего только английским, помещают в изолированную от внешнего мира комнату и предоставляют ему для чтения текст на китайском. Естественно, ввиду того, что он не имеет ни малейшего представления о значении китайских иероглифов, текст оказывается для него набором чернильных закорючек на листе бумаги - человек ничего не понимает. Затем ему дают еще один лист бумаги, исписанный по-китайски, и в придачу к этому определенную инструкцию на родном ему англий-
ском о том, как можно было бы сравнить два китайских текста. Эта инструкция научает выявлению тождественных символов и определению закономерности их вхождения в более общий контекст. Когда приносят третий китайский текст, к нему прилагают вторую английскую инструкцию о сравнении последнего с двумя предыдущими и т.д. В итоге после продолжительных упражнений испытуемому приносят чистый лист бумаги и просят что-нибудь написать по-китайски. К этому времени человек из китайской комнаты настолько хорошо освоил формальные символические закономерности, что, на удивление, действительно оказался способным написать вполне связный и понятный любому грамотному китайцу текст. Ну и наконец, чтобы произвести должный эффект, человека выводят из комнаты на обозрение широкой публики и представляют как англичанина, изучившего китайский, что сам виновник презентации не замедлит подтвердить своим безукоризненным знанием иероглифического письма.
Так понимает ли наш испытуемый китайский? Серл дает категорически отрицательный ответ на этот вопрос. Понимание должно сопровождаться актами первичной интенциональности, в которых сознание, еще до всякого обращения к каким-либо материальным носителям, т.е. к речи или письму, способно концентрироваться на внутренних интенциональ-ных содержаниях как нередуцируемых ни к чему другому фактах автономной психической жизни. Интенциональность языка производна, она возникает при намеренном наделении изначально пустых знаков значением посредством замещения внутреннего интенционального содержания пропозициональным содержанием синтаксически организованных структур.
Для общественности, которая оценивала результаты обучения человека из китайской комнаты, возникла иллюзия того, что экзаменуемый действительно овладел китайским. Причина этой иллюзии кроется в той привычке, в соответствии с которой люди предположили за пропозициональными содержаниями продуцированных человеком синтаксических форм его внутренние интенциональные содержания, явившиеся основой первых. Но на деле обучение в китайской комнате принесло прямо противоположные результаты. Человек научился формальным операциям со знаковой системой без какого-либо собственного интенционального участия в этом предприятии. Пропозициональные содержания представленного на обозрение китайского письма имели смысл только для тех, кто действительно мог подкрепить их более фундаментальными интенцио-нальными содержаниями своей психики. Человек из китайской комнаты сам не понял ничего из того, что написал.
По мысли Серла, действия испытуемого англичанина полностью аналогичны работе искусственного интеллекта. Искусственный интеллект, несмотря ни на какие интенсификации в сфере технологий, никогда не сможет достичь уровня человеческого сознания именно из-за неспособности продуцировать интенциональные состояния. С помощью специальных программ, настраивающих на формальное оперирование символическими образованиями, ИИ может создавать иллюзии мощнейшей мыслительной активности, многократно превышающей способности человеческого сознания. Результаты такой деятельности ИИ оказываются в самом деле чрезвычайно полезными для человека. И тем не менее у нас нет никаких оснований тешить себя иллюзией существования «братьев по разуму». ИИ не мыслит. Всю работу по содержательному наполнению пустых символических структур берет на себя человек, «прикрепляя» последние к внутренним интенциональным содержаниям - подлинным элементам разумной жизни.
Обсуждая работу автомата по продаже Пепси-Колы, Д. Деннет [3] без колебаний принимает серлевские аргументы. Что значат наши фразы: «Автомат понял, что я поместил в него настоящую американскую монету, и выдал мне банку с напитком» или «Я его обманул: вместо монеты я опустил в приемник подходящий кусок металла, он ошибся и снова угостил меня баночкой Пепси»? Только то, что мы используем исторически сложившуюся, привычную для нас форму речи. Мы антропоморфизиру-ем автомат, приписывая ему знакомые нам самим интенциональные состояния.
Аргументируя в защиту данного тезиса, Деннет приводит в пример комичный случай из истории торговой индустрии. В 50-х гг. XX в. американские автоматы по продаже напитков появились в Панаме, будучи оборудованы специальным детектором для приема панамских монет. Однако панамские и американские монеты оказались в то время подобными друг другу по форме, весу и даже по тому материалу, из которого они изготовлены. Автомат все чаще начал ошибаться, выдавая банку Пепси в том случае, когда вместо панамской монеты в него помещали американскую. В результате эти первые автоматы по продаже напитков быстро исчезли из Панамы - их использование было невыгодно для панамского правительства.
Что же мы имеем в виду, когда говорим здесь об ошибках устройства? Вполне можно представить себе ситуацию (правда, теперь не реальную, а только воображаемую), что панамское правительство благосклонно отнеслось к равноправному хождению панамских и американских денег
на территории своей страны. Будет ли тогда действие автомата в том случае, если он принимает американскую монету, считаться ошибкой? Очевидно, нет. ЗначитЮ одному и тому же физическому действию устройства могут быть приписаны различные интенциональные характеристики, различные модусы интенции. В данном случае - правильное восприятие и ошибочное восприятие. У нас нет сомнения, что само устройство не обладает внутренним чувством того, что оно ошибается в данный момент. Его физическое состояние всегда одно и то же, оно совершенно индифферентно по отношению к каким-либо интенциональным оценкам. Мы приписываем действию автомата производные интенциональные состояния только потому, что сами обладаем внутренней интенциональ-ностью. Интенциональность наших действий во внешнем мире так же производна, как и интенциональность действий автомата, но у нас есть что-то еще: первичная интенция, абсолютно недоступная обсуждаемому устройству.
Отметим еще один момент. Конструкторы детектора по приему монет могут проявлять чудеса инженерной мысли, научая автомат различать не только вес, форму и материал монет, но и отчеканенные на ее поверхностях знаки и рисунки, так что устройство окажется способным отличать друг от друга равные по весу, форме и материалу американские и панамские монеты. Тем не менее даже в этом случае мы по-прежнему не сможем утверждать, что автомат понимает, что перед ним американская монета. Отчеканенные знаки и рисунки на американской монете что-то «значат» для автомата только в отношении внешнего сравнения этих неровностей с неровностями на панамской монете. Взятые сами по себе, без какого-либо внешнего материального отношения, эти неровности не значат ничего. В процессе работы автомата они не отсылают ни к какому внутреннему интенциональному содержанию. Детектор в принципе не может понять, что такое американская монета.
Если бы исследование Деннета заканчивалось только этим тезисом, то сложно было бы отыскать какой-то особый смысл в том, чтобы обсуждать его теорию отдельно. На самом деле позиция этого американского философа оказывается гораздо более оригинальной и в конце концов радикально отличной от интенционализма Д. Серла.
Деннет, как мы только что увидели, полностью соглашается с Серлем в том, что ИИ не обладает первичной интенциональностью, а довольствуется лишь ее производными формами, навязанными ему извне человеческим сообществом. Но в отличие от Серла он утверждает следующее: не только ИИ, но и человек не обладает первичной интенциональностью.
Миф о первичной интенциональности - один из самых глубоких предрассудков классической философской традиции Запада. ИИ оказывается действительно подобным человеческому сознанию, но не в том, что он, как и человек, обладает первичной интенциональностью, а наоборот, в том, что человек, как и ИИ, ею не обладает. Не ИИ похож на человека, а человек на ИИ. Деннет снова пытается проиллюстрировать свою позицию с помощью конкретных примеров. Последуем за ним.
Некто Джонс, отправившись в космическое путешествие, прибывает на планету Земля-Двойник (ЗД). Все здесь оказывается Джонсу знакомо: люди, дома, деревья, небо, - все как на Земле. Пообедав в ресторане, пообщавшись с местными жителями и неспешно прогуливаясь по городу, Джонс наткнулся на рекламный проспект, сообщающий об очередном туре скачек на лошадях на местном ипподроме. Джонс был очень возбужден этим обстоятельством и немедленно отправился на ипподром. А возбуждение его было связано с тем, что на Земле он был предупрежден об одной странности фауны той планеты, на которую он улетал. ЗД есть точная копия Земли с одним исключением. Там на скачках кроме лошадей (horses) можно встретить особых животных - смошадей (schmorses в терминологии Деннета). Смошади ни по виду, ни по повадкам совершенно не отличаются от лошадей. И тем не менее смошади не есть лошади.
Так как Джонс имел интерес к познанию и был склонен к самонаблюдению, то его очень волновал вопрос о том, что с ним будет происходить, когда он увидит на ипподроме животных, как он будет пытаться отличить лошадь от смошади. При этом он знал, что данная эпистемологическая ситуация радикализируется тем фактом, что местные жители на ЗД для именования и смошадей, и лошадей используют одно и то же слово -«лошадь», так что выяснить у них с помощью вопроса то, с чем он имеет дело в своем восприятии, не представляется возможным.
Попав на ипподром и тщательно сосредоточившись на своих внутренних состояниях, наш герой обнаружил, что не имеет в данный момент ничего, что можно было бы назвать первичным интенциональным содержанием. Глядя на проносившихся мимо него животных, он не знал, как себя вести, о чем думать: о том, что он имеет действительное восприятие лошади; о том, что он имеет восприятие лошади, но ошибается, так как перед ним на самом деле смошадь; о том, что он имеет действительное восприятие смошади; или о том, что имеет восприятие смошади и ошибается, так как перед ним на самом деле лошадь?
Суть проблемы в том, что восприятие как определенное психическое переживание действительно имеет место, так же как имеет место физиче-
ское состояние автомата Пепси-Колы в тот момент, когда в него опускают монету, но вот само интенциональное содержание в качестве смысловой интерпретации воспринимаемого объекта равным образом отсутствует в обоих случаях.
Сколь бы фантастическим ни выглядел пример Деннета, он в качестве универсального эпистемологического аргумента вполне может быть распространен на любое проявление познавательной активности субъекта, на все сферы опыта вообще. Чтобы увидеть здесь проблему, не нужно отправляться в далекое космическое путешествие, эту проблему можно проиллюстировать и вполне «земными» примерами с той же монетой. Туземец, далекий от понятия о деньгах, но восхищенный прочностью вещи и ее эстетической привлекательностью (блестящая, идеально круглая), будет демонстрировать ее сородичам в качестве магического талисмана, дающего ему, скажем, какие-то новые силы и существенное превосходство над остальными. Если мы дадим эту вещь любому ребенку, который также еще не имеет понятия о деньгах, мы увидим, какое новое применение он найдет для нее - допустим, он поставит монету на ребро и будет катать ее, представляя колесо, и т.д.
Эти примеры показывают, что сама вещь не имеет никакого смысла. Она является только знаком, за которым именно мы сами обнаружим какие-либо значения. Но исходя из вышесказанного, видно, что значений у этого знака может быть много. Данный предмет может стать и монетой, и талисманом, и детской игрушкой. Спрашивается, что представляет собой его подлинное, правильное значение? Что я должен иметь в виду, какое интенциональное содержание, обращаясь в чувственном опыте к данной вещи? По мысли Д. Деннета, не существует однозначно корректного ответа на данный вопрос. Но вот что важно. Человеку в практической деятельности в мире вовсе и необязательно доискиваться до «подлинного смысла» вещей. Он, как правило, вполне удовлетворяется операциональной деятельностью с объектами. Если он подаст монету через прилавок продавцу и получит в ответ коробок спичек, то его вполне устроит этот уровень познания окружающей действительности. Если человек, оказавшись на скачках, сделает ставку на лошадь № 4, и она придет первой, что позволит человеку забрать выигрыш, то он вполне удовлетворится происходящим без ответа на сложные эпистемологические вопросы о том, что перед ним на самом деле: лошадь или смошадь.
Если представление об окружающем мире в психике человека зависит только от согласованных правил операций с объектами (более строго -с символами объектов, хотя Деннет не заостряет внимание на лингвисти-
ческой стороне вопроса), то ИИ думает и понимает ничуть не меньше человека, точнее, человек понимает ничуть не больше, чем ИИ. Система программ возможного ИИ может охватить собой весь мир так, что при взаимной согласованности правил оперирования с объектами своей деятельности каждый элемент ИИ будет демонстрировать понимание происходящего (в прямом и единственном смысле этого слова), этот мир будет так же полон смысла, как и человеческий мир. Только понимание будет состоять не в проникновении в «глубинную смысловую суть вещей», а в фиксации правил оперирования с объектами в определенной системе.
«Философский зомби» Д. Чалмерса
Если человек лишен подлинных интенциональных состояний, которые должны выступать основанием сознательной жизни, то его можно рассмотреть в рамках концепта «философского зомби». Данный концепт был предложен Д. Чалмерсом [5] при обсуждении гипотетического существа, внешнее поведение которого полностью соответствует обычному человеческому поведению, но без какой-либо внутренней сознательной жизни. Зомби может обращаться с вещами окружающего мира так же, как и человек, усваивая правила согласованного оперирования с данными объектами. Например, он точно так же, как и человек, может пойти на скачки и поставить на лошадь № 4, выиграть, получить выигрыш, может подать монету через прилавок продавцу и получить коробок спичек, но это будет именно зомби, а не человек. Различие состоит в том, что зомби будет осуществлять все свои действия в «ментальной темноте», он не будет находиться в сознательном состоянии, не будет понимать смысла тех вещей, с которыми имеет дело.
Представления Д. Деннета о ментальности человека в рамках вычислительной модели интеллекта с точки зрения концепта «философского зомби» анализирует, в частности, С. Брингсьерд [6-8]. Выводы, которые делаются на основании данного сравнения, как правило, таковы, что в случае принятия вычислительной модели интеллекта в ее деннетовской интерпретации мы вынуждены низводить человека до уровня зомби, а это представляет собой крайнее упрощение и уничижение человеческой сущности. Рассуждения подобного рода строятся в соответствии с логической формой рассуждения modus tollens: если вычислительная модель интеллекта в ее деннетовской интерпретации верна, то мы - зомби; мы -не зомби, следовательно, вычислительная модель интеллекта в ее деннетовской интерпретации не верна.
Психологический эффект «аргумента зомби» в дискуссиях вокруг вычислительной модели интеллекта
Следует отметить, что вторая посылка в вышеприведенном рассуждении в соответствии с modus tollens все же сомнительна. Представляется, что ее продуцирование связано, прежде всего, с тем психологическим эффектом, который производит «аргумент зомби». Данный аргумент в большей степени связан с определенной психологической атакой, призванной оказать влияние на впечатлительные натуры, тогда как необходимой логической и эпистемологической аргументацией эта психологическая атака не обладает. Если мы навешиваем на вычислительную модель интеллекта в ее деннетовской интерпретации какой-то пугающий ярлык, то таким образом данная модель еще не оказывается опровергнутой. Для того, чтобы показать несостоятельность деннетовской интерпретации, необходимо привести убедительные контраргументы на основе тщательных эпистемологических исследований, не зависимых от каких-либо факторов психологического или даже этического характера. Вычислительная модель интеллекта не создается на основании стремления принизить сущность человека, так же как и Ч. Дарвин не создавал с данной целью свое учение о происхождении человека и эволюции видов в мире живой природы. Данные научные концепции формируются с целью достижения объективного знания о сущности человека и его интеллектуальных способностях. Вычислительная модель интеллекта в ее деннетов-ской интерпретации хорошо вписывается в общую канву эволюционной эпистемологии, показывая, как развивается человеческий интеллект, постоянно совершенствуя свои навыки приспособления к окружающей среде посредством чрезвычайно сложной и многообразной операциональной деятельности с объектами окружающего мира. Данная концепция также позволяет сделать позитивные выводы о перспективах развития искусственных интеллектуальных систем, утверждая отсутствие принципиального различия в сущности и результатах деятельности естественной и искусственной форм интеллекта.
ЛИТЕРАТУРА
1. Haugeland J. Artificial Intelligence: The Very Idea. Cambridge, MA : MIT Press, 1981.
2. Dennett D. Evolution, Error and Intentionaly // Sourcebook on the Foundations of Artificial Intelligence / Y. Wilks, D. Partridge (eds.). New Mexico University Press, 1988.
3. DennettD. Intentionality // The Oxford Companion to the Mind / R.L. Gregory (ed.). Oxford University Press, 1987.
4. Searle J. Minds, Brains, and Programs // The Philosophy of Artificial Intelligence / M. Boden (ed.). Oxford University Press, 1990.
5. Chalmers D. The Conscious Mind: In Search of a Fundamental Theory. New York ; Oxford : Oxford University Press, 1996.
6. BringsjordS. What Robots Can and Can't Be. Dordrecht : Kluwer, 1992.
7. Bringsjord S. In Defense of Impenetrable Zombies // Journal of Consciousness Studies. 1995. № 2 (4). P. 348-351.
8. Bringsjord S. The Zombie Attack on the Computational Conception of Mind // Philosophy and Phenomenological Research. 1999. Vol. 59, № 1. P. 41-59.