Научная статья на тему 'ПОНИМАНИЕ КАК КРИТЕРИЙ СОЗНАНИЯ В АНАЛИТИЧЕСКОЙ ФИЛОСОФИИ'

ПОНИМАНИЕ КАК КРИТЕРИЙ СОЗНАНИЯ В АНАЛИТИЧЕСКОЙ ФИЛОСОФИИ Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
82
19
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
СОЗНАНИЕ / МЕНТАЛЬНОЕ СОСТОЯНИЕ / ПОНИМАНИЕ / НЕЙРОКОМПЬЮТЕРНАЯ СИСТЕМА

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Гау А. С.

Статья посвящена исследованию возможности использования понимания в качестве критерия наличия сознания в аналитической философии. Проблема искусственного интеллекта и ментальных состояний в нейронных системах является одной из важнейших проблем современной аналитической философии сознания. Вместе с тем, проблема критерия наличия или отсутствия сознательной деятельности нейрокомпьютерных моделей является на сегодняшний день проработанной не в полной мере: один из важнейших критериев - понимание - в современной аналитической философии подвергается критике. В связи с этим цель статьи заключается в доказательстве необходимости использования данного критерия для определения наличия ментальных состояний как единственно возможного на сегодняшний день. В статье рассматриваются наиболее известные аргументы «за» и «против» использования данного критерия, и делается вывод о необходимости пересмотра существующих взглядов на данную проблему.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

COMPREHENSION AS A CRITERION OF CONSCIOUSNESS IN ANALYTIC PHILOSOPHY

The paper studies possibility of using comprehension as a criterion of consciousness presence in analytic philosophy. The problem of artificial intelligence and mental states in neural systems is one of the most important in the contemporary analytic philosophy. At the same time, criteria of consciousness presence or absence in neural computationalmodelingarenotcompletelyresearchedtoday: oneofthemaincriteria- comprehension- is criticizedin the contemporary analytic philosophy. In this regard, the purpose of the paper is necessity argumentation of using this criterion for detecting the presence of mental states as the only possible nowadays. The most known pros and cons on the use of this criterion are discussed in the paper; and conclusion of the need to revise the existing views on this problem is drawn.

Текст научной работы на тему «ПОНИМАНИЕ КАК КРИТЕРИЙ СОЗНАНИЯ В АНАЛИТИЧЕСКОЙ ФИЛОСОФИИ»

УДК 165.12, 165.24

А.С. Гау, аспирант кафедры философии и социологии, ФГАОУ ВО «Казанский (Приволжский) федеральный университет»

e-mail: anastasia.gau@gmail.com

ПОНИМАНИЕ КАК КРИТЕРИЙ СОЗНАНИЯ В АНАЛИТИЧЕСКОЙ ФИЛОСОФИИ

Статья посвящена исследованию возможности использования понимания в качестве критерия наличия сознания в аналитической философии. Проблема искусственного интеллекта и ментальных состояний в нейронных системах является одной из важнейших проблем современной аналитической философии сознания. Вместе с тем, проблема критерия наличия или отсутствия сознательной деятельности нейрокомпьютерных моделей является на сегодняшний день проработанной не в полной мере: один из важнейших критериев - понимание - в современной аналитической философии подвергается критике. В связи с этим цель статьи заключается в доказательстве необходимости использования данного критерия для определения наличия ментальных состояний как единственно возможного на сегодняшний день. В статье рассматриваются наиболее известные аргументы «за» и «против» использования данного критерия, и делается вывод о необходимости пересмотра существующих взглядов на данную проблему. Ключевые слова: сознание, ментальное состояние, понимание, нейрокомпьютерная система.

Проблема сознания является одной из основных для современной аналитической философии. Изучение сущности сознания, принципов его деятельности, критериев наличия, условий возможности воссоздания ментальных состояний в искусственных нейронных системах ведется в исследованиях самых разнообразных направлений аналитической философии. Интерес к данной проблематике настолько велик, что можно говорить даже не об исследованиях сознания в рамках того или иного направления англо-американской мысли, а о существовании в ней особого раздела - аналитической философии сознания, в пределах которой и существуют различные подходы к решению единой для всех центральной проблемы.

Работы абсолютного большинства авторов - с момента возникновения аналитической философии и до настоящего времени - так или иначе, затрагивают проблему человеческого сознания и различных ее аспектов, из числа которых особо выделяется комплекс вопросов, связанных с проблемой искусственного интеллекта и критериями установления наличия сознания в искусственных нейронных системах. Как и сами исследования в области искусственного интеллекта, проблема критериев сознания в аналитической философии берет свое начало в середине ХХ столетия. Наиболее же известными ее исследователями в англоамериканской традиции являются такие ученые как А. Тьюринг [4], Дж. Серл [3; 9; 10], Х. Патнем [2], Д. Чалмерс [5]. Именно их работы задают центральные идеи аналитической философии сознания в данном отношении, определяя дальнейшее направление философского поиска.

В качестве частных случаев исследований в области аналитической философии сознания предстают проблемы искусственного интеллекта, особенностей его функционирования, отличий от интеллекта естественного, а также вопрос о необ-

ходимости установления критериев, на основании которых мы можем сделать заключение о наличии у некой вычислительной системы ряда ментальных состояний, а не о простом следовании ею заранее заданным программам. Несмотря на некоторое падение интереса к проблемам искусственного интеллекта, характерное для современного этапа развития аналитической философии (в отличие, скажем, от 80-х годов прошлого столетия, когда данная проблематика вызывала огромный интерес), они все еще остаются одними из основных вопросов аналитической философии сознания.

Действительно, изучение проблемы искусственного интеллекта и различных ее аспектов открывает перед современным исследователем самые широкие перспективы. Интерес философов-аналитиков в данном случае вовсе не является праздным: ответ на вопросы, связанные с особенностями функционирования «электронного мозга», даст возможность по-другому взглянуть на деятельность человеческого сознания, позволит сделать далеко идущие выводы об условиях воспроизведения ментальных состояний и станет основанием для развития принципиально нового подхода к проблеме сознания в целом. При этом вовсе необязательно сосредоточиваться на самой возможности (или невозможности) создания искусственного интеллекта: в данном случае из двух вопросов - «Может ли машина мыслить?» и «Какими свойствами будет обладать сознание искусственной системы?» исследователей интересует, скорее, последний.

В то же время, одной из центральных проблем искусственного интеллекта на сегодняшний день является проблема поиска критерия, на основании применения которого мы можем сделать вывод о том, что некий механизм действительно мыслит, а не выполняет алгоритм - последовательность действий, заданную ему извне.

С момента возникновения проблемы искус-

ственного интеллекта в аналитической философии и науке основным критерием сознательной деятельности созданного человеком механизма стало наличие понимания в системе «человек-машина». Достигнув к середине ХХ века пика своего развития в работах Тьюринга [4], данная точка зрения была весьма убедительно опровергнута Серлом [3; 9; 10] в 80-е годы прошлого столетия. С тех пор аргумент Серла рассматривается в качестве ключевого в данном отношении, становясь важнейшим основанием критики понимания как критерия наличия у системы ментальных состояний.

В то же время, на наш взгляд, «китайская комната» и даже «китайский спортзал» Серла вовсе не являются убедительными аргументами в пользу утверждения о невозможности использования ситуации наличия понимания для заключения о существовании сознания у некой вычислительной системы. В данной статье, посвященной исследованию возможности использования критерия понимания в аналитической философии для заключения о наличии сознания у искусственно созданной нейро-компьютерной системы, мы постараемся доказать это.

Итак, от ответа на вопрос о том, каковы условия возникновения понимания, что является необходимым и достаточным условием его возникновения, зависит, в конечном итоге, ответ на вопрос о том, в чем разница между искусственным и естественным интеллектом. Именно в этом, на наш взгляд, был прав Тьюринг: необходимо попытаться установить единый критерий возникновения понимания между коммуницирующими субъектами, один из которых наверняка обладает сознанием, и тогда, используя этот критерий, мы сможем утверждать о наличии сознания и у второго говорящего. Более того, этот же аспект деятельности сознания - правда, в негативном смысле - рассматривал в своих работах Серл, приводя аргумент китайской комнаты [3; 9; 10]. Вывод американского философа о невозможности использования критерия «адекватные ответы на поставленные вопросы» в качестве доказательства существования сознания, в целом, является верным, однако оно не учитывает, на наш взгляд, несколько важных моментов.

В первую очередь Серл, используя аргумент китайской комнаты, пытается с его помощью доказать несостоятельность теста Тьюринга. Его рассуждения выглядят приблизительно следующим образом: человек, находящийся в китайской комнате, демонстрирует способность верно ответить на предлагаемые ему вопросы, строго следуя определенной, заранее данной инструкции. Благодаря своим точным действиям этот человек демонстрирует способность понимания китайского языка, из чего говорящий с ним носитель китайского заключает о способности своего собеседника понимать его. Однако на самом деле ни о каком действительном

знании языка не может идти и речи: находящийся в комнате субъект не только не понимает вопросы, но и не имеет ни малейшего представления о тех ответах, какие он дает.

Эта ситуация рассматривается Серлом в качестве убедительного доказательства невозможности использования критерия понимания для определения наличия или отсутствия сознательной деятельности. Синтаксис, по его убеждению, никогда не может породить семантики. И, в данном отношении, американский философ, несомненно, прав. Однако, пытаясь применить свои выводы к положению о существовании искусственного интеллекта, он проводит параллели между действиями согласно определенному, предзаданному синтаксису и ситуацией кажущегося понимания, а также между семантическими характеристиками высказываний и сознательной деятельностью. В результате философ говорит о невозможности использования критерия понимания в качестве доказательства существования сознания, не замечая того, что таким образом он оставляет без внимания одну важную деталь собственных рассуждений: в китайской комнате действительно отсутствует понимание.

Иначе говоря, Серл создает модель, в которой изначально предусмотрено отсутствие всякой возможности для установления понимания между коммуницирующими субъектами (если говорить точнее, взаимопонимания, в то время как понимание присутствует, хоть и с одной стороны - ведь тот, кто владеет китайским языком, все же ведет осмысленную беседу). И, как это ни парадоксально, данную модель философ применял, чтобы показать невозможность использования понимания (которого, еще раз отметим, там изначально нет и быть не может) для доказательства существования сознания. Именно при помощи мысленного эксперимента «китайская комната» Серл опровергает аргументацию Тьюринга.

Рассуждения американского философа в действительности вовсе не доказывают того, что понимание невозможно использовать в качестве критерия сознательной деятельности. Таким образом, мы вновь возвращаемся к положению о правоте Тьюринга.

Однако и здесь необходимо сделать небольшую оговорку. Начав с верного, на наш взгляд, утверждения о необходимости обращения к пониманию как критерию сознательной деятельности, Тьюринг, в конечном итоге, сводит свою аргументацию к рассмотрению лишь внешних характеристик, якобы указывающих на понимание. Его рассуждения можно свести к убеждению в том, что возникновение мышления является следствием существования системы, состоящей из входящих и исходящих сигналов, связанных между собой определенной программой, устанавливающей верное соответствие реакций (исходящих сигналов) внешнему раздражителю (входящему сигналу).

Действительно, если трактовать работу человеческого мозга именно так, то сознание становится лишь частным случаем компьютерной программы, устанавливающей принципы взаимодействия человека со средой. Следствием такого убеждения, по Тьюрингу, является тезис о том, что внешних признаков, указывающих на наличие понимания в диалоге между человеком и машиной, оказывается достаточно для наделения последней признаком разумности.

Именно здесь, по нашему убеждению, и кроется ошибка британского ученого. Дело в том, что в ходе аргументации Тьюринга имеет место заключение от следствия к основанию, что не может быть признано корректным.

Действительно, тест Тьюринга представляет собой заключение по типу:

А ^ В

А

_ (1)

В

В то время как правильной формой было бы заключение следующего вида:

В ^ А

В

_ (2),

А

где А - наличие понимания в диалоге между человеком и машиной, В - наличие у машины сознания.

Такой тип заключения можно проиллюстрировать следующим примером: говоря о связи между мокрой крышей и идущим дождем в случае верного рассуждения (формула 2), нужно сказать «Если идет дождь, то крыша мокрая. Идет дождь. Значит, крыша мокрая». В то время как Тьюринг, по сути, утверждает следующее: «Если крыша мокрая, то идет дождь. Крыша мокрая. Значит, идет дождь», что не может, конечно, быть верным умозаключением, так как крыша может быть мокрой по какой-то другой причине.

Другими словами, Тьюринг, как и Серл, совершает ошибку, отождествляя простое следование синтаксическим правилам и ситуацию установления понимания, и его изначальное положение сводится к следующему (используя язык Серла): верное следование требованиям синтаксиса свидетельствует о наличии семантической определенности высказываний. Что, как мы уже отмечали, убедительно опровергается моделью китайской комнаты.

Таким образом, мы приходим к выводу о том, что на сегодняшний день не существует ни одного убедительного аргумента в пользу тезиса о невоз-

можности использования понимания в качестве критерия наличия ментальных состояний.

Используя аналогию с принципом презумпции невиновности, мы можем утверждать следующее: до тех пор, пока не доказана невозможность использования понимания в качестве критерия сознательной деятельности, оно (понимание) может и должно считаться признаком, на основании наличия которого мы заключаем о том, что наш собеседник представляет собой разумное существо, а не вычислительную систему, действующую согласно заранее заданному алгоритму. Другими словами, мы представляем позицию, согласно которой понимание не только может, но и должно стать - если не единственным, то, по крайней мере, основным -критерием наличия сознания у искусственно созданного механизма.

Принятие данного положения вовсе не означает, как это может показаться, необходимости следования принципам «заключения по аналогии». Речь идет не о том, чтобы любую адекватную беседу между человеком и компьютером рассматривать в качестве доказательства существования искусственного интеллекта.

Действительно, исходя из современного уровня развития информационных технологий, мы вполне можем вообразить «диалог» машины с человеком, в ходе которого вычислительная система, используя достаточно сложный алгоритм, даст на все вопросы ответы, неотличимые от ответов субъекта, наделенного естественным интеллектом. Такого рода ситуация является далеко не фантастической.

Однако, несмотря на кажущееся взаимопонимание между человеком и компьютером, наблюдаемое нами в описываемом случае, ни о каком действительном понимании здесь говорить не приходится. Это именно тот случай, который описывает Серл: строгое следование со стороны машины правилам синтаксиса при полном отсутствии семантики в продуцируемых им высказываниях.

Именно поэтому, говоря о понимании как основном критерии наличия у системы интеллекта, мы имеем в виду действительное понимание, не зависящее от алгоритмов и рождающееся в процессе взаимодействия двух сознаний (одно из которых - естественное, а второе - искусственное). Такого рода понимание представляет собой проблему, так как само нуждается в критериях для установления его наличия.

И здесь нам на помощь приходит весьма интересный, на наш взгляд, аргумент, мало известный широкому кругу исследователей в области философии - аргумент, предложенный польским писателем Станиславом Лемом в его небольшой статье «Тайна китайской комнаты», посвященной рассмотрению сущности теста Тьюринга и особенностей теоретического эксперимента «китайская комната» Серла [1].

В этой работе Лем предлагает в качестве положения, доказывающего несостоятельность теста Тюринга, нахождение таких вопросов, которые покажут принципиальную неспособность «китайской комнаты» понимать тексты. Для определения наличия в комнате сознания писатель в качестве критерия избирает нечто вроде усовершенствованного теста на понимание, замечая, однако, что нужно задавать не вопросы вообще, а только те из них, которые преднамеренно содержат в себе указание на заведомо ложный ответ, либо вопросы о том, чего в рассказе вообще не содержится (даже в имплицитном виде).

На наш взгляд, такой подход вполне может быть использован для определения способности искусственно созданной системы действительно понимать обращенную к ней человеческую речь. Более того, предложенный Лемом тест можно усовершенствовать, внедрив в диалог между человеком и машиной вопросы, вообще исключающие прямую логическую связь между ними и верными ответами, которые должны быть получены. В качестве примеров таких вопросов можно привести те, что часто используются детьми в их играх: «Что станет с синим платком, если окунуть его в Черное море?» Верным ответом здесь будет «Он намокнет», однако ничто в самом вопросе не дает основания для этого заключения, так что машине, не обладающей сознанием (то есть являющейся только лишь формальной системой - обладающей синтаксисом без семантики), правильно ответить на него будет невозможно.

Таким образом, способность системы ответить на предложенные «нелогичные» и противоречивые вопросы может стать достаточным критерием для заключения о наличии у нее возможности самой

создавать смыслы, а не черпать готовые ответы посредством обращения к заранее данному алгоритму. Другими словами, эта способность будет означать наличие у компьютера ментальных состояний.

Здесь необходимо подчеркнуть одно немаловажное обстоятельство: мы не говорим сейчас о том, возможно ли вообще создать искусственный интеллект. На наш взгляд, сосредоточение на вопросе, поставленном именно так, лишает аналитическую философию сознания огромного количества интереснейших тем для исследований. Действительно, на сегодняшний день, ответ на вопрос о том, возможно ли возникновение сознания в искусственно созданной нейрокомпьютерной системе, скорее всего, будет отрицательным, поэтому дальнейшее исследование свойств такой системы покажется бессмысленным. Однако, если заключить в скобки вопрос о возможности конструирования мыслящей машины, и, в рамках мысленного эксперимента, задать вопрос о том, каковы будут свойства уже существующего искусственного интеллекта и в чем будут его отличия от естественного, мы окажемся перед одной из наиболее интересных проблем современной аналитической философии сознания, решение которой откроет перед нами совершенно новые перспективы в области исследования человеческого мышления.

Таким образом, мы действительно можем утверждать о необходимости пересмотра точки зрения на проблему искусственного интеллекта, связанную с определением критерия его существования. Понимание с необходимостью должно стать такого рода критерием, тогда исследование процессов понимания в системе человек-машина окажется одним из наиболее продуктивных направлений в современной аналитической философии сознания.

Литература

1. Лем, С. Тайна китайской комнаты / С. Лем // Молох. - Москва: АСТ: Транзиткнига, 2005. - С. 246-255.

2. Патнэм, Х. Разум, истина, история / Х. Патнэм. - Москва: Праксис, 2002. - 296 с.

3. Серл, Дж. Открывая сознание заново / Дж. Серл. - Москва: Идея-Пресс, 2002. - 256 с.

4. Тьюринг, А. Может ли машина мыслить? / А. Тьюринг. - Москва: ГИФМЛ, 1960. - 102 с.

5. Чалмерс, Д. Сознающий ум: В поисках фундаментальной теории / Д. Чалмерс. - Москва: УРСС: Книжный дом «ЛИБРОКОМ», 2013. - 512 с.

6. Harmer, J. All in the Mind? / J. Harmer // The Cambridge Quarterly. - 2010. - Vol. 39. - pp. 385-391.

7. Hochstein, E. Categorizing the Mental / E. Hochstein // The Philosophical Quarterly. - 2016. - Vol. 66. -pp. 745-759.

8. Sanders, J.T. (1985) Experience, Memory and Intelligence / J.T. Sanders // The Monist. - 1985. - Vol. 68. -pp. 507-521.

9. Searle, J.R. Is the brain's mind a computer program? / J.R. Searle // Scientific American. - 1990. - Vol. 3. -pp. 26-31.

10. Searle, J.R. Minds, Brains, and Programs / J.R. Searle // The Behavioral and Brain Sciences. - 1980. -Vol. 3. - pp. 417-457.

i Надоели баннеры? Вы всегда можете отключить рекламу.