В.А. Ладов
ПЛЮРАЛИЗМ ФИЛОСОФСКИХ ИНТЕРПРЕТАЦИЙ ПРИНЦИПОВ РАЗУМНОЙ ДЕЯТЕЛЬНОСТИ В КОНТЕКСТЕ ИССЛЕДОВАНИЙ В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
Работа выполнена при поддержке РФФИ. Грант № 06-06-80003а
Представлены различные парадигмы понимания сущности разумной деятельности, которые можно зафиксировать в философских теориях сознания. Задача автора состоит в демонстрации того, как выбор какой-либо парадигмы понимания разумности детерминирует стратегию исследований в области искусственного интеллекта.
Главный тезис, истинность которого должны подтвердить аргументы, представленные в данной статье, состоит в том, что на основной вопрос в области исследований искусственного интеллекта, сформулированный А.М. Тьюрингом [1], - «Могут ли машины мыслить?» - мы в принципе не можем получить никакого ответа в общем виде.
Своеобразие проблем определения понятия искусственного интеллекта и прояснения вопросов о возможностях его работы состоит в том, что сами технические устройства, которые мы называем интеллектуальными, нам хорошо известны. Человек сам построил их. Он может досконально проследить весь процесс создания и функционирования этих систем. Главная сложность заключается в том, что у нас по-прежнему нет четких и однозначных ответов на вопросы о естественном разуме,
о его сущности и принципах деятельности. На настоящий момент существует достаточное количество конкурирующих теорий, повествующих о том, что следует считать существенными признаками разумности. Отсюда следует, что при выборе той или иной теории естественного разума у нас будет изменяться взгляд и на то, что мы называем искусственным интеллектом. Будет изменяться наша оценка его возможностей.
Ниже представлены различные парадигмы понимания сущности разумной деятельности, которые можно зафиксировать в философских теориях сознания. При этом вопрос о полноте излагаемых подходов не является принципиальным. Мы не претендуем на то, чтобы дать исчерпывающий обзор таких парадигм в современной философии. Скорее, наша задача состоит в демонстрации того, как выбор какой-либо парадигмы понимания разумности детерминирует стратегию исследований в области искусственного интеллекта, что должно выступить решающим аргументом в поддержку главного тезиса статьи.
Первую из парадигм, которая будет рассмотрена, кратко можно было бы именовать так: «интеллект как исчисление понятий». Данное понимание сущности разумной деятельности имеет своим истоком новоевропейскую философскую традицию, в рамках которой, в частности в работах Лейбница и Декарта, обсуждалась проблема специфики человека, прояснения отличия его природы от природы других живых существ. Философы стремились показать, в чем именно состоит превосходство человека над животным, какие сущностные черты его бытия позволяют выделить человека из всего остального сущего, придать ему особый статус. И в рамках данного обсуждения вопроса главным
критерием особого статуса человеческого разума признавалась способность к дискурсивным аналитическим и синтетическим мыслительным процедурам, т.е. способность производить умозаключения, сочленять или же напротив разъединять определенные элементы мысли в соответствии с заданными операциональными правилами - алгоритмами. Например, в качестве одного из наиболее характерных проявлений этой способности называли математическое вычисление, которым не обладают животные. Этот ход мысли был оправдан в силу того, что провести столь кардинальное различие между человеком и животным по другим пунктам представлялось маловероятным, ведь животные так же, как и люди, наделены перцептуальным аппаратом, позволяющим различать предметы, и должным образом, исходя из биологических потребностей, ориентироваться в окружающей среде. Кроме того, животные способны (что в настоящее время получает все большее подтверждение) и на продуцирование эмоциональных состояний.
После того как сущностью разумной деятельности была признана способность к осуществлению аналити-ко-синтетической деятельности при оперировании с понятиями, способность к формированию умозаключений, в новоевропейской философии и науке имел место ряд дальнейших событий, которые в конечном итоге, во-первых, привели к идее создания систем искусственного интеллекта и, во-вторых, сформировали очень оптимистические представления о возможностях таких технических систем. Среди важнейших событий, выступивших предпосылками формирования идеи искусственного интеллекта, можно назвать следующие.
A) Формализация естественного языка, начало которой было положено Аристотелем при описании способов возможных умозаключений. В Х1Х в. на основе алгебры Дж. Буля, которая представляла собой формализацию арифметических действий, было предложено воспользоваться алгебраическим языком и для формализации логического процесса рассуждения. Были введены символы для всех возможных логических констант, характеризующих формальные элементы в суждениях -логические союзы: отрицание «-», дизъюнкция «V», конъюнкция «&», импликация <о», тождество «=».
B) Формализация главных логических референтов «истина» и «ложь» в виде арифметических символов 1 и 0. Задание референтов для каждого логического союза, проведенное Фреге. Позднее введенные, в частности Л. Витгенштейном, таблицы истинности завершили процесс формализации мышления.
С) В 30-е гг. XX в. пионеры информатики, и прежде всего американский ученый Клод Шеннон, поняли, что двоичные единица и нуль вполне соответствуют двум состояниям электрической цепи (включено - выключено), поэтому двоичная система идеально подходит для электронно-вычислительных устройств. Была осуществлена аналогия представления логических референтов суждений при помощи электрических сигналов:
1 - наличие сигнала; 0 - отсутствие сигнала.
Е) Построение ламповых и транзисторных электрических схем. Создание логических микросхем. Все это привело к тому, что электронное техническое устройство оказалось способным оценивать истинность или ложность сложных умозаключений на основании логического анализа их содержания, а это уже в явном виде представляло собой воспроизведение одной из главных функций интеллектуального поведения в данной парадигме понимания разума. Например, машина вполне четко и даже в гораздо более сжатые сроки, нежели человек, смогла бы оценить логическую истинность транзитивного рассуждения ((А з В) & (В з С)) з (А з С). В итоге при принятии парадигмы «интеллект как исчисление понятий» (т.е. как аналитико-синтетическая деятельность по сочленению или разъединению понятий и суждений, как последовательное продуцирование умозаключений с оценкой их истинности) мы должны признать: система искусственного интеллекта мыслит. Понятно, что структурная организация такого явления, как естественный человеческий язык, очень сложна, и нельзя сказать, что проблемы формализации на сегодняшний день решены целиком и полностью. Однако здесь важен, прежде всего, сам принцип: если осуществить логическую формализацию языка и мышления, то данный процесс вполне может быть воспроизведен на устройствах технического типа.
Подтверждением этого тезиса выступает обработка математического рассуждения. Очевидно, что умозаключения в математике представляют собой лишь частный случай логических умозаключений вообще. Вместе с тем их специфика состоит в чрезвычайно простом, однозначном и однородном содержательном наполнении - здесь мы имеем дело лишь с количественными характеристиками чего бы то ни было, что позволяет без труда осуществить необходимую формализацию данных умозаключений. Неслучайно, что именно выполнение вычислительных математических задач стало «визитной карточкой» многих поколений систем искусственного интеллекта.
Столь претенциозный вывод о разумности технической системы, который следует из принятия парадигмы «интеллект как исчисление понятий», заставил тех, кто не желал смириться с признанием возникновения рядом с человеком подлинного конкурента по разуму, искать переформулировку существенных признаков мышления, таких, которые бы отсутствовали у систем ИИ. Так возникла новая парадигма: «интеллект как восприятие».
В соответствии с парадигмой «интеллект как восприятие» утверждалось, что аналитико-синтетическая деятельность ума представляет собой только малую часть возможностей разумного поведения человека. Выдающимися проявлениями разумной жизни признавались возможность восприятия объектов в мире, их осмысления, подведения под различные родовые понятия, возможность разнообразных волевых действий,
направленных на эти объекты, возможность обучения ориентации в окружающей среде.
Вместе с тем нашлись и те, кто принял вызов этой новой парадигмы интеллекта и утверждал возможность построения систем ИИ, соответствующего ей. Среди наиболее известных представителей этого направления можно назвать Нортона Винера [2], который занимался теоретическим обоснованием возможности построения искусственных систем, соответствующих биологической природе человека. Винер проводил исследования по моделированию чувственного восприятия человека, его ориентации в окружающей среде, его способности к обучению методом проб и ошибок, используя достижения различных областей знаний (математика, нейрофизиология, физика, электроника). Из тех, кто на практике пытался реализовать парадигму «интеллект как восприятие» при построении систем ИИ, следует выделить прежде всего Фрэнка Ро-зенбланта. В 1958 г. им была предложена модель электронного устройства, названного им перцептроном, которое должно было бы имитировать процессы чувственного восприятия. Собственно, данные разработки и положили начало совсем иному, нежели построение электронновычислительных машин, пути развития инженерной мысли в области искусственного интеллекта - робототехники. И в основании данного инженерного поворота, как мы можем видеть, лежала как раз сугубо теоретическая, философская трансформация понимания принципов интеллектуальной деятельности, смена парадигм оценки разумного поведения. Однако возможности перцептрона были ограниченными: машина не могла надежно распознавать частично закрытые буквы, а также буквы иного размера или рисунка, нежели те, которые использовались на этапе ее обучения. Вообще, идея, предрекающая перцептрону большое будущее, как оказалось, выдавала желаемое за действительное. До сих пор конструирование на практике систем ИИ, способных ориентироваться в окружающей среде, распознавать объекты и классифицировать их, продвигается очень медленно. Один из авторитетных исследователей в области ИИ - Марвин Мински - продемонстрировал крайний пессимизм по этому поводу, заявив, что, не говоря о роли подвижных роботов или машин, способных читать, слушать и понимать прочитанное или услышанное, перцептроны никогда не обретут даже умения распознавать предмет, частично заслоненный другим. Глядя на торчащий из-за кресла кошачий хвост, подобная машина никогда не сможет понять, что она видит.
Для тех же, кто с радостью воспринял поражение перцептрона в соревновании с разумом человека, пришлось столкнуться с весьма неприятным теоретическим курьезом парадигмы «интеллект как восприятие», отмеченным Ларри Хосером [3]. Мы уже зафиксировали тот факт, что когда Декарт и Лейбниц предлагали парадигму «интеллект как исчисление понятий», они руководствовались желанием провести кардинальное различие между человеком и животным. Способность к последовательному рассуждению признавалась главным специфическим признаком человеческого разума. Принятие парадигмы «интеллект как исчисление понятий» привело, как мы установили выше, к признанию разумности искусственной интеллектуальной системы. ИИ оказался полностью подобным человеку в его существенных признаках. Те, кто не желал смириться с
этим положением дел и пытался спасти уникальность человека, предложили парадигму «интеллект как восприятие», настаивая на том, что сущностные черты человеческого разума находятся за пределами аналитикосинтетической деятельности. В такой парадигме человека действительно удается отличить от ИИ Но при этом вышеупомянутые мыслители не заметили того, что эта новая парадигма снова низводит человека до уровня животного, не позволяет провести здесь какого-то кардинального различия, т.е. того, к которому как раз и стремились Декарт и Лейбниц, формулируя свое понимание разума. В итоге курьезная ситуация борьбы этих двух парадигм состоит в следующем: человеку никак не удается найти уникальное место; он оказывается подобным либо системе искусственного интеллекта (при выборе парадигмы «интеллект как исчисление понятий»), либо обычному биологическому организму животного (при выборе парадигмы «интеллект как восприятие»).
Существуют и иные ответы на вопрос, что, собственно, мы хотим сымитировать, создавая систему искусственного интеллекта? Например, в рамках парадигмы «интеллект как рефлексия», которую можно зафиксировать в исследованиях М. Мински [4], утверждается, что об интеллекте можно говорить тогда, когда система не просто способна совершать операциональные действия, но и делать предметом внимания сам способ оперирования объектами, т.е. рефлектировать по поводу своей собственной деятельности. Очевидно, что, ориентируясь на данную парадигму, инженеры должны преследовать иные задачи, нежели, скажем, разработчики перцептро-на, ибо теперь важнейшим элементом, указывающим на интеллектуальность системы, оказывается ее способность к самообучению посредством корректировки собственных методов операциональной деятельности. Первейшей важностью в работе компьютерной шахматной программы вовсе не является, например, способность к зрительному восприятию противника, но иметь элементы самообучения в процессе игры хорошая шахматная программа конечно же должна.
Мыслители, разделяющие парадигму «интеллект как самоидентичность», полагают, что сущностью разума не следует считать ни способность к рассуждению, ни осмысленное восприятие объектов. Основной отличительной чертой разумного поведения признается способность к самоидентификации. Самоидентификация - это осознанность своих действий, способность в любой произвольно взятый момент отдать себе отчет о своих внутренних состояниях, способность подвести все свои психические переживания под единое основание сознания, которое в языке обозначается словом «я».
Выработав данное определение разума, представители этой парадигмы тут же поспешили заявить, что именно здесь проходит подлинная демаркация человеческого разума и искусственного интеллекта. Системы искусственного интеллекта могут быть способны на моделирование рассуждений и даже на моделирование восприятия, но ни одна из таких систем не способна на осуществление актов самоидентификации. Проще говоря, ни один компьютер не способен сказать себе «я».
Однако такая позиция также оказалась уязвимой для критики. Главный критический аргумент здесь состоял в фиксации препятствия для интерпретации интер-
субъективности. Допустим, перед вами находятся двое -компьютер на столе и человек, стоящий рядом. Вы задаете вопрос человеку, и он вам отвечает. Посредством соответствующего интерфейса вы задаете вопрос компьютеру, и он точно так же, как и человек, отвечает на вопрос. Например, вы спрашиваете человека-энциклопедиста: «Как называется столица государства Непал?» Он вам отвечает: «Катманду». Очевидно, что точно такой же вопрос можно поставить перед справочной системой электронной энциклопедии и получить точно такой же ответ. В таком случае можно спросить, на каком основании находящемуся перед вами человеку вы приписываете свойство самоидентификации, а стоящему рядом компьютеру - нет? Строго говоря, свойство самоидентификации с полной очевидностью мы можем обнаружить только в нас самих. Другим субъектам мы приписываем это свойство только по аналогии со своим собственным. Мы не можем проникнуть в их внутренний мир, в их сознание. Мы можем лишь наблюдать подобие между собой и другими субъектами во внешнем поведении. И только на основании этого подобия мы наделяем противостоящего субъекта самосознанием, предполагаем, что и его внутренний мир также подобен нашему. Однако если аналогия становится возможной только на основании внешнего поведения, то почему мы не продуцируем ее в отношении компьютера? Его внешнее поведение также оказывается вполне подобным нашему. Ему задают вопрос - он отвечает. Нет ничего невозможного даже в том, чтобы научить компьютер на вопрос: «Это ты?» отвечать: «Я», или на вопрос: «Ты понимаешь, что это ты?» отвечать: «Да, я понимаю, что это Я». На основании этих данных система ИИ вполне заслуживает того, чтобы ей, так же, как и человеку, была приписана способность к самоидентификации.
В данном случае главная проблема состоит даже не в том, почему мы не приписываем свойство самосознания компьютеру, а в том, почему, на каком основании мы приписываем свойство самосознания другим существам, наделенным естественным разумом? Пока не найдется ответа на этот вопрос, мы не сможем провести различие между человеческим разумом и системой искусственного интеллекта по заданному основанию.
Одна из наиболее впечатляющих философских дискуссий по проблемам искусственного интеллекта за последние десятилетия представляла собой споры вокруг парадигмы интенциональности в рамках которой к вопросу о статусе и возможностях ИИ подошел хорошо известный американский философ Д. Серл. Включившись в дискуссию об ИИ, Д. Серл представил свой, ставший широко известным «аргумент китайской комнаты» [5], суть которого сводится к следующему. Допустим, человека, владеющего только английским языком, помещают в изолированную от внешнего мира комнату и предоставляют ему для чтения текст на китайском языке. Естественно, в виду того что он не имеет ни малейшего представления о значении китайских иероглифов, текст оказывается для него набором чернильных закорючек на листе бумаги - человек ничего не понимает. Затем ему дают еще один лист бумаги, исписанный по-китайски и в придачу определенную инструкцию на родном для него английском о том, как можно было бы сравнить два китайских текста. Эта инструкция научает выявлению тождественных символов
и определению закономерности их вхождения в более общий контекст. Когда приносят третий китайский текст, к нему прилагают вторую английскую инструкцию о сравнении последнего с двумя предыдущими и т.д. В итоге после продолжительных упражнений испытуемому приносят чистый лист бумаги и просят что-нибудь написать по-китайски. К этому времени человек из китайской комнаты настолько хорошо освоил формальные символические закономерности, что, на удивление, действительно оказался способным написать вполне связный и понятный любому грамотному китайцу текст. И наконец, чтобы произвести должный эффект, человека выводят из комнаты на обозрение широкой публике и представляют как англичанина, изучившего китайский, что сам виновник презентации не замедлит подтвердить своим безукоризненным знанием иероглифического письма.
Так понимает ли наш испытуемый китайский? Серл дает категорически отрицательный ответ на этот вопрос. Понимание должно сопровождаться актами первичной интенциональности, в которых сознание, еще до всякого обращения к каким-либо материальным носителям, т.е. к речи или письму, способно концентрироваться на внутренних интенциональных содержаниях как не редуцируемых ни к чему другому фактах автономной психической жизни. Интенциональность языка производна, она возникает при намеренном наделении изначально пустых знаков значением, посредством замещения внутреннего интенционального содержания пропозициональным содержанием синтаксически организованных структур.
Для общественности, которая оценивала результаты обучения человека из китайской комнаты, возникла иллюзия того, что экзаменуемый действительно овладел китайским. Причина этой иллюзии кроется в той привычке, в соответствии с которой люди предположили за пропозициональными содержаниями продуцированных человеком синтаксических форм его внутренние интенциональные содержания, явившиеся основой первых. Но на деле обучение в китайской комнате принесло прямо противоположные результаты. Человек научился формальным операциям со знаковой системой без какого-либо собственного «интенцио-нального участия» в этом предприятии. Пропозициональные содержания представленного на обозрение китайского письма имели смысл только для тех, кто действительно мог подкрепить их более фундаментальными интенциональными содержаниями своей психики. Человек из китайской комнаты сам не понял ничего из того, что написал.
По мысли Серла действия испытуемого англичанина полностью аналогичны работе ИИ. Искусственный интеллект, несмотря ни на какие интенсификации в сфере технологий, никогда не сможет достичь уровня человеческого сознания именно из-за невозможности преодолеть фундаментальный разрыв между первичной и производной интенциональностями. С помощью специальных программ, настраивающих на формальное оперирование символическими образованиями, ИИ может создавать иллюзии мощнейшей мыслительной активности, многократно превышающей способности человеческого сознания. Результаты такой деятельности ИИ оказываются, в самом деле, чрезвычайно по-
лезными для человека. Тем не менее, у нас нет никаких оснований тешить себя иллюзией существования «братьев по разуму». ИИ не мыслит. Всю работу по содержательному наполнению пустых символических структур берет на себя человек, «прикрепляя» последние к внутренним интенциональным содержаниям -подлинным элементам разумной жизни.
Обсуждая работу автомата по продаже Пепси-Колы, еще один американский философ Д. Деннет [6] без колебаний принимает серлевские аргументы. Что значат наши фразы «Автомат понял, что я поместил в него настоящую американскую монету, и выдал мне банку с напитком» или «Я его обманул: вместо монеты я опустил в приемник подходящий кусок металла, он ошибся и снова угостил меня баночкой Пепси»? Только то, что мы используем исторически сложившуюся, привычную для нас форму речи. Мы антропоморфизируем автомат, приписывая ему знакомые нам самим интенциональные состояния.
Аргументируя в защиту данного тезиса, Деннет приводит в пример комичный случай из истории торговой индустрии. В 1950-х гг. американские автоматы по продаже напитков появились в Панаме, будучи оборудованы специальным детектором для приема панамских монет. Однако панамские и американские четвертаки оказались на то время подобными друг другу по форме, весу и даже по тому материалу, из которого они изготовлены. Автомат все чаще начал ошибаться, выдавая банку Пепси в том случае, когда вместо панамской монеты, в него помещали американскую. В результате эти первые автоматы по продаже напитков быстро исчезли из Панамы - их использование было невыгодно для панамского правительства.
Что же мы имеем в виду, когда говорим здесь об ошибках устройства? Вполне можно представить себе ситуацию (правда, теперь не реальную, а только воображаемую), что панамское правительство благосклонно отнеслось к равноправному хождению панамских и американских денег на территории своей страны. Будет ли тогда действие автомата в том случае, если он принимает американскую монету, считаться ошибкой? Очевидно, нет. Значит, одному и тому же физическому действию устройства могут быть приписаны различные интенцио-нальные характеристики, различные модусы интенции. В данном случае - правильное восприятие и ошибочное восприятие. У нас нет сомнения в том, что само устройство не обладает «внутренним чувством» того, что оно ошибается в данный момент. Его физическое состояние всегда одно и то же, оно совершенно индифферентно по отношению к каким-либо интенциональным оценкам. Мы приписываем действию автомата производные интенцио-нальные состояния только потому, что сами обладаем внутренней интенциональностью. Интенциональность наших действий во внешнем мире так же производна, как и интенциональность действий автомата, но у нас есть что-то еще: первичная интенция, абсолютно недоступная обсуждаемому устройству.
Отметим еще один момент. Конструкторы детектора по приему монет могут проявлять чудеса инженерной мысли, научая автомат различать не только вес, форму и материал монет, но и отчеканенные на ее поверхностях знаки и рисунки так, что устройство окажется способным отличать друг от друга равные по весу, форме и материалу амери-
канские и панамские четвертаки. Тем не менее, даже в этом случае мы по-прежнему не сможем утверждать, что автомат понимает, что перед ним американская монета. Отчеканенные знаки и рисунки на американском четвертаке что-то «значат» для автомата только в отношении внешнего сравнения этих неровностей и закорючек с неровностями на панамской монете. Взятые сами по себе, без какого-либо внешнего материального отношения, эти неровности и закорючки не значат ничего. В процессе работы автомата они не отсылают ни к какому внутреннему интенциональному содержанию. Детектор в принципе не может понять, что такое американская монета.
Если бы исследование Деннета заканчивалось только этим тезисом, то сложно было бы отыскать какой-то особый смысл в том, чтобы обсуждать его теорию отдельно. На самом деле позиция этого американского философа оказывается гораздо более оригинальной и, в конце концов, радикально отличной от интенциона-лизма Д. Серла.
Деннет, как мы только что увидели, полностью соглашается с Серлем в том, что ИИ не обладает первичной интенциональностью, а довольствуется лишь ее производными формами, навязанными ему извне человеческим сообществом. Но в отличие от Серла он утверждает следующее: не только ИИ, но и человек не обладает первичной интенциональностью. Миф о первичной интенциональности - один из самых глубоких предрассудков классической философской традиции Запада. ИИ оказывается действительно подобным человеческому сознанию, но не в том, что он, как и человек, обладает первичной интенциональностью, а, наоборот, в том, что человек, как и ИИ, ею не обладает. Не ИИ похож на человека, а человек на ИИ. Деннет снова пытается презентировать свою позицию с помощью конкретных примеров. Последуем за ним.
Некто Джонс, отправившись в космическое путешествие, прибывает на планету Земля-Двойник (ЗД). Все здесь оказывается Джонсу знакомо: люди, дома, деревья, небо - все как на Земле. Пообедав в ресторане, пообщавшись с местными жителями и неспешно прогуливаясь по городу, Джонс наткнулся на рекламный проспект, сообщавший об очередном туре скачек на лошадях на местном ипподроме. Джонс был очень возбужден этим обстоятельством и немедленно отправился на ипподром. А возбуждение его было связано с тем, что на Земле он был предупрежден об одной странности фауны той планеты, на которую он улетал. ЗД есть точная копия Земли с одним исключением. Там, на скачках, кроме лошадей можно встретить особых животных - смошадей (Деннет намеренно использует такой неологизм - «єсЬтогєеє», чтобы он был созвучен обычному английскому слову «horses»). Смошади ни по виду, ни по повадкам совершенно не отличаются от лошадей. Тем не менее, смошади не есть лошади. Мы можем в качестве предпосылки допустить, что они различаются, к примеру, структурной организацией молекул ДНК или какими-либо иными показателями. Г лав-ное допустить, что установить это различие не представляется возможным в обыденном опыте восприятия, без применения специфических инструментов и создания особых лабораторных условий.
Так как Джонс имел интерес к познанию и был склонен к самонаблюдению, то его очень волновал вопрос о том, что с ним будет происходить, когда он увидит на ипподроме животных, как он будет пытаться отличить лошадь от смошади. При этом он знал, что данная эпистемологическая ситуация радикализируется тем фактом, что местные жители на ЗД для именования и смошадей, и лошадей используют одно и то же слово - «лошадь», так что выяснить у них с помощью вопроса то, с чем он имеет дело в своем восприятии, не представляется возможным.
Так вот, попав на ипподром и тщательно сосредоточившись на своих внутренних состояниях, наш герой с очевидностью обнаружил, что не имеет в данный момент ничего, что можно было бы назвать первичным интенциональным содержанием. Глядя на проносившихся мимо него животных, он не знал как себя вести, о чем думать: о том, что он имеет действительное восприятие лошади; о том, что он имеет восприятие лошади, но ошибается, т. к. перед ним на самом деле смо-шадь; о том, что он имеет действительное восприятие смошади, или о том, что имеет восприятие смошади и ошибается, т.к. перед ним на самом деле лошадь?
Суть проблемы в том, что восприятие как определенное психическое переживание, действительно, имеет место так же, как имеет место физическое состояние автомата Пепси-Колы в тот момент, когда в него опускают монету, но вот само интенциональное содержание в качестве смысловой интерпретации воспринимаемого объекта равным образом отсутствует в обоих случаях.
Однако признание наличия столь радикальной смысловой неопределенности опыта не должно обернуться для Джонса катастрофой, как оно не оборачивается катастрофой и для всех окружающих. Джонс вполне может оставить в покое это неблагодарное эпистемологическое предприятие - прояснение интенциональных содержаний своего сознания - и заняться каким-нибудь практическим делом, в котором будут принимать участие объекты его теоретического интереса. Например, Джонс, как и большинство окружающих, просто пойдет и сделает ставку в тотализаторе на победу лошади № 4. И если ему улыбнется удача, то вряд ли для него будет важным снова ломать голову над вопросом, так кто же пересек финишную черту под № 4 -лошадь или смошадь? Самым важным в данной ситуации является то, что этот объект пришел к финишу первым. Все это означает, что на самом деле в своей практической жизни человек не фокусирует свое внимание на глубинных интенциональных содержаниях, выступающих в качестве смысловых характеристик окружающих его вещей. Скорее, человек просто оперирует объектами по определенным правилам, алгоритмам, формируемым в сообществе, вся смысловая определенность объекта ограничивается его функциональным включением в многообразную сеть взаимодействий с другими объектами.
Но разве не то же самое делает система искусственного интеллекта? Разве она не оперирует с объектами по заданным алгоритмам? Нет сомнений, что это так, и отсюда следует прямо противоположный серлевской позиции вывод. Если процесс осмысления объектов человеком заключается не в фиксации каких-то глубинных интенциональных содержаний, а состоит, скорее, в умении применять согласованные правила операций с этими объектами (более строго - с символами
объектов, хотя Деннет не заостряет внимание на лингвистической стороне вопроса), то ИИ думает и понимает ничуть не меньше человека, точнее человек понимает ничуть не больше, чем ИИ. Система программ возможного ИИ может охватить собой весь мир так, что при взаимной согласованности правил обхождения с объектами своей деятельности каждый элемент ИИ будет демонстрировать понимание (в прямом и единственном смысле этого слова) происходящего, этот мир будет также полон смысла, как и человеческий мир.
На примере дискуссии вокруг понятия интенцио-нальности мы снова видим, как от ответа на вопрос, принимаем ли мы данное понятие как центральное для описания разумной деятельности, как парадигму разумного поведения или нет, зависит и наша оценка возможностей искусственных интеллектуальных систем. Очевидно, что Д. Серл и Д. Деннет будут иметь совершенно различные взгляды на то, чего можно ожидать от подобных технических разработок, и это различие будет обусловлено не оценками самой инженерной деятельности, а скорее, выбором философских парадигм понимания сущности естественного разума.
Простым и желанным выходом из этой назойливой и неприятной для ума инженера-практика ситуации плюрализма философских парадигм понимания разумной деятельности, казалось бы, должен стать так называемый «тест Тьюринга», который был сформулирован как раз с этой целью: «Он [тест] мотивирован желанием Тьюринга прекратить бесконечные бесплодные препирательства... Тьюринг говорит нам: «Вместо того, чтобы спорить о конечной природе и сущности разума, почему бы нам не договориться, что любой, кто сможет пройти это тест, наверняка разумен, и затем задаться вопросом, как сконструировать машину, которая сможет его пройти?» [7] - так характеризует замысел Тьюринга Д. Ден-нет. В самом деле, Тьюринг сформулировал настолько простой и внятный критерий определения разумности системы, который, как казалось, должен положить конец всем метафизическим спекуляциям на эту тему. Тьюринг предложил сыграть в игру-имитацию. Пусть испытуемый получает письменные ответы на свои вопросы от двух респондентов, один из которых - человек, а другой - машина (компьютер, система искусственного интеллекта). Если испытуемый в прочитываемых ответах не может отличить высказывание человека от высказывания искусственно созданной технической системы, то будем считать такую систему разумной.
Однако, несмотря на столь подкупающую простоту для ученого, который не желает себя обременять излишними философскими спекуляциями, тест Тьюринга, для
того, чтобы быть работоспособным, обязательно должен быть дополнен еще одним важным критерием. Необходимо задать те параметры, по которым он будет проводиться. Какие именно человеческие способности должна сымитировать искусственная техническая система в игре-имитации, чтобы ее ответы были признаны разумными? В.И. Моисеев использовал очень удачный, емкий термин, точно выражающий специфику обсуждаемого критерия: «интервал Тьюринга» [8]. Для того чтобы тест Тьюринга заработал, необходимо ввести тот интервал, в рамках которого он будет экзаменовать машину на предмет подобия ее поведения поведению человека. Интервал Тьюринга - это совокупность вопросов, предлагаемых в тесте, вопросов, которые сформулированы, исходя из определенной парадигмы представления о разумности. И здесь мы понимаем, что попадаем в сігси-1ш уіїіоєш, ибо для того, чтобы сформулировать список вопросов теста, нам нужно выбрать ту или иную парадигму понимания разумности, исходя из которой мы будем действовать. Очевидно, что инженер, эксплицитно или имплицитно разделяющий парадигму «интеллект как исчисление понятий», будет формулировать совсем иные вопросы, нежели тот, кто будет основываться на парадигме «интеллект как восприятие» и т.д. Оказывается, что ответ на вопрос «что считать разумным?» уже заранее предполагается при проведении теста, ибо он должен контролировать тот «интервал Тьюринга», который будет применен в том или ином варианте эксперимента. Такой «интервал» является критерием, соответствие/несоответствие которому позволит фиксировать разумность поведения системы. И игнорировать этот критерий никак нельзя, он является условием возможности эксперимента, без которого тест просто «не запустится». А это значит, что предложенный одним из родоначальников исследований в области искусственного интеллекта методический ход не приносит желанного освобождения от «бесплодных» метафизических спекуляций о сущности разума. Философия сознания со своими сугубо умозрительными, теоретическими построениями оказывается своего рода инструментальным априори теста Тьюринга.
Из этого следует, что единственная из предложенных на сегодняшний день попыток редуцировать плюрализм интерпретаций понимания разумности и ответить на классический вопрос исследований в области искусственного интеллекта - «Могут ли машины мыслить?» - оказывается нерезультативной. Общего ответа на указанный вопрос получить не удается. Любой ответ будет локальным, детерминированным той или иной философской парадигмой понимания принципов разумной деятельности.
ЛИТЕРАТУРА
1. Turing A.M. Computing machinery and intelligenc // Mind. 1950. № LIX. Р. 433-460.
2. ВинерН. Творец и робот. М., 1966.
3. Hauser L. Why Isn't My Pocket Calculator a Thinking Thing? // Minds and Machines. February. 1993. Vol. 3, N° 1.
4. MinskyM. Steps Toward Artificial Intelligence // The Media Lab of MIT. Режим доступа: http://web.media.mit.edu/~minsky/papers/steps.html, сво-
бодный.
5. СерлД. Мозг, сознание и программы // Аналитическая философия: становление и развитие (антология). М., 1998. С. 376-400.
6. Dennet D., Haugeland J. Intentionality // The Oxford Companion to the Mind. Oxford University Press, 1987.
7. Деннет Д. Размышления // Хофштадтер Д., Деннет Д. Глаз разума. Самара, 2003.
8. Моисеев В.И. Интервал Тьюринга и имитация интеллекта // Философия искусственного интеллекта: Матер. Всерос. междисциплинарной
конф. М.: ИФ РАН, 2005. С. 307-309.
Статья представлена научной редакцией «Философия, социология и политология» 10 октября 2007 г.