Научная статья на тему 'Семантические процессы сознания: от вычислительных моделей к языковому опыту'

Семантические процессы сознания: от вычислительных моделей к языковому опыту Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
772
151
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Epistemology & Philosophy of Science
Scopus
ВАК
RSCI
ESCI
Ключевые слова
ВЫЧИСЛИТЕЛЬНАЯ ТЕОРИЯ СОЗНАНИЯ / ВЫЧИСЛИМОСТЬ / КВАЛИА / КОНЦЕПТУАЛИЗАЦИЯ / ПРЕДСТАВЛЕНИЕ ЗНАНИЙ

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Барышников П. Н.

Цель данной работы состоит в сравнительном анализе концептуально семанти ческих связей, выводимых в процессе сознательного опыта и при работе современных искусственных интеллектуальных систем. Важно обосновать неформализуемость квалитативных состояний, прояснить разную семантическую природу информации и смысла, а также описать роль языковой системы в когнитивно семантических процессах и рассмотреть компьютерный аспект проблемы. Для строгой интеллектуальной деятельности (в инженерном понимании) достаточно определенным способом организованной материи и правил логико семантического вывода. Семантика ментальных состояний требует наличия нечетких, размытых, неопределенных выводов и агента, обладающего свободой воли. Вычислительная теория сознания и компьютерные модели наглядно представляют познавательные процедуры, при этом не объясняя семантическую природу языковых процессов сознания.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Семантические процессы сознания: от вычислительных моделей к языковому опыту»

ЭПИСТЕМОЛОГИЯ & ФИЛОСОФИЯ НАУКИ • 2014 • Т. XLI • № 3

С

ЕМАНТИЧЕСКИЕ ПРОЦЕССЫ СОЗНАНИЯ: ОТ ВЫЧИСЛИТЕЛЬНЫХ МОДЕЛЕЙ К ЯЗЫКОВОМУ ОПЫТУ

Павел Николаевич Барышников - кандидат философских наук, доцент кафедры философии, культурологии и этнологии Пятигорского государственного лингвистического университета. E-mail: pnbaryshnikov@pglu.ru.

Цель данной работы состоит в сравнительном анализе концептуально-семантических связей, выводимых в процессе сознательного опыта и при работе современных искусственных интеллектуальных систем. Важно обосновать неформализуемость квалитативных состояний, прояснить разную семантическую природу информации и смысла, а также описать роль языковой системы в когнитивно-семантических процессах и рассмотреть компьютерный аспект проблемы. Для строгой интеллектуальной деятельности (в инженерном понимании) достаточно определенным способом организованной материи и правил логико-семантического вывода. Семантика ментальных состояний требует наличия нечетких, размытых, неопределенных выводов и агента, обладающего свободой воли. Вычислительная теория сознания и компьютерные модели наглядно представляют познавательные процедуры, при этом не объясняя семантическую природу языковых процессов сознания.

Ключевые слова: вычислительная теория сознания, вычислимость, ква-лиа, концептуализация, представление знаний.

S

+J EMANTIC PROCESSES OF CONSCIOUSNESS: FROM COMPUTATIONAL MODELS TO LINGUISTIC EXPERIENCE

Pavel N. Baryshnikov -

Associate professor, Department of Philosophy, Theory of Culture and Ethnology, Pyatigorsk State Linguistic University.

This article looks to consider the principles of generation of the conceptual and semantic relations in the conscious experience and in the computational process of modern artificial intellectual systems. We attempt to give proof of the unformalizability of qualitative states and we mean to clarify the semantic differences between information and meaning. It's important to describe the role of the language system in the cognitive and semantic procedures of consciousness including the computational aspect of problem. The consistent intellectual activity (in engineering approach) requires the particular material organization of processing and the rules of logical-semantic inference. The semantics of mental states demands uncertain, undefined conclusions and the agent capable of free will. Computational Theory of Mind and computer-based information system models can clearly present the cognitive process but without any explanation of substantial nature of linguistic components of consciousness. In this paper the following points are: in the human cognitive process there are some elements which are not accessible for formalization and computer modeling. One of these components is natural language fuzzy semantics. This feature of natural language is related to the private mental states and to the uniqueness of associative activity of consciousness. The stable meanings of language system are representable in the data machine forms but the pragmatic functions require the experience of conscious existence. Artificial intelligence is connected with neither world of things nor mental representations but only with information and inference rules. The natural language semantics establishes the symbolic relations between the consciousness and the entire being.

96 Language and Mind

0

Key words: Computational Theory of Mind, computability, qualia, conceptualization, knowledge representation.

Введение

Почему столь устойчивы компьютерные метафоры в исследованиях сознания и мозга? Не превратилась ли некогда эвристическая модель в методологический стереотип? Возможна ли компьютерная модель опыта существования?

Историческая связь вычислительных теорий с философией сознания далеко не всегда очевидна и обладает сложным междисциплинарным характером. Наиболее ярким примером сближения компьютерных моделей с теоретическим предметом философии сознания является трансформация репрезентативизма в так называемую вычислительную теорию сознания (Computational Theory of Mind -CTM) с последующим превращением в информационно-функциональную парадигму когнитивных наук.

Появление данного направления связано с популярными компьютерными метафорами, представленными в работах X. Патнэма, Дж. Фодора, П.С. Черчленда, Д. Льюиса, Дж. Лукаса, Д. Деннетаи др. во второй половине XX в. Метафорически резюмировать этот подход можно следующим образом: биологическая материя мозга является «железом», а все когнитивные процессы - «программным обеспечением». Согласно CTM, все когнитивные процессы представлены в виде сложных вычислительных систем: вера, мышление, эмоции, мотивы, желания - это различные виды информации, которые обрабатываются агентом для достижения некоторых целей. Иными словами, в основе отношений человека и реальности лежат не цифровые вычисления, а своеобразные формы механической рациональности: каждое сознательное действие агента имеет ментальную причину, вызванную в свою очередь алгоритмической (эволюционной) обработкой статистических данных для достижении адаптивных целей.

При такой постановке вопроса в задачи исследователей входят расшифровка и анализ «программного кода» деятельности сознания. «Программная начинка» сознания, согласно репрезентативизму, состоит из интенциональных состояний, выраженных в особых симво- ^ лических репрезентациях. Проще говоря, одно функциональное jg состояние может иметь множество типов реализации. Здесь язык ф

а

представляется как разновидность вероятностного автомата, рабо- ^ тающего по предзаданным алгоритмам. В 1960-е гг. эту позицию усиливали данные эволюционной психологии, которые сводились к пониманию человеческого сознания как вычислительного устройства, унаследованного от биологических предков и предназначенного для

адаптивных функций организма в физическом и социальных мирах [Pinker, 2005].

C помощью CTM были сформулированы важные для понимания работы сознания теоретические идеи. Вычисления могут быть: О определены через конечное число символов и правил, комбинирующих порядок этих символов; О приведены к алгоритму и пошаговым инструкциям, доступным для

машинного исполнения; О обобщены логико-арифметическими методами.

Известна также критика данного направления, основные тезисы которой сводились к следующему:

a. Свойства семантики не всегда вытекают из свойств синтаксиса (по этому вопросу идет неустанная борьба интернализма и экстерна-лизма).

b. Интенциональные состояния сознания с трудом поддаются моделированию из-за многообразия символических выражений, «привязанных» к одному импликатурному содержаню (проблема, раскрытая П. Грайсом и Дж. Сёрлом).

c. Остается открытым вопрос о способе кодировки мозгом ментальных состояний. Известны двойная теория кодирования - Dual Coding Theory [Paivio, 1986; Pylyshyn, 2003], общая теория кодирования - Common Coding Theory [Sperry, 1952; Prinz, 1984], пропозициональная теория - Proposotional Theory [Anderson, 1973], в рамках которых решаются некоторые инженерные проблемы, но не объясняется феномен ментальных состояний.

d. Существуют методологические ограничения формальных систем, и теории множеств (теорема Гёделя о неполноте, теорема Левен-гейма-Скулема) остро ставят вопрос о невычислимости когнитивных процессов.

e. Известны также антимеханистические и антиредукционистские аргументы Дж. Лукаса, X. Дрейфуса, Р. Пенроуза.

В вычислительной теории сознания особое место занимают исследования семантической концептуализации. Проблема онтологического статуса семантических процессов на сегодняшний день остается ключевой. Особую роль в вычислительных моделях и методологии искусственного интеллекта (ИИ) занимают семантические интерпретации синтаксических состояний системы. Тем не менее ряд (ц вопросов требует уточнения и прояснения. Имеются противоречия ф^ между теориями, гипотезами и выводами. На наш взгляд, граница между информацией и значением, телесным и ментальным, вычислимым и невычислимым проходит на уровне семантики. Мозг обрабатывает множество сигналов извне и строит семантические ментальные карты. При этом остается открытым вопрос о причинах зарождения ^^ субъективного опыта. Не вполне ясно назначение осознанного агента

В) Я 3

а

0

Я, призванного выводить значение и смысл из информации. Отношение между естественным и искусственным типами семантического вывода может продемонстрировать сравнительный анализ технологий Semantic Web c процедурами контекстуального вывода в естественном языке.

Семантические пределы вычислительной теории сознания

Ограниченность «цифрового атомизма». Несмотря на методологическую критику, вычислительные модели когнитивных процессов продолжают пользоваться популярностью среди исследователей различных дисциплин и направлений. Это связано прежде всего с наглядностью ментальных операций, которые воспроизводятся за счет сложных алгоритмов. Особое место в современной философской теории сознания занимают семантические исследования. Невычислимость семантики ментальных состояний, которая выражается в формах естественного языка, также ставит серьезные вопросы перед компьютерной теорией сознания.

Здесь есть один парадоксальный момент. Синтаксис естественного языка как математической системы представляется в алгоритмическом виде и эффективно реализуется на лингвистических процессорах. Причем вычислению поддается множество аспектов, начиная от распознавания речи и имитаций диалогов и заканчивая аннотированием текстов и семантико-ассоциативным поиском. При этом языковые свойства сознания привести к строгой форме достаточно затруднительно.

Закономерно, что развитие информационно-функционального подхода привело исследователей к постановке проблемы представления семантических процессов в материи мозга, речи, поведении. Компьютерное моделирование когнитивных процессов позволяет создавать удивительные образцы искусственного интеллекта -компьютерное зрение, алгоритмы принятия решений, анализ проблемной среды и т.д. [Шамис, 2005]. Но остаются нерешенными две глобальные проблемы: 1) модель автономной нервной системы (т.е. системы, функционирующей не по предзаданным алгоритмам, а ¡ц «для себя»); 2) свободное смыслопроизводство (автономная семан- ф тика).

Действительно, с одной стороны, информационные технологии позволяют строить более изощренные логико-математические модели когнитивных процессов, с другой - некоторые свойства сознания (например, интроспекция, «эффект Я», свобода воли, квалиа, мен-

S) (О 3

а

тальные репрезентации, юмор, творчество, эмоции) обладают неалго-ритмизируемой структурой. В принципе классическая mind-body problem хорошо экстраполируется к проблеме вычислимости: косвенные признаки наличия сознания (речь, мотивированное поведение, творчество) можно с известной долей приближения смоделировать на цифровых универсальных микроконтроллерах, но при этом невозможна модель осознанной спонтанной деятельности.

Проблема «цифрового атомизма» и ограниченности линейных алгоритмов была осмыслена еще в середине XX в. как специалистами по искусственному интеллекту, так и философами и методологами науки. Это связано прежде всего с математической природой цифровой техники: «Кодирование информации с помощью дискретных объектов типа цифр и букв, которым пользуются создатели систем "искусственного интеллекта", с необходимостью порождает "атомистический" машинный мир дискретных данных и фиксированных признаков. Ориентация в этом мире - и решение в его терминах сложных задач (хотя бы отчасти напоминающих те, которые решает человек в своей интеллектуально-творческой деятельности в науке и практике) - представлялась возможной лишь на пути выработки методов выделения существенных ("релевантных") факторов (критериев, параметров, характеристик). Это обстоятельство стало ясно кибернетикам еще в 1950-х - начале 1960-х гг.» [Бирюков, 1978].

Впоследствии предпринимались попытки по преодолению логико-математических ограничений цифровых моделей: О нечеткие множества в автоматизированном принятии решений; О многокритериальный анализ; О адаптивные автономные системы [Жданов, 2009]; О нейросемантический анализ.

Иными словами, построение когнитивных моделей при помощи информационных технологий стало реализовываться вне контекста семантических процедур сознания. Стало очевидным, что сознание не «обсчитывает» реальность, а присутствует в бытии. При этом эффект субъективного наличия в бытии остается недостижимым для £ формальных моделей.

Особым вопросом в контексте выглядит наличие квалитативных В свойств ментальных состояний. Основное противостояние в вопросе о квалиа на сегодняшний день сводится к полемике функционалистов ф и интенционалистов. Первые считают, что любое ментальное состояние выражено в функциональном состоянии системы, например информация на входе/выходе в совокупности с состоянием логического или физического преобразователя. Вторые уверены в том, что существует уровень феноменальных приватных состояний, которые каузально не связаны с функциональными состояниями. Существует

В)

я

3

а

0

группа так называемых умеренных репрезентационистов [Иванов, 2013].

На наш взгляд, произвольная семантика является одним из ключевых свидетельств наличия субъективной реальности и эффекта «проживания» актуальных квалиа. Актуализация квалиа содержится не столько в функциональном состоянии физической системы, сколько в знаково-символической репрезентации этого состояния (текст, жест, действие, мимика, правовой акт, игра и т.п.).

Рассмотрим некоторые теоретико-методологические сложности, связанные с семантическими процедурами мозга, сознания и речевого поведения.

Компьютерный аспект когнитивно-семантических процессов. Вызывают интерес разработки нейрофизиологов-когнитивистов, в которых доказывается, что мозг во многом метафорически обрабатывает визуальную информацию. Прежде всего речь идет о тех работах, в которых анализируются принципы нейронной обработки входящей визуальной информации.

Как известно, мозг еще на первых стадиях обработки визуального сигнала пытается объективировать и семантизировать изображение. Именно по этой причине при рассматривании визуальных парадоксов, невозможных фигур или изображений произвольных точек в памяти остается эффект достраивания. Это не что иное, как алгоритмы визуальной интерпретации. Глазной нерв следует за маршрутом «интерпретации», и при множественности проекций возникает иллюзия движения (см., например, рисунки Виктора Вазарели [Хольцхай, 2006]), или возникает иллюзия сходства (размытые очертания предметов в сумерках или тумане). Работы последних десятилетий [Sheinberg, Logothetis, 1996] доказали, что у некоторых приматов нейронная классификация визуальных образов строится на основе ассоциативных обобщений типа: банан, яблоко, персик ^ фрукты; фрукты, пирожные ^ еда;

еда ^ (фрукты ? пирожное) ? (фрукты ? пирожное) и т.п.

То есть было доказано, что существо, не обладающее человеческим сознанием и полноценной языковой системой, способно к логи- ™ ко-семантической процедуре обобщения и разделения понятий. В Р. Грегори в своих экспериментах с визуальной интерпретацией не- ^ определенности приходит к выводу о наличии в опыте восприятия щ так называемых объект-гипотез, согласно которым проводится ин- в терпретация свойств нечетких объектов [Gregory, 1998]. Элементарная символизация объектов позволяет мозгу перейти к семантическим вычислениям для построения элементарных выводов (в 1970-е гг. часто использовалась метафора перехода мозга из аналогового со- в стояния в цифровое). Стоит отметить, что автор указывает лишь на ~

В) (В 3

а

человеческую способность к семантизации, в то время как у многих живых существ вне визуального опыта также происходит своеобразная категоризация объектов.

Современные информационные подходы к исследованию семантики зрительных образов выявляют интересную зависимость: нейроны височной коры (эксперимент проводился на обезьянах) [ВаИа881, 2013] кластеризируют визуальную информацию не по семантическому родо-видовому основанию, а по внешней схожести объектов. Так, в одну группу «горизонтальных вытянутых предметов» попадают рыбы и гитары; в кластере «тонких вертикальных предметов» оказались теннисные ракетки, деревья, камера на штативе. Итог этих исследований впечатляет - мозг обезьян кластеризует образы визуального опыта по различным критериям изоморфизма.

Не в этой ли особенности мозга кроется загадка метафорического мышления? Похоже, что вариативность, размытость, нечеткость алгоритмов интерпретации являются свойствами живой материи. Сложность проблемы сознания состоит в том, что у этих процессов есть «наблюдатель» и «отправитель», т.е. агент, представляющий результаты интерпретации в символической форме. У приматов и компьютеров такое свойство системы отсутствует, поэтому в коммуникативных системах животных и машин семантика действия ограничивается сигнальным и кодовым репертуаром.

Тем не менее существует ряд работ, в которых раскрываются общие черты между машинными и человеческими когнитивными процедурами. Особое место в такого рода исследованиях занимают работы по анализу семантики проективных высказываний. Языковые структуры становятся «свидетельствами» свойств когнитивных процессов. Отношения между локативными объектами (что находится?) и референциальными объектами (относительно чего находится?) фиксируют навигационные метки. При этом наблюдается ряд специфических свойств, которые разительно отличаются от процедур пространственной ориентации у систем ИИ: О значение сводится к концептуализации; ™ О полисемия является нормой и представлена в «пучках» категориаль-В ных семантических связей;

^ О существуют базовые пространственные примитивы (время, расстоя-(В ние, цвет, текстура), на основании которых строятся вариативные Ф концепты;

® О семантические структуры выводятся из положения «профилей» отно-

а

С (В

в

сительно базовых значений; семантические структуры включают в себя конвенциональные группы, в которых одно и то же содержание выводится различными способами [Тещи, 1994].

0

Проиллюстрировать эти свойства можно на примере проективных высказываний:

a. Стул у стола.

b. Стул рядом со столом.

c. Стул напротив стола. й. Стул возле стола.

Для искусственной интеллектуальной системы семантические нюансы предлогов, определяющих отношения между некоторыми X и У, возможно описать, располагая значения в некоторой системе логической онтологии: X ——^ У,

где X состоит в некотором отношении Я к У; Я [р1, р2, р3, р4]-диапазон значений Я включаетр1, р2, р3, р4.

Исследователям может помочь теория семантического поля, хотя поля лексических значений в программной среде будут носить метафорический характер для обозначения логических оппозиций: подчинение, пересечение, тождество, несовместимость и проч. Здесь возникает проблема, связанная не с вычислением адекватности значения, а с языковой компетенцией, позволяющей употреблять выражения согласно различным правилам контекста, например:

Фраза «Стул напротив стола» содержит непрямой семантический вывод «Стол стоит возле стены. У стола есть лицевая сторона, напротив которой стоит стул». Употребление предлогов «у», «рядом» и «возле» обращается к сознательному опыту употребления:

«у» - если высота стула ниже уровня столешницы; «рядом» - если стул массивный и его высота равна или больше стола; «возле» - если стул не ориентирован на стол и по внешнему виду не составляет с ним пару.

Эти интерпретации не являются правилами вывода, а лишь нестрогими описаниями закономерностей в сознательном употреблении. Можно только представить, какое количество дескриптивных данных нужно внести в систему, чтобы описать семантическое поле предлогов в комбинации со всеми совместимыми именами. Это была бы статистическая модель опыта словоупотребления.

В рамках инженерной семантики этот вопрос решается достаточно просто. Задача семантической интерпретации предложных связей всегда состоит в том, чтобы указать их коррелят в логической формуле, представляющей смысл рассматриваемого словосочетания. Для

гие предметные описания между «синтаксическим хозяином» и «синтаксическим слугой». Для машинного вывода достаточно непротиворечивого описания предметной и логической связи между актантами [Рубашкин, 2005].

Я

реализации этой интерпретации используется логический вид пред- ф ставления знаний и концептуальный словарь. Далее создаются стро- ^

а

С (В

Пока еще довольно трудно различить в когнитивных свойствах языковой системы то, что поддается конечному формальному описанию, и то, что лежит за пределами семантической стабильности. Классические репрезентативистские подходы сводятся к банальной коммуникативной модели отправитель-получатель, притом что анализ сообщения может привести исследователей к пониманию прагматики, коммуникативному поведению, социально-правовому акту пропозиции, но никак не к ментальным содержаниям.

В направлениях психолингвистики, аксиоматически принявших генеративные модели Хомского, принято понимать семантические процессы через процедуры синтаксического анализатора. В 1960-е гг. в исследованиях формальных языковых моделей особую роль сыграли работы Хомского по трансформационным грамматикам, где язык понимался как множество предложений, имеющих конечную длину и построенных из конечных последовательностей элементов. Известна критика минималистской программы Хомского, но рассмотрение формальных грамматик в контексте семантической вычислимости требует отдельной работы. Рассмотрим некоторые примеры ветвящейся «машинной семантики». Пинкер, ссылаясь на Фодора, приводит большое количество примеров «ветвящихся предложений» (garden-path sentences), смысл которых человеком автоматически выводится по одному-единственному маршруту «дерева», в то время как компьютер помимо правильной строит еще четыре абсурдные, но грамматически абсолютно верные интерпретации, например [Пинкер, 2004]:

Time flies like an arrow.

a. «Время движется так же быстро, как движется стрела» (результат спонтанного распознавания человеком).

b. «Измеряйте скорость мух так же, как вы измеряете скорость стрелы».

c. «Измеряйте скорость мух так же, как стрела измеряет скорость мух».

d. «Измеряйте скорость мух, похожих на стрелу».

e. «Мухи определенного вида - мухи времени - любят стрелу». Нейрофизиологические замеры показывают, что при анализе по™ добной фразы не происходит задержек интерпретации и понимания, ™ т.е. испытуемый даже не допускает альтернативного прочтения, как ^ это могло бы быть в предложении типа:

" «James while John had had had had had had had had had had had a better effect

SL on the teacher». Bl

Без интонационных или пунктуационных меток эта фраза не под-В) дается пониманию. Если расставить знаки препинания, то синтаксис jg организуется автоматически за счет выявления глагольных групп и Щ дополнений:

0

James, while John had had «had», had had «had had»; «had had» had had a better effect on the teacher (Пока Джон употреблял «had», Джеймс употребил «had had»; «had had» больше понравилось учителю).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Сегодня существуют целые школы психолингвистов, исследующих работу мозга в процессе синтаксического разбора. Оказывается, что предложения с вариативным синтаксисом автоматически восстанавливаются естественным анализатором (мозгом) согласно контекстуальным условиям. При этом правильное понимание возможно только при параллельном парсинге [Hickok, 1993], т.е. при возможности нечеткого вывода.

Проблема кроется в том, что мозг не вычисляет, не перебирает ответы, релевантные запросу, а продуцирует «естественное речеповеде-ние». Язык становится манифестацией осмысленного существования. Говорящий и понимающий знают о своем существовании. Ситуация усложняется тем, что компьютерные системы сегодня развиты настолько, что мы почти не воспринимаем как метафоры такие фразы, как «компьютерное зрение», «автономное принятие решений», «поведение нейросети». Из-за человеческих метафор мы часто наделяем интеллектуальную логико-математическую работу машин чертами осмысленных когнитивных действий. И наоборот - человеческое мышление мы часто наделяем чертами машинных логико-математических процедур.

Важно осознать: насколько бы имитационный компонент работы вычислительных машин ни был приближен к естественной интеллектуальной деятельности, существует важное отличие: машины не обладают квалитативными состояниями. Любой самый сложный вычислительный процесс в итоге можно свести к дискретным физическим состояниям процессора, за которыми нет сферы ментального (во всяком случае она никак не проявлена в логико-арифметических процессах машины).

Споры о квалиа и проблема языка. Насколько убедительны аргументы о том, что человек этими состояниями обладает? Ведь у нас нет никакой возможности открыть прямой доступ к качествам своих ментальных переживаний. Как известно, картезианский парадокс причинности ментальных процессов по отношению к физическим ™ был довольно радикально решен функционалистами: ментальные со- ® стояния суть лишь функциональные состояния когнитивной систе- ^ мы. Несмотря на разнообразие подходов (аналитический функциона- (Q лизм, психофункционализм), наиболее популярным был и остается в информационный подход. Здесь функциональные состояния трактуются как состояния машинной таблицы значений (машина Тьюринга), которые сменяются при определенном наборе входящих данных.

В современной философии сознания существует ряд хрестома- в тийных аргументов в пользу существования квалиа. Так как квалиа ~

В) (В 3

а

П.Н. БАРЫШНИКОВ

носит приватный характер (это свойства когнитивного опыта «для меня»), то большая часть аргументов приведена к виду мысленных экспериментов: О довод о летучей мыши (Т. Нагель);

О теория инвертированного спектра (рассматривалась Дж. Локком,

М. Шликом, Г. Фреге, Л. Витгенштейном, Дж. Блоком и др.); О философский зомби ( С. Крипке, Д. Чалмерс); О Explanatory Gap (Дж. Левин); О Комната Мэри (Ф. Джексон).

В нашу задачу не входит рассмотрение аналитической традиции споров о квалиа. Существуют работы, в которых подробно рассматривается этот вопрос [Гаспарян, 2013]. Укажем лишь на то, что в зависимости от успехов физикализма и антифизикализма меняется и статус языковых процессов. Если квалиа существует, то в языке есть отсылка к универсалиям, если нет, то вся семантика естественного языка - это лишь процедурная реакция на языковые игры.

В спорах о квалиа особая роль языку приписывается в теории нарративной гравитации Д. Деннета. Как известно, этот американский философ отказывает сознанию в феноменальном статусе, при этом язык играет ключевую роль. Во-первых, язык внутренних нарративных «треков» является связующим элементом параллельных семантических процессов. Во-вторых, язык играет роль транслятора культурных мемов, которые предписывают прагматику действий. Язык и речевое поведение являются связующими элементами между квалиа и интенциональными состояниями второго порядка. К примеру, шахматная программа вычисляет логико-математический оптимум и выдает решение e2-e4. Но в этих процедурах нет ничего, что привело бы к порождению фразы «Я считаю этот ход наиболее верным». Правильное решение машины не сопровождается убеждением в правильности решения. Вершиной нарративной гравитации является создание эффекта свободного Я. Разумеется, для Деннета квалиа, как и сознание, суть лишь иллюзорные побочные эффекты от адаптивно-эволюционных процессов мозга.

iS В связи с этим возникает вопрос прикладного характера: возмож-

но ли создание автономных машинных процедур, реализуемых не за V счет адаптивных алгоритмов, а за счет процессов семантического анализа? И можно ли называть полученные данные машинным ква-ф лиа?

Возьмем для примера технологию Kinect, которая используется при распознании положения тела игрока в системе Xbox. Инфракрасный проектор накладывает на пространство перед Kinect сетку из то-

S) Я 3

а

чек. 30 раз в секунду ИК-камера считывает картинку и передает дан—' ные на консоль, где для каждой из этих точек определяется простран-

0

ство от нее до камеры. Совокупность отношений между точками задает параметры положения тела, которые лежат в основе дальнейших алгоритмов в принятии игровых решений. Разумеется, данные машинных сенсоров не являются квалиа в полном смысле (в них нет приватности), но поток этих данных и физическое состояние системы при обработке программного кода - достаточное основание для принятия адекватных игровых решений.

Важное отличие (и основная трудность при поиске инженерных решений) между квалиа и потоком входящих данных состоит в том, что квалиа доступны только проживающему их субъекту. При этом данные информационной системы не обладают никакой приватностью. Благодаря квалиа существует мир вещей, имен и понятий, а также ощущение собственного существования и ощущение существования мира, «не являющегося мной».

Эволюция метафор: from chip to root

Для философов остаются важными вопросы, почему в современном прочтении древнего вопроса о соотношении ментального и физического не снижается значимость компьютерных метафор и почему особая роль уделяется языку. Скорее всего развитие компьютерной семантики в контексте современных сетевых технологий сместило акцент с метафоры «мозг-компьютер» на связь языка и когнитивных процедур в целом. Когнитивные науки позволяет расширить компьютерный атомарный подход до уровня строгого представления отношений языковых процедур и когнитивных актов. В этом случае проблема mind-brain сводится к проблеме meaning-brain.

Представление знаний в компьютерных системах. В машинах нет нечеткой семантики в том виде, в каком она представлена в естественном языке. При этом существует целый раздел компьютерных дисциплин, представляющих в логико-математической форме (доступной для машинного анализа) неполные или нечеткие знания о мире. То есть человек учит машину работать с системой знаний, полной человеческих погрешностей. При этом роль языка программирования для машин инверсивно повторяет роль языка, естественного для сознания. В программировании язык - это абстрактная форма представления вычислений с однозначной семантикой и конечными правилами синтаксиса. Для сознания естественный язык - это форма фиксации интенциональных состояний, которые в силу своей размытости требуют подвижной семантики, связанной с различными уровнями содержания: экспликатурой и импликатурой пропозиции, контексту-альностью, пресуппозицией, текстовой когерентностью и даже с по-

П «

а

(В 3

а

этикой и риторикой, короче говоря, всем тем, что требует существования некоего Рассказчика, способного к автономному нарративу. А также того, что способно привести к спонтанной, но адекватной се-мантизации.

Для компьютерной семантики острым остается вопрос о вычислимости нечетких значений, для нейрофизиологии и эволюционной психологии - построение модели материальных процессов, которые являются носителями этих вычислений. Общей чертой процессов мозга и компьютера является то, что обе эти системы работают с информацией как системным элементом материального мира. Но только в первом случае биологическая информационная система производит совершенно уникальный «эффект» сознания, способного на ином уровне обрабатывать информацию. Во втором - остается «слепое» вычисление с перспективой бесконечного усложнения, но в рамках жестких логико-математических законов.

Одним из ключевых вопросов в современной компьютерной семантике является следующий: возможно ли представление информации в виде размытых концептуальных связей? Ответ - конечно, да. Тем более что компьютерным наукам, занимающимся семантическим представлением неточных знаний, уже более 20 лет. За это время произошла так называемая эволюция сетей. Технология Semantic Web сделала возможным анализ не по структуре сетевого объекта, а по его значению. Но что общего между «размытой» семантикой процедур сознания и вероятностными моделями в информационных системах?

Рассмотрим некоторые способы представления семантической «размытости» неидеальных знаний в машинных процедурах. Начнем с того, что разница между терминами «uncertainty» (неопределенность) и «vagueness» (нечеткость) не всегда очевидна, но при этом имеет существенное значение. Неопределенностью обладает высказывание (или логическая формула), которое может быть либо истинным, либо ложным. Нечеткостью обладает высказывание (логическая формула), истинность которой может принимать множество значений в интервале [Ложь, Истина] (или [0, 1]), например:

Скорее всего, пойдет дождь. - <Дождь либо пойдет, либо не пойдет> (неопределенное высказывание). Ф Где здесь недорогой ресторан? - <Ресторан, подпадающий под субъ-

ективный диапазон значений термина «недорогой»> (нечеткое высказыва-W ние).

в^ Различие состоит в причинах появления неясности факта. В первом слу-

чае это неполная информация (если дождь пойдет, знание будет идеальным), во втором - неопределенное множество значений интервала [0,1].

В современных компьютерных системах представления знаний используется язык сетевой онтологии (Ontology Web Language -^^ OWL). Синтаксис этого языка строится на принципах синтаксиса де-

В) (В 3

а

0

скриптивной логики (Description Logic - DL): атомарные классы, усложнение классов через операторы пересечения, объединения, отрицания, ограничения на роли (универсальный квантор и квантор существования). Семантика OWL реализуется на теоретических основаниях теории множеств - интерпретацией каждого класса, атомарного или сложного, всегда является множество.

Основной задачей при разработке OWL была организация анализа сетевых документов не по структуре, а по содержащимся в них фактам. Фактологический массив в свою очередь представляет собой базы данных со сложной системой пересечений. Проще говоря, семантические технологии представляют значения с помощью онтологии и обеспечивают аргументацию, используя связи, правила, логику и условия, оговоренные в онтологии. При этом неклассические логики позволяют «строго» или по крайней мере непротиворечиво описывать неполные значения.

Семантические универсалии и проблема нечеткого вывода.

Наша основная мысль сводится к тому, что машинные процедуры так и не сталкиваются с проблемой значения в терминах естественной семантики, так как любой тип логики - это наложение ограничения на естественную языковую репрезентацию. Лексическая семантика связана с квалитативными состояниями субъекта и его ментальными репрезентациями, которые обращаются к многообразию индивидуального опыта проживания. В машинных процедурах нет места вещам. Если у человека есть квалиа как посредник между вещью и ее репрезентацией, то машина обрабатывает значение только на уровне протокольного описания, которые сводятся в объемные базы знаний.

Большинство исследователей соглашаются с мыслью о том, что мозг, являясь высокоорганизованной материей, работает с физической информацией и принципы этой работы во многом схожи с работой компьютера. Позволяет ли нам эта метафорика трансформировать проблему meaning-brain в проблему meaning-information? Вопрос остается открытым, пока философы не определятся с онтологическим статусом семантических процессов. Человеческий мозг кластеризует, категоризирует, квантифицирует, но почему результа- м ты обработки этой информации в сознании на уровне коммуникации S выдаются в столь неоднозначной форме? Почему люди не обменива- Ч ются данными, как серверы, а предпочитают передавать информацию щ через «зашумленную» естественную коммуникацию? ф

Существует масса попыток ответить на эти вопросы как в рамках чистой философии, так и с позиций когнитивных наук. В своей работе «The Stuff of Thought» [Pinker, 2007] С. Пинкер последовательно развенчивает и радикальный нативизм, и панпрагматизм, и крайние фор- в мы лингвистического детерминизма. Невозможно свести все много- ~

В) (В S

а

ш

П.Н. БАРЫШНИКОВ

Q «

«

Я

образие языкового опыта к врожденным понятиям, речевому поведению или культурным концептам, «застывшим» в корнях и привычках словоупотребления. Действительно, язык представляется как отличная калькулятивная система (это вновь сближает мозг и процессор), но за языком всегда стоит сознательный агент, усваивающий способы вычислений и умение представить результаты своих вычислений. Причем представить не просто как данные, а как высказывание, со всем прагматическим, поведенческим, контекстуальным и культурно-историческим усложнением.

На наш взгляд, наиболее приемлемым ответом на вопрос о нечеткой семантике естественного языка является тезис об уровнях семантической чувствительности и о наличии базовых нечетких универсалий. Естественный язык как вычислительная система связан не с правилами вывода, прописанными в архитектуре мозга, а с прагматическими нюансами значения, которые надстраиваются над универсальной категориальной базой.

Современные исследования по деривационным свойствам базовых концептов отчасти реабилитируют фодоровскую гипотезу о языке мышления (LOTH) [Fodor, 1975], классическую архитектуру нейронной базы и вычислительную теорию в целом. Комбинационная структура семантических примитивов позволяет выводить множество значений в различных контекстах, размывая и расширяя семантику ментальных представлений. Методы представления знаний в искусственных интеллектуальных системах развиваются именно этим путем. За основу берется фрейм как некоторая структура представления данных и дополнительная информация из входящих данных. Далее информационно-поисковая система выбирает необходимые значения для выполнения заданных условий. Таким образом, каждому состоянию объекта не нужно приписывать новый идентификатор. Фреймовый анализатор работает в иерархических классификационных системах такого типа, который представлен на рис. 1.

Рис. 1

Иными словами, у каждого элемента системы есть ограниченное количество строгих непротиворечивых описаний. На основании этих описаний строятся комбинации отношений между значениями. Последние распределяются между терминальными слотами. Система прописывает наиболее релевантные маршруты по возможным путям непротиворечивых описаний.

На основании фреймового анализа некоторые современные авторы предлагают компьютерные функциональные модели сознания [Prasad, 2011]. Всякий раз в подобных работах подчеркивается, что модель призвана имитировать биологические процессы обработки сенсорных данных и принятие решений автономными системами. Подобные модели (рис. 2), как правило, включают в себя сенсорно-моторные блоки, модули эпизодической памяти, самообучающиеся системы и мотивационный процессор. Отдельным блоком стоит семантическая память, которая связана с блоком эмоций и субкортикальными вычислениями (emotion, rewards and sub-cortical processing), с блоком переключения внимания (attention switching), c сенсорными процессорами (sensor processors) и c эпизодической памятью (episodic memory).

Рис. 2

На наш взгляд, блок семантической памяти - это самое уязвимое место всей вычислительной модели сознания. Здесь проходит граница между инженерной и гуманитарной интерпретациями семантических процессов. Нечеткость машинных выводов никак не соотносится со спонтанностью и метафоричностью естественной семантики. Пока машина работает с данными и информацией, а не со значением и смыслом, противоречивая, но эффективная естественная семантика остается привилегией человека. Помимо интуитивной и символической интерпретации человеку доступна уникальная база данных - тексты культуры. Эти тексты в свою очередь сопряжены с так называемой родо-исторической

Я Ф В) <0

памятью, сохраненной в языковых привычках, идиомах, фразеологизмах и даже фоносемантическом «портрете» того или иного языка.

Выводы

Очевидно, что в человеческих когнитивных процессах присутствуют элементы, недоступные формализации и компьютерному моделированию. Основным таким элементом является нечеткая семантика естественного языка, которая в свою очередь связана с приватностью ментальных состояний и уникальностью метафорических и ассоциативных процессов сознания. То, что фиксируется в системе стабильных значений языка, представимо и в форме машинного обмена данными. Прагматические функции требуют опыта осознанного существования. Computational Theory of Mind и цифровая метафорика позволили раскрыть функциональные основания когнитивных процессов и интеллектуальных функций. При этом еще острее стали вопросы об онтологическом статусе семантических процессов сознания. Первичная символизация на уровне обработки внешних сигналов во многом «роднит» мозг и компьютер. Но последующая символическая се-мантизация результатов этой разработки идет совершенно различными путями.

В человеческой когнитивной системе подключается такая странная «эволюционная надстройка», как сознание - нелокализо-ванный активный агент, наделенный памятью и способный к спонтанному повествованию (личность). Этот агент по собственной воле обращается к ассоциативным и метафорическим связям, объединяющим концепты в единую смысловую систему. Правила вывода регулируются как социальной прагматикой (внешние ограничения), так и языковой семантикой (внутренние ограничения). Обатипа ограничения связаны с уникальным опытом осмысленно-£ го существования. Машинные интеллектуальные процедуры имитируют семантические процессы за счет обращения к формальным Q моделям синтаксиса и семантики естественного языка, а также за jg счет колоссального объема баз данных и современных онтологиче-ф ских методов представления знаний. По сути машинный разум не контактирует ни с предметным миром, ни с миром ментальных репрезентаций, но лишь с информацией и правилами вывода. Семантика естественного языка фиксирует символическую связь сознаем ния и целостного бытия. Похоже, что компьютерные формы представления этой связи труднодостижимы.

В) Я 3

а

0

Библиографический список

Бирюков, 1978 - Бирюков Б.В. Чего не могут вычислительные машины. Вместо послесловия. Цит. по: ДрейфусX. Чего не могут вычислительные машины. М. : Прогресс, 1978. С. 304.

Гаспарян, 2013 - Гаспарян Д.Э. В защиту феноменального сознания: аргумент против физикализма в современной аналитической философии // Философские проблемы ИТ и киберпространства. 2013. Vol. 6, № 2. С.43-55.

Жданов, 2009 - Жданов А.А. Автономный искусственный интеллект. Адаптивные и интеллектуальные системы. М. : Бином. Лаборатория знаний, 2009.

Иванов, 2013 - Иванов Д.В. Природа феноменального сознания. Философия сознания. М. : Либроком, 2013.

Пинкер, 2004 - Линкер С. Язык как инстинкт. М. : Эдиториал УРСС,

2004. C. 200.

Рубашкин, 2005 - Рубашкин В.Ш. Словарная поддержка процедур семантических предложных связей. - URL:http://www.dialog-21.ru/Archive/ 2005/Rubashkin%20V/RubashkinV.htm_ftn1

Хольцхай, 2006 - Хольцхай МВиктор Вазарели. Taschen : Арт-Родник, 2006.

Шамис, 2005 - Шамис А.Л. Пути моделирования мышления. М. : Ком-книга, 2005.

Anderson, 1973 - Anderson J.R., Bower G.H. Human Associative Memory. Washington, DC : Winston, 1973.

Baldassi, 2013 - Baldassi C., Alemi-Neissi A., Pagan M., DiCarlo J.J., Zecchina R. Shape Similarity, Better than Semantic Membership, Accounts for the Structure of Visual Object Representations in a Population of Monkey Inferotemporal Neurons // PLoS Comput Biol. 2013. Vol. 8, № 9. DOI: 10.1371/journal.pcbi.1003167

Fodor, 1975 - Fodor J.A. The Language of Thought. N.Y. : Thomas Y. Crowell Company, 1975.

Gregory, 1998 - Gregory R.L. Eye and Brain: The Psychology of Seeing. Oxford : Oxford University Press, 1998.

Hickok, 1993 - Hickok G. Parallel Parsing: Evidence from Reactivation in Garden-Path Sentences // Journal of Psycholinguistic Research. 1993. Vol. 22, № 2. P. 239-250.

Olivier, 1994 - Olivier P., Tsujii J.-i. A Computational View of the Cognitive Semantics of Spatial Prepositions. Stroudsburg, PA, USA, 1994. P. 303-309.

Paivio, 1986 - Paivio A. Mental Representations: a Dual Coding Approach. Oxford : Oxford University Press, 1986.

Pinker, 2005 - Pinker S. So How Does the Mind Work? // Mind & Language.

2005. Vol. 20, №1.P. 1-24. B| Pinker, 2007 - Pinker S. The Stuff of Thought. Language as a Window to the в

Human Nature. N.Y. : Pinguin Group, 2007. gi

Starzy, 2011 - Starzy J.A., Prasad D.K. A Computational Model of Machine Consciousness // International Journal of Machine Consciousness. 2011. № 3 (2). P. 1-24.

IB «

IB

Prinz, 1984 - Prinz fF.Modes of Linkage between Perception and Action. Berlin : Springer, 1984. P. 185-193.

Pylyshyn, 2003 - Pylyshyn Z. Seeing and Visualizing: It's Not What You Think. Cambridge, MA : MIT Press, 2003.

Logothetis, 1996 - Logothetis N.K., Sheinberg D.L. Visual Object Recognition // Annual Review of Neuroscience. 1996. Vol. 19. P. 577-621.

Sperry, 1952 - Sperry Ä.^.Neurology and the Mind-Body Problem // American Scientist. 1952. Vol. 40.

i Надоели баннеры? Вы всегда можете отключить рекламу.