Коннекционистские модели сознания: чаши весов и пределы машинной имитации
УДК 004.89
DOI 10.17726^ШТ2020.2.4
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
Барышников Павел Николаевич,
доктор философских наук, доцент, Пятигорский государственный университет, г. Пятигорск, Россия
pnbaryshnikov@pgu.ru
Аннотация. В данной статье представлены некоторые обобщения относительно объяснительного потенциала коннекционистских подходов к теоретическим проблемам сознания. Рассмотрены как сильные, так и слабые стороны нейросетевых моделей. Коннекционизм имеет тесные методологические связи с современными нейронауками и нейрофилосо-фией, что укрепляет его позиции с точки зрения эмпирических натуралистических подходов. Однако при этом данное направление наследует слабые стороны вычислительного подхода, и к коннекционизму становится применима вся система антикомпьютационалистских критических аргументов. Последние разработки в области глубокого машинного обучения дали богатый эмпирический материал для когнитивных наук. Многослойные сети, математические модели ассоциативной динамики обучения, самоорганизующиеся нейросети и пр. позволяют объяснить принципы усвоения концептуальных связей человеком и вслед за этим эмулировать данные процессы в компьютерных системах. При всех инженерных успехах данной технологии существует традиционная критика коннекционизма со стороны представителей когнитивной психологии, которые не могут принять тезис об обучаемости нейросети на основании перераспределения весов. Процесс обучения естественного интеллекта, согласно когнитивным моделям, происходит за счет привлечения знаний, транслируемых в символической форме (ментальные репрезентации, концепты), за счет систем выводного знания, выраженных в пропозициональном содержании. Некоторые философские аспекты «нейронной метафоры» в современных когнитивных науках формируют проблемное поле, которое требует всестороннего осмысления, и первый шаг на пути к этому сделан в данной работе.
Ключевые слова: компьютерная метафора; нейровычисления; ней-росетевые модели; коннекционизм; вычислительная теория сознания.
Connectionist models of mind: scales and the limits of machine imitation
Baryshnikov Pavel N.,
Doctor of science (in Philosophy), assistant professor, Pyatigorsk State University Pyatigorsk, Russia
pnbaryshnikov@pgu.ru
Abstract. This paper is devoted to some generalizations of explanatory potential of connectionist approaches to theoretical problems of the philosophy of mind. Are considered both strong, and weaknesses of neural network models. Connectionism has close methodological ties with modern neurosciences and neurophilosophy. And this fact strengthens its positions, in terms of empirical naturalistic approaches. However, at the same time this direction inherits weaknesses of computational approach, and in this case all system of anticom-putational critical arguments becomes applicable to the connectionst models of mind. The last developments in the field of deep learning gave rich empirical material for cognitive sciences. Multilayered networks, mathematical models of associative dynamics of learning, self-organizing neuronets and all that allow to explain the principles of human conceptual organizing and after this to emulate these processes in computer systems. At all engineering achievements of this technology there is a traditional criticism from representatives of cognitive psychology who cannot accept a thesis about learning ability of a neuronet on the basis of redistribution of scales. Process of learning of natural intelligence, according to cognitive models, happens due to attraction of knowledge broadcast in a symbolical form (mental representations, concepts) at the expense of the systems of output knowledge expressed in the proposi-tional contents. Some philosophical aspects of «neural metaphor» in modern cognitive sciences create the problem field which demands comprehensive understanding, the first step towards which is taken in this work.
Keywords: computer metaphor; neural computing; neural network models; connectionism; computational theory of mind.
1. Причины «долголетия» компьютерной метафоры в философских теориях сознания
Формирование компьютационной (вычислительной) теории сознания произошло в результате необычного стечения социально-
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
исторических обстоятельств и теоретико-технологического мета-форотворчества, имевших место во второй трети XX в. Несомненно, в истории философии механистические машинные аналогии встречались и ранее, например: «Машина мира» Н. Орема и Н. Ку-занского, часовой механизм «Мировой машины» Г. Лейбница, «Человек-машина» Ж. Ламетри и Т. Гоббса. Также идеи лапла-совского детерминизма, согласно которому предопределенность любого состояния обусловливается исходным начальным состоянием, реализовывались в удивительных машинах (автомато-нах), имитирующих сложнейшие движения и поведение: «утка» и «флейтист» Ж. де Вокансона [18], «дышащие» автоматоны швейцарского часовщика П. Ж. Дро и т.п. [14]. Принцип искусственного воспроизводства движения материальных элементов с развитием технологий трансформировался в принцип машинной имитации интеллектуальных процессов. Но представление «движения» человеческого разума в терминах теории информации и теории алгоритмов обладает своеобразной спецификой и требует иной метафорической базы.
Основываясь на работах Р. Карнапа, Б. Рассела и Д. Гильберта, в 1943 г. У. С. МакКаллок и У. Питтс публикуют статью «Логические вычисления идей, имманентных нервной деятельности», в которой (уже используя понятие «машина Тьюринга») указывают на то, что все виды нервной активности имеют сетевую структуру и пред-ставимы в терминах пропозициональной логики, т.к. для любого логического выражения, удовлетворяющего определенным условиям, может быть найден эквивалент поведения сети [15]. В этой работе можно обнаружить ключевую аналогию, которая связывает область физических процессов, каузирующих ментальные процессы, с функциональной областью логических вычислений. То есть вычисление приобретает формальные и каузальные характеристики. Авторы пишут: «Специфика нервной сети реализует принцип необходимых связей, посредством которых можно дизъюнктивно вычислить каузальные отношения между одним состоянием системы и последующим состоянием системы» [Там же]. Таким образом, любое ощущение, вывод, ментальная репрезентация или высказывание имеют воплощение в функциональных состояниях нейронной активности, которые в свою очередь представляют собой результат следования инструкциям от предыдущих состояний. В итоге авторы приходят к мысли о том, что все каузальные отно-
шения психических единиц («психонов») формально представимы в выражениях двузначной цифровой логики. В этом случае ментальное выводимо из вычислимых нейрофизиологических процессов. И наоборот - логико-алгоритмическая функция физических состояний может реализовываться в абстрактных математических моделях и переноситься на любую вычисляющую материю (например, ламповые или кристаллические полупроводниковые процессоры).
Устойчивость компьютерной метафоры в теории познания связана с параллелизмом, в котором очевидны «следы» структуралистского и функционалистского подходов: первичны структура и ее функции, которые можно реализовать на любом носителе, способном стабильно и последовательно принимать конечное число состояний.
Рассмотрим некоторые элементы этого параллелизма.
Вычислительная машина Тьюринга представляет собой оператор памяти, способный к обработке (вводу/выводу) информации. Представление ментальной активности в виде исполнения программных инструкций на «аппаратных» мощностях мозговой материи связано с «техническими» параметрами мозга как информационной системы. Подтверждение данному тезису мы находим у ряда авторов [1]:
• мозг имеет иерархическую структурную организацию: нейронный уровень, синаптический, модульный, макроанатомиче-ский, функционально-системный. Точно такую же структуру имеют разнопорядковые блоки памяти вычислительной машины: от массива запоминающих ячеек регистровой памяти процессора до накопителей вторичной памяти (жестких дисков);
• информация на всех уровнях мозга передается с помощью электрических импульсных сигналов, распространяющихся вдоль электрически неравновесных клеточных мембран. Нервные клетки различных типов образуют однородные ансамбли, часто имеющие общую функцию. Информация в цифровой вычислительной машине хранится и стирается в ячейках памяти более простым путем - посредством различения двух состояний 0 и 1 («включено» и «выключено»);
• работа нервной системы реализуется за счет параллелизма информационных преобразований, который обеспечивается как модулярной локализацией, так и функциональным распределени-
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
ем процессов. «Параллельные программы могут физически исполняться либо последовательно на единственном процессоре - перемежая по очереди шаги выполнения каждого вычислительного процесса, либо параллельно - выделяя каждому вычислительному процессу один или несколько процессоров, распределенных в компьютерную сеть» [3].
Важнейшей составляющей машины Тьюринга является детерминированная каузальность: всякое вычислимое состояние определяет последующее вычислимое состояние. Вычисление на биологическом материале носит стохастический характер, требующий построения вероятностных моделей. При этом возможно проводить аналогию между структурами программного обеспечения вычислительной машины и принципами организации биологических вычислений за счет наличия в обоих случаях итеративных и рекурсивных принципов обработки информации [1].
Компьютерная метафора связана не с примитивной аналогией «мозг-компьютер», а, скорее, с логической возможностью представления функциональных свойств сознания и мозга в виде алгоритмических и вычислительных процедур. Х. Патнэм указывает на то, что, с точки зрения чистой логики, сознание можно понимать как машину Тьюринга лишь на том основании, что оно обладает конечным набором состояний [6]. То есть система, имеющая дискретное множество состояний, связанных между собой каузальным способом, стала эпистемологическим основанием для вычислительной трактовки познания.
Классическая вычислительная модель и различные ее вариации (машинный функционализм, репрезентационализм, гипотеза языка мысли) выявили ряд методологических затруднений и противоречий [2]. Основное технологическое затруднение было связано с ресурсоемкостью последовательной обработки символов. Сложные структуры алгоритмов требовали огромных объемов оперативной памяти и временных затрат. Стало очевидно, что машинные таблицы, приводящие «исполнителя» в ряд последовательных состояний, не отражают подлинных интеллектуальных процессов. Они лишь приводят вычислитель в физическое состояние, функционально тождественное синтаксической структуре алгоритма. На этом этапе назрела необходимость в новом методологическом решении, которым и стала впоследствии коннекционистская модель.
2. Философская программа коннекционизма:
технологическая мощь в методологических сумерках
2.1. Сильные стороны коннекционизма
Коннекционизм в виде отдельного подхода в философии сознания появился как альтернатива классической вычислительной теории сознания.
Сильные стороны коннекционистского подхода и объяснительного потенциала нейросетевых моделей можно привести в виде следующего списка (при различных приближениях список может меняться):
1. Функциональное сходство с биологическим нейроном.
2. Мягкие ограничения при следовании правилу.
3. Амортизация отказов системы.
4. Ассоциативная память.
5. Применение нечеткой логики.
6. Способность к обучению.
Ниже приведены развернутые комментарии к каждому из пунктов.
1. Функциональное сходство с биологическим нейроном. Условное функциональное сходство с биологическим нейроном послужило основанием для сближения психологических исследований с нейронауками, которое не могло быть обеспечено символьным подходом. Активация узлов, способных суммировать входящую информацию, согласно определенным алгоритмическим установкам, несмотря на различия, действительно обнаруживала сходства между формальными моделями и живыми клетками мозга. Параллельная обработка инструкций и способность к обучению (алгоритмизированному выбору оптимальных значений) давали ряд преимуществ нейросетевому подходу перед традиционными символьными моделями. Нейросетевая метафора со всеми погрешностями позволила генерализировать базовые принципы обработки физической информации мозгом и воспроизвести эти принципы в искусственных вычислительных системах.
2. Мягкие ограничения. Одно из очевидных преимуществ кон-некционизма перед символизмом состоит в мягких ограничениях, накладываемых на принципы следования правилу. В символьном подходе система правил содержит ограничения, реализуемые жесткими условиями: если антецедент удовлетворяет условиям, предписываемым правилами, то с необходимостью будут произве-
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
дены действия по реализации консеквента. В коннекционизме роль ограничения проявляется в связи двух элементов сети, выраженной через импликативные отношения, но с гораздо более мягкими ограничениями. В сети входящие сигналы-активаторы поступают со множества узлов, поэтому выбор действия элемента зависит от алгоритма суммации: если от одного узла поступает возбуждающий сигнал и от двух других поступает тормозящий сигнал, то общий эффект будет тормозящим. Мягкими ограничениями называют способность элемента сети к выбору оптимального решения на выходе из множества условий, поступающих на входе. Мягкие ограничения применяются при нейросетевом моделировании когнитивных процессов, когда необходимо выработать вариативный алгоритм действия системы в непредсказуемых условиях среды. У. Бечтелл и А. Абрахамсен указывают на то, что жесткая система правил с набором исключений (в рамках символьного подхода) позволяет формализовать некоторые аспекты когнитивных процессов (например, порождение грамматически правильных предложений) [9]. Однако в этом случае система остается нечувствительной к изменяемому контексту. В нейросетевых моделях мягкие ограничения позволяют контекстуальную многозначность, ошибки и погрешности включать в классы допустимых значений, что дает возможность адаптировать модель под реальные вызовы средового окружения.
3. Амортизация отказов системы. Данное свойство сетевой системы повторяет способность биологического мозга работать в условиях информационной избыточности или конфликтующих запросов. Мозг - удивительно гибкая система, способная игнорировать или пропускать нерелевантную информацию, а также компенсировать недостаток информации. Символьные системы не обладают подобной гибкостью. Пропущенное правило влечет за собой необратимую потерю полезной информации, приводящую к сбою системе в случае, если необходимо применить это правило. В нейронной сети уничтожение нескольких связей и даже нескольких элементов приводит лишь к перераспределению вычислительной нагрузки от входящих сигналов с появлением погрешностей, но без потери работоспособности системы. Архитектура коннек-ционистских сетей воспроизводит одно из важнейших компенсаторных свойств биологической нервной системы - функциональную амортизацию отказов и сбоев.
4. Ассоциативная память. В нейросетевых сетевых системах также реализуются принципы работы ассоциативной памяти, суть которых состоит в поэлементном формировании единого содержания из разрозненных семантических компонентов. Символьная система способна структурировать данные в виде дерева папок и каталогов, где родовидовая иерархия элементов зависит от строгой номенклатуры адресов. Сетевые модели в силу мягких ограничений и амортизации отказов в случае ошибки или потери данных способны выстраивать новые зависимости элементов, близкие к эталонным значениям. Если при обработке данных будет допущена ошибка в описании одного из четырех свойств элемента, то символьная система не идентифицирует этот элемент, в то время как нейросеть просто укажет на процент совпадений в описании. В коннекционистской системе процесс запоминания представляет собой не фиксацию отношений между элементами, а осуществление «микровыводов» в допустимом диапазоне свойств.
5. Применение нечеткой логики. Современные коннекциони-стские модели позволяют применять формальный аппарат нечеткой логики, допускающей промежуточные значения у булевых переменных. Это открывает широкие возможности для нейросетевой обработки данных, требующей описания степени соотношений между явлениями или степени достоверности. Основной механизм физической реализации процессов фаззификации (размытия) значений состоит в представлении нечетких управляющих правил через функции принадлежности, что позволяет строить особую сетевую топологию для нечеткого вывода. Возможность устанавливать полное соответствие между математическим представлением нечеткого вывода и физической структурой сети с упрощенным алгоритмом настройки коэффициентов связей является неоспоримым преимуществом нейросетевого моделирования [4].
6. Способность к обучению. Одним и важнейших преимуществ нейросетевого моделирования является способность сетей к самообучению посредством корректировки весов связей. В основе самообучения лежит принцип обратного распространения ошибки, позволяющего выстраивать матрицу весов для каждого значения входящего сигнала. Для успешного обучения необходимо выполнение ряда условий:
а. Правильный выбор структуры сети, соответствующий классу решаемой задачи.
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
b. Выбор параметров обучения: шаг обучения, норма обучения, количество обучающих примеров.
c. Подготовка входных данных: структурирование, понижение зашумленности и т.п.
Важно отметить, что значение входящего сигнала формирует принципы генерации выводных данных. Сеть обладает своеобразным «опытом», который влияет на выводы и распределение весов. Здесь уже встает не инженерный, а философский вопрос о природе знания, ответы на который формулируются в терминах противоборствующих парадигм: нативизма и ассоцианизма. Техническая трактовка понятия «знание» восходит к классическим ассоциани-стским моделям, согласно которым знание строится на основании близости идей (идея как базовый элемент ассоциативной сети). Последние разработки в области сетевого обучения дали богатый эмпирический материал для когнитивных наук. Многослойные сети, математические модели ассоциативной динамики обучения, самоорганизующиеся нейросети и пр. позволяют объяснить принципы усвоения концептуальных связей и когнитивных способностей человеком и вслед за этим эмулировать данные процессы в компьютерных системах.
В полемике между представителями классической вычислительной теории познания и сторонниками нейросетей, вдохновленных поверхностным сходством биологического и искусственного нейронов, появился ряд сильных философских аргументов со стороны коннекционистов. Что позволяет некоторым исследователям утверждать, что сознание - это результат вычислений биологической нейросети? Существует три ключевых аргумента, вытекающих из представленных выше инженерных преимуществ коннекционизма:
1. Коннекционистам удается избежать цифровой дискретности символьных вычислительных моделей, что позволяет объяснить мозговые процессы, минуя аналогию с центральным процессором (обладающим лишь двумя функциональными состояниями) и тьюринговской памятью-лентой.
2. Обучаемость нейросетей с помощью принципа обратного распространения ошибки стала наглядным вычислительным представлением когнитивных процессов по приобретению опыта и самомодификации поведения системы.
3. Скорость нейросетевой обработки сигнала впервые позво-
ляет говорить о компьютационном объяснении таких когнитивных процессов, как восприятие, распознавание образов, понимание языка, принятие решений и т.п.
Итак, основной тезис коннекционистской версии вычислительной теории сознания сводится к тому, что объяснение ментальных свойств сознания необходимо начинать с нейросетевой структуры материи мозга. То есть коннекционизм становится неотъемлемой частью биологического реализма. При этом остаются значимыми компоненты классического функционализма, утверждающего, что полноценные интеллектуальные функции разума реализуемы на любом носителе, поддерживающем вычислительную архитектуру биологического мозга.
2.2. Слабые стороны коннекционизма
Слабые стороны коннекционистской версии философского компьютационализма связаны в первую очередь не с самим принципом нейросетевой обработки данных, а с его применимостью при конструировании человекоподобных интеллектуальных машин и в объяснении природы разумного поведения, а также при машинной эмуляции кортикальных и субкортикальных структур. С одной стороны, нейросеть обладает большими функциональными возможностями по сравнению с традиционной символьной обработкой, применяемой в ИИ и требующей построения структур данных и громоздких правил обработки. Это связано прежде всего с тем, что ИИ не способен к самомодификации, в то время как искусственная нейросеть при самообучении использует выводные данные и самомодифицируется, добавляя или удаляя нейроны. С другой стороны, при увеличении количества узлов сети усложняется процесс обучения, т.к. на выходе образуется «стена» данных, требующих значительного временного и вычислительного ресурса.
В качестве примера можно привести затруднения, с которыми сталкиваются исследователи при реализации проекта «Конне-ктом» (Human Connectom Project). Методологическая парадигма данного проекта основывается на семи ключевых идеях: 1) объединение мультимодальных данных о работе мозга; 2) получение доступа к данным в высоком пространственном и временном разрешении; 3) предобработка данных для ликвидации зашумления; 4) представление данных с использованием естественной геометрии кортикальных и субкортикальных структур; 5) обнаружение
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
устойчивых связей между различными областями мозга; 6) анализ данных с учетом локализации функциональных модулей; 7) размещение данных в базах в дружественном для пользователя виде [10]. Основная трудность состоит в объемах, степени сложности и неустойчивости связей, порождаемых нейронными соединениями человеческого мозга. Картирование таких данных с применением нейросетевых архитектур на сегодняшний день дает лишь приближенную картину принципов информационной работы мозга.
Более того, некоторые специалисты в области нейросетевого моделирования подчеркивают, что в работе биологического мозга и искусственных нейросетей больше функциональных различий, чем сходства. Комбинаторная кластеризация признаков входящих сигналов, непредсказуемое создание резонансных точек, чувствительных к определенным свойствам, определяют особенности биологической памяти и обучения. «Несложно описать гипотетический механизм, который по таким возбуждающим сигналам восстановит исходный код, который был задан в процессе обучения. Так как поступающая информация может содержать повод для появления разных кодов, то можно предусмотреть механизм выбора одного или сразу нескольких, самых уместных. Выбор возможного выходного кода может происходить по конкурентному принципу» [7]. Код должны создать нейроны, у которых произошло самое сильное возбуждение. В искусственных нейросетях конкурентный алгоритм выбора невоспроизводим.
Интересные результаты дает анализ инженерной критики ней-рокомпьютинга в контексте философского элиминативистского коннекционизма. Согласно Д. Массаро, если в упрощенной форме обобщить технологические слабые места нейросетей, получится следующий список:
1. Неспособность нейросети к построению однозначных результатов (всегда присутствует степень приближения к эталону).
2. Неспособность нейросети к пошаговому решению задач. Преобразование сигнала происходит одновременно во всех узлах.
3. Неспособность нейросети к решению вычислительных задач в силу наличия двух предыдущих недостатков [17].
Субоптимальные значения в нейронных сетях позволяют ввести элементы интеллектуального поведения в связи с обучаемо-
стью и закреплением опыта, но при этом не позволяют реализовать базовые свойства естественной семантической памяти - управление пропозициональным содержанием.
В рамках философии когнитивных наук существуют разночтения относительно оценки коннекционистских моделей. Для многих исследователей-когнитивистов, в том числе и для ряда философов, понятие когниции (и выводимые отсюда свойства сознания) сводится не столько к распознаванию образов и навигации, сколько к способности построения суждений. В данном случае преимущества коннекционизма оборачиваются его недостатками, т.к. мягкие ограничения не справляются с жестким логико-синтаксическим каркасом пропозициональных отношений [13]. Если мышление и феноменальную осведомленность сознания свести к логическим операциям категоризации и концептуализации, тогда нейросетевые модели теряют свою объяснительную силу.
Существует критика коннекционизма со стороны представителей традиционной когнитивной психологии, которые не могут принять тезис об обучаемости нейросети на основании перераспределения весов. Процесс обучения естественного интеллекта, согласно когнитивным моделям, происходит за счет привлечения знаний, транслируемых в символической форме (ментальные репрезентации, концепты), за счет систем выводного знания, выраженных в пропозициональных формализмах. Очевидно, что нейросети плохо справляются с подобной формой представления знания и опыта [9].
В отдельном ряду стоит критика объяснительного потенциала коннекционизма в области языковых правил. С. Пинкер и А. Прайс указывают на необоснованность энтузиазма по поводу коннекци-онистских объяснений подвижности языковых правил через аппроксимативные функции. Оказалось, что соотношение регулярных и нерегулярных правил в морфологии и фонетике английского языка не моделируется в параллельных распределенных сетевых процессах. Также усвоение правил речевого употребления языковых знаков (от фонем до предложений) невозможно свести (как предлагали Руммельхарт и МакКлеланд) к переносу уровней активации элементов сети [18].
Необходимо указать также на то, что разработчики LOTH -Гипотезы языка мысли (Дж. Фодор и З. Пылишин) открыто критиковали коннекционизм и были одними из первых, кто указал
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
на глубинную онтологическую связь когнитивных процессов со знаково-символьной природой сознания. Защита тезиса о комбинаторной структуре ментальных состояний строится на аргументах о симметричной систематичности ментальных репрезентаций, связанной с семантическими свойствами языкового знака: «когнитивные способности всегда обнаруживают определенную симметрию, так что возможность обрабатывать данную мысль предполагает способность обрабатывать мысли, связанные с данной мыслью своим семантическим содержанием» [8]. Авторы последовательно доказывают, что коннекционистский подход, принимая постулат о каузальной замкнутости физического мира, одновременно не может избежать репрезентационалистской установки, т.к. когнитивные структуры (если оставаться на позициях реализма) имеют дело с некоторыми представлениями о мире извне, которые нетождественны объективному положению вещей. При этом коннекционистские модели вычислений в отличие от классических когнитивных моделей фокусируются лишь на каузальной зависимости узлов сети, не учитывая структурную пластичность синтаксиса и семантики, что является основой символьного подхода.
Таким образом, для прояснения природы когнитивных вычислений существенную роль играет способ, каким исследователь понимает природу ментальной репрезентации. Также важно отметить, что нейросетевая парадигма, основывая свои постулаты на свойствах каузально замкнутой физической системы, в вопросах о сознании сталкивается со всеми методологическими трудностями радикального физикализма.
2. Вместо заключения. Вычисление и осведомленность:
признаки машинной имитации
Одним из наиболее сложных эпистемологических вопросов является вопрос о вычислимых свойствах знания. Довольно трудно подобрать адекватный словарь, чтобы строго сформулировать вопрос о том, что и как знают машины. Где заканчивается машинная имитация когнитивных процессов и начинается алгоритмически производимое и воспроизводимое знание? Существует ли единый универсальный принцип конструирования знания, свойственный биологическому интеллекту и машинным нейросетям? Речь даже
не идет о человеческом знании, а лишь о способах принятия решений на основе вычислений в живой природе.
Наиболее иллюстративным примером, на наш взгляд, является полная компьютерная модель живой клетки Mycoplasma genitalium, демонстрирующая сложность алгоритмического представления совокупности всех состояний жизненного цикла одноклеточного организма.
В одном из выпусков за 2012 г. авторитетного журнала «Cell» была опубликована статья Дж. Карра и коллег под названием «A Whole-Cell Computational Model Predicts Phenotype from Genotype» («Вычислительная модель клетки как целого предсказывает фенотип из генотипа»). В названии самым важным является сочетание «клетки как целого», которое указывает на тот факт, что исследователям удалось построить комплексную динамическую вычислительную модель микоплазмы, учитывающую все ее компоненты и взаимодействия между ними [14].
Смелость данного исследования состоит в том, что компьютерная модель строится на фрагментарных данных об устройстве каждого клеточного компонента. Но при этом предсказательная сила модели достаточно высока. «Модули, каждый из которых представляет собой отдельный класс процессов (например, транскрипция или метаболизм), разработаны, параметризованы и протестированы независимо друг от друга; в конечной модели они описывают вовлеченные в них компоненты на разных уровнях детализации. Модули взаимодействуют между собой и обмениваются переменными (которые все вместе описывают внутреннее состояние клетки) с интервалом в одну секунду; развитие этой модели во времени позволяет выполнить моделирование всего клеточного цикла M. genitalium» [5]. Важным достижением здесь является не полная имитация клеточного цикла, а разработка метода, который позволяет с почти бесконечным приближением описывать глубинные клеточные процессы. Важно отметить, что сама модель получилась чрезвычайно сложной и масштабной и потребовала значительных вычислительных мощностей.
В описанной модели в качестве генераторов атомарного знания (здесь под атомарным знанием мы понимаем единицы опыта, представленные в физических состояниях системы) выступают 28 субмоделей различных клеточных процессов, сгруппированные по блокам РНК, ДНК, белки и метаболизм. Любое изменение со-
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
стояний любого элемента субмодели влечет за сбой систему изменений на всех уровнях. Для каждого временного шага в 1 секунду подмодели извлекают текущие значения клеточных переменных, вычисляют их вклад во временную эволюцию клеточных переменных и обновляют значения клеточных переменных. Это повторяется тысячи раз в течение каждой симуляции до момента, когда процессы изменений затухают. Иными словами, «знание» клетки -это параметризация изменений [14].
Известно, что сложность процессов мозга на порядки превосходит сложность процессов Mycoplasma genitalium (отметим, что объем данных генетического кода этого микроорганизма составляет лишь 580Kb). Возникает вопрос: только ли в объемах вычислений и сложности алгоритмов дело? Функционализм стремится представить осведомленность сознания как функцию работы автомата, которую можно реализовать на любом носителе.
Очевидно, что, когда мы говорим о модели предметной области в сознании человека-эксперта и об элементах и связях некоторой онтологии (в инженерном смысле) в искусственной интеллектуальной системе, речь идет о качественно разных формах знания. База знаний, накопленная в памяти нейросети, не обладает качеством опыта естественного интеллекта. Эту проблему условно можно назвать проблемой «черного ящика». Суть ее в следующем. Если доказать, что биологическая материя вычисляет, и построить конечный алгоритм этих вычислений, то в этом алгоритме не будет содержаться ничего, что определяло бы каузальную связь между вычисляющей материей и феноменальными свойствами сознания. Перспектива от первого лица требует особых «интерфейсов вывода», таких как поведение, коммуникация, язык. Функциональные состояния сложно организованной материи, которые меняются в зависимости от поступающей информации «на входе», ничего не сообщают о свойствах информации «на выходе». Притом что у человека физическая информация необъяснимым способом преобразует физический сигнал в феноменальное содержание.
Здесь вновь виден исчезающий след старомодной компьютерной метафоры, притом, что информационные процессы в человеке и в машине не сводимы к одной онтологии (в философском смысле). Человек не обладает бытием вещи, машина не обладает бытием живого существа. Однако адекватность ответов нейросетей на человеческие запросы с большой долей вероятности вскоре запол-
нит этот онтологический разрыв. Человек ждет, что нейросеть вовремя скажет «Hello, world», переведет эту фразу на сотни языков, сделает гроссмейстерский ход в шахматной партии, пошутит голосом Алисы, посадит самолет или успешно продаст акции. То, что по ту сторону машинного вывода нет феноменального содержания или интенциональных состояний, не является определяющим. Все-таки нейросетевые технологии создаются людьми с определенной целью. Например, команда Google Brain свою цель определяет как улучшение способности машины слышать и видеть, чтобы машины могли естественным образом взаимодействовать с людьми [12]. Иносказательность глаголов «видеть», «слышать» «взаимодействовать» в данном контексте уже не так очевидна. Постепенно словарь чувственных состояний мы применяем к вещам, не обладающим субъективностью, тем самым стирая признаки и расширяя пределы имитации.
Литература
1. Бакусов Л. М., Ильясов Б. Г., Рамазанов М. Д., Сафин Ш. М. Биологические вычисления: общие принципы // Проблемы управления. -2006. - Т. 1. - С. 61-68. (Bakusov L.M., Ilyasov B. G., RamazanovM. D., Safin Sh. M. Biological computing: general principles // Problemy upravleniya - 2006. - Vol. 1. - P. 61-68.)
2. Барышников П. Н. Метафорические основания компьютациона-лизма в когнитивных науках и философии сознания // Философия науки и техники. - 2018. - Т. 23, № 2. - С. 61-72. (Baryshnikov P.N. Metaphorical foundations of computationalism in cognitive sciences and philosophy of mind // Filosofiya nauki i tekhniki. - 2018. - Vol. 23, No. 2. - P. 61-72.)
3. Воеводин В. В., Воеводин В. В. Параллельные вычисления. - СПб.: БХВ - Санкт-Петербург, 2002. (Voevodin V. V. and Voevodin V. V. Parallel computing. - SPb.: BHV - St. Petersburg, 2002.)
4. Грибачев В. Настоящее и будущее нейронных сетей // Компоненты и технологии. - 2006. - № 5. - С. 146-150. (Gribachev V. Present and future of neural networks // Komponenty i tekhnologii. - 2006. - No. 5. -P. 146-150.)
5. Дубинный М.Рождение виртуальной клеточной биологии. Биомолекула. URL: https://biomolecula.ru/articles/rozhdenie-virtualnoi-kletochnoi-biologii. (Dubinny M. The Birth of Virtual Cell Biology. Biomolecule. URL: https://biomolecula.ru/articles/rozhdenie-virtualnoi-kletochnoi-biologii.)
6. Патнэм X Философия сознания. - М.: Дом интеллектуальной книги, 1990. (Putnam H. Philosophy of Consciousness. - M.: Komponenty i tekhnologii, 1990.)
7. Редозубов А. В. Логика сознания. Часть 9. Искусственные нейронные
Коннекционистские модели сознания: чаши весов и пределы машинной имитации
сети и миниколонки реальной коры. 2016. URL: https://habrahabr. ru/post/317712/. (Redozubov, A. V. The logic of consciousness. Part 9. Artificial neural networks and minicolumns of the real cortex)
8. Фодор Д., Пылишин З. Коннекционизм и когнитивная структура. Критический обзор / Язык и интеллект; Петров В. В. (ред.). - М.: Издательская группа «Прогресс», 1995. - С. 230-314. (Fodor J., Pylishin Z. Connectionism and cognitive structure. A critical review / Yazyk i intellekt; Petrov V. V. (ed.). - M.: Izdatel'skaya gruppa «Progress», 1995. - P. 230-314.)
9. ЦепцовВ. А. От критики коннекционизма к гибридным системам обработки информации / Познание. Общество. Развитие; Ушаков Д. В. (ред.). - М.: Институт психологии РАН, 1996. (Tseptsov VA. From criticism of connectionism to hybrid information processing systems / Poznanie. Obshchestvo. Razvitie; Ushakov D. V. (ed.). - M.: Institut psihologii RAN, 1996.)
10. Bechtell W., Abrahamsen A. Connectionism and the Mind. - Basil Blackwell, Cambridge,1991.
11. Glasser M. F., Smith S. M., Marcus D. S., Andersson Jesper L. R., Auerbach E. J., Behrens Timothy E.J, Coalson T. S., HarmsM. P., Jenkinson M., Moeller S., Robinson E. C., Sotiropoulos S. N., Xu J., Yacoub E., Ugurbil K. and Van Essen David C. The Human Connectome Project's neuroimaging approach // Nat Neurosci. - 2016. - Vol. 19, No. 9. URL: http://dx.doi.org/10.1038/nn.4361.
12. Google Brain Team. URL: https://research.google/teams/brain.
13. Jordan M. I., Touretzky D. S. Advances in neural information processing systems. - Kaufmann, San Mateo, Calif, 1997.
14. Karr J. R., Sanghvi J. C., Macklin D. N., Gutschow M. V., Jacobs J. M., Boliva B., Assad-Garcia N., Glass J.I. and Covert M. W. A Whole-Cell Computational Model Predicts Phenotype from Genotype // Cell. -2012. - Vol. 150, No. 2. - P. 389-401.
15. Kolesnikov-Jessop S. Automatons and Ingenuity // The New York Times. -2012. - March, 8.
16. MacCullach W.S. and Pitts W. A logical calculus of the ideas immanent in nervous activity // Bulletin of mathematical biophysics. - 1943. - Vol. 5. -P. 115-133.
17. Massaro D. W. Some criticisms of connectionist models of human performance // Journal of Memory and Language. - 1988. - Vol. 27, No. 2. - P. 213-234.
18. Pinker S. and Price A. On language and connectionism: Analysis of a parallel distributed processing model of language acquisition / Pinker S. and Mehler J. (Eds.). Connections and symbols. - MlT Press, Cambridge, Mass., 1988. - P. 73-193.
19. Vaucanson J. Le mécanisme du fluteur automate. URL: https://gallica.bnf. fr/ark:/12148/bpt6k108299h/f1.image.