Научная статья на тему 'Концепции вычислений в современных науках о человеческом познании'

Концепции вычислений в современных науках о человеческом познании Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
409
105
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
ВЫЧИСЛЕНИЕ / РЕПРЕЗЕНТАЦИЯ / КОГНИТИВНАЯ НАУКА / СИМВОЛИЗМ / КОННЕКЦИОНИЗМ / ЭНАКТИВИЗМ / ДИНАМИЧЕСКИЕ СИСТЕМЫ / ПРЕДСКАЗЫВАЮЩИЙ РАЗУМ / COMPUTATION / REPRESENTATION / COGNITIVE SCIENCE / SYMBOLISM / CONNECTIONISM / ENACTIVISM / DYNAMIC SYSTEMS / PREDICTIVE MIND

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Михайлов И. Ф.

Исторический опыт развития когнитивных наук свидетельствует: большая часть проблем и возникающих вокруг них дискуссий выстраиваются вокруг двух опорных концептов: репрезентации и вычисления. Направления или «парадигмы» когнитивных дисциплин различаются в зависимости от признания или непризнания релевантности этих понятий для своих теорий, а также того или иного понимания природы соответствующих явлений. Поскольку репрезентации, если признаются и допускаются, то рассматриваются как необходимый элемент вычислительных процессов, то мы не ошибёмся, если скажем, что весь спектр когнитивных теорий выстраивается по отношению к опорному концепту вычислений от принятия их в самой строгой (формально-символьной, тьюринговой) версии, через более «слабые» нетьюринговы концепции, к полному отрицанию применимости этого понятия к сфере познания и сознательного контроля. Ниже я попытаюсь проанализировать текущие подходы в когнитивной науке на предмет отнесения их к сильной или слабой версии компьютационализма или к радикальному антикомпьютационализму.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Concepts of computations in modern theories of human cognition

As the history of cognitive science testifies, most of the problems and corresponding discussions are built around two basic concepts: representations and computations. The known schools, or ‘paradigms', of cognitive disciplines differ depending on their adopting or denouncing the relevance of these concepts for their theories, as well as on a certain understanding of the nature of phenomena referred thereby. Since representations, if adopted and allowed, are considered a necessary element of computational processes, then we are not mistaken if we say that the entire spectrum of cognitive theories is aligned with the basic concept of computation from accepting them in the strictest (formal-symbolic, Turing-style) versions, through more ‘weak' non-Turing concepts, to a complete denial of the applicability of this concept to the sphere of cognition and conscious control. Below, I will try to analyze the current approaches in cognitive science with a view to classifying them as a strong or weak version of computationalism or as a radical anti-computationalism

Текст научной работы на тему «Концепции вычислений в современных науках о человеческом познании»

УДК: 165.62

DOI: 10.17726/philIT.2018.1.1

Концепции вычислений в современных науках о человеческом познании

Михайлов Игорь Феликсович,

кандидат философских наук, старший научный сотрудник, Институт философии РАН. 109240, г. Москва, ул. Гончарная, д. 12, стр. 1.

i fmikhailov@gmail. com

Аннотация. Исторический опыт развития когнитивных наук свидетельствует: большая часть проблем и возникающих вокруг них дискуссий выстраиваются вокруг двух опорных концептов: репрезентации и вычисления. Направления или «парадигмы» когнитивных дисциплин различаются в зависимости от признания или непризнания релевантности этих понятий для своих теорий, а также того или иного понимания природы соответствующих явлений. Поскольку репрезентации, если признаются и допускаются, то рассматриваются как необходимый элемент вычислительных процессов, то мы не ошибёмся, если скажем, что весь спектр когнитивных теорий выстраивается по отношению к опорному концепту вычислений -от принятия их в самой строгой (формально-символьной, тьюринговой) версии, через более «слабые» нетьюринговы концепции, к полному отрицанию применимости этого понятия к сфере познания и сознательного контроля. Ниже я попытаюсь проанализировать текущие подходы в когнитивной науке на предмет отнесения их к сильной или слабой версии ком-пьютационализма - или к радикальному антикомпьютационализму.

Ключевые слова: вычисление, репрезентация, когнитивная наука, символизм, коннекционизм, энактивизм, динамические системы, предсказывающий разум.

Concepts of computations in modern theories of human cognition

Mikhailov Igor F.

Candidate of Philosophy Senior Researcher, Institute of Philosophy, RAS.

12/1 Goncharnaya Str., Moscow, 109240, Russian Federation.

ifmikhailov@gmail.com

Abstract. As the history of cognitive science testifies, most of the problems and corresponding discussions are built around two basic concepts: representations and computations. The known schools, or 'paradigms', of cognitive disciplines differ depending on their adopting or denouncing the relevance of these concepts for their theories, as well as on a certain understanding of the nature of phenomena referred thereby. Since representations, if adopted and allowed, are considered a necessary element of computational processes, then we are not mistaken if we say that the entire spectrum of cognitive theories is aligned with the basic concept of computation - from accepting them in the strictest (formal-symbolic, Turing-style) versions, through more 'weak' non-Turing concepts, to a complete denial of the applicability of this concept to the sphere of cognition and conscious control. Below, I will try to analyze the current approaches in cognitive science with a view to classifying them as a strong or weak version of computationalism - or as a radical anti-computa-tionalism.

Keywords: computation, representation, cognitive science, symbolism, connectionism, enactivism, dynamic systems, predictive mind.

То, что сейчас известно как «когнитивная революция» в науках о (человеческом) познании, возникло как реакция на необихевиоризм в тот момент, когда реальная компьютерная революция дала психологам и лингвистам концептуальные средства для научного исследования сознания. При этом до тех пор признаком научности считалось как раз стремление избегать психологической терминологии. Первоначальный вариант этой неоменталистской картины был, наверное, слишком прямолинейно списан с компьютерной науки и включал два основных элемента: вычисления, которые производятся над символическими репрезентациями. То есть, вычисления и репрезентации стали двумя концептуальными столпами, на которых зиждется когнитивистская парадигма. Они оставались вне сомнений и подозрений на классическом этапе развития когнитивных наук, который в литературе принято обозначать терминами «символизм», «классицизм» и «компьютационализм»*. Однако уже появление коннекционизма поставило эти опорные понятия под вопрос: если многократный пересчёт весов межнейронных связей - это вычисления, а меняющиеся паттерны активации - это репрезентации, то сам смысл этих терминов нуждается в уточнении: возможно, путём перенесения их на более «низкий», «аппа-

Последний термин, как мы увидим дальше, не совсем точен.

ратный» уровень объяснения. Сигналом к такому переосмыслению была известная по недавней истории атака Фодора и Пилишина на семантические возможности коннекционистских сетей [1] и последовавшая дискуссия с участием Смоленского [2] относительно применимости свойств систематичности, композициональности и продуктивности к семантике коннекционистских репрезентаций. Важной вехой в этой дискуссии была статья Рэмзи [3], в которой было показано, что понятие репрезентации не необходимо в наиболее распространённых разновидностях нейронных сетей. Впо-

« *

следствии появился т.н. «радикальный коннекционизм» , отрицающий какую либо роль репрезентаций в нейронных сетях вообще.

Исторически следующим «образом» когнитивной науки оказался энактивизм, тесно связанный - но не всегда точно совпадающий - с методологическим принципом, известным как embodied mind. Здесь классическому образу когнитивного аппарата как встроенного компьютера, манипулирующего символами, был противопоставлен подход, отдающий приоритет связи мозга с телом и окружающей средой, придающий значительно больший вес моторике и бессознательным реакциям, чем внутренним вычислениям. Так же как в случае с коннекционизмом, в энактивизме нет логической необходимости изгнания из корпуса теории вычислений и репрезентаций, но есть пространство для возможных антиком-пьютационалистских и антирепрезентационалистских интерпретаций в духе «радикального энактивизма», которые незамедлили актуализироваться, например, в широко обсуждаемых сегодня работах Хутто [6; 7].

Чуть более, может быть, в тени, по сравнению с популярными альтернативами, находится самый антирепрезентационалист-ский вариант когнитивной науки, основанный на теории динамических систем и поэтому идентифицируемый по названию этой теории [8]. «Динамические системы» как одна из когнитивных парадигм исходит из абстракции многомерного «пространства состояний», в качестве измерений которого выступают зависимые от времени переменные, выражающие параметры системы. В этом n-мерном пространстве система описывает сложную траекторию, и задачей когнитивной науки является нахождение

* Это течение объемлет как некоторые разновидности, которые основываются на математической теории динамических систем [4], так и исследователей, сочетающих коннекционизм с подходами, восходящими к Выготскому [5].

URL: http://cyberspace.pglu.ru

в этой траектории инвариантов и установление функциональных связей. Данный подход максимально отстраняет себя от конкретной «механики» когнитивных механизмов, описание которой может включать вычисления и репрезентации. Таким образом, оба важнейших для классического когнитивизма понятия оказываются здесь нерелевантны.

Наконец, последняя по времени из конкурирующих когнитивных платформ - predictive mind [9] - характеризуется некоторыми авторами как, напротив, ультра-репрезентационалистская [10, p. 63]. Здесь мозг моделируется как иерархия предсказывающих байесовских машин, которые накладывают ограничения друг на друга и на низлежащие слои организации и все вместе создают модель - по сути, опережающую репрезентацию - мира. Входящие - прежде всего, сенсорные, - данные оцениваются системой по своим энергетическим воздействиям и транслируются дальше поверхностных датчиков только в случае их несовпадения с построенной моделью. Авторы концепции отмечают её исключительную эвристическую силу: наряду с конвенциональными когнитивными функциями, она способна предложить объяснения феноменальной стороны сознания, эмоций и даже психических расстройств. Однако в задачу настоящей статьи не входит какая-либо оценка конкурирующих концепций: их широкий спектр интересует нас в отношении к основополагающим когнитивным понятиям.

И, как мы видим, по отношению как к вычислениям, так и репрезентациям, существующие парадигмы могут быть выстроены по трехступенчатой шкале: (1) сильный компьютационализм/ре-презентационализм - (2) слабый компьютационализм/репрезен-тационализм - (3) антикомпьютационализм/антирепрезентаци-онализм. Однако, чтобы правильно определить место каждого из подходов в этой системе координат, нужно разобраться в концептуальных тонкостях, которые связаны не в последнюю очередь с более широкими сдвигами в современных естественных науках. В большей степени это касается понятия вычислений, которое играет всё большую роль в физике, астрофизике, нейрофизиологии, биологии и даже социальных науках. При этом имеется в виду не инструментальная или методологическая их роль, а самая что ни на есть онтологическая - когда вычислениями занят не исследователь, а сам предмет исследования.

Вычисления и проблема их определения

Итак, символизм как исторически первая форма когнитивизма утвердил достаточно прямолинейное понимание вычислений - такое, каким оно сформировалось в компьютерной науке того времени с момента публикации знаменитой статьи Тьюринга 1936 г.: вычисление это преобразование последовательности символов в соответствии с некоторым алгоритмом. Для того, чтобы перенести это видение на человеческий когнитивный аппарат, нужно было предположить, что внутри этого аппарата есть нечто, функционально играющее роль символов, и нечто, функционально играющее роль алгоритмов. Как писал один из основоположников этого классического подхода,

Тем не менее, унитарная теория увидела в современном компьютере общего назначения важную метафору и, что, возможно, более важно, в символических языках программирования, которые показали, как единый набор принципов может охватывать широкий круг вычислительных задач. Также стало ясно, что множество вычислительных функций не ограничено, что означает, что общие принципы обработки необходимы для охвата широкого круга задач. Нет смысла создавать специальную систему для каждой мыслимой функции. [11, p. 2].

В литературе часто термины «классицизм», «символизм» и «компьютационализм» используют как синонимы, молчаливо предполагая или допуская, что тьюринговский взгляд на вычисления как на правилосообразные манипуляции с символами является единственно законным. Однако, как показывает Нир Фреско [12], помимо символьных вычислений, предпочитаемых в рамках классицизма, можно выделить субсимвольные вычисления, легшие в основу коннекционистской парадигмы, которые, в свою очередь, могут быть понимаемы как цифровые или аналоговые* в зависимости от природы конструируемых нейросетей. Можно также говорить об особом роде вычислений, на концепции которых основывается вычислительная нейронаука, и которые, по мнению Фреско, не являются ни цифровыми, ни аналоговыми, а представляют собой вычисления sui generis.

Варианты классицизма/символизма основываются на на од-

* Аналоговые вычисления понимаются как такие, в которых осуществляются операции над действительными переменными и/или результат точно соответствует дифференциально-алгебраическим функциям [12, р. 363].

ной из двух возможных моделей цифровых вычислений: модели формально-символьных манипуляций (ФСМ), восходящей к Тьюрингу, и модели физических символьных систем (ФСС), впервые сформулированной Ньюелом и Саймоном. Эти альтернативы не разнятся принципиально в понимании сути цифровых вычислений - несущественная разница между ними состоит в локализации уровня организации, на котором можно говорить о вычислениях, и, соответственно, в требованиях к вычислительной системе.

Уровни вычислений

Понятие уровней вычисления было впервые предложено в 1976 г. Дэвидом Марром, классиком в области вычислительной нейрофизиологии и теории зрительного восприятия, в его впоследствии переиздававшейся статье, написанной в соавторстве с Томазо Поджио [13]. В первом варианте концепции было названо четыре уровня, впоследствии их число сократилось до трёх [14, p. 24-25], и именно в этом виде данная концепция стала одной из самых цитируемых (и критикуемых) в публикациях, посвящённых когнитивным вычислениям. Итак, согласно Марру, любая вычислительная система может быть описана на трёх уровнях: (1) теория вычисления, описывающая его цель, приемлемость и стратегию, (2) репрезентация и алгоритм, где определяются формы представления входных и выходных данных, а также алгоритм преобразования одного в другое, и (3) физическая реализация алгоритма и репрезентаций. Эвристическая ценность трёхуровневой концепции, по мнению её автора, состоит в том, что «поскольку эти три уровня лишь нестрого соответствуют друг другу, некоторые феномены могут быть объяснены только на одном или двух из них» [14, p. 25]. Например, как считает Марр, феномен послесвечения (после взгляда на горящую лампу) может быть объяснён только на физическом (физиологическом) уровне, тогда как иллюзия, известная как куб Неккера, предполагает неравновесную нейронную сеть с двумя возможными устойчивыми состояниями (второй уровень) и принципиальную возможность двоякой трёхмерной интерпретации двухмерных изображений (первый уровень).

Модель Марра показывает, что, во-первых, ФСМ и ФСС не являются теоретическими альтернативами, а локализуют вычисления на разных уровнях, при том, что ФСС делает особый акцент на физической реализуемости вычислительной системы. Но ещё бо-

лее интересно, что Марр использует свою схему против популярного, в том числе среди коннекционистов, тезиса о принципиальном различии (фон-неймановского) компьютера и мозга -тезиса, в котором подразумевается, что первый осуществляет серийные вычисления, а второй - параллельные. Для Марра «различие между серийным и параллельным есть различие на уровне алгоритма; оно совершенно не фундаментально - всё, что запрограммировано параллельно, может быть переписано серийно (но не обязательно наоборот)» [14, p. 27].

Ещё более интересно, что одно из наиболее существенных возражений (которое, впрочем, можно рассматривать как дополнение) против классической трёхуровневой схемы Марра было сделано его другом и соавтором Томазо Поджио спустя почти тридцать лет после выхода первого издания книги «Зрение». В послесловии к переизданию книги в 2010 г. и позже, в отдельной статье [75], Поджио утверждает, что, если в 1970-х им с Марром казалось, что компьютерная наука может многому научить нейрофизиологию, то теперь «стол поворачивается», и многие открытия вычислительной нейрофизиологии, прогресс которой во многом был обеспечен трудами Марра, могут внести существенный вклад в общую теорию вычислений.

Так, важнейшим, с его точки зрения, упущением теории Марра было отсутствие ответа на вопрос, каким образом живой организм может научиться необходимым вычислительным алгоритмам*. Некоторые из современных статистических теорий машинного обучения предлагают правдоподобные ответы на этот вопрос. Поджио полагает, что эмпирически подтверждённая иерархическая организация отделов мозга, ответственных за обработку зрительной информации, представляет собой эволюционно развитую структуру, чья цель - снижения уровня сложности зрительных образцов (sample complexity) для выработки репрезентации, подходящей для эффективных вычислений.

В наше время по причине упомянутого «поворачивания стола» появляются теории вычислений, способные пролить свет на алгоритмы лежащие в основе обучения и даже эволюции. Поэтому Поджио предлагает следующий апдейт марровской схемы:

* Он даже высказывает следующее мнение: «Обучение, я думаю, должно было бы быть явно включённым в тьюринговское операциональное определение интеллекта - его знаменитый тест Тьюринга» [75, р. 1018].

(1) эволюция, (2) обучение и развитие, (3) вычисления, (4) алгоритмы, (5) биологический субстрат (wetware), физический субстрат (hardware), схемы и компоненты. Главная мысль статьи, похоже, состоит в следующем: мы не сможем создать мыслящие (intelligent) машины, пока мы вынуждены программировать их интеллектуальные действия. Мы должны не закладывать в них готовые алгоритмы, а сделать их способными вырабатывать эти алгоритмы во взаимодействии с внешней средой, т.е. обучаться. Но, поскольку сама способность к обучению не дана от века, мы также должны воспроизвести в машинах эволюционные механизмы, обеспечивающие прогресс обучаемости. И сегодня это становится возможным.

В стройной концепции, изложенной в статье, есть, на мой взгляд, не очень глубоко скрытое противоречие. По крайней мере, в двух местах в тексте статьи Поджио настаивает, что знание алгоритмов обучения делает необязательным знание алгоритмов более низкого уровня. Одно из высказываний звучит так: «Теоретические и практические успехи <...> машинного обучения предполагают, что возможно разрешить трудные проблемы зрительного восприятия (и интеллекта) без понимания [их] вычислительных и алгоритмических аспектов (without a computational and algorithmic understanding)» [15, p. 1019]. Вместе с тем, он обозначает собственные предпочтения в области различных подходов к машинному обучению. Так, он отказывается обсуждать в рамках статьи какие-либо статистические теории машинного обучения, помимо теории «в стиле Вэпника и Смейла», поскольку байесовские теории хороши только для общего феноменологического описания интеллектуального поведения, но неспособны напрямую решить проблему сложности (зрительных) образцов и обобщения. Что же касается - и это и есть вторая часть противоречия — сетей глубокого обучения (Deep Learning Networks, прямых наследников коннекционистских сетей 1980-90-х гг. — И. М), Поджио заявляет, что они не более чем «отвлечение» (distraction), несмотря на их сегодняшнюю популярность. Аргумент для такой оценки он заимствует в тексте Марра, и сводится этот аргумент к тому, что в теории нейронных сетей, «прежде всего, нерешённым остаётся вопрос, какие функции должны быть внедрены и зачем» (цит. по [15, p. 1019]). Т.е. нейронным сетям ставится в вину отсутствие обязательного понимания содержания вычислительного и алгоритмического уровня марровской схемы

при достаточной разработанности уровня обучения. Но именно эта необязательность вычислительно-алгоритмического понимания на той же самой странице статьи была объявлена родовым признаком любой хорошей теории машинного обучения!

Кроме того, насколько я могу судить по публикациям и фактам реальной жизни (точной статистикой я не владею), упомянутые Поджио «практические успехи» машинного обучения представлены сегодня в основном именно нейронными сетями глубокого обучения.

На мой взгляд, малосостоятельная аргументация сторонника одной из разновидностей статистической теории машинного обучения (Machine Learning) против глубоко-нейросетевого подхода к обучению (Deep Learning) объясняется, если так можно сказать, «парадигмальным» предубеждением сторонников классицизма, к которым, безусловно, относятся Марр и Поджио, против коннек-

* V.»

ционизма* и его современных нейросетевых воплощений - предубеждением, которое впервые проявилось в уже упоминавшейся полемической статье Фодора и Пилишина. И это при том, что уровневый подход Марра-Поджио как раз и помогает расставить эти и некоторые другие когнитивные парадигмы по их законным местам. Так, очевидно, что коннекционистское описание располагается на уровне физических реализаций** и в какой-то степени затрагивает уровень первичных алгоритмов, формально управляющих нейросетевым аппаратом: таких как пороговая функция, расчёт весов, обратное распространение ошибки и т.д. Если при этом возникает вычислительная система, успешно демонстрирующая некоторые когнитивные способности и способная к (само) обучению - т.е. с тренером или без, - но при этом мы не всегда можем реконструировать схемы и алгоритмы, соответствующие первому и второму уровням схемы Марра, то, согласно изначальной концепции уровней, мы, тем не менее, получили хорошее объяснение некоторому множеству феноменов.

* Сам этот термин, по моим наблюдениям, сегодня употребляется значительно реже, чем в 1980-90-х гг.

фф т4 1 __^ ^

Тот факт, что большинство современных неиросетеи проедставляют собой программную эмуляцию параллельных вычислений на обычных серийных компьютерах, не должен вводить в заблуждение. Компьютеры фон-неймановской архитектуры и исполняемые на них серийные программы эмулируют именно физический уровень нейросетей, когда тот оказывается дорогим и труднореализуемым для физического воплощения. Над этим виртуально-физическим уровнем надстраиваются вполне параллельные и распределённые алгоритмы.

Напротив, статистические конкуренты глубокого обучения, насколько я могу судить, концентрируются на втором уровне схемы Поджио — уровне вычислений, связанных собственно с обучением. К сожалению, автор схемы не специфицировал, если можно так сказать, «природу» второго уровня: должен ли он представлять собой только отображение (mapping), в терминах Марра [14, p. 24], одного вида информации в другой, или он должен содержать конкретные и точные формальные алгоритмы. В первом случае статистические теории должны были бы перенесены на четвёртый, алгоритмический, уровень его схемы, что, может быть, было бы правильно, но, похоже, Поджио не это имеет в виду. Из контекста понятно, что предпочитаемая им статистическая теория должна располагаться на втором уровне его схемы, в значительной степени предопределяя содержание третьего, вычислительного, уровня (или первого в схеме Марра), поскольку, по его словам, наше понимание (а следовательно, и программирование) вычислительного и алгоритмического уровней более не необходимо.

В чём мне видится принципиальное, или, если угодно, концептуальное, отличие противопоставляемых подходов: Machine Learning (ML), основанного на той или иной математико-статисти-ческой теории, и Deep Learning (DL), выросшего из теории и практики нейросетей*? Между ними есть важные технические и математические различия, но для философского анализа важно другое: если DL представляет собой, пусть абстрактную, но имитацию биологической реальности; модель, в которой программист задаёт только самые общие принципы и константы параллельных вычислений, не предписывая никаких собственно когнитивных действий и способностей — т.е. создаёт аппаратную платформу (hardware), которая не нуждается в программном обеспечении в привычном смысле слова, то создатель ML-систем продолжает действовать, по сути, как старый добрый программист, только вынужденный работать с существенно более сложными программными средствами. Для того, чтобы избавить себя от заботы о собственно когнитивных алгоритмах, он или она вынуждены писать алгоритмы обучения машины когнитивным алгоритмам, а перемещаясь на уровень

* Формально говоря, Machine Learning и Deep Learning соотносятся друг с другом как род и вид. Но, поскольку нет хорошего общепринятого термина для статистических разновидностей ML, в контексте данной статьи эти термины придётся употреблять, как если бы они обозначали несовместимые понятия.

вверх, соответственно, эта необходимость заменяется необходимостью писать алгоритмы эволюции алгоритмов обучения алгоритмам когнитивных действий. Необходимость подобной пирамиды программирования обусловлена самой сутью классицистского «сверху-вниз» подхода: важно понять телеологию процесса, спроецировать её в алгоритм, выполняемый на «железе», и, если получилось, объявить, что найдено объяснение сложным природным феноменам. Это как если бы компьютерные игры, изображающие автогонки, использовались для объяснения устройства и движения реальных автомобилей.

Типы вычислений

Но вернёмся к типам вычислений. Чтобы выйти за пределы ФМС и ФСС, составляющих основу классицизма, обратимся к понятию механистической системы как онтологической основы цифровых вычислений в более широком их понимании. Крейвер и Бектель [16, p. 469-470] выделяют четыре признака механизма и, соотвественно, четыре требования к механистическому объяснению: (1) феноменальный аспект - задача, которую решает система, (2) структурный аспект - всякий механизм состоит, как минимум, из двух элементов, (3) каузальный аспект - элементы механизма находятся в причинном взаимодействии - и (4) пространственно-временной аспект - для механизма в целом важна локализация его элементов в пространстве и во времени. Вычисления в таком случае понимаются как последовательность состояний механистической системы, в которой ввод (input) - это исходное состояние системы, а выводом (output) в разные моменты времени являются её последующие состояния. Соответственно, как считает Фреско, более слабые, чем символизм, концепции цифровых вычислений опираются уже не на тьюринговскую концепцию, а на алгоритмические описания деятельности механистических систем. К альтернативным концепциям цифровых вычислений относятся, в частности, конечные автоматы, машина Ганди, дискретные нейронные сети и суперкомпьютеры. Возможность этих и подобных реализаций позволяет утверждать, что когниция есть алгоритмическое вычисление, которое не обязательно должен быть символическим [12, p. 361].

Итак, постепенное обобщение разновидностей компьютацио-нализма выглядит следующим образом: (а) символизм, (б) слабый

цифровой компьютационализм и (в) общий компьютационализм,

включающий цифровой, аналоговый, квантовый и нейрофизиоло-

« *

гический*.

Некоторую проблему представляет точная локализация кон-некционистских вычислений на этой шкале общности. Нейросети имеют разную архитектуру и обрабатывают разные типы данных. Какие-то их разновидности могут рассматриваться как подмножество цифровых (несимвольных) вычислений, какие-то - как подмножество аналоговых. Но в любом случае коннекционизм, если, согласно важной оговорке Уильяма Рэмзи, речь идёт о тренируемых, а не программируемых сетях, не имеет точек пересечения с символьным подходом: «Когда коннекционисты изучают роль весов [межнейронных связей] в сетевых вычислениях, их первый вопрос - не «Какое правило кодирует данный вес?», а скорее «Какой каузальный вклад вносит данная связь в обработку данных?»» [3, р. 49]. И это, конечно, показывает, что, даже в дискретных кон-некционистских сетях вычисления могут быть рассматриваемы как цифровые только в слабом смысле - не на основе абстракции машины Тьюринга, а на основе абстракции механистической системы.

Наиболее интересную проблему представляет собой точная идентификация и локализация нейрофизиологических вычислений в рамках предложенной таксономии. На первый взгляд, эта разновидность должна быть родственна коннекционистским (нейросетевым) вычислениям и, соответственно, подчиняться логике и математике, применяемым в коннекционистских сетях. Однако это не так, и тому есть несколько причин. Во-первых, искусственные нейроны представляют собой очень простые процессоры, по большей части виртуальные, тогда как нейроны мозга существенно более сложны физиологически, химически и генетически. Во-вторых, важной частью обучения искусственной ней-росети является алгоритм обратного распространения ошибки, что предполагает возможность передачи данных между слоями в обратном направлении. Напротив, устройства ввпредполагаю-тода и вывода биологического нейрона - соответственно, дендри-ты и аксоны - предполагают только однонаправленную передачу

* Этот последний составляет суть понимания вычислений в нейрофизиологии и отличается от их понимания как в цифровой, так и в аналоговой разновидности коннекционизма.

сигнала. В-третьих, в коннекционистских сетях передача данных идёт последовательно от слоя к слою, тогда как архитектура мозга значительно сложнее и во многом не до конца ясна самим нейрофизиологам.

Но наиболее интересное отличие состоит в том, что, если коннекционистские сети в принципе подчиняются главному принципу Марра, утверждающему относительную независимость уровней рассмотрения вычислительной системы, то в нейрофизиологических вычислениях материальная архитектура биологической нейросети играет решающую роль в определении возможных алгоритмов вычислений. Таким образом, если марровский классицистский подход характеризуется в ныне популярных терминах как подход «сверху вниз» (top-down), то нейрофизиологические вычисления демонстрируют противоположный - bottom-up - подход «снизу вверх», где понимание сути вычислений предопределяется знанием фактов на уровне физической реализации [12, p. 367].

При том, что вычислительная нейрофизиология остаётся пока в высокой степени дискуссионной областью, практикуемый здесь подход «снизу вверх» позволяет предположить, что нейрофизиологические вычисления представляют собой особый тип, не локализуемый не только в дихотомии «сильный (символьный) - слабый компьютационализм», но и в дихотомии «цифровые - аналоговые вычисления». Серии пиков нейронных возбуждений (spike trains) демонстрируют как аналоговые, так и цифровые свойства: кривая электрических потенциалов на внешних «портах» клеток континуальна, но сама последовательность пиков образует дискретную структуру. Можно предположить, что вычислительная нейрофизиология как научная дисциплина ещё слишком молода, и ей ещё предстоит определиться, с какого рода вычислениями ей приходится иметь дело.

Антикомпьютационализм

Учитывая все эти сложности, неудивительно, что раздаются голоса, отрицающую какую-либо эвристическую ценность за вычислительным подходом как таковым. На первый взгляд, действительно, если, обнаружив ограниченную применимость классического тьюринговского понимания вычислений в различных предметных областях, мы делаем уступки физике в виде замены

машины Тьюринга на абстракцию механистической системы, в виде отказа от строгости трёхуровневой схемы Марра в пользу определяющй роли физического уровня, а также будучи неспособны отнести нейрофизиологические вычисления к какому-либо определённому типу, то стоит ли вообще настойчиво придерживаться этой абстракции как объяснительного принципа с тем только, чтобы отдать дань духу времени? Не лучше ли вернуться к старой доброй физике с её прямолинейной каузальностью?

Как было сказано выше, это направление было принято радикальными коннекционистами, радикальными энактивистами и сторонниками динамических систем (ДС). Первая из этих точек зрения утверждает, что коннекционистские сети никоим образом не являются вычислительными устройствами, не является таковым и человеческий мозг. Напротив, как сети, так и мозг являются «сенсорно-моторным процессором, который научили вести себя определенным образом, только благодаря взаимодействию с непредвиденными обстоятельствами этого изменяющегося мира» [17, р. 313]. Ту же или аналогичную позицию разделяют радикальные энактивисты: «Под влиянием феноменологии, теории динамических систем и прогресса робототехники сторонники энакти-вистского и «воплощённого» образа мысли отвергают привычные объяснительные рамки ортодоксальной когнитивной науки в пользу альтернативных платформ» [7, р. 1]. Можно предположить, что все три «посткогнитивистские» тенденции гораздо более совместимы друг с другом, чем их оппоненты. Так, ДС могут рассматриваться как формальная основа для радикально-коннекционистских или энактивистских онтологий. Фреско считает, что ДС сами по себе вообще не имеют каких-либо средств механистического объяснения, хотя в принципе совместимы с механистическими моделями [12, р. 371]. Это означает, что данная теория в её чистом виде не имеет встроенных средств демонстрации компонентной структуры своей модели, включая причинное взаимодействие компонентов и поэтому вынуждена заимствовать такие модели из других радикальных парадигм. Что касается последних, чей решительный успех ещё впереди, есть естественное подозрение, что полный отказ от вычислительных описаний означает шаг назад в научном объяснении сознания, так как традиционные каузальные и натуралистические теории пока не привели к распутыванию связанных с ним философских узлов. Я не хочу сказать, что та или иная вер-

сия компьютационализма есть гарантированный путь к решению проблемы, но, по крайней мере, стоит попытаться настроить это базовое понятие таким образом, чтобы оно соответствовало известным эмпирическим фактам и работающим моделям.

Термодинамическая стоимость вычислений

Одним из возможных способов такой настройки является увязка общей концепции вычисления с его термодинамической стоимостью. Согласно [18], последняя связана с понятием плотности энергии физических и биологических систем, причём живые существа демонстрируют большую энергетическую эффективность по сравнению с астрономическими объектами, а человеческие общества оказываются самыми расточительными системами из всех [18, р. 3]. Меньшие затраты энергии на единицу массы в неравновесных системах, процессы в которых на основании некоторых критериев можно рассматривать как вычисления, означают большую термодинамическую эффективность последних. Но вычислительная задача, скажем, для биологических систем, по-прежнему представляется довольно сложной, поскольку они фактически выполняют многоуровневые вычисления, где более высокие уровни «поглощают» более низкие [18, р. 6]. Авторы моделируют свою теорию на термодинамической стоимости трансляции РНК как самого простого и очевидного вида биологических вычислений, но будущие исследования, по их мнению, должны охватить некоторые из более сложных явлений жизни, познания и социальных взаимодействий высших млекопитающих - всё это подлежит объяснению средствами вычислительной теории, основанной на неравновесной статистической физике.

Одно из возможных эвристических предположений может заключаться здесь в том, что вышеупомянутая многоуровневая архитектура биологических вычислений способна пролить свет на то, что я хотел бы обозначить как онтологию вычислений как таковых. Если природа использует в разных системах своего рода механизм надстраивания уровней, то каждый более высокий уровень вызывает некоторые следствия в более низких - это функциональное отношение часто называют нисходящей причинностью. Но должен быть также учтен его восходящий аналог, так как любой более высокий уровень иерархии фактически является некоторой функцией более низких. Понятие термодинамической стоимости

вычислений помогает понять этот механизм* надстраивания уровней как эволюционную тенденцию к сокращению энергетических затрат вычислений. Переход на уровень вверх позволяет влиять на положение вещей на более низком уровне с меньшими энергетическими затратами за счет нисходящей причинности - аналогично тому, как усилитель руля влияет на рутинные задачи вождения автомобиля. И, поскольку закономерности более высокого уровня в некотором смысле представляют факты более низких, в этом отношении его функционирование может быть принято как обработка информации или вычисление. Такой взгляд имеет смысл, особенно в отсутствие более традиционной научной теории, которая могла бы связать эти разные уровни.

Заключение

В контексте того, что было сказано об онтологии надстраивания уровней в естественных вычислительных системах, было бы разумно предположить, что структурные элементы более высокого уровня функционируют как репрезентации некоторых состояний нижнего уровня, но это репрезентативное отношение не является семантическим - оно являет собой особый тип причинной связи между уровнями, который позволяет снизить термодинамическую стоимость системных взаимодействий. В этом смысле температура представляет собой репрезентацию броуновского движения молекул, подходящую для чувствительных биологических организмов.

Принятие нами «слабой» концепции репрезентации влечет за собой другое рациональное предположение: не существует прямых инструментов или прямых способов репрезентации субъекту «мира» или содержащихся в нём «вещей». На пути к тому, что мы называем «знанием», информация проходит через несколько передающих уровней и репрезентирующих сред и, таким образом, через несколько уровней репрезентации. Таким образом, то, что в конечном итоге появляется как единое, структурированное и классифицированное «видение мира», является результатом чрезвычайно сложного взаимодействия репрезентирующих, интегрирующих и контролирующих подсистем нашей когнитивной фабрики, не говоря уже о социальных вычислениях, которые здесь

* Эти механизмы могут быть объяснены или как «крупнозернение» ('coarse-graining', [19]), или как «образование чёрных ящиков» ('black-boxing', [20]), или как что-то еще, но данная тема выходит за рамки нашего рассмотрения.

почти не упоминаются — таких как язык и различные формы передачи коллективного опыта.

Представленные здесь соображения делают более правдоподобными следующие выводы:

1. Классические объяснения вычислений выглядят сравнительно простой когнитивной теорией, которая готова к непосредственной реализации в компьютерных моделях. Но на концептуальном уровне они чреваты парадоксами и не имеют биологически реалистических интерпретаций, если говорить о познавательной деятельности человека или животных.

2. Более слабые версии компьютационализма частично приносят в жертву вычислительный дискурс в пользу физики и биологии, что приближает их к естественнонаучным взглядам на эволюцию и прижизненное обучение живых существ. Но в результате эти понятия теперь менее чем достаточны для «хорошей» когнитивной теории, оставаясь, самое большее, необходимыми в ней. И потому,

3. Всё предприятие по созданию удовлетворительной когнитивной теории представляет собой более сложную задачу, чем это виделось на заре компьютерной революции. Как философам, так и представителям эмпирических наук предстоит ещё много работы.

Литература:

1. Fodor, J. A., Pylyshyn, Z. W. Connectionism and cognitive architecture: A critical analysis. Cognition, No. 28, 1988. p. 3-71

2. Smolensky P. On the Proper Treatment of Connectionism. Behavioral and Brain Sciences. No. 11, 1988. p. 1-74

3. Ramsey W. Do Connectionist Representations Earn their Explanatory Keep? Mind & Language, Vol. 12. No. I, 1997. p. 34-66

4. Thelen E., Bates E. Connectionism and dynamic systems: are they really different? Developmental Science Vol. 6, No. 4, 2003. p. 378-391

5. O'Brien G., Opie J. Radical connectionism: thinking with (not in) language. Language & Communication, Volume 22, Issue 3, July 2002, 313-329

6. Hutto D. D. Representation Reconsidered. Philosophical Psychology, Vol. 24, No. 1, 2011 p. 135-139. DOI: 10.1080/09515089.2010.529261

7. Hutto D. D., Myin E. Radicalizing enactivism: basic minds without content. Cambridge, MIT Press, 2013. 206 p.

8. Smith L. B., Thelen, E. Development as a dynamic system. Trends in Cognitive Sciences. Vol. 7, No. 8, 2003. p. 343-348. DOI: 10.1016/S 1364-6613(03)00156-6

9. Hohwy J. The Predictive Mind. Oxford, 2013. 282 p.

10. Gärtner K., Clowes R. W. Enactivism, Radical Enactivism and Predictive Processing: What is Radical in Cognitive Science? Kairos. Journal of Philosophy & Science, No. 18, 2017

11. Aderson J. R. The architecture of cognition. Cambridge, Massachusetts: Harvard University Press, 1983. 340 p.

12. Fresco N. The Explanatory Role of Computation in Cognitive Science. Minds & Machines No. 22, 2012, p. 353-380. DOI 10.1007/s11023-012-9286-y

13. Marr D., Poggio T. From Understanding Computation to Understanding Neural Circuitry. Neurosciences Research Program Bulletin, Vol. 15, No.3, 1979. p. 470-488

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

14. Marr D. Vision: a computational investigation into the human representation and processing of visual information. Cambridge: MIT Press, 2010. 369 p.

15. Poggio T. The Levels of Understanding framework, revised. Perception, Vol. 41, 2012. p. 1017-1023. doi: 10.1068/p7299

16. Craver C. F., Bechtel, W. Mechanism. In: S. Sarkar, J. Pfeifer (Eds.), Philosophy of science: An encyclopedia. New York: Routledge, 2006, pp. 469-478

17. Goldstein L., Slater H. Wittgenstein, Semantics and Connectionism. Philosophical Investigations, Volume 21, Issue 4, 1998. p. 293-314

18. Kempes C. P.; Wolpert D.; Cohen Z.; Pérez-Mercader J. The thermodynamic efficiency of computations made in cells across the range of life. Phil. Trans. R. Soc. A 375: 20160343, 2017. http://dx.doi. org/10.1098/rsta.2016.0343

19. Flack J. C. Coarse-graining as a downward causation mechanism. In: Phil. Trans. R. Soc. A 375: 20160338, 2017. http://dx.doi.org/10.1098/ rsta.2016.0338

20. Marshall W., Albantakis L., Tononi G. Black-boxing and cause-effect power. PLoS Comput Biol, Vol. 14, No. 4: e1006114, 2018. https://doi. org/10.1371/journal.pcbi.1006114

i Надоели баннеры? Вы всегда можете отключить рекламу.