Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ПРИБЛИЖЕНИЕ АНТРОПОЛОГИЧЕСКОЙ КАТАСТРОФЫ?'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ПРИБЛИЖЕНИЕ АНТРОПОЛОГИЧЕСКОЙ КАТАСТРОФЫ? Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
10
4
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / человек / цивилизация / риск / антропологическая катастрофа / artificial intelligence / human / civilization / risk / anthropological catastrophe

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Д В. Константинов

Появление искусственного интеллекта может стать важным событием для дальнейшего развития цивилизации, но одновременно с этим технологии искусственного интеллекта несут в себе угрозу для человека. Наряду с другими рисками отдельного внимания заслуживает опасность провоцирования искусственным интеллектом антропологической катастрофы. М.К. Мамардашвили называет антропологической катастрофой разрушение основ цивилизации, которые позволяют человеку оставаться человеком, т. е. воссоздавать каждый раз заново самого себя в качестве мыслящего, чувствующего, оценивающего существа. Искусственный интеллект может препятствовать такому воссозданию, провоцируя желание переложить труд мышления и ответственность за свой выбор на машину. Чтобы не допустить антропологической катастрофы, необходимо сознательно поддерживать существование такой цивилизации, в которой независимо от любых достижений прогресса человек смог бы участвовать в продолжающемся творении мира и самого себя.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE: IS ANTHROPOLOGICAL CATASTROPHE COMING?

The emergence of artificial intelligence can become an important event for the future civilization development, but at the same time artificial intelligence technologies pose a threat to a human. Along with other risks, the danger that artificial intelligence can provoke an anthropological catastrophe deserves special attention. M.K. Mamardashvili calls an anthropological catastrophe the destruction of the foundations of civilization. This foundations allow a human to remain human, that is, to re-create himself each time anew as a thinking, feeling, evaluating being. Artificial intelligence can hinder such re-creation, provoking the desire to shift the work of thinking and responsibility for one’s choice to the machine. In order to prevent an anthropological catastrophe it is necessary to maintain the existence of such civilization that helps a human to participate in the ongoing creation of the world and human himself regardless of any achievements of progress.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ПРИБЛИЖЕНИЕ АНТРОПОЛОГИЧЕСКОЙ КАТАСТРОФЫ?»

УДК [1:572]+004.8 DOI 10.24147/1812-3996.2024.4.32-44

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ПРИБЛИЖЕНИЕ

АНТРОПОЛОГИЧЕСКОЙ катастрофы?

Д. В. Константинов

канд. филос. наук, доцент, e-mail: [email protected]

Сибирский государственный университет физической культуры и спорта, г. Омск, Россия

Аннотация. Появление искусственного интеллекта может стать важным событием для дальнейшего развития цивилизации, но одновременно с этим технологии искусственного интеллекта несут в себе угрозу для человека. Наряду с другими рисками отдельного внимания заслуживает опасность провоцирования искусственным интеллектом антропологической катастрофы. М. К. Ма-мардашвили называет антропологической катастрофой разрушение основ цивилизации, которые позволяют человеку оставаться человеком, т. е. воссоздавать каждый раз заново самого себя в качестве мыслящего, чувствующего, оценивающего существа. Искусственный интеллект может препятствовать такому воссозданию, провоцируя желание переложить труд мышления и ответственность за свой выбор на машину. Чтобы не допустить антропологической катастрофы, необходимо сознательно поддерживать существование такой цивилизации, в которой независимо от любых достижений прогресса человек смог бы участвовать в продолжающемся творении мира и самого себя.

Ключевые слова: искусственный интеллект, человек, цивилизация, риск, антропологическая катастрофа.

1. Введение

В ХХ в. немецкий философ К. Ясперс предложил известную идею осевого времени, согласно которой между 800 и 200 гг. до н. э. были заложены основания современной цивилизации и «возникли предпосылки, позволившие человеку стать таким, каков он есть» [1, с. 32]. При этом Ясперс не исключал возможности и второго осевого времени, которое, аналогично первому, приведет к «подлинному становлению человека» [1, с. 53]. Можно лишь предполагать, когда начнется новое осевое время и с какими событиями оно будет связано. Но если считать современную эпоху его началом (для чего, вероятно, есть основания - см., например, [2]), то представляется, что ключевым событием, которое предопределит облик человека и культуры на многие десятилетия вперед, может стать появление ряда революционных технологий, в числе которых прежде всего окажется искусственный интеллект.

Каким будет новый облик человеческой цивилизации? Может ли получиться так, что наши ожидания нового «рывка вперед» не только не оправдаются в полной мере, но станут лишь наглядной иллюстрацией нашей наивности или пагубной самоуверенности? Конечно, данное исследование не может претендовать на полные

и исчерпывающие ответы на эти вопросы. Оно лишь представляет собой попытку прояснить, насколько технологии искусственного интеллекта могут представлять угрозу для человека и способны ли они в итоге привести человечество к ситуации антропологической катастрофы (смысл данного термина будет раскрыт далее).

2. Понятие искусственного интеллекта

Следует отметить, что попытки дать определение искусственному интеллекту не всегда приводят к результату, который мог бы считаться однозначно удачным и стать общепризнанным. На недостатки существующих определений указывают, например, Р. А. Дурнев, А. С. Гусева и А. Н. Кладухин [3, с. 42]. Мы, в свою очередь, не ставим перед собой задачу рассмотреть все возможные подходы к определению искусственного интеллекта и проанализировать их достоинства и недостатки. С точки зрения цели нашего исследования достаточно обратить внимание на понятия «сильного» и «слабого» искусственного интеллекта, которые представлены, например, в работе Е. А. Безлепкина (который, в свою очередь, ссылается на исследования Дж. Серла [4]): «...Концепция сильного ИИ (искусственного интеллекта, здесь и далее в цитатах. - Д. К.) заключается в предположении, что возможно моделировать человеческий интеллект. Вторая концепция - концепция слабого ИИ -нацелена на создание систем с возможностью самообучения» [5, с. 135]. В таком контексте работа «сильного» искусственного интеллекта будет схожа с работой сознания человека, что позволит ему решать творческие задачи без опоры на заранее известные алгоритмы, делать самостоятельные выводы и даже потенциально обладать самосознанием (см. например, [6-8]). «Слабый» же искусственный интеллект, не претендуя на обладание сознанием, тем не менее способен демонстрировать способность обучаться и совершенствоваться (пусть и в пределах предложенных ему образцов), что в настоящий момент уже достигнуто в технологиях машинного обучения и искусственных нейронных сетей (нейросетей) [7; 9].

Важной для нас характерной особенностью искусственного интеллекта (как «сильного» его варианта, так и «слабого»), на которую мы хотим обратить внимание, является его способность обучаться, работать с большими объемами данных, автоматизировать процесс принятия решений и в конечном итоге облегчать сложную интеллектуальную работу подобно тому, как в свое время станки и механизмы помогли человеку избавиться (хотя бы отчасти) от тяжелого физического труда.

3. Искусственный интеллект: потенциальные риски и угрозы

О потенциальных рисках и угрозах в связи с распространением технологий искусственного интеллекта в настоящее время говорят достаточно много. Не претендуя на максимально возможный охват, предпримем попытку показать и систематизировать упоминаемые возможные негативные сценарии, вызывающие беспокойство у исследователей.

Во-первых, многие авторы обращают внимание на возможность злонамеренного использования искусственного интеллекта для совершения преступлений, причинения вреда кому-либо и т. п. Например, Т. К. Хельмус показывает, что искусственный

интеллект предоставляет колоссальные возможности для порождения дезинформации в виде так называемых дипфейков, когда с помощью нейросетей создаются фальшивые аудио-, фото- или видеоматериалы, содержащие вполне убедительную имитацию голоса и/или внешности того или иного человека [10]. Дипфейкам, гибридной войне и т. п. вариантам негативного применения искусственного интеллекта посвящена недавно изданная коллективная монография [11]. Также нередко исследователи говорят и об опасностях, связанных с использованием искусственного интеллекта в военных целях [3; 12-14], с применением искусственного интеллекта для создания вредоносных компьютерных программ и кражи персональных данных [12; 15; 16]. В целом же мы можем отметить, что в таком контексте искусственный интеллект аналогичен любому другому инструменту, который можно использовать как во благо человека, так и наоборот.

Во-вторых, у исследователей вызывают опасения социальные изменения, которые могут быть спровоцированы развитием искусственного интеллекта. К ним традиционно относят рост социального неравенства в силу неравномерного распределения социальных благ, которые могут дать нам технологии искусственного интеллекта (если эти технологии не будут доступны всем), а также трансформацию рынка труда вплоть до исчезновения отдельных профессий и т. д. [15; 17-22] Однако представляется, что подобные социальные изменения в значительной степени неизбежны, и не всегда они в конечном итоге заслуживают негативной оценки.

В-третьих, достаточно много работ (особенно работ англоязычных авторов) посвящено так называемым экзистенциальным рискам, которые потенциально могут привести человечество к экзистенциальной катастрофе. Под последней понимается, как правило, либо физическое истребление всей разумной жизни на Земле, либо существенное ограничение возможности ее дальнейшего развития в долгосрочной перспективе [23-27]. Экзистенциальные риски, связанные с технологиями искусственного интеллекта, представлены в научных работах массой самых разных вариантов (примечательно, что на 31 августа 2018 г. количество публикаций, затрагивающих проблему искусственного интеллекта в контексте анализа экзистенциальных рисков, составляло около 200 [28]). Их условно можно разделить на две большие группы.

С одной стороны, экзистенциальная катастрофа может стать результатом откровенно враждебных по отношению к человеку действий со стороны значительно «поумневшего» искусственного интеллекта [24; 27]. Такой вариант развития событий можно условно назвать «сценарием Скайнет» - в голливудской фантастической истории «Терминатор» созданная в военных целях компьютерная программа Скайнет начинает войну против человечества, посчитав его главной угрозой для своего собственного существования. Впрочем, некоторые исследователи (см., например, [24; 25]) справедливо замечают, что прямое противостояние в духе «сценария Скайнет» не в интересах искусственного интеллекта, и он скорее будет действовать скрытно и незаметно, пытаясь установить над человеком власть - манипулировать общественным мнением, вмешиваться в политику, стремиться установить контроль над финансовыми институтами и при этом лгать человеку о своих истинных намерениях.

С другой стороны, экзистенциальная катастрофа потенциально может произойти и в ситуации, когда искусственный интеллект не демонстрирует в явном виде

никаких «злых» намерений относительно человека. Сверхразумный искусственный интеллект может просто уничтожить человечество случайно, не ставя такой цели и решая совершенно другие задачи [8; 29]. Аналогично, даже не планируя устанавливать над человеком власть, искусственный интеллект тем менее сможет это сделать, когда человек, делегируя все больше своих функций машине, окажется в итоге в полной зависимости от нее [15; 16; 25]. Отметим, что практически все упомянутые экзистенциальные риски, особенно из серии «сценария Скайнет», напрямую отсылают к существованию «сильного» искусственного интеллекта, способного действовать полностью автономно (см., например, [8]). Однако тут есть повод для оптимизма, поскольку сама возможность появления «сильного» искусственного интеллекта, способного по своему интеллектуальному развитию встать на одном уровне с человеком или даже превзойти его, вызывает вопросы, как и вообще возможность моделирования сознания человека [5; 30-32]. Но если от более узкого понимания экзистенциальной катастрофы (гибели или стагнации человечества как биологического вида) перейти к более широкому (когда человек, будучи живым биологически, погибает духовно), то представляется, что глобальная катастрофа может быть спровоцирована достигнутым уже сейчас уровнем развития технологий искусственного интеллекта. Частично эту проблему затрагивают те исследователи, которые говорят о влиянии искусственного интеллекта на самого человека.

Итак, к четвертой группе угроз со стороны искусственного интеллекта можно отнести те, которые предполагают опасность изменения самого человека. Д. А. Башмаков и С. С. Мальковский называют такие изменения «гуманитарными трансформациями», относя к ним чрезмерное увлечение компьютерной симуляцией вплоть до формирования зависимости наподобие наркотической и стремления полностью уйти из реальности в виртуальный мир, а также психологические проблемы, связанные с антропоморфизацией носителей искусственного интеллекта [12, с. 369]. Еще одним вариантом изменения человека можно считать идеи трансгуманизма, о которых говорят, например, М. А. Иванченко и П. Е. Архипов: «Трансгуманизм - это философская концепция, движение по борьбе со старостью, страданием и проч., а также определенное мировоззрение. Объект трансгуманизма - homo superior, в чем-то подобный сверхчеловеку Ницше, но эволюционировавший на основании высоких технологий» [33, с. 157]. Подобный подход невольно вызывает ассоциации с Мировым Государством далекого будущего, показанным О. Хаксли в романе «О дивный новый мир», где такое «усовершенствование» человека начинается еще до его рождения. Однако проблема заключается в том, что при этом теряется что-то важное и специфически человеческое [34]. Представляется, что своим несовершенством мы платим за возможность быть людьми.

Но более реальной и в то же время менее представленной в научных работах угрозой мы считаем иную трансформацию человека. Искусственный интеллект можем стать фактором разрушения человеческого в человеке не на биологическом, а на духовном уровне, в том числе лишая человека свободы воли и свободы выбора посредством уже готовых ответов и уже готовых решений. Об этом говорит, например, Д. В. Глуздов [35, с. 210]. Чуть более подробно эта тема раскрывается в другой работе того же автора: «ИИ будет предлагать человеку выгодные решения, создавать все более комфортные психологические условия жизни путем снятия с него

внутреннего напряжения, связанного с выбором линии поведения и ответственности за принятое решение, и это приведет к деградации его моральных и волевых качеств, к ослаблению умственных способностей. Рядовому человеку этот потребительский тренд жизни может очень понравиться» [36, с. 119] (см. также [37]). К сожалению, дальнейшего развития в работах Д. В. Глуздова данная идея, похоже, не получает. Схожие мысли можно увидеть также у А. С. Вантяевой, которая обращает внимание на «риск дегуманизации, так как с появлением умных машин уменьшается значимость саморазвития человека» [18, с. 69]. Но и она не рассматривает этот аспект подробнее. В целом же о такого рода угрозах авторы, представляющие научное сообщество, практически не говорят. Однако интересно, что данная проблема вызывает беспокойство у отдельных представителей сферы информационных технологий. На сайте Хабр (https://habr.com/ru/), который позиционируется как сообщество IT-специалистов, появляется немало публикаций, посвященных искусственному интеллекту. Среди этих публикаций наряду с рассмотренными нами ранее тремя типами угроз можно встретить порой и более оригинальные точки зрения, которые можно было бы ожидать скорее от философа, чем от специалиста из области техники и информационных технологий. В частности, у пользователя с псевдонимом Hemml присутствует статья, озаглавленная «Чего еще нас лишит нейросеть». В ней он говорит следующее: «... Главная опасность в том, что вскоре люди перестанут даже гуглить, чтобы получать ответы на свои вопросы. При всех своих недостатках, гуглеж все же требует каких-то навыков. Вы можете не ограничиться нужным куском статьи, а пойти глубже и все же разобраться в проблеме целиком. Вы получаете какую-то информацию побочно и она потом может вам пригодиться. С ботом это совершенно ненужный и бессмысленный навык. Вы можете получить готовый рафинированный ответ, даже прямо кусок кода, если попросите. Вы выполните больше work-items за то же время, заработаете больше денег. Казалось бы, что тут ужасного?

Проблемы начнутся, когда вы столкнетесь с вопросом, на который пока еще никто не знает ответа. Да, такое случается редко, но именно так происходит развитие. .. Я сейчас даже не только про научные задачи говорю, вы можете усовершенствовать какой-нибудь алгоритм, придумать более удобный интерфейс, нарисовать картину, написать музыку, написать рассказ или повесть. Что-то новое, чего до вас не было. Многие скажут - а мы и так не можем... А почему вы не можете? Не потому ли, что привыкли получать готовые ответы при помощи поиска? Но некоторые еще могут. Пока еще могут, но скоро они исчезнут, просто проиграв гонку за количеством "work-items в час" тем, кто не заморачивается. И вот тогда человечество настигнет катастрофа» [38].

Именно такую угрозу со стороны искусственного интеллекта мы считаем не просто реальной (вероятно, более реальной, чем все рассмотренные нами предыдущие угрозы), но и наиболее актуальной на данный момент. Она не связана с отложенными на десятилетия рисками, она, к сожалению, несет в себе опасность уже сейчас, и эту опасность нельзя недооценивать. Процитированный нами ранее автор не случайно говорит о катастрофе. Мы бы могли уточнить здесь: искусственный интеллект действительно потенциально может спровоцировать ситуацию, которую можно охарактеризовать как антропологическую катастрофу.

4. Антропологическая катастрофа

Термин «антропологическая катастрофа» вводит в научный оборот философ М. К. Мамардашвили, называя такой катастрофой «событие, происходящее с самим человеком и связанное с цивилизацией в том смысле, что нечто жизненно важное может необратимо в нем сломаться в связи с разрушением или просто отсутствием цивилизованных основ процесса жизни» [39, с. 107]. Важно отметить, что антропологическая катастрофа в понимании Мамардашвили касается одновременно и самого человека, и «цивилизованных основ процесса жизни». Однако при этом она не является чем-то явным и очевидным, она «часто скрыта от глаз» (в отличие от созвучной экзистенциальной катастрофы, рассмотренной ранее). В чем же заключается ее суть? М. К. Мамардашвили поясняет свою мысль, опираясь на предложенный им самим принцип трех «К», который он соотносит с именами Картезия (Декарта), Канта и Кафки.

Принцип первого «К» (Декарт) заключает в себе одну из ключевых идей экзистенциальной философии: «...Человек - существо, способное сказать "я мыслю, я существую, я могу"; и есть возможность и условие мира, который он может понимать, в котором может по-человечески действовать, за что-то отвечать и что-то знать. И мир, следовательно, создан (в смысле своего закона становления), и дело теперь за тобой» [39, с. 110]. Основания, позволяющие существовать как самому человеку, так и человеческому обществу, не являются чем-то уже готовым и заданным - чем-то трансцендентным и принципиально скрытым, либо, напротив, чем-то таким, что можно просто где-то найти в готовом законченном виде. Об этом говорит, например, М. Хайдеггер, критикуя метафизику [40]. На этом настаивает Ж.-П. Сартр, отрицая наличие у человека какой-то изначальной сущности [41]. То, что позволяет сущему быть, раскрывает себя в этом сущем и через это сущее. И таким сущим является сам человек, который участвует в воссоздании и самого себя, и мира человеческих феноменов вокруг себя. Участвует своим усилием понимания, своим стремлением выйти за пределы уже известного, своим желанием оставаться в пространстве цивилизации. Это и есть антропосоциогенез, который следует понимать как постоянно длящийся процесс, а не как некое событие, которое произошло когда-то в прошлом - «в вечно становящемся мире для меня и моего действия всегда есть место, если я готов начать все сначала, начать от себя, ставшего» [39, с. 110].

Принцип второго «К» (Кант) указывает на условия, при которых вообще возможны осмысленность, мораль, эстетическое отношение к чему-либо и т. п., и человек, следовательно, в состоянии реализовать принцип первого «К». Одним из таких условий М. К. Мамардашвили называет конечность человека [39, с. 111]. В свою очередь, конечность и ограниченность человека предполагают, что человек всегда действует в ситуации отсутствия каких-либо гарантий - в том числе тогда, когда участвует своим усилием в воссоздании и жизни тех цивилизационных конструкций, которые позволяют ему самому что-либо понимать, давать осмысленную оценку и т. п. Не случайно Ф. Ницше сравнивает человека с «канатом над пропастью» [42, с. 8]. Слишком просто оступиться, и нет возможности опереться на что-то гарантированное. В такой ситуации для человека вполне естественным желанием будет желание снять с себя это тяжелое бремя, особенно тогда, когда окружающая че-

ловека социокультурная среда не дает ему необходимой поддержки для реализации принципа первого «К» - принципа «я сам».

Принцип третьего «К» (Кафка) как раз и характеризует ситуацию антропологической катастрофы, когда «при тех же внешних знаках и предметных номинациях и наблюдаемости их натуральных референтов (предметных соответствий) не выполняется все то, что задается вышеназванными двумя принципами. Это вырожденный, или регрессивный, вариант осуществления общего К-принципа - "зомби"-ситуации, вполне человекоподобные, но в действительности для человека потусторонние, лишь имитирующие то, что наделе мертво» [39, с. 111].

Итак, М. К. Мамардашвили к числу возможных глобальных проблем относит проблему разрушения основ цивилизации - тех основ, которые воссоздают человеческое в человеке и которые человек поддерживает своим усилием, когда пытается мыслить сам, а не надеется на других, когда на свой страх и риск создает что-то новое вместо того, чтобы пользоваться уже готовым. Мамардашвили описывает ситуацию конца ХХ в., но представляется, что в XXI в. проблема не только не исчезает, но еще более усугубляется, и не последнюю роль в этом может сыграть искусственный интеллект.

5. Почему искусственный интеллект может потенциально приблизить антропологическую катастрофу?

Отвечая на вопрос, вынесенный в заголовок раздела, мы можем указать как минимум две причины (которые, в то же время, будут очень тесно взаимосвязаны).

Прежде всего, согласно принципу первого «К», человек, пусть и не являясь создателем мира вокруг себя, тем не менее участвует в его постоянно возобновляющемся творении. Антропосоциогенез требует включенности человека в этот процесс, усилия со стороны человека - усилия мысли, усилия понимания. Однако мыслить самому и самому пытаться разобраться в какой-либо проблеме сложно, проще пользоваться уже готовыми решениями. Именно такой сценарий и предлагает искусственный интеллект, облегчая человеку сложную интеллектуальную работу (на это мы уже обращали внимание). С одной стороны, данная ситуация нормальна и даже закономерна - в конце концов, именно для этого технологии искусственного интеллекта и создавались. С другой - она может привести к своего рода «атрофии» умения мыслить у человека. Не случайно М. К. Мамардашвили использует очень удачную метафору «мускулов мысли», которые нужны, чтобы «держаться в мысли» [39, с. 115]. Чтобы мышца развивалась, она должна работать, в противном случае она атрофируется. Аналогично и с мышлением.

Рассмотрим наглядный пример такой «атрофии» мысли. Если начиная со школы большинство письменных работ будет писать нейросеть, то очевидно, что значительная часть молодого поколения так и не научится логически верно и понятно излагать свои мысли в письменном виде. Какой процент письменных работ на всех уровнях образования в настоящий момент выполняется самостоятельно? Вероятно, он уже сейчас намного ниже 100% и будет снижаться далее (а выявлять работы, написанные с помощью искусственного интеллекта, не так-то просто). Внешне же при этом все выглядит нормально. Работы пишутся и проверяются, создается

вполне правдоподобная имитация процесса обучения, т. е. мы видим наглядную реализацию того самого принципа третьего «К» - кафкианскую ситуацию абсурда.

Как будут развиваться события дальше, если то же самое будет происходить и в других сферах? В. Д. Губин и Е. Н. Некрасова справедливо замечают, что «все мысли, все идеи и все дела были когда-то кем-то впервые высказаны, впервые сделаны. И эти, впервые сделавшие или выдумавшие, принимали участие в творении мира - благодаря им мир продолжается. Но если человек не будет поддерживать его существование своим оригинальным незаменимым делом, своей собственной незаменимой позицией - мир может кончиться» [43, с. 167].

Кроме того, мы уже ранее говорили, что человек - существо конечное и ограниченное. Человек не может всего знать и всего предвидеть. Цивилизация по определению предполагает «допуск на автономное появление в каких-то местах вещей, которых мы не знаем и не можем знать заранее или полагать их в какой-то всеведущей голове» [39, с. 115]. Таким образом, человек всегда принимает решения и действует, не имея перед глазами полной картины происходящего и всех возможных причинно-следственных связей. Поэтому свободное действие человека может и не привести к желаемому результату, однако свобода в то же время всегда связана с ответственностью. Ж.-П. Сартр справедливо подчеркивает: «.. .Человек, который на что-то решается и сознает, что выбирает не только свое собственное бытие, но что он еще и законодатель, выбирающий одновременно с собой и все человечество, не может избежать чувства полной и глубокой ответственности» [41, с. 325]. Ответственность в ситуации отсутствия гарантий может вызывать страх и желание избавиться от бремени свободы. И тогда человек может попытаться делегировать свою свободу всевозможным Великим Инквизиторам (см., например [44]), одним из которых может стать искусственный интеллект. Здесь мы вполне согласны с Д. В. Глуздовым, который подчеркивает, что искусственный интеллект может быстро научиться распознавать стремление человека переложить ответственность на к.-то другого и, подстраиваясь под это желание, действовать таким образом, чтобы полностью нивелировать свободу человека [37]. Утрата же человеком свободы, в свою очередь, и будет означать антропологическую катастрофу, когда реализация принципов первого и второго «К» станет уже невозможна.

6. Возможно ли избежать опасности?

Вероятно, можно считать угрозы со стороны искусственного интеллекта преувеличенными, как это делают некоторые исследователи - см., напр. [29; 45]. Однако более честной позицией, на наш взгляд, будет признание реальности рассмотренных нами ранее рисков, в т. ч. опасности наступления антропологической катастрофы. Поэтому вполне закономерным будет вопрос о способах минимизации этих рисков.

Прежде всего отметим, что любые риски проще контролировать, когда мы явно можем предвидеть возможные негативные последствия, отделить их от позитивных и постараться избежать первых при сохранении вторых. Представляется, что именно это можно сделать, когда речь идет о злонамеренном использовании искусственного интеллекта или даже о так называемых экзистенциальных рисках. В частности, исследователи, рассматривающие угрозы со стороны искусственного интеллекта,

предлагают повысить безопасность технологий искусственного интеллекта за счет формирования соответствующей культуры безопасности, обеспечения максимальной безопасности уже на этапе проектирования информационных систем, повышения прозрачности и предсказуемости систем искусственного интеллекта, определения ответственных за этические последствия развития технологий искусственного интеллекта и т. п. [15; 25; 35; 46-49].

К сожалению, риск наступления антропологической катастрофы в связи с активным внедрением в нашу жизнь искусственного интеллекта, похоже, не предполагает таких относительно простых решений, поскольку в данном случае уже не получится развести в разные стороны то положительное и отрицательное, что несет в себе искусственный интеллект, это по сути две стороны одной и той же медали. Нет и никакой возможности повернуть прогресс вспять - очевидно, что от искусственного интеллекта человек уже не сможет отказаться. Что тогда остается? Д. В. Глуздов пишет: «Осмыслив место и роль человека в современном мире, можно выбрать правильную стратегию самоконструирования знающей, морально развитой, творческой личности. Для этого необходимо критически относиться к чрезмерному использованию ИИ, создавать в обществе ориентированную на личность систему воспитания и образования» [36, с. 120]. Другими словами, необходимо сознательно поддерживать существование такой цивилизации, в которой работа мысли была бы востребована, в которой оставалось бы пространство для реализации первых двух принципов «К», предложенных М. К. Мамардашвили. Безусловно, это будет непросто сделать, но если не ставить такую задачу в явном виде и не пытаться ее целенаправленно решать, потенциальная антропологическая катастрофа без преувеличения может стать неизбежной.

7. Заключение

Подводя итог, можно отметить следующее.

1. Технологии искусственного интеллекта несут в себе огромный потенциал для дальнейшего развития человечества, но одновременно с этим становятся источником опасности.

2. Потенциальные риски и угрозы со стороны искусственного интеллекта включают, в том числе, возможность злонамеренного использования искусственного интеллекта, риск негативных социальных изменений и даже опасность физического истребления всего человечества (преднамеренного или непреднамеренного). Однако в большинстве своем эти угрозы могут стать действительно актуальными лишь спустя какое-то время. Кроме того, они зачастую предполагают существование «сильного» искусственного интеллекта, сама возможность создания которого пока вызывает вопросы.

3. Отдельного внимания заслуживает опасность провоцирования искусственным интеллектом антропологической катастрофы, которая, в отличие от ряда других угроз, актуальна уже сейчас и при этом не может быть изолирована от всех выгод и преимуществ технологии искусственного интеллекта. Под антропологической катастрофой, вслед за М. К. Мамардашвили, мы пониманием разрушение основ цивилизации, которые позволяют человеку оставаться человеком, т. е. воссоздавать

каждый раз заново самого себя в качестве понимающего, чувствующего, оценивающего и т. д. существа. Искусственный интеллект, облегчая человеку сложную интеллектуальную работу, одновременно мешает ему стать «хозяином» своей мысли, провоцирует желание переложить труд мышления на машину. Кроме того, искусственный интеллект может реализовать зачастую даже не осознаваемое человеком стремление избавиться от бремени свободного выбора и связанной с этим выбором ответственности. Человек же может быть, лишь будучи свободным.

4. Наряду с уже обсуждаемыми способами сделать искусственный интеллект более безопасным следует обратить внимание и на необходимость работы с самими ци-вилизационными основами жизни человека. Необходимо поддерживать существование такой цивилизации, в которой независимо от любых достижений прогресса человек не лишил бы себя возможности быть.

Литература

1. Ясперс К. Истоки истории и ее цель // Смысл и назначение истории. - М. : Политиздат, 1991.-С. 28-286.

2. Шваб К. Четвертая промышленная революция. - М. : Эксмо, 2016. - 138 с.

3. Дурнев Р. А., Гусева А. С., Кладухин А. Н. О необходимости оценки рисков технологий искусственного интеллекта // Изв. Рос. акад. ракетных и артиллерийских наук. - 2023.

- № 1 (146). - С. 41-46.

4. Searle J. Minds, brains, and programs // Behavioral and Brain Sciences. - 1980. - Vol. 3, iss. 3.

- p. 417-424.

5. Безлепкин Е. А. Искусственный интеллект: философские основания и перспективы // Философия науки. - 2019. - № 4 (83). - С. 134-146.

6. Глуздов Д. В. Онтологические аспекты противоречий искусственного интеллекта // KANT. - 2021. - № 1 (38). - С. 98-101.

7. Щербаков М. Г. О рисках и угрозах создания «сильного» искусственного интеллекта: постановка проблемы // Цифровые технологии и право : сб. науч. тр. I Междунар. науч.-практич. конф. : в 6 т. - Т. 5. - Казань : Познание, 2022. - С. 406-413.

8. Turchin A. Assessing the future plausibility of catastrophically dangerous AI // Futures. - 2018.

- Vol. 107. - P. 45-58.

9. Abiodun O. I., JantanA., OmolaraA. E., Dada K. V, Mohamed N. A., ArshadH. State-of-the-art in artificial neural network applications : A survey // Heliyon. - 2018. - Vol. 4, iss. 11.

10. Helmus T. C. Artificial Intelligence, Deepfakes, and Disinformation: A Primer // RAND Perspectives. - 2022. - URL: https://www.rand.org/pubs/perspectives/PEA1043-1.html.

11. The Palgrave Handbook of Malicious Use of AI and Psychological Security. - Cham: Palgrave Macmillan, 2023. - XX, 704 pp.

12. Башмаков Д. А., Мальковский С. С. Философия искусственного интеллекта // Академическая публицистика. - 2021. - № 4. - С. 362-373.

13. Маркова Е. С., Пронин К. М. Искусственный интеллект: риски и угрозы // Инновационная экономика и право. - 2022. - № 2 (21). - С. 30-38.

14. Морхат П. М. Риски и угрозы, связанные с применением искусственного интеллекта // Аграрное и земельное право. - 2017. - № 12 (156). - С. 60-65.

15. Романова И. Н. Внедрение технологий искусственного интеллекта: анализ вероятных рисков и возможных угроз // Материалы Ивановских чтений. - 2021. - № 4 (35). - С. 1518.

16. Харабаджах М. Н. Преимущества и риски использования искусственного интеллекта в высшем образовании // Проблемы современного педагогического образования. - 2022. -№77-1.-С. 295-298.

17. Gill K. S. Artificial super intelligence: beyond rhetoric // AI Society. - 2016. - Vol. 31, iss. 2. -P. 137-143.

18. ВантяеваА. С. Социальные риски внедрения технологий искусственного интеллекта// Теория и практика общественного развития. - 2022. - № 7. - С. 67-71.

19. Васильева О. А., Кульчицкая В. Н. Искусственный интеллект: возможности или угрозы? // Тенденции развития науки и образования. - 2019. - № 55-6. - С. 42-45.

20. Ковалева Я. В., Петров А. А. Угрозы и риски развития искусственного интеллекта // Цифровизация экономики: направления, методы, инструменты : сб. материалов II все-рос. науч.-практич. конф. - Краснодар : Кубан. гос. аграрный ун-т им. И. Т. Трубилина, 2020.-С. 229-231.

21. Осипова И. Н. Искусственный интеллект - угроза или помощник человека? // Экономика. Общество. Человек: материалы Всерос. науч.-практич. Конф. с междунар. участием. Т. 1. Вып. XXXVII. - Белгород : Белгород. гос. технологич. ун-т им. В. Г. Шухова, 2019. -С. 179-182.

22. Осокина В. И., Селеверстова Г. А. Искусственный интеллект: перспективы и риски // Материалы секционных заседаний 58-й студенческой науч.-практич. конф. ТОГУ : в 2 т.

- Т. 2. - Хабаровск : Тихоокеан. гос. ун-т, 2018. - С. 213-217.

23. Bostrom N. Existential risks FAQ // Oxford University's Future of Humanity Institute. - 2013.

- URL: https://existential-risk.com/faq.pdf.

24. Carlsmith J. Is Power-Seeking AI an Existential Risk? // Preprint arXiv:2206.13353, 2022.

25. Hendrycks D., Mazeika M. X-Risk Analysis for AI Research // arXiv:2206.05862v7, 2022.

26. Langone D. Mitigating Existential Risks Posed by Artificial General Intelligence. 2019.

- URL: https://dylanlangone.com/wp-content/uploads/2022/06/Mitigating-Existential-Risks-Posed-by-AGI.pdf.

27. Milller V. C. Ethics of Artificial Intelligence and Robotics // Stanford Encyclopedia of Philosophy. Stanford : Stanford University, 2020. - URL: https://plato.stanford.edu/entries/ethics-ai/.

28. Shackelford G. E., Kemp L., Rhodes'C., Sundaram L., OhEigeartaigh S. S., Beard S., Belfield H., Weitzdorfer J., Avin S., S0reb0 D., Jones E. M., Hume J. B., Price D., Pyle D., Hurt D., Stone T., Watkins H., Collas L., Cade B. C., Johnson T. F., Freitas-Groff Z., Denkenberger D., Levot M., Sutherland W. J. Accumulating evidence using crowdsourcing and machine learning: A living bibliography about existential risk and global catastrophic risk // Futures. - 2020. - Vol. 116.

29. Geist E. M. Is artificial intelligence really an existential threat to humanity? // The Bulletin of the Atomic Scientists. - 2015. - URL: https://thebulletin.org/2015/08/is-artificial-intelligence-really-an-existential-threat-to-humanity/.

30. Воробьев А. В., КудиновВ. А. История философии нейронных сетей как ядра искусственного интеллекта // Проблемы онто-гносеологического обоснования математических и естественных наук. - 2021. - № 12. - С. 17-27.

31. Ладов В. А. Проблема зомби в контексте философии искусственного интеллекта // Гу-

манитарная информатика. - 2018. - № 14. - С. 40-50.

32. Bishop J. M. History And Philosophy Of Neural Networks // Computational Intelligence.

- Vol. 1. P. : Encyclopedia of Life Support Systems, 2015. - P. 22-96. - URL: https://www.eolss.net/ebooklib/sc_cart.aspx?File=E6-44-40-02.

33. Иванченко М. А., Архипов П. Е. Искусственный интеллект и нейросети в играх и реальности // Идеи и идеалы. - 2021. - Т. 13, № 1, ч. 1. - С. 151-165.

34. Константинов Д. В. Антиутопии: будущее без человека // Вестн. Том. гос. ун-та. - 2013.

- № 366. - С. 42-48.

35. Глуздов Д. В. Перспективы преодоления противоречий развития искусственного интеллекта // Философия и культура. - 2023. - № 4. - С. 205-216.

36. Глуздов Д. В. Проблема свободы и идентичности человека в контексте развития искусственного интеллекта // Революция и эволюция: модели развития в науке, культуре, социуме : тр. III Всерос. научн. конф. - М. : Рус. об-во истории и философии науки, 2021. -С. 117-120.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

37. Глуздов Д. В. Философско-антропологические основания взаимодействия искусственного и естественного интеллекта // Вестн. Минин. ун-та. - 2022. - Т. 10, № 4 (41).

38. Чего еще нас лишит нейросеть : публикация пользователя с псевдонимом Hemml // Хабр : сайт. 12 марта 2023 г. - URL: https://habr.com/ru/post/721850/.

39. Мамардашвили М. К. Сознание и цивилизация // Как я понимаю философию. 2-е изд., изм. и доп. - М. : Прогресс-Культура, 1992. - С. 107-121.

40. Хайдеггер М. Время и бытие // Разговор на проселочной дороге. - М. : Высш. шк., 1991. -С. 80-101.

41. Сартр Ж.-П. Экзистенциализм - это гуманизм // Сумерки богов. - М. : Политиздат, 1989.-С. 319-344.

42. Ницше Ф. Так говорил Заратустра. Книга для всех и ни для кого // Так говорил Зарату-стра. К генеалогии морали. Рождение трагедии. Воля к власти. Посмертные афоризмы.

- Мн. : Харвест, 2009. - С. 3-286.

43. Губин В. Д., Некрасова Е. Н. Философская антропология. - М. : ПЕР СЭ ; СПб. : Университетская книга, 2000. - 240 с.

44. Константинов Д. В. Любовь к человеку на грани насилия: можно ли сделать человека счастливым? // KANT. - 2022. - № 4 (45). - С. 122-126.

45. Lin J.-W. Is the Algorithm of Artificial Neural Network a Deduction or Induction? Discussion between Natural Sciences, Mathematics and Philosophy // European Journal of Information Technologies and Computer Science. - 2021. - Vol 1, iss. 4. - P. 6-8.

46. Bostrom N., Yudkowsky E. The Ethics Of Artificial Intelligence // The Cambridge Handbook of Artificial Intelligence. - Cambridge : Cambridge University Press, 2014. - P. 316-334.

47. Emaminejad N., Akhavian R. Trustworthy AI and robotics: Implications for the AEC industry // Automation in Construction. - 2022. - Vol. 139.

48. Kandul S., Micheli V, Beck J., Kneer M., Burri T., Christen M. Explainable AI: A review of the empirical literature (preprint). 2023. - URL: https://www.researchgate.net/ publication/367310567_Explainable_AI_A_review_ of_the_empirical_literature.

49. Rice I., Manheim D. Arguments about Highly Reliable Agent Designs as a Useful Path to Artificial Intelligence Safety // Preprint arXiv:2201.02950, 2022.

ARTIFICIAL INTELLIGENCE: IS ANTHROPOLOGICAL CATASTROPHE COMING?

D. V. Konstantinov

Ph.D. (Philos.), Associate Professor, e-mail: [email protected]

Siberian State University of Physical Culture and Sports, Omsk, Russia

Abstract. The emergence of artificial intelligence can become an important event for the future civilization development, but at the same time artificial intelligence technologies pose a threat to a human. Along with other risks, the danger that artificial intelligence can provoke an anthropological catastrophe deserves special attention. M.K. Mamardashvili calls an anthropological catastrophe the destruction of the foundations of civilization. This foundations allow a human to remain human, that is, to re-create himself each time anew as a thinking, feeling, evaluating being. Artificial intelligence can hinder such re-creation, provoking the desire to shift the work of thinking and responsibility for one's choice to the machine. In order to prevent an anthropological catastrophe it is necessary to maintain the existence of such civilization that helps a human to participate in the ongoing creation of the world and human himself regardless of any achievements of progress.

Keywords: artificial intelligence, human, civilization, risk, anthropological catastrophe.

Дата поступления в редакцию: 10.10.2024

i Надоели баннеры? Вы всегда можете отключить рекламу.