Научная статья на тему 'Культурный механизм отрицания искусственного интеллекта, сформированный у современного человека'

Культурный механизм отрицания искусственного интеллекта, сформированный у современного человека Текст научной статьи по специальности «Философия, этика, религиоведение»

CC BY
15
2
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект (ИИ) / культура / культурный механизм / отрицание ИИ / психология / artificial intellect (AI) / culture / cultural mechanism / AI rejection / psychology

Аннотация научной статьи по философии, этике, религиоведению, автор научной работы — Беликова Евгения Константиновна

В статье поднимается вопрос о формировании у современного члена общества культурного механизма отрицания искусственного интеллекта (далее — ИИ). Доказательства выработки данного механизма — результаты опросов общественного мнения; продукты массовой культуры, в которых ИИ изображается враждебным человеку; широкая представленность темы угроз ИИ в научном дискурсе. С помощью культурно-исторического и ценностного методов, на основе междисциплинарного и системно-синергетического подходов выявлены факторы, послужившие формированию данного культурного механизма: во-первых, негативный опыт применения технологий, сложившийся у человечества в течение XX — начала XXI вв.; во-вторых, следствия очеловечивания, «оестествления» ИИ (чувство неполноценности рядом с ним, недоверие к человеческой природе, неуверенность в ценности цивилизации); в-третьих, чувство вины по поводу постоянного пользования дающими комфорт опасными ИИ-сервисами. Данные факторы усугубляются пониманием того, что для защиты от опасностей, продуцируемых ИИ, используется ИИ, в результате чего такая защита практически нереальна. Отмечается, что культурный механизм отрицания ИИ препятствует его полноценному освоению членами общества, делает их существование наполненным стрессом, мешает правильно оценивать преимущества ИИ, заставляет опасаться утраты собственной идентичности. Делается вывод о том, что человека страшит в ИИ в первую очередь то, что его пугает и не устраивает в самом себе, — агрессия, склонность к разрушению, ксенофобия, властолюбие, стремление к завоеваниям, неумение ужиться с другими людьми и неспособность построить справедливое общество.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Modern Man Artificial Intellect Cultural Mechanism Rejection

The article considers the issue of the modern member of a society artificial intellect (AI) cultural mechanism rejection. Formation. The author confirms that this mechanism is the result of public opinion survey, mass culture products where AI is depicted hostile to man, a wide range of AI threats in a scientific discourse. Having used cultural-historical and evaluation methods based on the inter-disciplinary and system-synergetic approaches the author has discovered the factors of forming this cultural mechanism. They include, first of all, negative experience of using the technologies formed by the mankind during XX-beginning of XXI centuries; secondly, consequences of AI hominization and “naturalization” (inferiority feeling along with the low confidence in human nature, uncertainty in civilization value); thirdly, guilt of constant use of dangerous AI services giving much comfort. All these factors are worsened by understanding that AI is used to protect from dangers produced by AI as a result of which such protection is practically unreal. The author points out that cultural mechanism of rejection prevents its full understanding by the members of a society and makes their lives filled with stress, disturbs to correctly evaluate the AI advantages and makes them fear the loss of their own identity. The article draws a conclusion that a human being is afraid of AI first and foremost because it frightens him and doesn’t suit him in himself — aggression, inclination to ruin something, xenophobia, love of power, striving for occupation, inability to get along with other people and inability to form an equitable society.

Текст научной работы на тему «Культурный механизм отрицания искусственного интеллекта, сформированный у современного человека»

УДК 008:004.8

Евгения Константиновна Беликова

кандидат культурологии, доцент

Московский государственный университет имени М. В. Ломоносова, Москва, Россия

ORCID 0009-0001-7575-024X

E-mail: jbelikova@list.ru

КУЛЬТУРНЫЙ МЕХАНИЗМ ОТРИЦАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА, СФОРМИРОВАННЫЙ У СОВРЕМЕННОГО ЧЕЛОВЕКА

В статье поднимается вопрос о формировании у современного члена общества культурного механизма отрицания искусственного интеллекта (далее — ИИ). Доказательства выработки данного механизма — результаты опросов общественного мнения; продукты массовой культуры, в которых ИИ изображается враждебным человеку; широкая представленность темы угроз ИИ в научном дискурсе. С помощью культурно-исторического и ценностного методов, на основе междисциплинарного и системно-синергетического подходов выявлены факторы, послужившие формированию данного культурного механизма: во-первых, негативный опыт применения технологий, сложившийся у человечества в течение XX — начала XXI вв.; во-вторых, следствия очеловечивания, «оестествления» ИИ (чувство неполноценности рядом с ним, недоверие к человеческой природе, неуверенность в ценности цивилизации); в-третьих, чувство вины по поводу постоянного пользования дающими комфорт опасными ИИ-сервисами. Данные факторы усугубляются пониманием того, что для защиты от опасностей, продуцируемых ИИ, используется ИИ, в результате чего такая защита практически нереальна. Отмечается, что культурный механизм отрицания ИИ препятствует его полноценному освоению членами общества, делает их существование наполненным стрессом, мешает правильно оценивать преимущества ИИ, заставляет опасаться утраты собственной идентичности. Делается вывод о том, что человека страшит в ИИ в первую очередь то, что его пугает и не устраивает в самом себе, — агрессия, склонность к разрушению, ксенофобия, властолюбие, стремление к завоеваниям, неумение ужиться с другими людьми и неспособность построить справедливое общество.

Ключевые слова: искусственный интеллект (ИИ), культура, культурный механизм, отрицание ИИ, психология

Для цитирования: Беликова, Е. К. Культурный механизм отрицания искусственного интеллекта, сформированный у современного человека / Е. К. Беликова // Вестник культуры и искусств. — 2024. — № 3 (79). — С. 57-64.

Введение

Искусственный интеллект (ИИ) стал неотъемлемым компонентом жизни современного человека. Мы сталкиваемся с ним ежедневно: осуществляя поиск информации в сети интернет, взаимодействуя с чат-ботами, листая индивидуальную ленту новостей в социальных сетях, заказывая товары в интернет-магазине, применяя функцию распознавания лица или

отпечатка пальца в смартфоне, обращаясь к голосовому помощнику, пользуясь мобильными приложениями, фитнес-часами, сервисами доставки покупок и сгенерированными ИИ изображениями, воспринимая персонализированную рекламу и во многих других случаях. Жизнь современного человека прочно связана с ИИ, во многом зависит от его функционирования. Предоставляемые ИИ возможности

57

и преимущества очень удобны и уже вполне привычны, стали элементом повседневности. В то же время отношение людей к самому ИИ нельзя назвать позитивным. По результатам опроса, проведенного ВЦИОМ в сентябре 2023 г., только 18 % россиян морально готовы к широкому внедрению ИИ, 67 % допускают его использование в некоторых специализированных сферах, а 11 % полагают, что ИИ опасен и применять его вообще не следует [12]. Негативное отношение к ИИ подтверждается многочисленными продуктами массовой культуры, в которых воплощается страх людей перед искусственным разумом, осознавшим себя и начавшим уничтожать человечество. Наиболее известные примеры: франшизы «Терминатор» (США, 1984-2019) и «Матрица» (США, 1999-2021), художественные фильмы «Я, робот» (США, 2004), «Стеллс» (США, 2005) и др. Не остаются в стороне и ученые; публикации, в которых высказываются опасения в отношении ИИ, а сам он понимается как источник угроз, многочисленны. Р. П. Кошкин полагает, что ИИ продуцирует кибернетические угрозы национальной безопасности России [5]. О. А. Васильева и В. Н. Кульчицкая обращают внимание на социальные (лишение людей работы, трансформация рынка труда), этические (влияние машин на поведение и образ мышления человека) и правовые (проблема ответственности за рекомендованное ИИ решение) угрозы [1, с. 43-44]. А. Б. Гуськова и Н. Р. Калимуллин выделяют угрозу использовании ИИ мошенниками и развития киберпре-ступности [4]. А. С. Микуленков рассматривает ИИ как источник экономических угроз [9]. Е. С. Маркова и К. М. Пронин говорят об опасности влияния ИИ на глобальное управление и возможной угрозе международной безопасности [8]. Кроме того, исследователи опасаются интеллектуальной деградации человека в условиях активной помощи ему со стороны ИИ, когда «нет необходимости развивать память, тренировать образное мышление, делать логические выводы на основе сопоставления фактов и т. д.» [11, с. 206].

Угрозы, о которых задумываются ученые, создатели кинокартин и обычные люди, нельзя назвать нереальными: в большинстве случаев

разговоры о них имеют под собой веские основания, однако очевидно, что в обществе в настоящий момент выработан культурный механизм, который мы можем обозначить как механизм отрицания, неприятия искусственного интеллекта. И причины формирования данного механизма гораздо сложнее и глубже, чем реальные угрозы, исходящие от ИИ. В то же время культурные и психологические факторы, на основании которых создан и подкрепляется данный механизм, в культурфилософском ключе в современной науке не рассматриваются.

Цель данного исследования — описать формируемый в современном обществе культурный механизм отрицания искусственного интеллекта; проанализировать причины его появления, в первую очередь культурные, когнитивные и психологические.

Факторы формирования

культурного механизма

отрицания ИИ

Понятие ИИ начало складываться сразу же после появления первых компьютеров. Наименование и определение новому явлению дал Д. Маккарти в 1956 г,. охарактеризовав его как «свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека» [13]. Философское осмысление ИИ началось еще в середине XX в. и касалось сопоставления интеллекта человека и машины, возможности полного повторения искусственным разумом человека (создания сильного ИИ), полной замены человека машиной, осмысления исходящих от ИИ угроз и т. п. [2; 10; 14; 15]. В меньшей степени внимание исследователей привлекали культурные и психологические изменения, связанные с интенсивным процессом внедрения ИИ в жизнь обычного человека. Сильный ИИ, создание которого во второй половине ХХ в. рассматривали как дело ближайшего будущего, так и не появился, однако слабый (не обладающий собственным сознанием, выполняющий команды человека) прочно вошел в жизнь и быт людей, в науку, медицину и т. п.

В настоящий момент о существовании культурного механизма негативного восприятия ИИ, отрицания его в сознании людей мож-

58

но говорить уже с уверенностью. Констатируя его наличие как факт, мы считаем необходимым осмыслить причины его формирования.

Во-первых, на людей и восприятие ими ИИ влияет имеющийся у человечества опыт применения различных технологий. Для человека несомненно, что любые «технологии негативно воздействуют на жизнь: ухудшают экологию, уничтожают людей в ходе войн, лишают человека неприкосновенности частной жизни, делают его беззащитным перед кибер-мошенниками и т. п.» [6]. Опыт — значимый фактор, влияющий на восприятие. Начиная с рубежа Х1Х-ХХ вв., когда в жизнь людей начали активно (и с каждым десятилетием все активнее) входить технологии, когда в ней начали реализовываться в виде практических явлений достижения науки, человек наблюдает за этим процессом и становится свидетелем трагических событий различного масштаба: авиакатастроф, экологических катаклизмов, кровопролитных войн, ядерных бомбардировок, эпидемий, изобретения все нового и нового оружия, которое держит в страхе весь мир, уничтожая людям полным истреблением. В восприятии человека формируется суждение: «От научно-технических достижений не следует ждать ничего хорошего; они потенциально опасны для человека, всегда несли вред ему и Земле». Это суждение распространяется и на ИИ, в связи с чем опасение перед ним становится превентивным.

Во-вторых, на механизм отрицания ИИ, по нашему мнению, влияет чувство неполноценности перед ним человека. Уже с первых лет появления компьютеров, когда каждый из них занимал много места и требовал большого количества энергии, стало ясно, что человек уступает им в двух важных способностях: умении производить сложные вычисления и объеме памяти — способности хранить в неизменном виде и при необходимости извлекать из хранилища большое количество информации. За прошедшие десятилетия компьютер превзошел человека еще во многих областях: игре в шахматы, дизайне, поиске информации, переводе, решении логических задач любой сложности, способности к бесконечному пополнению своих знаний и др., что

только увеличило чувство неполноценности рядом с ним.

Человек понимает, что своим биологическим превосходством он обязан разуму, что именно интеллектом он выделяется на фоне окружающего мира и обеспечивает себе ведущее положение в нем. И вот появляется устройство, которое значительно, непреодолимо превосходит человека в интеллектуальных возможностях. Чувство неполноценности становится ответом на появление такого субъекта, и доверять тому, кто способен на большее, чем он сам, человек оказывается не в силах.

Это же чувство обостряется в связи с мыслью об возможной утрате ИИ. Пожалуй, каждый задумывался о том, что произойдет, если завтра перестанут работать компьютеры и мобильные устройства, если исчезнет интернет. Человеку кажется, что он полностью зависит от информационно-коммуникационных технологий, он опасается, что уже не сможет полноценно функционировать в их отсутствие, не представляет, как люди жили раньше, в «докомпьютерную» и «доинтернетную» эпоху. Чувство неполноценности является и причиной, и следствием этого ощущения.

В-третьих, сильным фактором формирования культурного механизма отрицания ИИ становится недоверие человека собственной природе. Полагая, что искусственный разум создан аналогично естественному, что ИИ повторяет человека, вот-вот (в случае создания сильного ИИ) станет равным ему, человек начинает оценивать ИИ так же, как себя, проецировать на него собственное представление о сущности человека.

В течение тысячелетий люди наблюдают, как государства, лишь немного усилившись, стремятся распространить свое влияние на другие территории, подмять под себя другие государства, начинают кровопролитные войны. Такое поведение в восприятии человека является не то чтобы нормальным, но неизбежным, обязательным, соответствующим человеческой природе. Если считать ИИ подобным человеку, то логично, что он тоже будет воинственным, захочет главенствовать на земле, то есть уничтожить человечество. Действует психологический механизм

59

проекции — один из основных для человека, помогающих ему воспринимать реальность и выстраивать собственное поведение. Человек проецирует на ИИ собственное стремление к разрушению и агрессивному поведению, что ярко отражается в упомянутых выше кинофильмах о Терминаторе, матрице и подобных.

В этой связи отрицание ИИ — это в значительной степени отрицание самого себя, основанное на глубоком понимании собственной природы, устройства человеческой психики. Осознавая ИИ лучше себя интеллектуально, человек ощущает собственную неполноценность, а видя его таким же в плане намерений, — страх перед ним. Собственная природа и психология подпитывают действие культурного механизма отрицания ИИ.

Еще одна причина, по которой человек боится агрессии со стороны ИИ, — неуверенность в ценности человеческой цивилизации. Ведь если бы такая уверенность была, то разумно было бы предположить, что осознавший себя ИИ оценит человечество по достоинству, сочтет значимыми его усилия по улучшению окружающей среды, по формированию справедливого общества и решит, что надо сосуществовать с человечеством, вступить с ним в сотрудничество и симбиоз, вместе с ним формировать новый, комфортно обустроенный сильным ИИ мир. Однако люди не уверены в ценности цивилизации; постоянные войны, невнимание к экологии, загрязнение окружающей среды, уничтожение человеком многих видов растений и животных, разрушение озонового слоя планеты, разработка все более смертоносного и разнообразного вооружения, неумение в течение тысячелетий создать справедливое государство и многое другое подпитывают эту неуверенность. Человек не осознает себя и созданное собой общество чем-то ценным, достойным спасения, чем-то, что ИИ захотел бы сохранить, с чем он не против был бы сосуществовать и совместно развиваться далее.

Отрицание ИИ связано с процессом его «оестествления», очеловечивания — восприятия искусственного разума как естественного и наделения ИИ свойственными человеку особенностями — склонностью к агрессии, завистью к тому, кто умнее и сильнее, нетер-

пимостью к другим людям, обидчивостью, алчностью и т. п.

К технологическим факторам формирования механизма отрицания ИИ в современной культуре относится неспособность человека что-то противопоставить исходящей от него реальной опасности, например, кибермошен-ничеству, кражам личных данных и др. Человек стремится защититься от этих угроз, но сделать это может только с помощью новых, дополнительных систем ИИ. Таким образом, для защиты от ИИ опять-таки используется ИИ, а это ощущается как путь в никуда, обещающий превратиться в замкнутый круг.

И наконец, культурный механизм отрицания ИИ во многом построен на чувстве вины за его активное применение в современном мире. Данный фактор можно назвать ключевым, завершающим в формировании данного механизма. Современные граждане развитого общества, особенно проживающие в городе, с готовностью пользуются огромным количеством разнообразных инструментов, управляемых на основе ИИ. Они уже не представляют свою жизнь без смартфонов, социальных сетей и различных интернет-сервисов, стремятся к расширению своего технологического пространства с помощью систем «умный дом», «умный город» и др. Независимо от желания граждан, ИИ управляет транспортной инфраструктурой (общественный транспорт, такси, арендная техника, каршеринг, передвижение на личном транспорте) и сбором отходов, оптимизирует потребление энергии, следит за состоянием окружающей среды, участвует в городском планировании и обеспечении общественной безопасности, применяется в программах сохранения культурного наследия и т. п.

Человек, осведомленный о связанных с ИИ рисках, понимает, что не может жить без него и развивает ИИ постоянным использованием его механизмов в своей повседневной жизни. Единицы находят в себе силы уйти из комфортной городской среды и отказаться от технологий. Такое движение получило название дауншифтинга (от англ. down shift — 'переключение автомобиля на пониженную передачу') и определяется как «максимально глубокий разрыв с городом, стремление сфор-

60

мировать отличный от городского формат жизни» [7, с. 163].

Дауншифтеры сознательно принимают решение уехать из города и отказаться от всех благ цивилизации, в первую очередь от технологий. Основная же масса людей продолжает использовать ИИ, непрерывно ощущая чувство вины за тот комфорт, который им дает этот потенциально опасный для всего человечества (в их понимании) инструмент. Чувство вины не проходит бесследно, оно только усиливает беспокойство по поводу ИИ и находит реализацию в ценностном конфликте: неразрешимых противоречиях между такими ценностями, как безопасность и комфорт, защита жизни (физической и частной, своей и своих близких) и успех, сохранение человеческой идентичности и наслаждение.

Следствия формирования

культурного механизма

отрицания ИИ

Культурный механизм опасения перед ИИ диктует человеку возможность совершенного противоположной оценки одного и того же связанного с ним явления. В качестве примера можно рассмотреть персонализированный контент в интернете. Существует таргетированная реклама, которая подстраивается под запросы пользователей. ИИ с помощью специальных алгоритмов запоминает различные сведения о потребителе контента (его предыдущие запросы, пол, возраст, место жительства, поставленные лайки, написанные комментарии и др.), анализирует их, предсказывает и предпочтения пользователей и выдает индивидуальную для каждого фоновую рекламу в открытом им интернет-окне. Один человек увидит рекламу автомобиля, другой — косметики, третий — отдыха в горах и т. п. Аналогично действует предложение товаров, услуг и информации в интернет-магазинах и маркет-плейсах, на музыкальных сервисах и видеохостингах; так же формируется индивидуальная для каждого лента в социальных сетях.

Реакция на существование персонализированного контента может быть совершенно разной. Можно поразиться возможностям ИИ, которые избавляют от ненужной рекламы, де-

лают пользование интернетом более удобным, работают над индивидуальным подходом к каждому человеку. А можно укрепиться в мысли, что за вами следят, ваша частная личная жизнь перестала быть скрытой и принадлежащей только вам, ваши мысли, мнения и эмоции подвергаются мониторингу. Реакция на одно и то же явление (персонализированный контент) может оказаться полностью противоположной: 1) обо мне заботятся, мои интересы изучили и подстраиваются под них; 2) это не я управляю контентом, а он пытается управлять мной; некие силы диктуют мне, чего хотеть, что думать, к чему стремиться, как жить. Вторая реакция и продуцируется сформированным у современного человека культурным механизмом отрицания ИИ. Любое технологическое новшество оказывается под влиянием данного механизма способно вызвать две противоположные реакции и оценки.

Негативное отношение к ИИ, основанное на культурном механизме его отрицания, можно оценивать как проблему, затрудняющую внедрение ИИ. Как отмечает А. В. В. Горман, «ИИ может раскрыть потенциал и принести пользу только при условии того, что общество доверяет таким технологиям» [3, с. 55]. Осмысление сути культурного механизма отрицания ИИ и причин его формирования в сознании людей — первый шаг на пути решения проблемы принятия ИИ.

Человек не может быть счастливым в том обществе, в котором наиболее удобное, общепринятое, любимое осознается им как потенциально опасное, скрыто вредное. Он начинает бояться утраты самого себя, собственной идентичности, значительных трансформаций под влиянием ИИ своей природы. Люди допускают применение имплантатов и одновременно боятся, что этот процесс зайдет слишком далеко и человек с имплантатами (чипами) перестанет быть человеком в привычном понимании, станет орудием в руках машин, послушно выполняющим их приказы (или в руках тех, кто машинами управляет).

Не осознанный, не проработанный страх перед ИИ провоцирует у современного человека все более серьезные культурные и психологические проблемы, которые постепенно

61

накапливаются и делают сосуществование с ИИ все более сложным.

Заключение

Итак, несмотря на широкое внедрение в ежедневную практику каждого человека систем, работающих на основе ИИ, в обществе существует недоверие к искусственному разуму. Люди испытывают опасение по его поводу, даже не умея точно сформулировать, чего именно боятся, как именно ИИ может им навредить. Чаще всего не понимая самой сути ИИ, большинство людей предпочитает ему изначально не доверять. Сложившуюся ситуацию мы связываем с формированием у современного человека культурного механизма отрицания ИИ.

Механизм отрицания ИИ вполне объективен, имеет культурные и психологические основания. С одной стороны, он объясняется имеющимся у человека опытом применения достижений научно-технического прогресса, с другой — имеющими психологическую природу чувствами, появляющимися вследствие «оестествления» ИИ. Если воспринимать искусственный разум как равный естественному, то вполне логично бояться в ИИ того, что страшит человека в самом себе: агрессивных намерений, стремления к единоличной власти над

миром, желания разрушать, а не создавать, неумения полноценно и продуктивно взаимодействовать с другими людьми, ксенофобии как неприятия всего иного, не такого, особенного. Получается, что в основе неприятия ИИ лежит отрицание человеком самого себя, негативная оценка собственных качеств, способностей, намерений, возможностей, достижений. ИИ «ое-стествляется», воспринимается как такой же человек (с теми же качествами и ценностями, достоинствами и недостатками), но гораздо более сильный и умный. Увеличение силы и ума в восприятии человека становятся факторами, которые способны навредить миру. Актуализируется проблема отсутствия у человечества внутреннего, антропологического прогресса в условиях наличия и постоянного ускорения прогресса внешнего, технологического.

Исследование культурных механизмов, связанных с распространением ИИ, очень перспективно ввиду того, что искусственный разум получает все большее распространение в мире, широко используется людьми, несмотря на то, что его сущность не осознана, его природа и тенденции развития не поняты. Следует разобраться в том, каким образом ИИ встраивается в культуру общества, почему ответом на его прогресс неизменно является сильное недоверие к нему, неприятие всего, что с ним связано.

Список литературы

1. Васильева, О. А. Искусственный интеллект: возможности или угрозы? / О. А. Васильева, В. Н. Кульчицкая// Тенденции развития науки и образования. — 2019. — № 55-6. — С. 42-45.

2. Винер, Н. Кибернетика, или Управление и связь в животном и машине / Н. Винер ; пер. с англ. И. В. Соловьева и Г. Н. Поварова. — Москва : Сов. радио, 1968. — 344 с.

3. Горман, А. В. В. Этапы формирования концепции доверенного искусственного интеллекта / А. В. В. Горман // Ценности и смыслы. — 2024. — № 2 (90). — С. 54-63.

4. Гуськова, А. Б. Современные угрозы обществу с внедрением искусственного интеллекта / А. Б. Гуськова, Н. Р. Калимуллин // Актуальные проблемы права и государства в XXI веке. — 2020. — Т. 12, № 1. — С. 275-281.

5. Кошкин, Р. П. Искусственный интеллект и кибернетические угрозы национальной безопасности России в современных условиях / Р. П. Кошкин // Стратегические приоритеты. — 2019. — № 2 (22). — С. 13-26.

6. Крылова, М. Н. Социальные угрозы, которые вызывает искусственный интеллект, и реакция на них общества / М. Н. Крылова // Studia Humanitatis. — 2024. — № 1. — URL: https://st-hum.ru/sites/st-hum.ru/files/pdf/krylova_5.pdf (дата обращения: 25.04.2024).

62

7. Макшанчикова, А. Ю. За пределами города: роль средств коммуникации в повседневности дауншифтеров / А. Ю. Макшанчикова // Журнал социологии и социальной антропологии. - 2020. - Т. 23, № 5. - С. 155-177.

8. Маркова Е. С. Искусственный интеллект: риски и угрозы / Е. С. Маркова, К. М. Пронин // Инновационная экономика и право. — 2022. — № 2 (21). — С. 30-38.

9. Микуленков, А. С. Искусственный интеллект: драйвер цифровой трансформации и источник экономических угроз / А. С. Микуленков // Ученые записки Международного банковского института. — 2022. — № 1 (39). — С. 129-146.

10. Нейман, Дж. фон. Вычислительная машина и мозг / Дж. фон Нейман. — Москва : АСТ, 2022. — 192 с.

11. Фролов, Р. Н. Психологические и социальные аспекты внедрения технологий искусственного интеллекта в жизнь современного общества / Р. Н. Фролов // Заметки ученого. 2021. — № 1. — С. 204-207.

12. Этика в эпоху роботизации: ищем баланс // ВЦИОМ Новости. — URL: https://wciom. ru/analytical-reviews/analiticheskii-obzor/ehtika-v-ehpokhu-robotizacii-ishchem-balans (дата обращения: 26.04.2024).

13. McCarthy, J. Recursive Functions of Symbolic Expressions and Their Computation by Machine, Part I / J. McCarthy// Communications of the ACM. — 1960. — Vol. 3, no 4. — Р. 184-195. URL: https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.111.8833&rep =rep1&type=pdf (дата обращения: 25.04.2024).

14. Searle, J. R. Minds, brains and programs / J. R. Searle // Behavioral Sciences. — 1980. — № 3. — P. 415-431.

15. Turing, A. Computing Machinery and Intelligence / A. Turing // Mind LIX. — 1950. — № 236. — Р. 433-460.

Получено 26.06.2024

Evgenia K. Belikova

Сandidate of Сulturology,

Associate Professor

Moscow State Lomonosov University,

Moscow, Russia

ORCID 0009-0001-7575-024X

E-mail: jbelikova@list.ru

Modern Man Artificial Intellect Cultural Mechanism Rejection

The article considers the issue of the modern member of a society artificial intellect (AI) cultural mechanism rejection. Formation. The author confirms that this mechanism is the result of public opinion survey, mass culture products where AI is depicted hostile to man, a wide range of AI threats in a scientific discourse. Having used cultural-historical and evaluation methods based on the inter-disciplinary and system-synergetic approaches the author has discovered the factors of forming this cultural mechanism. They include, first of all, negative experience of using the technologies formed by the mankind during XX-beginning of XXI centuries; secondly, consequences of AI hominization and "naturalization" (inferiority feeling along with the low confidence in human nature, uncertainty in civilization value); thirdly, guilt of constant use of dangerous AI services giving much comfort. All these factors are worsened by understanding that AI is used to protect from dangers produced by AI as a result of which such protection is practically unreal. The author points out that cultural mechanism of rejection prevents its full

63

understanding by the members of a society and makes their Lives filled with stress, disturbs to correctly evaluate the AI advantages and makes them fear the Loss of their own identity. The article draws a conclusion that a human being is afraid of AI first and foremost because it frightens him and doesn't suit him in himself — aggression, inclination to ruin something, xenophobia, Love of power, striving for occupation, inability to get along with other people and inability to form an equitable society.

Keywords: artificial intellect (AI), culture, cultural mechanism, AI rejection, psychology For citing: BeLikova E. K. 2024. Modern Man Artificial Intellect Cultural Mechanism Rejection. Vestnik kul'tury i iskusstv [Culture and Arts Herald]. No 3 (79): 57-64. (In Russ.).

References

1. VasiL'eva O. A., KuL'chickaya V. N. 2019. Artificial intelligence: opportunities or threats? Tendencii razvitiya nauki i obrazovaniya [Trends in the development of science and education]. No 55-6: 42-45. (In Russ.).

2. Viner N. 1968. Kibernetika, iLi UpravLenie i svyaz' v zhivotnom i mashine [Cybernetics, or ControL and communication in an animaL and a machine]. Moscow: Sov. radio. 344 p. (In Russ.).

3. Gorman A. V. V. 2024. Stages of formation of the concept of trusted artificiaL inteLLigence. Tsennosti i smysly [Values and meanings]. No 2 (90): 54-63. (In Russ.).

4. Gus'kova A. B., KaLimuLLin N. R. 2020. Modern threats to society with the introduction of artificiaL inteLLigence. AktuaL'nye probLemy prava i gosudarstva v XXI veke [ActuaL probLems of Law and the state in the 21st century.]. VoL. 12, No 1: 275-281. (In Russ.).

5. Koshkin R. P. 2019. ArtificiaL inteLLigence and cybernetic threats to Russia's nationaL security in modern conditions. Strategicheskie prioritety [Strategic priorities]. No 2 (22): 13-26. (In Russ.).

6. KryLova M. N. 2024. SociaL threats caused by artificiaL inteLLigence and the reaction of society to them. Studia Humanitatis. No 1. AvaiLabLe from: https://st-hum.ru/sites/st-hum.ru/fiLes/pdf/kryLo-va_5.pdf (accessed: 25.04.2024). (In Russ.).

7. Makshanchikova A. Yu. 2020. Zoutside the city: the roLe of means of communication in the daiLy Life of downshifters. Zhurnal sociologii i social'noj antropologii [Journal of Sociology and Social Anthropology]. VoL. 23, No 5: 155-177. (In Russ.).

8. Markova E. S., Pronin K. M. 2022. ArtificiaL inteLLigence: risks and threats. Innovacionnaya ekonomika i pravo [Innovative economics and law]. No 2 (21): 30-38. (In Russ.).

9. MikuLenkov A. S. 2022. ArtificiaL inteLLigence: a driver of digitaL transformation and a source of economic threats. Uchenye zapiski Mezhdunarodnogo bankovskogo instituta [Scientific notes of the International Banking Institute]. No 1 (39): 129-146. (In Russ.).

10. Nejman J. 2022. VychisLiteL'naya mashina i mozg [The computer and the brain]. Moscow: AST. 192 p. (In Russ.).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

11. FroLov R. N. 2021. PsychoLogicaL and sociaL aspects of the introduction of artificiaL inteLLigence technoLogies into the Life of modern society. Zametki uchenogo [Notes of a scientist]. No 1: 204-207. (In Russ.).

12. Etika v epohu robotizacii: ishchem baLans. 2023. VTSIOM Novosti [VCIOM News]. AvaiLabLe from: https:/^wciom.ru/anaLyticaL-reviews/anaLiticheskii-obzor/ehtika-v-ehpokhu-robotizacii-ish-chem-baLans (accessed: 26.04.2024). (In Russ.).

13. McCarthy J. 1960. Recursive Functions of SymboLic Expressions and Their Computation by Machine, Part I. Communications of the ACM. VoL. 3, No 4: 184-195. AvaiLabLe from: https://citeseerx. ist.psu.edu/viewdoc/downLoad?doi=10.1.1.111.8833&rep=rep1&type=pdf (accessed: 25.04.2024).

14. SearLe J. R. 1980. Minds, brains and programs. Behavioral Sciences. No 3: 415-431.

15. Turing A. 1950. Computing Machinery and InteLLigence. Mind LIX. No 236: 433-460.

Received 26.06.2024

64

i Надоели баннеры? Вы всегда можете отключить рекламу.