УДК 167.7:004.8
DOI: 10.18799/26584956/2024/2/1676 Шифр специальности ВАК: 5.7.6
ChatGPT и наука: взаимодействие научного сообщества и искусственного интеллекта
Д.В. Маляревич120
1 Томский политехнический университет, Россия, г. Томск 1 Томский государственный университет, Россия, г. Томск
нmalyarevich@tpu.ru
Аннотация. Современный информационный мир создает новые технологии, которые ранее казались возможными только в научно-фантастических фильмах и книгах, но стали реальностью. Появление генеративных нейросетей, таких как ChatGPT, создало проблемную ситуацию в научном сообществе и образовании, которая заключается в возможности этичного использования продуктов нейросетей в научной работе. В отечественном и зарубежном интеллектуальном пространстве возникла дилемма, которая не позволяла определить место и возможные действия, применимые в научной деятельности. Цель: рассмотреть современные попытки взаимодействия научного сообщества и искусственного интеллекта, а также предложить вариант их успешной коммуникации. Актуальность обусловлена всплеском общественной и научной дискуссии о влиянии искусственного интеллекта и нейросетей на производство научного знания. Исследуется и подвергается критике философский взгляд, который исходит из того, что нейросети являются проблемой современного общества (Н. Хомски), а также предлагается проект вписывания нейросетей и искусственного интеллекта в научный дискурс, опираясь на методологию Б. Латура и акторно-сетевой теории. В статье отстаивается позиция использования продуктов нейросетей в качестве инструмента проведения научного исследования. Вывод: представлено решение проблемы взаимодействия науки и искусственного интеллекта с помощью акторно-сетевой теории Б. Латура, позволяющей рассматривать нейросеть как составную часть научной деятельности.
Ключевые слова: ChatGPT, научная деятельность, оригинальность, акторно-сетевая теория, искусственный интеллект
Для цитирования: Маляревич Д.В. ChatGPT и наука: взаимодействие научного сообщества и искусственного интеллекта // Векторы благополучия: экономика и социум. - 2024. - Т. 52. - № 2. - С. 99-109. DOI: 10.18799/26584956/2024/2/1676
UDC 167.7:004.8
DOI: 10.18799/26584956/2024/2/1676
ChatGPT and science: interaction between the scientific community and artificial intelligence
D.V. Malyarevich®
1 Research Tomsk Polytechnic University, Tomsk, Russian Federation 2 Tomsk State University, Tomsk, Russian Federation
®malyarevich@tpu.ru 99
Abstract. The modern information world is creating new technologies that previously seemed possible only in science fiction films and books and have become a reality. The emergence of generative neural networks, such as ChatGPT, has created a problematic situation in the scientific community and education, which lies in the possibility of ethical use of neural network products in scientific work. A dilemma arose in the domestic and foreign intellectual space, which did not allow determining the place and possible actions applicable in scientific activity. Aim. To consider modern attempts of interaction between the scientific community and artificial intelligence and to propose a variant of successful communication. Relevance. The surge in public and scientific discussion about the impact of artificial intelligence and neural networks on the production of scientific knowledge. This article examines the origins of the emergence of generative neural networks and their impact on human activity, including scientific activity. The philosophical view is investigated and criticized, which proceeds from the fact that neural networks are a problem of modern society (N. Chomsky), and a project is proposed to integrate neural networks and artificial intelligence into scientific discourse, based on the methodology of B. Latour and actor-network theory. The article defends the position of using neural network products as a tool for conducting scientific research. Conclusion. A solution to the problem of interaction between science and artificial intelligence is provided using B. Latour's actor-network theory, which allows us to consider the neural network as an integral part of scientific activity.
Keywords: ChatGPT, scientific activity, originality, actor-network theory, artificial intelligence
For citation: Malyarevich D.V. ChatGPT and science: interaction between the scientific community and artificial intelligence. Journal of wellbeing technologies, 2024, vol. 52, no. 2, pp. 99-109. DOI: 10.18799/26584956/2024/2/1676
Введение
Что такое СЬа10РТ? Алгоритм, способный генерировать тексты определенной формы и стиля? Большой прорыв написания текстов, способных произвести революцию в феномене человеческой жизнедеятельности, исходя из понимания что мир - это текст? Можно констатировать, что появилась техника, в строгом, аристотелевском значении, способная создавать текст по запросу, благодаря заложенным алгоритмам. Применение данной программы крайне разнообразно: от предложения нового рецепта пиццы до создания фабулы для фильмов, сериалов, компьютерных игр. Однако необходимо отметить, что существует отдельная сфера, в которой применение подобной технической новинки пока не внедрено или как минимум не институционализировано. Это научная работа. В зарубежных странах и в России уже были прецеденты, когда использование нейросетей ставило научное сообщество перед сложными философскими и этическими проблемами и вопросами. Например, в 2022 г. выпускник РГГУ на своей странице в социальных сетях сделал заявление, что его выпускная квалификационная работа была написана при помощи СЬа10РТ [1]. Руководство вуза изначально аннулировало работу, но затем, после общественной компании, в которой принял участие министр науки [2], отменило свое решение и стало выступать за создание системы, способной различать и указывать на внедрение нейросетей в научные исследования. В задачи данной статьи не будет входить вопрос о правоте вуза, но стоит поставить следующий вопрос - насколько этично пользоваться данной техникой в рамках научной деятельности. Можно предположить, что современная эпоха инноваций и высоких технологий не оставит науке как дискурсу другого варианта, кроме как поднять вопрос о нейросетях. Но что же делать с подобным положением дел самой науке как социальному институту? Изначально отметим, что в данной статье, будет сконцентрировано внимание на написании научных текстов, в том числе исследовательских и ориентированных на образовательные цели. Создание подобных материалов от задумки и концепции до редактуры связано с деятельностью в научном дискурсе, в котором важное место занимает феномен оригинальности. Что представляет собой оригинальность в современном научном сообществе? Для перехода к рассмотрению явлений искусственного интеллекта в научной работе стоит упомянуть о технических достижениях в данной сфере, позволивших аккумулировать дискуссию о современ-
ных технологиях в сфере науки, а также о том, как существующие социальные теории, например современный марксизм, производят рефлексию относительно повсеместного внедрения искусственного интеллекта.
Век нейросетей: последние достижения
На современном этапе развития общества можно зафиксировать появление нейросетей и алгоритмов, выполняющих разнообразные процессы, которые раньше считались прерогативой деятельности homo sapiens. Стоит указать на современное развитие данных технологий и проблемы, которые стали формироваться под влиянием подобных новшеств. Например, нейросеть Midjourney генерирует различные изображения. Принцип ее работы достаточно прост: пишется запрос, в котором описывается объект, стиль изображения, краски и другие характеристики рисунка. Применение таких изображений крайне разнообразно: от любительского интереса к новому техническому новшеству до использования в разработке компьютерных игр. Midjourney имеет бесплатную демоверсию на небольшое количество изображений, а за 10 долларов можно получить возможность сгенерировать 200 рисунков, за 30 долларов пользователь снимает любые лимиты и может получить бесконечный доступ к продуктам нейросети. Данная плата в несколько раз меньше, чем привлечение и оплата труда художника.
Появление такого технического ресурса дало возможность появлению разнообразного медиа-контента. Например, как упоминалось выше, компьютерных игр, которые не имеют больших бюджетов крупных представителей игровой индустрии. Разработчик-энтузиаст под ником Nao_u за три дня создал компьютерную игру, которая с технической стороны крайне проста, но при этом вся графическая основа была создана нейросетью [3]. Игра называется Shoon; она находится в открытом доступе и является бесплатной. Подобный прецедент сильно обеспокоил сообщество художников, принимающих участие в геймерском пространстве. Из-за этого художники консолидировались и приняли решение о проведении акции протеста. На самом известном сайте, где художники показывали собственные произведения, авторы вставили одинаковые изображения, указывающие на негативное отношение к нейросети и глобальному искусственному интеллекту [4]. Подобное противостояние могло бы продолжаться и дальше, что в будущем привело к дальнейшей критике научно-технического прогресса, если бы сами художники не пришли к статусу - кво. Как пишет художник Б. Кравцов о роли нейросети в художественном творчестве, она может стать «максимум - его соавтором» [5]. Отказаться от художников в пользу нейросети, поскольку она может бесконечно создавать новые эксклюзивные графические материалы, невозможно, так как произведение нейросетей сводится к переработке и изменению уже существующих артов и рисунков. Следовательно, работа художника необходима, поскольку нейросеть пока не может создать эксклюзивное художественное произведение. В данном случае нейросеть стала полноценным помощником в деятельности целой отрасли современной культуры и экономики.
Также появились и другие нейросети, алгоритмы, боты, которые успешно используются в разнообразной человеческой деятельности. Например, появились боты, которые точь-в-точь повторяют голоса людей благодаря применению небольшого количества материала, который предоставляет человек программе. Успешная реализация таких информационных технологий стала одной из причин акций протеста актеров озвучки, чьи голоса кинокомпании стали использовать без оплаты «настоящим» актерам [6]. Подобные прецеденты не позволяют сформировать устоявшиеся общественное мнение о подобных технологических новшествах. Возникла проблема, связанная с распространением искусственного интеллекта, которую стоит рассматривать в двух плоскостях: экономики и этики. Экономические вопросы, связанные с нейросетями должны стать предметом интереса ученых-экономистов, однако, отметим, что К. Маркс писал: «мы предполагаем труд в такой форме, в которой он составляет исключи-
тельное достояние человека» [7, с. 155]. Развитие нейросетей и становление экономических отношений, в которых искусственный интеллект в различных проявлениях становится важнейшим агентом подобных отношений, некоторым образом меняет экономические постулаты Маркса. Как отмечают Н. Дайер-Сефорд, М. Кьесен и Д. Штайнхофф, «мы согласны с Марксом в том, что трудиться по-прежнему могут только человеческие существа, помещая способность к труду в континуум степени общности интеллекта, мы, тем не менее, утверждаем, что трудиться могло бы и другое существо и, следовательно, что марксову концепцию труда больше не следует считать обязательно антропологической» [8, с. 125]. Подобные подходы ставят вопрос о некотором пересмотре постулатов классического марксизма, но при этом уже сейчас практика замещения человека нейросетью или иным программным обеспечением вызывает разнообразные социальные протесты. На данный момент научному сообществу не стоит тревожиться насчет искусственного интеллекта и его возможном внедрении в собственную деятельность. Д. Штайнхофф говорит: «Даже если "внедрение искусственного интеллекта", как его называют в деловой литературе, на самом деле пока довольно низкое, и даже если сегодня многие бизнес-начинания в области искусственного интеллекта заканчиваются жалким, а иногда и забавным провалом, повсеместная интеграция аналитических и прогностических возможностей, основанных на данных, во все виды технологий представляет сценарий, который стоит рассмотреть» [9]. Не будем подробно описывать марксистский взгляд на искусственный интеллект, а лишь укажем, что происходит изменение в марксисткой теории и как она описывает трансформацию в экономическом измерении. Можно констатировать, что внедрение искусственного интеллекта в современное социальное пространство уже стало нормой, которая заставляет корректировать устоявшиеся представления и теории. Данная статья сконцентрирует внимание на рефлексии относительно науки и рассмотрит вопрос о том, как научное сообщество справляется с новыми технологическими вызовами.
Оригинальность в современном научном сообществе
Для того чтобы приступить к рассмотрению явления оригинальности, стоит отметить, что важным аспектом существования научного сообщества является публикация результатов работы в специализированных периодических изданиях. Существуют и другие способы реализации своего труда - через социальные сети, подкасты, видеоролики, но для академического научного сообщества главным принципом верификации собственной квалификации и коллег являются публикации. Как отмечает С. А. Мамаева, «В науке признание может осуществляться в форме назначения на должность, повышения в должности, присуждения разного рода наград, премий, званий и прочих отличий. Но допуск первой рукописи к публикации - это отправной пункт, это "пропуск" в мир науки» [10].
Обратимся к тем требованиям, которые выставляют научные издания и издательства. Помимо научной степени авторов, размеров работы, применяется основной критерий - оригинальность. Данный термин раскрывается в легальном использовании заимствований (в первую очередь - цитирование), которые проверяются рецензентами и программами, в результате чего исключается плагиат. Суть научной оригинальности с позиции научного издательства заключается не в новаторстве какого-либо открытия или мысли, но в сохранении и монолитности принципа честности письма, которое можно раскрыть понятием не-плагиат. Большое количество научных активистов ставят борьбу с плагиатом целью своей деятельности. Например, в РФ таким сообществом является «Диссернет». Как отмечается, «участники сообщества совместными усилиями, основанными на принципах сетевого распределения труда и использовании современных компьютерных технологий, противодействуют незаконным махинациям и подлогам в области научной и образовательной деятельности, в особенности в процессе защиты диссертаций и присвоения ученых степеней в России» [11].
Такие активисты ставят в основу своей борьбы сохранение научной этики. Активисты «Дис-сернета» проверяют диссертации на наличие плагиата, а также статей и других научных работ. Как отмечают А.Ю. Антоновский и Р.Э. Бараш, «"Диссернет"» встает на позицию самого общества, как бы обеспокоенного тем обстоятельством, что его интегральная составляющая - наука - деградирует и дискредитирует себя» [12, с. 30].
Сложно сказать, когда требование к оригинальности собственных научных изысканий стало обязательным пунктом не только к публикации материалов, но и к самой деятельности ученого. Можно было бы предположить, что сама наука подразумевает независимую рефлексию, которая определяет новаторство конкретного исследователя. Не будем заниматься генеалогическим рассмотрением оригинальности, а сконцентрируем внимание на текущем положении дел в гуманитарных науках. Э. К. Арутюнов и И.Н. Улитин указывают на то, что из-за введения компьютерных проверок, например, через систему «Антиплагиат» происходит падение уровня качества публикаций, или, как говорят сами исследователи: «Зачастую, студентам, магистрантам, аспирантам приходится заниматься компиляцией, чтобы удовлетворить требования проверки оригинальности текста». Потому что программа, проверяющая текст научных трудов, считает плагиатом официальные источники, такие как нормативно-правовые акты, инструкции, теории» [13, с. 146]. Ряд специалистов выступает против компьютерных проверок. Суть подобного подхода заключается не в желании устроить «разгул» некорректного цитирования и породить поколение исследователей, которые не способны вести научную деятельность по принципам «fair play», а, наоборот, дать больше творческих возможностей для собственной реализации научным работникам. Использование чужих трудов и материалов с последующей выдачей их за собственный продукт является плагиатом. С этической точки зрения такую операцию можно приравнять к краже, однако такое рассуждение связано с юридическим дискурсом и проблемой существования авторских прав. Однако как связать существующую научную мораль исследователя с появлением новых технологий, способных генерировать любые тексты в зависимости от написанного запроса? Если опять рассматриваем гуманитарные науки, в том числе и философию, то, как высказал М. Мамардашвили, «... когда акт философского мышления выполнен, то в нем есть все и не может быть речи о каких-то заимствованиях или плагиате» [14, с. 80].
Альтернативный подход должен основываться на иной программе и исходить из иного состояния, которое может дать возможности и ответы для ученых о том, как им, с одной стороны, не попасть в сложные бюрократические и юридические взаимоотношения и соблюсти все необходимые моральные принципы, а с другой - не стать невостребованными плагиаторами. Современные технические особенности функционирования и сохранения феномена оригинальности обуславливается простой механической проверкой материалов. Может быть, стоит проверять оригинальность и анализировать работы с привлечением специалиста, который сможет понять разницу между индивидуальным творческим продуктом и простой компиляцией. При существующем порядке проверки научных материалов она может и в целом не проводиться. Её современный смысл можно заключить в строчках М. Ю. Лермонтова «Узнаю я спокойствие, оно, \\ Наверно, много причинит вреда» [15].
На данный момент применение нейросетей уже имеет место в научной работе. Например, американские физики смогли настроить программу для проведения расчетов, которые должны были дать прогноз на положение Марса, Земли и Солнца. Как отмечают исследователи, «...SciNet (название нейросети - прим. автора) выполнила преобразование координат, изменив углы Марса таким образом, что они, казалось, были измерены с Солнца, а не с Земли. Это впечатляюще означает, что SciNet переключился с геоцентрического мировоззрения на гелиоцентрическое, без явного указания сделать это» [16]. Подобный эксперимент ставит под вопрос статус человека как познающего начала. И. Черникова отмечает, что в отношении состояния современной науки можно говорить, что «представление о мире, которое склады-
вается в современной науке, столь радикально меняется, что это затрагивает не только профессиональные круги, но и является основой нового мировидения и, следовательно, ведет к новому образу отношений "Человек-Мир"» [17, с. 78]. Задача современной философии науки, возможно, заключается в выстраивании новых взаимоотношений к исследованию и познанию, в которой человек не будет занимать какое-либо привилегированное положение, а будет применять новые методологические принципы, устанавливающие «не-токсичные» взаимодействия человека и ИИ. Искусственный интеллект, а конкретно нейросети, уже получили инструментальное измерение в научной работе, а именно - в естественно-научном знании. Однако гуманитарное исследование предполагает в первую очередь написание текстов. Как можно представить возможной работу ученого-гуманитария, когда существует подобная машина? Необходимо зафиксировать проблемную ситуацию, связанную с состоянием генеративных нейросетей, способных если не заменить исследователя, то поставить новые условия для его деятельности. Задача разработки и создания новых рамок данной деятельности должна стать одной из главных для современных философов и методологов науки.
Однако некоторые современные исследователи искусственного интеллекта и языка ставят под сомнение влияние нейросетей и программ, генерирующих текстовые материалы. Н. Хо-мски высказал несколько тезисов относительно неприменимости СЬа10РТ: «какими бы полезными эти программы ни были в некоторых узких областях (например, они могут быть полезны в компьютерном программировании или в подборе рифм для легкого стиха), мы знаем из науки лингвистики и философии знания, что они глубоко отличаются от того, как люди рассуждают и используют язык» [18]. Основное положение Н. Хомски заключается в том, что нейросеть, с одной стороны, обладая огромным количеством информации, находящейся в Интернете, либо обрабатывает большое количество материала, который может оказаться плагиатом, либо генерирует крайне неэтические высказывания, которые невозможно использовать в научной работе. Американский философ резюмирует: «Учитывая аморальность, ненаучность и лингвистическую некомпетентность этих систем, мы можем только смеяться или плакать над их популярностью» [18].
Складывается двоякое отношение к использованию нейросетей в научной работе: с одной стороны, ряд ученых-исследователей, например физики, уже стали применять данную технологию, но с другой - некоторые представители выражают скепсис относительно использования подобных технологических новшеств. Можно сделать вывод, что современное состояние нейросетей дает лишь возможность внедрять их как инструмент, как калькулятор для вычислений.
Нейросеть против научного сообщества
В 2022 г. случился скандал в РГГУ, связанный с применением нейросети СЬа10РТ. Данное событие стало катализатором для исследовательской работы: в отечественном пространстве начали выпускать большое количество научных статей, посвященных подобной проблематике. Например, Н. Гаргуша и Ю. Городова в своей статье отмечают большое количество плюсов внедрения СЬа10РТ, но при этом выделяют и минусы: «использование чат-бота не отменяет самостоятельного критического осмысления студентами заданий и результатов, которые получаются с применением СЬа10РТ» [19, с. 14]. Но где проходит эта черта, которая разделяет «критическое осмысление заданий» и плагиат? Как пишет М. Дейв, «академические круги не могут продолжать раздвигать границы исследований и открытий, если сама их целостность будет поставлена под угрозу из-за копирования работы, выполненной другими» [20]. Есть и другое мнение, которое указывает на то, что нормализация генеративного искусственного интеллекта может привести к деградации научного сообщества при сохранении существующего порядка в академии: «общее снижение письменной языковой культуры также приводит к затруднениям в производстве письменных академических текстов» [21].
Крайне важно произвести разделение между понятиями плагиата и фальсификации исследования. Под плагиатом стоит понимать намеренную кражу чужих разработок, идей и выдачу их за результат собственной деятельности. Фальсификация представляет собой манипулирование с данными для достижения необходимого для исследователя результата.
Как отмечают Ф. Элали и Л. Рашид, «фальсификация исследовательских работ с использованием модели, сгенерированной искусственным интеллектом, включает в себя фальсификацию несуществующих данных и результатов, а также плагиат выводов из предыдущих работ для поддержки сфабрикованных первичных результатов. Созданные искусственным интеллектом, фальсифицированные работы с использованием новых технологий могут соответствовать стандартам и ожиданиям авторов и редакторов журналов» [21]. Фальсификацией в научной работе с использованием нейросетей можно назвать не какого-либо некорректные заимствования, а простую выдумку, с последующей выдачей данной лжи в качестве правдивых данных проведенной научной работы. Исходя из таких критериев, сохранение оригинальности в том виде, которая имеется на данный момент, заключается в борьбе с воображением нечестных исследователей. Рассмотрение и проверка такого рода мошенничества уже не совсем подходят к деятельности такой организации, как «Диссернет», поскольку нейросе-ти генерируют ошибки, которые сводятся к «выдумке», если так можно сказать про способности генеративного искусственного интеллекта. Данный фактор возвращает к уже ставшей новой классической философской дискуссии - может ли машина мыслить и, соответственно, может ли ИИ врать? Как отмечает К. Метц, «новые чат-боты управляются технологией, которую ученые называют большой языковой моделью, или Ь.Ь.М. Эти системы обучаются, анализируя огромное количество цифрового текста, отобранного из Интернета, который включает в себя объемы неправдивого, предвзятого и иным образом токсичного материала. Тексты, на которых чат-боты учатся, также немного устарели, потому что они должны потратить месяцы на их разработку, прежде чем публика сможет их использовать» [22]. Исходя из этого, работа генеративного ИИ не совсем подходит под классическую философскую проблематику искусственного интеллекта и сознания, так как устройство подобных программ пока строится на тотальной компиляции всего объема информации, который можно найти в сети Интернет. Можно предположить, и программисты ИИ подтверждают это, что развитие подобных программ только впереди. По мнению К.И. Рецовой, «технически чат-боты могут служить чем-то похожим на друга или наставника, но прорывной успех приложения произошел благодаря возможности создавать романтических и сексуальных партнеров по требованию» [23, с. 131].
Ввиду этого, ряд исследователей считают, что данную проблему можно решить. Как ни парадоксально, но в этом могут помочь непосредственно сами нейросети и СЬа10РТ. Один из разработчиков компании, создавшей текстовый генератор, отметил, что «компания работает над системой противодействия мошенничеству путем "статистического нанесения водяных знаков на выходные данные"» [24]. Подобная маркировка сможет вести контроль над некорректными заимствованиями. Есть и другой способ, который поможет избежать фальсификации со стороны нейросетей, - это принятие чат-бота на уровне автора. В случае с плагиатом принятие решения о том, что действие нейросетей приравнивается к данному типу мошенничества, требует некой «субъектности» от ИИ или хотя бы закрепления авторского права за генерацией текста.
Новый автор - нейросеть
В своем программном эссе «Смерть автора» Р. Барт отметил, что «ныне мы знаем, что текст представляет собой не линейную цепочку слов, ... но многомерное пространство, где сочетаются и спорят друг с другом различные виды письма, ни один из которых не является исходным; текст соткан из цитат, отсылающих к тысячам культурных источни-
ков» [25, с. 388]. С этого момента возникла новая парадигма существования не только всех текстов как таковых, но и новое восприятие реальности. Современное развитие нейросетей и сопряженных с ними технологий поставило научное сообщество перед становлением нового автора - чат-бота. Необходимо отметить подобное событие с этической точки зрения, а именно с точки зрения существования плагиата в научном сообществе. Р. Янковский написал статью, в которой соавтором выступил ChatGPT. Описывая ситуацию с научным журналом, который был предупрежден, что часть материала будет сгенерирована нейросетью, исследователь сказал: «Они опасались, что публикация статьи, в которой непонятно кто автор - машина или человек, - может привести к проблемам» [26]. Однако автор не указал программу в качестве соавтора. В свою очередь, Ф. Рахими и А. Абади [27] в своей работе сделал нейросеть соавтором своего исследования. Этическая комиссия научного издания заявила, что обозначать программу в качестве соавтора некорректно и потребовала внести корректировки в текст статьи. Подобный прецедент может показать, что научное сообщество не может признать ChatGPT как исследователя. Такое решение можно считать мотивированным, поскольку на данный момент нейросети признаны инструментами и помощниками для научной работы, которые при этом способны к генерации материала. Однако дальнейшее становление нейросетей может поставить перед научным сообществом этическую проблему признания подобного программного обеспечения в качестве субъекта научной деятельности.
Можно предположить, что развитие науки стало развиваться исходя из терминологического и методологического аппарата Б. Латура. Сам феномен нейросети в науке нельзя отнести к субъекту науки, непосредственно к фигуре самого ученого. В данной ситуации обращаемся к понятию акторно-сетевой теории, а именно к актору. Как отмечал Б. Латур, «использовать слово «актор» («актер») означает, что никогда не ясно, кто или что действует, когда действуем мы, - ведь актер на сцене никогда не играет один» [28, с. 68]. По мнению Латура, акторы (люди, предметы, идеи) не являются просто объектами или субъектами: они взаимодействуют друг с другом и влияют на друг друга. Он считает, что взаимодействие акторов создает реальность и она не может быть понята без учета всей сети взаимодействий. В акторно-сетевом подходе Латура акцент смещается с одного центрального актора или структуры на все акторы и взаимодействия между ними. Акторы имеют разную силу и способность оказывать влияние, но Б. Латур считает, что ни один актор или группа акторов не может полностью контролировать социальную реальность. Если взять текст научной статьи, часть которого сгенерирована ChatGPT, то можно поставить вопрос «Где сам автор (человек-исследователь)?». Конечный продукт (статья), хоть и был написан человеком, но влияние уже сгенерированного материала могли изменить его изначальные замыслы и план, что послужило созданию подобного тандема. Сам феномен оригинальности и подлинности для научного сообщества возможно не так актуален. Проблема ставится более шире: отход от субъектно-объектных отношений современной науки и становление парадигмы таких акторов, как «человек-нейросеть».
Вывод делать крайне рано, поскольку, например, ChatGPT на данный момент - несовершенная машина, способная и на ошибки, и на выдумки, но совершенно точно можно сказать, что уже сейчас нейросеть - это актор, с которым ученым и философам придется работать и определять его место в науке. Модель «нейросеть-актор» кажется привлекательной, потому что она не будет решать этическую проблему, а просто перенесет ее в иную плоскость, где задать вопрос о способности машины мыслить не получится. Этические дилеммы будут поставлены в другой порядок. Как пишут А.Р. Каримов и М.Г. Хорт об этических проблемах, связанных с искусственным интеллектом, «в то же время разработка ИИ чревата множеством проблем, которые стали предметом обширных дискуссий в философской литературе. К таким проблемам обычно относят проблему цифровой безработицы, проблему сбора и сохранения персональных данных, используемых для обучения ИИ, проблему атрибуции ответ-
ственности за действия систем ИИ, проблему «черного ящика» (отсутствия транспарентности принятия решений), проблему искусственной тупости (ошибки, совершаемые ИИ), проблему прав роботов и этического отношения к роботам и т. д.» [29, с. 346]. Список этот неполный, можно выделить еще n-е количество проблем ИИ, но их этическое решение еще впереди.
СПИСОК ЛИТЕРАТУРЫ
1. Жуковский И. Машина выдает все сама. Студент из Москвы получил «тройку» за диплом, написанный нейросетью // Газета. ru URL: https://www.gazeta.ru/social/2023/02/01/16181311.shtml (дата обращения 15.09.2023).
2. Министр призвал не наказывать студента, которому диплом писала нейросеть // РБК. URL: https://www.rbc.ru/society/08/02/2023/63e377ff9a79479db4184ada (дата обращения 15.09.2023).
3. Энтузиаст за три дня сделал экшен-игру, вся графика которой была создана нейросетью // Playground. URL: https://www.playground.ru/misc/news/entuziast_za_tri_dnya_sdelal_ekshen_igru_vsya_grafika_kotoroj_byla_sozda na_nejrosetyu-1228300 (дата обращения 15.09.2023).
4. Художники устроили бойкот рисующему искусственному интеллекту // Газета.т. URL: https://www.gazeta.ru/tech/news/2022/12/14/19270621.shtml (дата обращения 15.09.2023).
5. Хайп мирового масштаба от исследователя NASA. Кто придумал нейросеть Midjourney и отберет ли она работу у живых художников и дизайнеров // Inc. URL: https://incrussia.ru/understand/midjourney-creator/ (дата обращения 15.09.2023).
6. Актеры дубляжа запустили петицию против нелегального синтеза их голосов нейросетями // Forbes. URL: https://www.forbes.ru/forbeslife/495649-aktery-dublaza-zapustili-peticiu-protiv-nelegal-nogo-sinteza-ih-golosov-nejrosetami (дата обращения 15.09.2023).
7. Маркс К. Капитал. Критика политической экономии. - М.: АСТ, 2019. - 709 с.
8. Dyer-Witheford N., Mikkola Kjesen A., Steinhof J. Inhuman power: artificial intelligence and the future of capitalism. - London: Pluto Press, 2019. - 210 p.
9. Marxism and work in the AI industry: interview with James Steinhoff // Digilabour. URL: https://digilabour.com.br/en/marxism-and-work-in-the-ai-industry-interview-with-james-steinhoff/ (дата обращения 17.09.2023).
10. Мамаева С. А. Символическое значение «Публикации» в процессе институционализации научного знания // Научная периодика: проблемы и решения. - 2011. - Т. 1. - № 2. - С. 12-16.
11. О проекте // Диссернет. URL: https://www.dissernet.org/about (дата обращения 17.09.2023).
12. Бараш Р.Э., Антоновский А.Ю. Радикальная наука. Способны ли ученые на общественный протест? // Epistemology & Philosophy of Science. - 2018. - Т. 55. - Вып. 2. - С. 18-33. DOI: https://doi.org/10.5840/eps201855223.
13. Арутюнов Э.К., Улитин И.Н. К законодательному вопросу проверки уникальности (оригинальности) текста гуманитарных научных работ // Научная периодика: проблемы и решения. - 2017. - Т. 7. - № 3. -С.144-150.
14. Мамардашвили М.К. Картезианские размышления. - М.: Прогресс, 1993. - 352 с.
15. Стихотворения 1831 года // Лермонтов Михаил Юрьевич. URL: https://www.mlermontov.ru/book/594/ (дата обращения 25.10.2023).
16. Physics Insights from Neural Networks // Physics. URL: https://physics.aps.org/articles/v13/2 (дата обращения 17.09.2023).
17. Черникова И.В. Философия и история науки. - Томск: НТЛ, 2011. - 388 с.
18. Chomsky N. The False Promise of ChatGPT // The New York Times. URL: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html (дата обращения 17.09.2023).
19. Гаркуша Н.С., Городова Ю.С. Педагогические возможности ChatGPT для развития когнитивной активности студентов // Профессиональное образование и рынок труда. - 2023. - Т. 11. - № 1. - С. 6-23. DOI: https://doi.org/10.52944/P0RT.2023.52.L001.
20. Dave M. Plagiarism software now able to detect students using ChatGPT // British Dental Journal. - 2023. - № 234. DOI: https://doi.org/10.1038/s41415-023-5868-8.
21. Elali F.R., Rachid L.N. AI-generated research paper fabrication and plagiarism in the scientific community // Patterns (N Y). - 2023. - Vol. 4 (3). - 100706. DOI: 10.1016/j.patter.2023.100706.
22. Cade Metz. Why do A.I. Chatbots tell lies and act weird? Look in the mirror // The New York Times. URL: https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-truth.html (дата обращения 25.10.2023).
23. Рецова К.М. Трансгуманизм: закат эры гуманизма и культурная парадигма метамодерна // Вестник Русской христианской гуманитарной академии. - 2022. - Вып. 3 (2). - С. 127-135. DOI: 10.25991/VRHGA.2022.3.2.011.
24. Al-assisted plagiarism? ChatGPT bot says it has an answer for that. The Guardian. URL: https://www.theguardian.com/technology/2022/dec/31/ai-assisted-plagiarism-chatgpt-bot-says-it-has-an-answer-for-that (дата обращения 17.09.2023).
25. Барт Р. Смерть автора // Избранные работы: Семиотика: Поэтика. - М.: Прогресс, 1989. - С. 384-392.
26. Ученый ВШЭ опубликовал одну из первых научных статей, написанных ChatGPT! Что это значит для науки и будущего творческих профессий? // Собака.т URL: https://www.sobaka.ru/city/science/165100 (дата обращения 17.09.2023).
27. Farid Rahimi, Amin Talebi Bezmin Abadi. ChatGPT and publication ethics // Archives of Medical Research. -2023. - Vol. 54. - Iss. 3. - P. 272-274. DOI: https://doi.org/10.1016/j.arcmed.2023.03.004.
28. Латур Б. Пересборка социального: введение в акторно-сетевую теорию. - М.: Изд. дом Высшей школы экономики, 2014. - 384 с.
29. Каримов А.В., Хорт М.Г. Современные вызовы в этике искусственного интеллекта // Academic research in educational sciences. - 2023. - Т. 4. - № 4. - С. 344-349. DOI: 10.24412/2181-1385-2023-2-344-349.
Информация об авторе
Маляревич Даниил Владиславович, ассистент отделения социально-гуманитарных наук Школы общественных наук Томского политехнического университета, Россия, 634050, г. Томск, пр. Ленина, 30; магистрант философского факультета Томского государственного университета, Россия, 634050, г. Томск, пр. Ленина, 36; malyarevich@tpu.ru; https://orcid.org/0009-0002-9870-6556
Поступила в редакцию: 25.02.2024 Поступила после рецензирования: 25.05.2024 Принята к публикации: 30.06.2024
REFERENCES
1. Zhukovsky I. The machine gives out everything itself. A student from Moscow received a "C" for a thesis written by a neural network. (In Russ.) Gazeta.ru. Available at: https://www.gazeta.ru/social/2023/02/01/16181311.shtml (accessed 15 September 2023).
2. The minister called not to punish the student whose diploma was written by a neural network. RBC. (In Russ.) Available at: https://www.rbc.ru/society/08/02/2023/63e377ff9a79479db4184ada (accessed 15 September 2023).
3. An enthusiast made an action game in three days, all the graphics of which were created by a neural network. Playground. (In Russ.) Available at: https://www.playground.ru/misc/news/entuziast_za_tri_dnya_sdelal_ekshen_ igru_vsya_grafika_kotoroj_byla_sozdana_nejrosetyu-1228300 (accessed 15 September 2023).
4. Artists organized a boycott of artificial intelligence drawing. Gazeta.ru. (In Russ.) Available at: https://www.gazeta.ru/tech/news/2022/12/14/19270621.shtml (accessed 15 September 2023).
5. World-class hype from a NASA researcher. Who invented the Midjourney neural network and will it take away work from living artists and designers. Inc. (In Russ.) Available at: https://incrussia.ru/understand/midjourney-creator/ (accessed 15 September 2023).
6. Dubbing actors launched a petition against the illegal synthesis of their voices by neural networks. Forbes. Available at: https://www.forbes.ru/forbeslife/495649-aktery-dublaza-zapustili-peticiu-protiv-nelegal-nogo-sinteza-ih-golosov-nejrosetami (accessed 15 September 2023).
7. Marx K. Capital. Criticism of political economy. Moscow, AST Publ. House, 2019. 709 p. (In Russ.)
8. Dyer-Witheford N., Mikkola Kjosen A., Steinhof J. Inhuman power: artificial intelligence and the future of capitalism. London, Pluto Press, 2019. 210 p.
9. Marxism and work in the AI industry: interview with James Steinhoff. Digilabour. Available at: https:// digilabour.com.br/en/marxism-and-work-in-the-ai-industry-interview-with-james-steinhoff/ (accessed 17 September 2023).
10. Mamaeva S.A. Symbolic meaning of "publication" in the process of institutionalization of scientific knowledge. Scholarly Communication Review, 2011, vol. 1, no. 2, pp. 12-16. (In Russ.)
11. About the project. Dissernet. (In Russ.) Available at: https://www.dissernet.org/about (accessed 17 September 2023).
12. Barash R.E., Antonovskiy A.Yu. Radical science: are the scientists capable of social protest? Epistemology & Philosophy of Science, 2018, vol. 55, Iss. 2, pp. 18-33. (In Russ.) DOI: https://doi.org/10.5840/eps201855223.
13. Arutyunov E.K., Ulitin I.N. To the legal issue verification of uniqueness (originality) humanitarian scientific works. Scholarly Communication Review, 2017, vol. 7, no. 3, pp. 144-150. (In Russ.)
14. Mamardashvili M.K. Cartesian reflections. Moscow, Progress Publ., 1993. 352 p. (In Russ.)
15. Poems of 1831. Lermontov Mikhail Yurievich. (In Russ.) Available at: https://www.mlermontov.ru/book/594/ (accessed 25 October 2023).
16. Physics Insights from Neural Networks. Physics. Available at: https://physics.aps.org/articles/v13Z2 (accessed 17 September 2023).
17. Chernikova I.V. Philosophy and history of science. Tomsk, HTL Publ. House, 2011. 388 p. (In Russ.)
18. Chomsky N. The false promise of ChatGPT. The New York Times. Available at: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html (accessed 17 September 2023).
19. Garkusha N., Gorodova J. Pedagogical opportunities of ChatGPT for developing cognitive activity of students. Vocational Education and Labour Market, 2023, no. 1, pp. 6-23. (In Russ.) DOI: https://doi.org/10.52944/P0RT.2023.52.L001.
20. Dave M. Plagiarism software now able to detect students using ChatGPT. British Dental Journal, 2023, no. 234. DOI: https://doi.org/10.1038/s41415-023-5868-8.
21. Elali F.R., Rachid L.N. AI-generated research paper fabrication and plagiarism in the scientific community. Patterns (N Y), 2023, vol. 4 (3), 100706. DOI: 10.1016/j.patter.2023.100706.
22. Why do A.I. Chatbots tell lies and act weird? Look in the mirror. The New York Times. Available at: https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-truth.html (accessed 25 October 2023).
23. Retsova K.M. Transhumanism: the decline of the era of humanism and the cultural paradigm of metamodernity. Bulletin of the Russian Christian Humanitarian Academy, 2022, Iss. 3(2), pp. 127-135. (In Russ.) DOI: 10.25991/VRHGA.2022.3.2.011.
24. AI-assisted plagiarism? ChatGPT bot says it has an answer for that. The Guardian. Available at: https://www.theguardian.com/technology/2022/dec/31/ai-assisted-plagiarism-chatgpt-bot-says-it-has-an-answer-for-that (accessed 17 September 2023).
25. Bart R. Death of the author. Selected works: Semiotics: Poetics. Moscow, Progress Publ., 1989. pp. 384-392. (In Russ.)
26. A HSE scientist published one of the first scientific articles written by ChatGPT! What does this mean for science and the future of creative professions? Sobaka.ru. (In Russ.) Available at: https://www.sobaka.ru/city/science/165100 (accessed 17 September 2023).
27. Farid Rahimi, Amin Talebi Bezmin Abadi. ChatGPT and publication ethics. Archives of Medical Research, 2023, vol. 54, Iss. 3, pp. 272-274. DOI: https://doi.org/10.1016/j.arcmed.2023.03.004.
28. Latour B. Reassembling the social: an introduction to actor-network theory. Moscow, Higher School of Economics Publ. House, 2014. 384 p. (In Russ.)
29. Karimov AV., Hort M.G. Contemporary challenges in the ethics of Artificial Intelligence. Academic research in educational sciences, 2023, vol. 4, no. 4, pp. 344-349. (In Russ.) DOI: 10.24412/2181-1385-2023-2-344-349.
Information about the author
Malyarevich V. Daniil, Assistant, national Research Tomsk Polytechnic University, 30, Lenin avenue, Tomsk,
634050, Russian Federation; Master Student, Tomsk State University, 36, Lenin avenue, Tomsk, 634050, Russian
Federation; malyarevich@tpu.ru; https://orcid.org/0009-0002-9870-6556
Received: 25.02.2024
Revised: 25.05.2024
Accepted: 30.06.2024