Научная статья УДК 172
https://doi.org/10.24158/fik.2023.11.5
Экзистенциальные риски искусственного интеллекта в контексте аксиологии трансгуманизма (по материалам работ Н. Бострома)
Юлия Владимировна Назарова1, Александр Юрьевич Каширин2^
12Тульский государственный педагогический университет имени Л.Н. Толстого, Тула, Россия
1https://orcid.org/0000-0003-4040-4862
Аннотация. Ограничение развития технологий искусственного интеллекта, о котором в последнее время говорят известные разработчики этих технологий, обусловлено опасениями возникновения экзистенциальных рисков, одним из которых, согласно теории философа Н. Бострома, является сверхразум (Superintelligence) как результат дальнейшего развития искусственного интеллекта. Несмотря на то что проблема искусственного интеллекта широко исследована в зарубежной философской литературе, вопрос о ценностях, лежащих в основании новых технологий, остается практически неизученным. Целью статьи выступает этико-философский анализ ценностей трансгуманизма и их роли в развитии технологий искусственного интеллекта. Исследование проводилось на базе этико-философского анализа трансгуманистических ценностей, которые Н. Бостром предлагает использовать в контексте развития искусственного интеллекта. В итоге оцениваются этические смыслы его развития в аспекте аксиологии трансгуманизма Н. Бострома.
Ключевые слова: этика искусственного интеллекта, этика, искусственный интеллект, аксиология трансгуманизма Н. Бострома, постчеловеческий переход, постчеловек, экзистенциальный риск, сверхразум Финансирование: инициативная работа.
Для цитирования: Назарова Ю.В., Каширин А.Ю. Экзистенциальные риски искусственного интеллекта в контексте аксиологии трансгуманизма (по материалам работ Н. Бострома) // Общество: философия, история, культура. 2023. № 11. С. 40-45. https://doi.org/10.24158/fik.2023.11.5.
Original article
Existential Risks of Artificial Intelligence in the Context of the Axiology of Transhumanism (Based on the Works of N. Bostrom)
Yuliya V. Nazarova1, Alexander Yu. Kashirin2H
12Tula State Lev Tolstoy Pedagogical University, Tula, Russia
1https://orcid.org/0000-0003-4040-4862
Abstract. The limitation on the development of artificial intelligence technologies which well-known developers of these technologies have recently been talking about, is due to fears of existential risks, one of which, according to the theory of the philosopher N. Bostrom, is Superintelligence as a result of the further development of artificial intelligence. Despite the fact that the problem of artificial intelligence has been widely studied in foreign philosophical literature, the issue of values underlying new technologies remains practically unstudied. The article substantiates that Bostrom's theory of risks of superintelligence is due to axiological reasons: artificial intelligence, according to the philosopher, can pose a threat to transhumanistic values. On the other hand, to prevent a catastrophe, it is these values that are supposed to be the basis for the development of artificial intelligence. The aim of the article is to analyze ethico-philosophical values of transhumanism and their role in the development of artificial intelligence technologies. It is noted that, in fact, current AI projects are developing precisely in the spirit of the philosophy of transhumanism. The scientific novelty of the article is due to the ethical and philosophical analysis of transhumanistic values, which N. Bostrom proposes to use in the context of the development of AI. As a result, the ethical meanings of the development of AI are assessed in the aspect of N. Bostrom's concept of transhumanistic values.
Keywords: ethics of artificial intelligence, ethics, artificial intelligence, axiology of N. Bostrom's transhuman-ism, post-human transition, post-human, existential risk, superintelligence Funding: Independent work.
For citation: Nazarova, Yu.V. & Kashirin, A.Yu. (2023) Existential Risks of Artificial Intelligence in the Context of the Axiology of Transhumanism (Based on the Works of N. Bostrom). Society: Philosophy, History, Culture. (11), 40-45. Available from: doi:10.24158/fik.2023.11.5 (In Russian).
© Назарова Ю.В., Каширин А.Ю., 2023
В марте 2023 г. было опубликовано открытое письмо разработчиков технологий искусственного интеллекта (ИИ), призывающее приостановить развитие технологии, более совершенной, чем существующий Open AI GPT-4, из-за опасности возникновения экзистенциальных рисков для человечества. В числе подписавших были И. Маск, С. Возняк, Ю.Н. Харари и многие другие ученые, общественные деятели, бизнесмены1. Письмо размещено на сайте Института будущего жизни (Future of Life Institute)2, некоммерческой организации, целью которой является исследование экзистенциальных рисков и способов их снижения. Понятие «экзистенциальный риск» в отношении технологий ИИ ввел и обосновал философ Н. Бостром (Bostrom, 2002), который в 2005 г. открыл Институт будущего человечества (Future of Humanity Institute) при Оксфордском университете3. Оба института связаны общими идеями и целями; Институт будущего жизни выступает одним из спонсоров института, возглавляемого Н. Бостромом. Одной из известных персон, финансирующих научные работы, является И. Маск.
Развитие технологий ИИ изначально воспринималось как путь к достижению идеалов философии трансгуманизма. Однако начиная с 2000-х гг. в среде трансгуманистов формируется теория рисков ИИ, которые исследуются с точки зрения возможных социальных и этических проблем. Таким образом, в философии трансгуманизма возник своеобразный парадокс - технологии ИИ трактуются как способ достижения блага, который тем не менее может привести человечество к глобальной катастрофе. Этот парадокс обусловлен, на наш взгляд, конфликтом основных ценностей трансгуманистической философии.
Ценности трансгуманизма в том или ином виде обозначены в Декларации трансгуманизма4; документах, связанных с продвижением трансгуманистических идеалов (в частности, в России это исследования проекта «Россия 2045», где были широко представлены работы современных зарубежных и отечественных философов-трансгуманистов) (Глобальное будущее 2045..., 2013; Куне, Тучина, 2013; Тучина, 2012). Глубокий философский анализ процесса трансформации ценностей дается в концепции инфосферы (Floridi, 2011, 2014). Изучение современных этических кодексов, касающихся разработок ИИ5, показывает, что нравственные ценности, лежащие в их основании, построены на философии либерализма (Назарова, 2023). Анализ того, насколько эти ценности соотносятся с ценностями трансгуманизма, мог бы продемонстрировать степень влияния философии трансгуманизма на этику ИИ и глобальную политику разработок ИИ. Наиболее системный и полный подход к ценностям трансгуманизма можно встретить в философии Н. Бострома6 (Bostrom, 2002, 2005, 2011, 2016; Bostrom, Roache, 2007; Bostrom, Yudkowsky, 2018). Эти ценности в его концепции выступают как способ предотвращения экзистенциальных рисков, которые несет в себе развитие сверхразума, возникающего в результате прогресса ИИ.
Теория экзистенциальных рисков, ИИ и сверхразум. Как отмечается в статье известного журналиста Р. Хачадуряна (R. Khatchadourian), опубликованной в The New Yorker, «Бостром ввел философскую концепцию "экзистенциального риска" в 2002 г. в Журнале эволюции и технологий. В последние годы почти ежегодно основываются новые организации, помогающие снизить его, - среди них Центр изучения экзистенциального риска, связанный с Кембриджским университетом, и Институт будущего жизни, имеющий связи с Массачусетским технологическим институтом»7. Согласно определению Н. Бострома, «Экзистенциальный риск - тот, при котором неблагоприятный исход либо уничтожит возникшую на Земле разумную жизнь, либо навсегда и радикально сократит ее потенциал» (курсив наш. - Ю. Н., А. К.) (Bostrom, 2002).
1 Pause giant AI experiments [Электронный ресурс] : An open letter // Future of Life Institute. 2023. March 22. URL: https://futureoflife.org/open-letter/pause-giant-ai-experiments (дата обращения: 01.08.2023).
2 Future of Life Institute [Электронный ресурс]. URL: https://futureoflife.org (дата обращения: 01.08.2023).
3 Future of Humanity Institute [Электронный ресурс]. URL: https://www.fhi.ox.ac.uk (дата обращения: 01.08.2023).
4 The Transhumanist Declaration [Электронный ресурс] // World Transhumanist Association. URL: https://www.humanityplus.org/the-transhumanist-declaration (дата обращения: 01.08.2023).
5 Statement on artificial intelligence, robotics and 'autonomous' systems [Электронный ресурс] / European Commission, Directorate-General for Research and Innovation, European Group on Ethics in Science and New Technologies. 2018. March 9 // Publications Office of the EU. URL: https://data.europa.eu/doi/10.2777/531856 (дата обращения: 01.08.2023) ; The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems [Электронный ресурс] // IEEE SA. 2019. URL: https://standards.ieee.org/content/ieee-standards/en/industry-con-nections/ec/autonomous-systems.html (дата обращения: 01.08.2023).
6 Bostrom N., Shulman C. Propositions concerning digital minds and society [Электронный ресурс] // Nick-bostrom.com. 2022. URL: https://nickbostrom.com/propositions.pdf (дата обращения: 01.08.2023).
7 Khatchadourian R. Will artificial intelligence bring us utopia or destruction? // The New Yorker. 2015. Nov. 23. URL: https://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom (дата обращения: 01.08.2023).
Что понимается под разумной жизнью? Категория разумной жизни в контексте философии трансгуманизма связана не только с человеком: «Трансгуманизм выступает за благополучие всех разумных существ, будь то искусственный интеллект, люди или нечеловеческие животные (включая внеземные виды, если таковые имеются)» (Bostrom, 2005). Таким образом, понятие разумной жизни расширяется; в данном случае ИИ также выступает как одна из форм разумной жизни, что существенно изменяет подход к традиционному пониманию этики и аксиологии.
В широком смысле эту идею озвучил ранее известный философ Л. Флориди, представив концепцию инфосферы (Floridi, 2011, 2014). Инфосфера - это новое понимание общественного бытия, которое предстает как бытие информационное; таким образом, высшей ценностью провозглашается не всеобщее благо, а благо инфосферы. Ценностью в инфосфере является любая единица информации, в этом смысле человек также рассматривается как информационная единица. Трансформируется понимание добра и зла; злом считается «энтропия инфосферы» (термин Л. Флориди), т. е. уничтожение информационной единицы или нанесение ущерба; добром - любая защита или преумножение информации. Таким образом, нравственность может стать характеристикой не только человека, но и любого искусственного агента. В то же время и Н. Бостром отмечает, что если относиться к этике как к процессу познания, то ИИ может превзойти человека в нравственном смысле: так, например, варианты решения этических дилемм, предлагаемые ИИ, будут более эффективны (Bostrom, 2003).
ИИ является одним из условий воплощения трансгуманистических ценностей. При этом ИИ может развиться в сверхразум, что станет экзистенциальной угрозой для разумной жизни. Сверхразум, по мнению Н. Бострома, - это технология, которая многократно превосходит человеческий интеллект и все интеллектуальное наследие человека. В данном смысле важно понимание, что сверхразум является чем-то большим, чем технология для расширения человеческих возможностей. Н. Бостром перечисляет следующие последствия развития сверхразума: стремительное развитие любых новых технологий (компьютерных, военных, космических, медицинских (включая избавление от болезней и старости, а также крионики и реанимационных технологий, психологии и психиатрии)); сканирование и загрузка человеческого мозга в цифровую среду (цифровое бессмертие) и т. д. Но на этом сверхразум не остановится, продолжая стремительно развивать сам себя. Далее Н. Бостром описывает угрозы такого развития: угроза копирования искусственного разума, в том числе загруженного в цифровое пространство человеческого разума; внезапный скачок развития искусственного интеллекта, который будет уже невозможно контролировать; самостоятельность сверхразума в принятии решений - и тогда сверхразум уже не должен восприниматься как средство или инструмент, а пониматься как автономный объект; невозможность предсказать познавательные процессы сверхразума и понять его мотивы (Bostrom, 2003).
Парадокс заключается в том, что именно развитие ИИ необходимо для реализации трансгуманистических ценностей, но итог этого развития противоречит им и лишает их смысла.
Таким образом, понятие экзистенциального риска напрямую связано с философией трансгуманизма и может быть раскрыто путем анализа трансгуманистических ценностей. Н. Бостром рассматривает экзистенциальный риск как угрозу трансгуманистическим ценностям. Его теория о рисках сверхразума обусловлена аксиологическими причинами: «Актуальность условия экзистенциальной безопасности для трансгуманистического видения очевидна: если мы вымрем или навсегда уничтожим наш потенциал дальнейшего развития, тогда основная ценность трансгуманизма не будет реализована» (Bostrom, 2005). Тем не менее ценность глобальной безопасности таит в себе еще один аксиологический парадокс, речь о котором пойдет далее, в ходе анализа аксиологии трансгуманизма, представленной Н. Бостромом.
Аксиологический парадокс ИИ в концепции трансгуманизма и экзистенциальная угроза. В концепции экзистенциальных рисков ИИ Н. Бострома проблема ценностей занимает центральное место; аксиология определяет цели и задачи трансгуманистической доктрины.
Отметим основные особенности аксиологии Н. Бострома. Ценности трансгуманизма связаны с движением, прогрессом, процессом познания; так, главная ценность трансгуманизма -«возможность исследовать трансчеловеческие и постчеловеческие сферы». Цель трансгуманизма - изменение человеческой природы, устранение ее несовершенств; с этической точки зрения - избавление от физических и психологических страданий, что является новым типом гедонизма. Именно физическое и интеллектуальное несовершенство человека заставляет его страдать. В идеале человек должен выйти далеко за пределы своей природы, оставив телесные ограничения - болезни, смерть - далеко позади, что приведет к появлению постчеловека и формированию новой системы ценностей: «Трансгуманисты рассматривают человеческую природу как незавершенную работу, незаконченное начало, которое мы можем научиться переделывать желаемыми способами. Нынешнее человечество не обязательно должно быть конечной точкой эволюции. Трансгуманисты надеются, что путем ответственного использования науки, технологий и других рациональных средств нам в конечном счете удастся стать постлюдьми, существами с гораздо большими способностями, чем у нынешних человеческих существ» (Bostrom, 2005).
Итак, основная ценность трансгуманизма может рассматриваться как возможность движения к формированию постчеловека. Остальные ценности - это, по сути, условия, необходимые для достижения этой цели: глобальная безопасность (которой угрожает экзистенциальный риск, например сверхразум) - «Глобальная безопасность является наиболее фундаментальным и не подлежащим обсуждению требованием трансгуманистического проекта» (Bostrom, 2005); технологический прогресс (как инструмент для расширения человеческих возможностей и трансформации человеческой природы); широкий доступ к технологиям (идеями трансгуманизма может проникнуться каждый, и каждый должен иметь шанс стать постчеловеком). Ценность доступности технологий предполагает такие ценности, как равенство, солидарность, уважение друг к другу, облегчение страданий в широком масштабе. При этом подчеркивается моральная важность скорости технологического прогресса: «Трансгуманистический идеал будет максимально реализован только в том случае, если преимущества технологий будут широко распространены и если они станут доступными как можно скорее, предпочтительно в течение нашей жизни» (Bostrom, 2005).
Производные от основных ценностей: ценность «вмешательства в природу» (предлагается осознать ценность возможности трансформации, изменения человеческой природы); ценность индивидуальной свободы (например, признается право человека самостоятельно принимать решение о трансформации собственного тела или об отказе от нее); ценность мира (под которой подразумевается сотрудничество всех народов мира и предотвращение использования оружия массового поражения); ценность познания (поощрение науки, коллективное обсуждение научных исследований, открытий, планов на будущее); ценность интеллекта (развитие человеческого и искусственного интеллекта); ценность прагматизма (приоритет науки, предпринимательства); ценность сомнения (так называемый философский фаллибизм, т. е. готовность к пересмотру истин по мере необходимости); ценность заботы (имеется в виду забота о благе разумного); ценность разнообразия (сохранение и поощрение разнообразия рас, религий, сексуальных ориента-ций и т. п.); ценность жизни (имеется в виду продление человеческой жизни, например остановка процесса старения и развитие крионики) (Bostrom, 2005).
Очевидно, что даже поверхностный анализ соотношения ценностей может выявить некоторые противоречия между ними, одно из которых - соотношение ценности глобальной безопасности и технологического прогресса. Технический прогресс и глобальная безопасность как основные ценности трансгуманизма могут формировать конфликт. Конфликт ценностей трансгуманизма порождает экзистенциальные риски, одним из которых может стать сверхразум.
Ценности постчеловека и экзистенциальные риски сверхразума. Одними из необычных особенностей концепции Н. Бострома являются рассуждения об аксиологии будущего -системе ценностей постчеловека. Н. Бостром признает, что постчеловечество потенциально может сформировать совершенно новую систему ценностей. Тем не менее это не значит, что оно откажется от привычных современных нам ценностей. В то же время в данный момент благодаря несовершенству своей природы человек даже не может предположить, какие идеалы и ценности будут в постчеловеческой эпохе: «некоторые из наших идеалов вполне могут находиться за пределами пространства способов существования, доступных нам с нашей нынешней биологической конституцией» (Bostrom, 2005).
Постчеловек - высшая стадия развития человека, усовершенствованный человек, имеющий более широкие физические и интеллектуальные возможности. Н. Бостром отмечает, что постчеловек может отличаться от исходной личности, т. е. человека, но тем не менее продолжает быть той же уникальной личностью. «Трансгуманизм поощряет стремление к дальнейшему развитию, чтобы мы могли исследовать доселе недоступные сферы ценностей. Технологическое совершенствование человеческих организмов - это средство, к которому мы должны стремиться с этой целью. Существуют пределы того, чего можно достичь с помощью низкотехнологичных средств, таких как образование, философское созерцание, моральный самоконтроль и другие подобные методы... И все же в конечном счете трансгуманисты надеются пойти дальше» (Bostrom, 2005).
Проблема постчеловеческих ценностей формирует новый парадокс: если сейчас в силу природной ограниченности человек не в состоянии представить, какие ценности будут актуальны для постчеловека, можно предположить, что угроза сверхразума уже не будет представляться экзистенциальной угрозой, потому что изменятся основные трансгуманистические ценности, и ценность глобальной безопасности потеряет важность, уйдя, например, из основных в группу производных ценностей.
Анализ позволяет сделать следующие выводы.
Современные стратегии развития искусственного интеллекта связаны с философией трансгуманизма. Таким образом, в основу иИ закладываются трансгуманистические ценности. Так, институты исследований ИИ, в которых работают философы и социологи, активно сотрудничают с корпорациями, разрабатывающими ИИ, влияют на принятие этических кодексов по технологиям ИИ. Наиболее системно и подробно ценности трансгуманизма изложены в работе Н. Бострома «Ценности трансгуманизма».
В понимании трансгуманизма ценность искусственного интеллекта так же важна, как ценность человеческой жизни, поскольку «трансгуманизм выступает за благополучие всех разумных существ, будь то искусственный интеллект, люди или нечеловеческие животные (включая внеземные виды, если таковые имеются» (Bostrom, 2005). Это расширяет первоначальное этическое понимание категории блага, отсылая, например, к концепции инфосферы Л. Флориди, которая предложила новое видение информационного общества и информационных единиц.
Основные ценности трансгуманизма в концепции Н. Бострома - глобальная безопасность и технологический прогресс - вступают в конфликт в точке появления сверхразума, что провоцирует экзистенциальную угрозу. Философ делает попытку разрешить парадокс, раскрывая содержание производных ценностей, чье назначение - обеспечивать условия реализации основных ценностей, однако однозначное разрешение этого парадокса неочевидно.
Концепция экзистенциальных рисков сверхразума у Н. Бострома имеет аксиологическую почву и появляется, на наш взгляд, благодаря изложенному парадоксу. Это подчеркивает противоречивость идеалов трансгуманистической философии и показывает, что требуются принципиально новые подходы к пониманию философии ИИ. Развитие ИИ по сценарию трансгуманизма может привести к той самой катастрофе, о вероятности которой говорит Н. Бостром, поскольку именно трансгуманизм наделяет ИИ исключительными чертами, воспринимая его в высшей точке его развития как отдельную форму жизни.
В данный момент был бы актуален сравнительный анализ аксиологии трансгуманизма и классической теории ценностей применительно к ИИ. Основная цель такого анализа - поиск аксиологической альтернативы трансгуманизму, потому что, если признать развитие ИИ экзистенциальным риском, нужно расширять возможности его философского анализа.
Аксиологическое тестирование ИИ, например нейросетей, уже сейчас поможет понять ценности, заложенные в систему, отследить трансформации этих ценностей, проанализировать направления этих трансформаций, их причины, спрогнозировать возможные риски и угрозы. Такая работа может стать одной из наиболее необходимых в плане информационной и цифровой безопасности, особенно в контексте текущих мировых проблем. Аксиологическое обучение технологий ИИ, возможно, станет важным условием обеспечения технологической безопасности.
Список источников:
Глобальное будущее 2045. Конвергентные технологии (НБИКС) и трансгуманистическая эволюция / под ред. Д.И. Дубровского. М., 2013. 272 с.
Куне Р., Тучина М.Е. Второй международный конгресс «Глобальное будущее 2045» (Нью-Йорк, июнь 2013 г.) // Философские науки. 2013. № 12. С. 125-136.
Назарова Ю.В. Дилеммы искусственного интеллекта в аспекте этического прогнозирования // Гуманитарные ведомости ТГПУ им. Л.Н. Толстого. 2023. № 2 (46). С. 39-48. https://doi.org/10.22405/2304-4772-2023-1-2-39-47.
Тучина М.Е. Международный конгресс «Глобальное будущее 2045» Москва, февраль 2012 г. // Философские науки. 2012. № 9. С. 150-157.
Bostrom N. Superintelligence: Paths, dangers, strategies. Oxford, 2016. 390 p.
Bostrom N. Infinite ethics // Analysis and Metaphysics. 2011. Vol. 10. P. 9-59.
Bostrom N. Transhumanist values // Journal of Philosophical Research. 2005. Vol. 30. P. 3-14. https://doi.org/10.5840/jpr_2005_26.
Bostrom N. Ethical issues in advanced artificial intelligence // Cognitive, emotive and ethical aspects of decision making in humans and in artificial intelligence. Vol. 2 / ed. by I. Smit, W. Wallach, G. Lasker. Oxford, 2003. P. 12-17.
Bostrom N. Existential risks - Analyzing human extinction scenarios and related hazards' // Journal of Evolution and Technology. 2002. Vol. 9, no. 1.
Bostrom N., Roache R. Ethical issues in human enhancement // New waves in applied ethics / ed. by J. Ryberg, T. Petersen & C. Wolf. L., 2007. P. 120-152.
Bostrom N., Yudkowsky E. The ethics of artificial intelligence // Artificial Intelligence Safety and Security / ed. by R.V. Yam-polskiy. Boca Raton, 2018. P. 57-69. https://doi.org/10.1201/9781351251389-4.
Floridi L. The Fourth Revolution - How the infosphere is reshaping human reality. Oxford, 2014. 272 p.
Floridi L. The philosophy of Information. Oxford, 2011. 405 p.
References:
Bostrom, N. (2016) Superintelligence: Paths, dangers, strategies. Oxford, Oxford University Press.
Bostrom, N. (2011) Infinite ethics. Analysis and Metaphysics. 10, 9-59.
Bostrom, N. (2005) Transhumanist values. Journal of Philosophical Research. 30, 3-14. Available from: doi: 10.5840/jpr_2005_26.
Bostrom, N. (2003) Ethical issues in advanced artificial intelligence. In: Smit, I., Wallach, W. & Lasker, G. (eds.) Cognitive, emotive and ethical aspects of decision making in humans and in artificial intelligence. Vol. 2. Oxford, International Institute for Advanced Studies in Systems Research and Cybernetics, 12-17.
Bostrom, N. (2002) Existential risks - Analyzing human extinction scenarios and related hazards'. Journal of Evolution and Technology. 9 (1).
Bostrom, N. & Roache, R. (2007) Ethical issues in human enhancement. In: Ryberg, J., Petersen, T. & Wolf, C. (eds.) New waves in applied ethics. London, Palgrave-Macmillan, 120-152.
Bostrom, N. & Yudkowsky, E. (2018) The ethics of artificial intelligence. In: Yampolskiy, R.V. (ed.) Artificial intelligence safety and security. Boca Raton, Chapman and Hall/CRC, 57-69. Available from: doi:10.1201/9781351251389-4.
Dubrovskii, D.I. (ed.) (2013) Global Future 2045. Convergent technologies and transhumanistic evolution. Moscow, MBA. (In Russian)
Floridi, L. (2014) The Fourth Revolution - How the infosphere is reshaping human reality. Oxford, Oxford University Press. Floridi, L. (2011) The philosophy of Information. Oxford, Oxford University Press.
Koene, R. & Tuchina, M.E. (2013) The Second International Global Future 2045 Congress, New York, June 2013. Journal of Philosophical Sciences. (12), 125-136. (In Russian)
Nazarova, Yu.V. (2023) Dilemmas of artificial intelligence in the aspect of ethical forecasting. Gumanitarnyye Vedomosti TGPUim. L.N. Tolstogo. (2), 39-48. Available from: doi:10.22405/2304-4772-2023-1-2-39-47. (In Russian)
Tuchina, M.E. (2012) "Global Future 2045" International Congress. Russian Journal of Philosophical Sciences. (9), 150-157. (In Russian)
Информация об авторах Ю.В. Назарова - доктор философских наук, профессор, профессор кафедры социальных наук, Тульский государственный педагогический университет имени Л.Н. Толстого, Тула, Россия. https://www.elibrary.ru/author_items.asp?authorid=653030
А.Ю. Каширин - кандидат философских наук, доцент, доцент кафедры философии и культурологии, Тульский государственный педагогический университет имени Л.Н. Толстого, Тула, Россия. https://www.elibrary.ru/author_profile.asp?authorid=340551
Вклад авторов:
все авторы сделали эквивалентный вклад в подготовку публикации. Конфликт интересов:
авторы заявляют об отсутствии конфликта интересов.
Information about the authors Yu.V. Nazarova - D.Phil., Professor, Professor at the Department of Social Sciences, Tula State Lev Tolstoy Pedagogical University, Tula, Russia.
https://www.elibrary.ru/author_items.asp?authorid=653030
A.Yu. Kashirin - PhD in Philosophy, Associate Professor, Associate Professor at the Department of Philosophy and Cultural Studies, Tula State Lev Tolstoy Pedagogical University, Tula, Russia. https://www.elibrary.ru/author_profile.asp?authorid=340551
Contribution of the authors:
The authors contributed equally to this article.
Conflicts of interests:
The authors declare no conflicts of interests.
Статья поступила в редакцию / The article was submitted 27.05.2023; Одобрена после рецензирования / Approved after reviewing 25.10.2023; Принята к публикации / Accepted for publication 21.11.2023.
Авторами окончательный вариант рукописи одобрен.