RUDN Journal of Philosophy. ISSN 2313-2302 (print), ISSN 2408-8900 (online) 2024 Vol. 28 No. 2 589-600 Вестник РУДН. Серия: ФИЛОСОФИЯ http://journals.rudn.ru/philosophy
Социальная философия Social philosophy
https://doi.org/10.22363/2313-2302-2024-28-2-589-600 EDN: UBJZTG
Научная статья / Research Article
Искусственный интеллект в современном обществе: шаги, вызовы, стратегии
В.А. Цвык1 И, И.В. Цвык2 , Г.И. Цвык
'Российский университет дружбы народов, Российская Федерация, 117198, Москва, ул. Миклухо-Маклая, д. 6 2Московский авиационный институт (национальный исследовательский университет), Российская Федерация, 125993, Москва, Волоколамское шоссе, д. 4 Stsvyk-va@rudn.ru
Аннотация. Актуальность исследования обусловлена тем, что технологии искусственного интеллекта стремительно развиваются и обладают огромным потенциалом, который с успехом может быть использован на благо человечества, но в то же время таят в себе в условиях социальной и этико-правовой неопределенности немало новых вызовов и ставят ряд этических вопросов в отношении будущего уклада жизни человеческого общества и путей, по которым пойдет его дальнейшее развитие. В статье подчеркивается, что искусственный интеллект обладает потенциалом для того, чтобы изменить будущее человечества в лучшую сторону, тем не менее, искусственные интеллектуальные системы по своей сути не нейтральны и характеризуются внутренне присущей им предвзятостью, которая обусловлена исходными данными, использовавшимися при их «обучении». Ввиду масштабности социальных последствий технологий искусственного интеллекта многие страны обеспокоены сегодня этическими аспектами его использования. Для того чтобы наметить возможные сценарии и задействовать потенциал искусственного интеллекта для реализации возможностей в сфере развития при сохранении контроля над рисками, важно выработать более всестороннее понимание социальных изменений, вызванных все более расширяющимся применением интеллектуальных систем. Делается вывод о том, что проблемы применения искусственного интеллекта необходимо рассматривать сквозь призму анализа социальной сущности человека, современной социокультурной реальности, гуманистических целей и ценностей современного социума. Любые достижения в сфере искусственного интеллекта имеют смысл только в том случае, если они соотносятся с подлинно человеческими ценностями.
©UBMKBA., UBHK H.B., ^bm r.H., 2024
lice) ®® This work is licensed under a Creative Commons Attribution 4.0 International License lfc^E*Mhttps://creativecommons.org/licenses/by-nc/4.0/legalcode
Отсутствие на сегодняшний день утвержденных на международном уровне этико-право-вых норм и стандартов, касающихся применения разработок и инноваций в сфере искусственного интеллекта свидетельствует о необходимости активной и направленной работы российского исследовательского сообщества в данной сфере.
Ключевые слова: искусственный интеллект, информационное общество, социальные коммуникации, цифровое неравенство, информационная эпистемология, компьютерные технологии, машинное обучение, нейронные сети, культурное разнообразие, этически обоснованное проектирование
История статьи:
Статья поступила 11.11.2023
Статья принята к публикации 31.01.2024
Для цитирования: Цвык В.А., Цвык И.В., Цвык Г.И. Искусственный интеллект в современном обществе: шаги, вызовы, стратегии // Вестник Российского университета дружбы народов. Серия: Философия. 2024. Т. 28. № 2. С. 589-600. https://doi.org/10.22363/2313-2302-2024-28-2-589-600
Artificial Intelligence in Modern Society: Steps, Challenges, Strategies
Vladimir A. Tsvyk1 0, Irina V. Tsvyk2 , Galina I. Tsvyk
1RUDN University, 6Miklukho-Maklaya St., 117198, Moscow, Russian Federation
2Moscow Aviation Institute (National Research University), 4 Volokolamskoe Shosse, 125993, Moscow, Russian Federation Htsvyk-va@rudn.ru
Abstract. The relevance of the research is conditioned by the fact that artificial intelligence technologies are rapidly developing and have enormous potential, which can be successfully used for the benefit of humanity, but at the same time they pose many new challenges in conditions of social and ethical and legal uncertainty and pose a number of ethical questions regarding the future way of life of human society and ways, which will be followed by its further development. The article emphasizes that artificial intelligence has the potential to change the future of humanity for the better, however, artificial intelligent systems are inherently not neutral and are characterized by inherent bias, which is due to the initial data used in their "training". Due to the magnitude of the social consequences of artificial intelligence technologies, many countries are now concerned about the ethical aspects of its use. In order to identify possible scenarios and use the potential of artificial intelligence to realize development opportunities while maintaining risk control, it is important to develop a more comprehensive understanding of the social changes caused by the increasingly expanding use of intelligent systems. It is concluded that the problems of using artificial intelligence must be considered through the prism of analyzing the social essence of a person, modern socio-cultural reality, humanistic goals and values of modern society. Any achievements in the field of artificial intelligence make sense only if they correspond to truly human values. To date, the absence of internationally approved ethical and legal norms and standards related to
the application of developments and innovations in the field of artificial intelligence indicates the need for active and focused work of the Russian research community in this area.
Keywords: artificial intelligence, information society, social communications, digital inequality, information epistemology, computer technology, machine learning, neural networks, cultural diversity, ethically sound design
Article history:
The article was submitted on 11.11.2023 The article was accepted on 31.01.2024
For citation: Tsvyk VA, Tsvyk IV, Tsvyk GI. Artificial Intelligence in Modern Society: Steps, Challenges, Strategies. RUDN Journal ofPhilosophy. 2024;28(2):589-600. (In Russian). https://doi.org/10.22363/2313-2302-2024-28-2-589-600
Введение
Искусственный интеллект (ИИ) является одним из ключевых элементов эпохи конвергенции технологий, который сопряжен с глубокими последствиями для человека, культуры, общества и окружающей среды. Вполне вероятно, что ИИ изменит будущее образования, науки, культуры и коммуникации, то есть основных сфер жизни современного общества. Хотя единого определения понятия «искусственный интеллект» в современной исследовательской литературе не существует, речь идет, как правило, о машинах, способных имитировать определенные функции человеческого интеллекта, включая такие его свойства, как восприятие, обучаемость и логическое мышление, а также способности к решению задач, языковому взаимодействию и даже художественному творчеству.
Искусственный интеллект, бесспорно, обладает потенциалом для того, чтобы изменить будущее человечества в лучшую сторону и в интересах устойчивого развития, тем не менее, все больше людей осознают связанные с ИИ риски и проблемы, особенно в плане усугубления существующего неравенства и диспропорций, а также последствия его использования для сферы прав человека. Ввиду масштабности социальных последствий ИИ многие страны обеспокоены сегодня этическими аспектами его использования. Для того чтобы наметить возможные сценарии и задействовать потенциал ИИ для реализации возможностей в сфере развития при сохранении контроля над рисками, важно выработать более всестороннее понимание того, как общество меняется под воздействием таких революционных технологий, как искусственный интеллект.
Такая работа должна сопровождаться этическим анализом ввиду того, что технологии ИИ не являются нейтральными, а отличаются внутренне присущей предвзятостью, обусловленной данными, которые используются в ходе их обучения, и решениями, которые принимаются в процессе обучения с применением этих данных, а также ввиду того, что решения ИИ не могут быть в полной мере предсказуемы. Кроме того, поскольку ИИ представляет собой распределенную технологию, управление которой сегодня на практике
осуществляется многочисленными учреждениями, организациями и компаниями, для анализа вопросов ответственного управления ИИ необходим плюралистический, междисциплинарный, поликультурный и многосторонний подход, который бы стимулировал обсуждение вопросов о том, к какому будущему для человечества мы стремимся. В ходе этого анализа необходимо рассмотреть основные проблемы в области разработки технологий ИИ, касающиеся заложенных в алгоритмах предубеждений, включая гендерные предрассудки, защиту неприкосновенности частной жизни и персональных данных, риски создания новых форм социальной изоляции и неравенства, а также вопросы справедливого распределения выгод и рисков, подконтрольности, ответственности, влияния на занятость, эволюцию труда и мышления человека.
Инновации, связанные с ИИ, сегодня используются во многих областях современной жизни, таких, как транспорт, медицина, коммуникации, образование, наука, финансы, право, военное дело, сфера обслуживания, маркетинг и организация досуга [1. С. 62]. Эти инновации напрямую связаны с целым рядом этических проблем, начиная с ликвидации традиционных рабочих мест и ответственности за возможный физический или психологический ущерб для человека и заканчивая общей дегуманизацией отношений между людьми и обществом в целом. В настоящее время ни одна из систем ИИ не может рассматриваться в качестве разумного субъекта действия универсального назначения, способного хорошо функционировать в широком диапазоне условий внешней среды, что является неотъемлемым свойством человеческого интеллекта.
Особенности функционирования систем искусственного интеллекта
Анализ современной исследовательской литературы, посвященной проблемам применения искусственного интеллекта позволяет сделать вывод о том, что существующий в настоящее время на уровне технологии, применяемый в различных областях общественной жизни и требующий регулирования со стороны государственных, общественных организаций, общества в целом искусственный интеллект — это так называемый слабый (узкий) искусственный интеллект, созданный человеком для решения определенных, узконаправленных задач [2. С. 932]. Узкий ИИ представлен системами, элементами которых являются аппаратные комплексы, программное обеспечение, наборы данных. Для того, чтобы система ИИ могла решать задачи, посильные разуму человека, она должна воспринимать окружающую среду, собирать данные в динамическом режиме, быстро их обрабатывать и реагировать на них, опираясь на свой прошлый «опыт», заложенные в систему принципы принятия решений и предвидения будущего. Однако технология, лежащая в основе современных и широко применяемых систем ИИ, по сути является обычной информационно-коммуникационной технологией. Она основана на сборе и получении данных, их хранении, обработке и передаче. Уникальные
характеристики когнитивных машин обусловлены количеством, которое переходит в качество. В основе технологии ИИ лежат следующие элементы:
- Динамические данные. На систему должны воздействовать изменяющиеся условия внешней среды, и она должна получать все необходимые данные с помощью различных датчиков, классифицировать и хранить их, а также быть в состоянии оперативно их обрабатывать.
- Оперативная обработка. Когнитивные машины должны реагировать быстро. Поэтому ИИ должен обладать надежными, быстродействующими и мощными вычислительными и коммуникационными средствами.
- Принципы принятия решений. ИИ принимает решения на основе алгоритмов машинного обучения. Поэтому его реакция на конкретную задачу зависит от «опыта», которым располагает система, то есть от тех данных, которые она получала. Алгоритмы, лежащие в основе принимаемых когнитивными машинами решений, базируются на некоторых общих принципах, которые алгоритм соблюдает и пытается оптимизировать с учетом поступающих данных [3].
Имеющаяся в настоящее время возможность эффективным образом интегрировать алгоритмы динамического сбора данных и машинного обучения в целях оперативного принятия решений и позволяет создавать «когнитивные машины».
Этически обоснованное проектирование
Разработка технологий будущего находится в руках специалистов технического профиля. Традиционно инженеров учат создавать продукты, обеспечивающие оптимальную производительность с минимальными затратами (в отношении энергии, спектра, пространства, веса и так далее) в условиях заданных внешних ограничений. В последние десятилетия в сфере инженерной этики были разработаны различные методы интеграции элементов этического анализа, ответственности и обоснования в процесс проектирования. В контексте ИИ для обозначения методов проектирования, недвусмысленным образом ориентированных на человеческие ценности, был введен термин «этически обоснованное проектирование» (ЭОП)1.
Этическое регулирование применения ИИ необходимо вводить уже на этапе его проектирования. Методы этически обоснованного проектирования особенно важно применять при разработке систем ИИ и других автономных интеллектуальных систем, поскольку это позволяет решать этические проблемы на том этапе, когда технологию еще можно адаптировать к существующим этическим и правовым нормам. Хорошей иллюстрацией такого подхода является концепция «встроенной конфиденциальности». Нарушений
1 Рекомендации для этически обоснованного проектирования Концепция взаимодействия людей с искусственными интеллектом и автономными системами с приоритетом человеческих ценностей // The IEEE Standards Association. Режим доступа: https://standards.ieee.org/con-tent/dam/ieee-standards/standards/ web/documents/other /ead.pdf/ (дата обращения: 02.12.2023).
права на неприкосновенность частной жизни будет меньше, если сохранять не все данные, а только те, которые необходимы для решения конкретной задачи. Разработчики ИИ могут сходным образом учесть и другие вопросы, которые потенциально могут вызвать этические проблемы, такие, как предотвращение алгоритмической предвзятости при принятии решений. Может быть сведено к минимуму злоупотребление технологиями, обеспечено объяснение алгоритмических решений [4. C. 45].
В то же время инженерное образование в сегодняшнем мире по большей части сводится к естественнонаучным и технологическим курсам, напрямую не связанным с анализом человеческих ценностей, который был бы очевидным образом нацелен на реальный рост благополучия людей и экологического благосостояния. Очень важно изменить это положение вещей и начать обучать будущих инженеров и программистов методам этически обоснованного проектирования систем ИИ. Для этого нужно ясно осознавать потенциальные социальные и этические последствия применения технологий ИИ и возможные злоупотребления ими [5. C. 58].
Решение этических проблем в контексте широкого применения технологий ИИ требует активных усилий по обеспечению социокультурного многообразия инженерного сообщества, а также всестороннего учета социальных и этических последствий разработки систем ИИ. Следует поощрять диалог между инженерным корпусом и общественностью, направленный на содействие обмену информацией о потребностях и задачах общества, а также о методах, которые инженеры применяют в своей повседневной работе и исследовательской деятельности.
Принятие решений с помощью ИИ: этический аспект
Методы, основанные на ИИ, потенциально могут оказать огромное воздействие на принятие решений в самых разных областях общественной жизни. Ключевым вопросом при использовании ИИ в этих целях является характер и интерпретация результатов работы алгоритмов, которые не всегда понятны человеку. К.Д. Эшли отмечает: «Поскольку алгоритм машинного обучения усваивает правила на основе статистических закономерностей, которые могут вызвать у людей удивление, такие правила не всегда представляются людям обоснованными... Хотя выведенные машиной правила могут приводить к точным прогнозам, они не отталкиваются от человеческого опыта и могут быть менее понятны для людей, чем правила, сформулированные экспертом «вручную». Поскольку правила, выведенные алгоритмом, не обязательно отражают эксплицитные юридические знания или опыт, они могут не соответствовать критериям обоснованности, используемым экспертами-людьми» [6. C. 111].
Этот вопрос касается и более широкой области принятия решений на основе данных. Поскольку система ИИ в состоянии анализировать, обрабатывать и классифицировать очень большие объемы весьма разнородных
данных, которые к тому же могут очень быстро изменяться, такая система считается способной предлагать, а если ей это будет позволено, то и принимать решения в сложных ситуациях.
Вместе с том в вопросе о правильности предлагаемого ИИ решения следует проявлять осторожность. Такое решение не обязательно является беспристрастным, справедливым, точным или уместным. На него влияют неточности, избирательность результатов, заложенная или привнесенная в систему предвзятость, а также ограничения, свойственные процессу обучения. Люди не только имеют гораздо более широкое мировоззрение, но и обладают неявными знаниями, которые позволяют им демонстрировать лучшие по сравнению с ИИ результаты в критических или сложных ситуациях. В идеале оптимальным решением является то, которое мог бы принять человек, если бы он был в состоянии обработать огромный массив данных в приемлемые сроки. Однако люди обладают иными возможностями и способны принимать решения творчески, а не на основе алгоритмов.
Весьма сомнительно, что ИИ — по крайней мере в ближайшем будущем — будет в состоянии справляться с неоднозначными и быстро меняющимися данными или интерпретировать и осуществлять намерения человека в том виде, который они могли бы принять, если бы человек был способен обрабатывать сложные массивы разнородных данных. Даже если решения, вырабатываемые машиной, будет контролировать включенный в процесс управления человек — этого может оказаться недостаточно для принятия правильного решения. Поскольку когнитивный ИИ принимает решения не так, как это делают люди, человек не обладает знаниями и информацией, необходимыми для того, чтобы определить, соответствует ли решение, выработанное на основе данных, его намерениям. Более того, стохастическое поведение когнитивного ИИ наряду с обусловленной им неспособностью человека понять, почему система сделала той или ной выбор, приводят к снижению уровня доверия к выбранному решению [7]. В некоторых случаях использование ИИ в качестве субъекта принятия решений (с помощью человека или полностью в автономном режиме) может рассматриваться как несущее риски: за скорость обработки и сортировки больших массивов данных, которая присуща системам на основе ИИ, мы должны заплатить отказом от возможности влиять на принимаемые ими решения. В настоящее время вряд ли это можно признать допустимым, поскольку такие решения могут иметь далеко идущие последствия, особенно в конфликтных ситуациях.
Основные требования этики разработки, реализации и использования ИИ
Разработка этики применения ИИ еще предстоит специалистам в области этики, социологии и др. общественных наук. На прошедшей 24 ноября 2023 г. в Москве конференции по искусственному интеллекту AI Journey Президент Российской Федерации В.В. Путин заявил: «С внедрением
искусственного интеллекта в науку, образование, здравоохранение, все сферы нашей жизни — человечество начинает новую главу своего существования». По его словам, граждане России наблюдают, как искусственный интеллект «делает более простыми и удобными многие повседневные процессы» и все шире применяется в сфере госуслуг и госуправления2.
Президент РФ В.В. Путин 15 февраля 2024 г. подписал указ о поправках к Национальной стратегии развития искусственного интеллекта на период до 2030 г. Согласно стратегии, объем оказанных услуг по разработке и реализации решений в области ИИ к 2030 г. должен вырасти как минимум до 60 млрд руб. по сравнению с 12 млрд руб. в 2022 г. Также планируется, что вырастет количество выпускников высших учебных заведений в сфере нейросетей с 3000 до 15 500 человек. Доля приоритетных отраслей экономики с высокой готовностью к внедрению ИИ увеличится с 12 до 95 %3.
Еще в 2019 г. В.В. Путин предложил разработать этические нормы взаимодействия человека с искусственным интеллектом: «Сейчас во всем мире разворачивается дискуссия о социальных аспектах и последствиях использования искусственного интеллекта, это очень важная тема. Предлагаю профессиональному сообществу, компаниям подумать над формированием свода
4
этических правил взаимодействия человека с искусственным интеллектом» .
В то же время, часто в исследовательской литературе встречается мнение о преждевременности этического и правового регулирования применения технологий ИИ. Эта позиция наиболее четко отражена в монографии А.В. Минбалеева, по мнению которого такие понятия, как «искусственный интеллект», «блокчейн», «облачные технологии», «киберфизические системы» и т.п., должны формироваться изначально на уровне технического регулирования, и право, как механизм правового воздействия, не должно ставить перед собой задачу урегулировать технические объекты [8. С. 13].
Однако этические нормы разработки и применения ИИ также обсуждаются. Уже сегодня можно обозначить некоторые принципы, которые могут быть положены в основу такой этической системы. К числу этих принципов можно отнести следующие:
- Права человека: системы ИИ должны разрабатываться и реализовы-ваться в соответствии с международными стандартами в области прав человека.
2 Путин назвал искусственный интеллект новой главой в жизни человечества // Ежедневная деловая газета РБК. Политика. 24 ноября 2023 г. Режим доступа: https://www.rbc.ru/ rbcfreenews/65609a8e 9а79474е2й29с82 (дата обращения: 02.12.2023).
3 Указ Президента Российской Федерации от 15.02.2024 №2 124 «О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» и в Национальную стратегию, утвержденную этим Указом». Режим доступа: http://publication.pravo.gov.ru/document/0001202402150063 (дата обращения: 02.12.2023).
4 Этика искусственного интеллекта. Режим доступа: https://ethics.a-ai.ru/ (дата обращения: 02.12.2023).
- Инклюзивность: системы ИИ должны быть инклюзивными, нацеленными на недопущение предвзятости, обеспечение социального и культурного разнообразия и предотвращение нового цифрового разрыва.
- Благополучие: системы ИИ должны разрабатываться в целях повышения качества жизни.
- Автономия: системы ИИ должны уважать автономию человека, требуя постоянного контроля со стороны людей.
- Объяснимость: системы ИИ должны быть объяснимыми, в принципы их работы понятными.
- Прозрачность: данные, используемые для обучения систем ИИ, должны быть прозрачными.
- Осведомленность и грамотность: для расширения прав и возможностей граждан необходима осведомленность в вопросах алгоритмов и понимание базовых принципов работы ИИ.
- Ответственность: при разработке автономных интеллектуальных систем разработчики и компании должны принимать во внимание этические аспекты.
- Подотчетность: необходимо разработать механизмы распределения ответственности за решения, принимаемые с помощью систем ИИ, и принимаемые ими действия.
- Устойчивое развитие: для каких бы целей ни применялся ИИ, потенциальные выгоды всегда нужно соизмерять с воздействием на окружающую среду всего производственного цикла систем ИИ и информационных технологий5.
Выводы
Технологии искусственного интеллекта стремительно развиваются и обладают огромным потенциалом, который с успехом может быть использован на благо человечества, но в то же время таят в себе в условиях социальной и этико-правовой неопределенности немало новых вызовов и ставят ряд этических вопросов в отношении будущего уклада жизни человеческого общества и путей, по которым пойдет его дальнейшее развитие. Искусственные интеллектуальные системы по своей сути не нейтральны и характеризуются внутренне присущей им предвзятостью, которая обусловлена исходными данными, использовавшимися при их «обучении». Проблемы применения ИИ необходимо рассматривать сквозь призму анализа социальной сущности человека, современной социокультурной реальности, гуманистических целей и ценностей современного социума. Любые достижения в сфере ИИ имеют смысл только в том случае, если они соотносятся с подлинно человеческими
5 Разработка рекомендаций об этических аспектах искусственного интеллекта. Сайт ЮНЕСКО. Режим доступа: https://ru.unesco.org/artificial-inteШgence/ethics (дата обращения: 02.12.2023).
ценностями. Тем более важным является «формирование гибкой правовой среды, позволяющей системно и без сбоев отвечать на новые вызовы и постоянную технологическую трансформацию. Правовое регулирование должно быть максимально приближено к реальности и охватывать не только сегодняшние системы, но и закладывать базовые регуляторные правила для будущего. Этот аспект будет иметь определяющее значение для конкурентоспособности и развития российского рынка в сфере технологий ИИ» [9. С. 194]. Тема социальных последствий и этико-правовых аспектов применения технологий искусственного интеллекта сегодня широко обсуждается российским и международным исследовательским сообществом. Как следует из разворачивающихся сегодня дискуссий, на глобальном уровне существует потребность в общих универсальных этических принципах, отражающих ключевые ценности, которые должны лежать в основе разработки систем ИИ.
Отсутствие на сегодняшний день утвержденных на международном уровне этико-правовых норм и стандартов, касающихся применения разработок и инноваций в сфере искусственного интеллекта свидетельствует о необходимости активной и направленной работы российского исследовательского сообщества в сфере социальных наук, связанной с разработкой этики применения ИИ в таких областях, как обеспечение мира и безопасности, здоровье и благополучие человека, сохранение цивилизационной идентичности и традиционных ценностей. Наша страна в полной мере может и должна быть пионером исследовательской и практической работы в этой сфере. Помимо формального закрепления базовых принципов применения ИИ разработка и принятие норм и стандартов в этой области, хотя бы в форме рекомендаций или этической декларации, положительно сказалось бы на формировании политики в этой области, способствовало бы расширению возможностей и укреплению потенциала российского государства в вопросах принятия необходимых мер в тех сферах, которые в первую очередь будут затронуты развитием ИИ-технологий, включая культуру, образование, науку, информационную среду и коммуникации. Такой документ должен предусматривать глобальный механизм документирования социокультурных изменений, вызванных стремительным нелинейным развитием ИИ и сопутствующих этических вопросов. Он также должен способствовать интеграции ценностей в системы ИИ, которые необходимо привести в соответствие как с согласованными на международном уровне стандартами в области устойчивого развития и прав человека, так и с традиционными российскими ценностями: жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу. Подобный документ имел бы также важное значение с точки зрения укрепления потенциала, обмена знаниями и закрепления передового опыта.
Список литературы
[1] Цвык В.А., Цвык И.В. Социальные проблемы развития и применения искусственного интеллекта // Вестник Российского университета дружбы народов. Серия: Социология. 2022. Т. 22. № 1. С. 58-69.
[2] Цвык В.А., Цвык И.В., Павлова Т.П. Проблемное поле философских дискурсов о применении систем искусственного интеллекта в социуме // Вестник Российского университета дружбы народов. Серия: Философия. 2023. Т. 27. № 4. С. 928-939.
[3] Frankish K., Ramsey W.M. The Cambridge handbook of artificial intelligence. Cambridge : Cambridge University Press, 2014.
[4] Квон Д.А., Павлова Т.П., Цвык И.В. Философия и методология искусственного интеллекта. М. : Изд-во МАИ, 2022.
[5] Научно-технический прогресс и этическая парадигма XXI века / под ред.
B.А. Цвыка, И.В. Цвык. М. : Изд-во РУДН, 2018.
[6] Ashley K.D. Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge : Cambridge University Press, 2017.
[7] Illanes P., Lund S., MourshedM., Rutherford S., Tyreman M. Retraining and reskilling workers in the age of automation. Режим доступа: https://www.mckinsey.com/featured-insights/future-of-work/retraining-and-reskilling-workers-in-the-age-of-automation (дата обращения: 06.12.2023).
[8] Механизмы и модели регулирования цифровых технологий: монография / под ред. А.В. Минбалеева. М. : Проспект, 2020.
[9] Журков А.А. Этические аспекты использования систем искусственного интеллекта: международно-правовой опыт // Вестник Университета Кутафина. 2022. № 4.
C.186-194.
References
[1] Tsvyk VA, Tsvyk IV. Social problems of development and application of artificial intelligence. RUDN Journal of Sociology. 2022;1(22):58-69. (In Russian).
[2] Tsvyk VA, Tsvyk IV, Pavlova TP. The problem field of philosophical discourses on the use of artificial intelligence systems in society. RUDN Journal of Philosophy. 2023;4(27):928-939. (In Russian).
[3] Frankish K, Ramsey WM. The Cambridge handbook of artificial intelligence. Cambridge: Cambridge University Press, 2014.
[4] Kvon DA, Pavlova TP, Tsvyk IV. Philosophy and methodology of artificial intelligence. Мoscow; 2022. (In Russian).
[5] Tsvyk VA, Tsvyk IV, editors. Scientific and technological progress and ethical paradigm of the XXI century. Moscow: RUDN University; 2018. (In Russian).
[6] Ashley KD. Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge: Cambridge University Press; 2017.
[7] Illanes P, Lund S, Mourshed M, Rutherford S, Tyreman M. Retraining and reskilling workers in the age of automation. Available from: https://www.mckinsey.com/featured-insights/future-of-work/retraining-and-reskilling-workers-in-the-age-of-automation (accessed: 06.12.2023).
[8] Minbaleev AV, editor. Mechanisms and models of regulation of digital technologies: monograph. Moscow: Prospect; 2020. (In Russian).
[9] Zhurkov AA. Ethical Aspects of the Use of Artificial Intelligence Systems: International Legal Experience. Courier of Kutafin Moscow State Law University (MSAL). 2022;(4):186-194. (In Russian).
Сведения об авторах:
Цвык Владимир Анатольевич — доктор философских наук, профессор, заведующий кафедрой этики, факультет гуманитарных и социальных наук, Российский университет дружбы народов, Москва, Россия (e-mail: tsvyk-va@rudn.ru). ORCID: 0000-0002-7814-5504. SPIN-код: 5410-3700
Цвык Ирина Вячеславовна — доктор философских наук, профессор, кафедра философии, Московский авиационный институт (национальный исследовательский университет), Москва, Россия (e-mail: tsvykirina@mail.ru). ORCID: 0000-0001-8597-2498. SPIN-код: 2302-1089
Цвык Галина Игоревна — кандидат исторических наук, независимый исследователь (e-mail: galya_91@mail.ru). SPIN-код: 6515-6564
About the author:
Tsvyk Vladimir A. — DSc in Philosophy, Professor, Head of the Ethics Department, Faculty of Humanities and Social Sciences, RUDN University, Moscow, Russia (e-mail: tsvyk-va@rudn.ru). ORCID: 0000-0002-7814-5504. SPIN-code: 5410-3700 Tsvyk Irina V. — DSc in Philosophy, Professor, Department of Philosophy, Moscow Aviation Institute (National Research University), Moscow, Russia (e-mail: tsvykirina@mail.ru). ORCID: 0000-0001-8597-2498. SPIN-code: 2302-1089
Tsvyk Galina I. — PhD in Historical Sciences, independent researcher (e-mail: galya_91@mail.ru). SPIN- code: 6515-6564