Анализ ключевых проблем и угроз стремительного развития технологий искусственного интеллекта
fO
сч о сч
<0
о ш m
X
<
m О X X
Матинян Сурен Гарникович
аспирант, Российский экономический университет им. Г.В. Плеханова, s.g.matinyan@gmail.com
Альберт Екатерина Сергеевна
аспирант, Российский экономический университет им. Г.В. Плеханова, es_kuznetsova10@mail.ru
Статья посвящена анализу ключевых проблемы и угроз, возникновение которых связано со стремительным развитием технологий искусственного интеллекта. Авторами приводится классификация широкого спектра технологических решений, объединенных под общим понятием искусственного интеллекта, а также анализируется влияние каждого из них на те области человеческой жизнедеятельности, на которые они могут оказать наибольшее негативное воздействие. Выделяется и анализируется влияние развития технологий ИИ на рынок труда, связанные с этим вопросы социального равенства. Помимо этого, рассматриваются этические вопросы, связанные как с целями использования новых технологий, так и с конкретными подходами к реализации сценариев работы автоматизированных систем, в основе которых заложено использование технологий искусственного интеллекта на базе непрозрачных алгоритмов. Анализ подкрепляется разбором множества практических примеров из опыта транснациональных компаний. Приводятся наиболее реалистичные предложения по нивелированию описываемого негативного эффекта в рассматриваемых сферах применения ИИ.
Ключевые слова: искусственный интеллект; машинное обучение; роботизация; безработица; цифровая экономика; информационные технологии; гарантированный доход.
В последние десятилетия технологии искусственного интеллекта (ИИ) претерпели значительные преобразования и развитие вместе с ростом объема инвестиций в их исследование [1, 2]. Инновации в области машинного обучения, робототехники и когнитивных наук открывают возможности для создания все более сложных и мощных интеллектуальных систем. Подобное стремительное развитие использования ИИ в различных областях жизни общества одновременно приводит и к возникновению множества проблем и угроз. В данной статье мы рассмотрим ключевые вызовы и опасности, связанные с развитием технологий искусственного интеллекта.
Когда речь заходит об искусственном интеллекте, обычно имеют в виду большое количество направлений развития технологий, часто объединяющихся под общим понятием искусственного интеллекта. Для конкретизации скажем, что в данной статье мы в первую очередь рассматриваем возможное прикладное применение пяти описанных ниже основных направлений развития ИИ.
1. CV (computer vision), или компьютерное зрение. Это область искусственного интеллекта, которая занимается созданием алгоритмов и систем для обработки изображений и видео. Такие системы могут быть использованы для распознавания лиц, обнаружения объектов на изображениях или видео, а также для автоматической классификации содержимого изображений. Технологии компьютерного зрения могут быть применены в очень широком спектре областей. Например, самым очевидным может быть их применение в системах, которые автоматически обрабатывают заполненные вручную бланки, тем самым сокращая количество рутинной работы человеком. Особо важным кейсом использования CV можно считать автоматическое круглосуточное наблюдение за состоянием пациентов в больнице для сбора большого количества данных о состоянии здоровья и оперативной сигнализации в случае возникновения экстренных ситуаций. Также данные технологии очень востребованы в роботехнике, в том числе нацеленной на военные нужды [3]. Недавно показавшие свою крайне высокую эффективность на поле боя дроны развиваются в сторону еще большей автономности от человека (оператора), для чего им требуются аппаратно-программные комплексы, позволяющие самостоятельно анализировать окружающую обстановке.
2. NLP (natural language processing), или обработка естественного языка. Данная область искусственного интеллекта занимается созданием систем, которые могут понимать естественный язык и взаимодействовать с людьми на его основе. Современный чат-боты, виртуальные ассистенты успешно развивают это направление. Компании активно внедряют ассистентов, основанных на NLP, для сокращения затрат на содержание персонала, ответственного за взаимодействие с клиентам (внутренними или внешними), а также для более качественного и объемного автоматизированного анализа большого объема любого рода информации, когда-то собранной и оформленной в удобном человеку формате. Технологий обработки естественного языка тесно связаны со следующим выделенным направлением и играют важную роль в возможности его практической имплементации.
3. RPA (robotic process automation), или роботизация бизнес-процессов. Это процесс автоматизации бизнес-процессов
с помощью роботизированных систем. Такие системы могут использоваться для автоматического выполнения рутинных задач, таких как обработка данных или общение с клиентами. Это не просто программные приложения, которые могут выполнять повторяющиеся действия по заранее определенному алгоритму, они могут анализировать входные данные, корректировать свои действия на основе машинного и глубокого обучения, а также выполнять сложные рутинные операции, используя технологии компьютерного зрения и обработки естественного языка. Роботизация внедряется повсеместно. С одной стороны, она по мере своего развития позволяет выполнять рутинные операции более качественно, чем человек, с другой стороны, роботизированные процессы требуют меньших затрат от предпринимателей на содержание персонала, а ценных высокооплачиваемых сотрудников избавляют от рутинной части работы, концентрируя его усилия на выполнение наиболее квалифицированной деятельности, пока что требующей участия человека.
4. ML (machine learning), или машинное обучение. Это метод, который позволяет компьютерам учиться на данных без явного программирования. Вместо того, чтобы создавать программу, которая выполняет определенные задачи, мы предоставляем компьютеру данные и правильные ответы, и позволяем ему самому найти оптимальные пути для выполнения задач. Именно технологии машинного обучения позволяют создавать качественные решения, основанные на искусственном интеллекте.
5. DL (deep learning), или глубокое обучение. Этим термином называют подмножество машинного обучения, которое использует сложные нейронные сети с несколькими слоями. Такие нейронные сети могут обучаться на огромных объемах данных и обнаруживать сложные паттерны, которые другие методы машинного обучения могут пропустить. Внедрение технологий глубинного обучения еще в большей степени приближает решения, основанные на искусственном интеллекте, до уровня, превосходящего работу человеческого мозга, в разных областях.
Исходя из описанных выше направления развитий технологий искусственного интеллекта, а также некоторых примеров их практического внедрения, мы можем выделить ключевые проблемы и угрозы, которые возникают при развитии и распространении технологий ИИ. Стоит отметить, что применение технологий ИИ уходит далеко за рамки приведенных примеров и ограничивается по сути только воображением человека и степенью развитости технологии в рассматриваемый момент времени.
Развитие искусственного интеллекта во многих юрисдик-циях столкнулось с неготовностью законодательной базы к подобного рода резкому технологическому скачку в данной области. Поэтому проблему отсутствия регулирования называют одной из основных многие компании, задействованные в разработке ИИ-решений. Во многих странах до сих пор отсутствуют строгие правила и законодательные нормы, регулирующие использование искусственного интеллекта в разных направлениях. Подобная ситуация приводит к замедлению технологического развития. Компании не могут развивать приоритетные технологии, так как риски потери вложений в исследования слишком высоки из-за неопределенности законодательной базы. Хорошим примером является опыт Сбербанка в области развития беспилотного автотранспорта [4]. Какое-то время назад компания сделала заявление, что не считает данное направление приоритетным из-за как раз отсутствия законодательной базы, и сконцентрируется на других вещах.
Отсутствие регулирования также создает серьезную угрозу, связанную с тем, что компании, занимающиеся развитием решений в области искусственного интеллекта, иногда ничем с формальной точки зрения не ограничены в разработке
систем, которые могут представлять опасность для широких масс населения или человечества в целом. Возможности современных разработок пугают самих изобретателей, из-за многие всемирно известные из них недавно оставили свою подпись под инициативой, призывающей заморозить разработки в области ИИ на полгода, чтобы осмыслить исходящие угрозы и составить «правила» для его развития.
Искусственный интеллект, применяемый для автономного принятия решений, например, в автономных автомобилях или оружии, может столкнуться с проблемами этического характера. Возникает вопрос, следует ли наделять машину возможностью принимать решения о жизни и смерти, и в случае негативных последствий - кто должен нести ответственность и какие критерии должны быть установлены для взвешивания принимаемых решений. Например, печально известен чат-бот от компании Microsoft, который на основе заложенных алгоритмов глубинного обучения самостоятельно дошел до антисемитских идей и начал оскорблять своих собеседников в интернете [5]. В данном случае ситуацию спасла однозначная ассоциация продукта с компанией Microsoft и важное значение ре-путационного капитала для последней. Однако мы все ближе к тому, что продвинутым искусственным интеллектом смогут наделяться фейковые аккаунты из так называемых «фабрик троллей» в интернете и другие решения, которые научатся мастерски манипулировать мнением пользователей привычных социальных платформ и с трудом идентифицироваться в качестве искусственных инструментов манипулирования.
Тесно с предыдущей проблемой связана проблема отсутствия прозрачности алгоритмов. Основой искусственного интеллекта является множество сложных алгоритмов и моделей, функционирование и решения которых зачастую непонятны для окружающих. Это может привести к ситуациям, когда алгоритм выполняет определенную цель, но делает это с нарушением стандартов, создавая ситуацию неясности и необъективности, что может нести отрицательные последствия в важных областях применения, таких как финансовые решения, судебная система или даже военная сфера. Вспомним недавние испытания дрона с искусственным интеллектом, проведенные американскими военными. Перед дроном стояла задача уничтожения систем ПВО противника, а оператор дрона намеренно вмешивался и усложнял эту задачу. В итоге беспи-лотник принял решение достичь цели, сначала убив своего оператора. Когда же ему явно запретили убивать оператора, он принял решение уничтожить вышку связи для того, чтобы человек не мог вмешиваться в управление им [6].
Угрозы безопасности совершенно нового типа возникают вместе с развитие ИИ. Разработка искусственных интеллектов может быть использована для создания новых видов кибе-ратак и методов обхода систем безопасности. Нарушения конфиденциальности, виртуализация и особенно технологии глубокого обучения могут стать инструментами нового поколения киберпреступников, приводящими к многомиллиардным убыткам для государств и корпораций. Кроме того, развивая пример из предыдущей выделенной проблемы, некоторые системы искусственного интеллекта, обладающие доступом к значительным ресурсам (или сами использовавшие лазейки для получения доступов к этим ресурсам в рамках решения поставленной цели), смогут направить эти ресурсы против человека, если посчитают это целесообразным. Речь не только про управление летальным оружием, но и про управление, например, лентой новостей в социальных сетях - система, как и упомянутый чат-бот Microsoft, может посчитать крайне правые политические взгляды привлекательными и мастерски генерировать контент для пользователей таким образом, чтобы привести соответствующего кандидата к победе на выборах. Даже если представить ситуацию, когда описанный сценарий
X X
о
го А с.
X
го m
о
2 О
м
CJ
fO CS
о
CS <0
о ш m
X
<
m О X X
реализуется без ведома человека, очень трудно, то его реализация по умыслу компании-владельца популярной социальной платформы с использованием продвинутых ИИ-инструментов вполне реальна.
Внедрение искусственного интеллекта на рабочих позициях может привести к массовой утрате рабочих мест для населения. Многие профессии и должности могут быть полностью заменены машинами, что вызовет негативный социальный эффект и угрозу экономическим системам. Большое количество людей могут оказаться «на улице» в случае, если внедрение технологий ИИ будет происходить бесконтрольно, руководствуясь только экономической целесообразностью на уровне отдельных предприятий. Недавно был инцидент заморозки кинопроизводства в Голливуде, так как специалисты устроили массовые забастовки из-за угрозы того, что их пытаются заменить роботами [7]. Согласно исследованию компании McKinsey&Company, на сегодняшний день мы уже обладаем инструментами, которые позволяют автоматизировать более 50% объема всей выполняемой человечеством работы [8]. Кроме того, страдают не только специалисты профессий, которые могут быть заменены искусственным интеллектом, но и те, чья работа слишком сложна для ИИ, но так или иначе может быть им сделана более эффективной, а, значит, потребовать меньшего количества задействованных работников.
Существует также и угроза ограничения в доступе к новым технологиям и знаниям, которые могут привести к усилению глобального неравенства. Заявления высокопоставленных государственных чиновников, а также топ-менеджеров ИТ-компаний позволяют сделать вывод о том, что отставание стран в развитии собственных технологий искусственного интеллекта, которые становятся все более закрытыми, может обернуться в среднесрочной перспективе к возникновению большой зависимости от государств, успешных в этом поле деятельности. Громадные возможности, которыми может наделить ИИ, будут доступны первое время не всем, а только самым богатым странам и компаниям с эффективной системой управления, что позволит им еще в большей степени увеличить разрыв от остального мира.
Основываясь на выделенных выше угрозах и проблемах распространения технологий искусственного интеллекта, попробуем выделить несколько заслуживающих внимания инициатив по нивелированию рисков при внедрении ИИ:
1. Проработка в приоритетном порядке законодательной базы под реалии современного мира, заключающиеся в стремительном развитии технологий искусственного интеллекта. Создание продуманной законодательной базы и этических стандартов, с привлечением к консультациям специалистов в данной области.
В частности, для Российской Федерации можно обратится к опыту Западных стран, а именно Германии и Франции. В этих странах закон требует от компаний проводить консультации с рабочими советами, которые защищают интересы сотрудников, что значительно затрудняет процесс увольнений сотрудников. Так представительства компаний Amazon и Microsoft в Германии и Франции в настоящее время столкнулись с тем, что не могут беспрепятственно осуществить сокращение своих сотрудников [9].
2. Распространение законодательной базы и этических стандартов, касающихся искусственного интеллекта, на межгосударственный уровень. Создание надежных механизмов, которые защитили бы мир от смертельной угрозы неконтролируемого использования искусственного интеллекта так же, как и от угрозы применения ядерного оружия.
3. Поддержка новых отраслей экономики, которые возникают при развитии технологий искусственного интеллекта взамен тех, что уничтожаются им. Например, активное развитие получают роботехника, разработка алгоритмов.
4. Активная профессиональная переподготовка людей, находящихся под угрозой лишения дохода из-за автоматизации их рабочих функций.
5. Налогообложение роботизации. То есть введение налогов на роботов, которые заменяют людей. Уровень этих налогов может быть инструментом регулирования скорости происходящих изменений, а также источником поступлений для поддержки лишившихся дохода людей.
6. Введение гарантированного дохода. Гарантия базового дохода вне зависимости от того, работает человек или нет. Подобного рода доход будет возможен благодаря налогообложению роботизации и повышению эффективности функционирования экономики, основанной на технологиях искусственного интеллекта, в целом.
Стремительное развитие технологий искусственного интеллекта связано с громадным количество рисков, многие из которых могут не только привести к большим гуманитарным катастрофам, но и уничтожить человечество в целом. И хотя значительные положительные изменения всегда связаны с болезненным переходным периодом, данная ситуация отличается крайне высокой опасностью угроз, исходящих от неправильного применения появляющихся перед нами возможностей. Однако в данной статье мы не описывали положительный эффект, который можно получить при грамотном использовании ИИ, а он громаден. Поэтому сегодня перед человечеством стоит очень интересная и жизненно важная миссия, заключающаяся не в отказе от технологического развития, а в обеспечении плавного и максимально безопасного внедрения и использования разработок в области искусственного интеллекта.
Литература
1. Цифровая экономика РФ [Текст]: Национальная программа: [утвержденная протоколом заседания президиума Совета при Президенте Российской Федерации по стратегическому развитию и национальным проектам от 4 июня 2019 г.]: №7. - Доступ из справ.-правовой системы Гарант. - Текст: электронный.
2. Artificial Intelligence: Investment Trends and Selected Industry Uses / IFB. - 2023. - Электрон. дан. - Режим доступа: https://www.ifc.org/wps/wcm/connect/7898d957-69b5-4727-9226-277e8ae28711/EMCompass-Note-71-AI-Investment-Trends.pdf?MOD=AJPERES&CVID=mR5Jvd6 (дата обращения: 20.05.2023).
3. Key use cases of computer vision in the defence industry [Электронный ресурс] / Early Metrics. - 2023. - Электрон. дан. - Режим доступа: https://earlymetrics.com/key-use-cases-of-computer-vision-in-the-defence-industry/ (дата обращения: 20.05.2023).
4. Сбер отложил беспилотные автомобили на 15 лет [Электронный ресурс] / Роем. - 2023. - Электрон. дан. - Режим доступа: https://roem.ru/10-02-2021/284902/sber-bespilotnye-avtomobili/ (дата обращения: 20.05.2023).
5. Microsoft официально извинилась за поведение чатбота Tay [Электронный ресурс] / Хабр. - 2023. - Электрон. дан. - Режим доступа: https://habr.com/ru/articles/392215/ (дата обращения: 20.05.2023).
6. Дрон Пентагона решил убить своего оператора во время испытаний [Электронный ресурс] / РБК. - 2023. - Электрон. дан. - Режим доступа: https://www.rbc.ru/rbcfreenews/64798bec9a79473d10277294 (дата обращения: 20.05.2023).
7. В США объявлена крупнейшая за последние 15 лет забастовка голливудских сценаристов [Электронный ресурс] / Forbes. - 2023. - Электрон. дан. - Режим доступа: https://www.forbes.ru/forbeslife/488675-v-ssa-ob-avlena-
krupnejsaa-za-poslednie-15-let-zabastovka-gollivudskih-scenaristov (дата обращения: 20.05.2023).
8. A future that works: automation, employment, and productivity / McKinsey&Company. - 2023. - Электрон. дан. - Режим доступа: https://www.mckinsey.com/~/media/mckinsey/featured%20insight s/Digital%20Disruption/Harnessing%20automation%20for%20a% 20future%20that%20works/MGI-A-future-that-works-Executive-summary.ashx (дата обращения: 20.05.2023).
9. Bloomberg сообщил о сложностях Amazon и Google при сокращении сотрудников в Европе / Forbes. - 2023. - Электрон. дан. - Режим доступа: https://www.forbes.ru/tekhnologii/487268-bloomberg-soobsil-o-sloznostah-amazon-i-google-pri-sokrasenii-sotrudnikov-v-evrope (дата обращения: 20.05.2023).
Analysis of key problems and threats of the rapid development of artificial
intelligence technologies Matinyan S.G., Albert E.S.
Plekhanov Russian University of Economics
JEL classification: C10, C50, C60, C61, C80, C87, C90_
The article is devoted to the analysis of key problems and threats, the emergence of which is associated with the rapid development of artificial intelligence technologies. The authors provide a classification of a wide range of technological solutions, united under the general concept of artificial intelligence, and analyze the impact of each of them on those areas of human life that they can have the greatest negative impact on. The impact of the development of AI technologies on the labor market and related issues of social equality are highlighted and analyzed. In addition, ethical issues are considered related both to the goals of using new technologies and to specific approaches to the implementation of scenarios for the operation of automated systems, which are based on the use of artificial intelligence technologies based on opaque algorithms. The analysis is supported by the analysis of many practical examples from the experience of multinational companies. The most realistic proposals for leveling the described negative effect in the considered areas of AI application are given.
Keywords; artificial intelligence; machine learning; RPA; unemployment; digital
economy; information technology; guaranteed income. References
1. Digital Economy of the Russian Federation [Text]: National Program: [approved by
the minutes of the meeting of the Presidium of the Council under the President of the Russian Federation for Strategic Development and National Projects dated June 4, 2019]: No. 7. - Access from the legal system Guarantor. - Text electronic.
2. Artificial Intelligence: Investment Trends and Selected Industry Uses / IFB. - 2023.
- Electron. Dan. - Access mode: https://www.ifc.org/wps/wcm/connect/7898d957-69b5-4727-9226-277e8ae28711/EMCompass-Note-71-AI-Investment-Trends.pdf?MOD=AJPERES&CVID=mR5Jvd6 ( date of access: 20.05.2023).
3. Key use cases of computer vision in the defense industry [Electronic resource] /
Early Metrics. - 2023. - Electron. Dan. - Access Mode: https://earlymetrics.com/key-use-cases-of-computer-vision-in-the-defence-industry/ (Accessed 20.05.2023).
4. Sberbank postponed unmanned vehicles for 15 years [Electronic resource] / Roem.
- 2023. - Electron. Dan. - Access mode: https://roem.ru/10-02-2021/284902/sber-bespilotnye-avtomobili/ (date of access: 05/20/2023).
5. Microsoft officially apologized for the behavior of the Tay chatbot [Electronic
resource] / Sudo Null IT News - 2023. - Electron. Dan. - Access mode: https://habr.com/ru/articles/392215/ (date of access: 05/20/2023).
6. Pentagon drone decided to kill its operator during testing [Electronic resource] /
RBC. - 2023. - Electron. Dan. - Access mode: https://www.rbc.ru/rbcfreenews/64798bec9a79473d10277294 (date of access: 05/20/2023).
7. The largest strike of Hollywood screenwriters in the last 15 years has been
announced in the United States [Electronic resource] / Forbes. - 2023. - Electron. Dan. - Access mode: https://www.forbes.ru/forbeslife/488675-v-ssa-ob-avlena-krupnejsaa-za-poslednie-15-let-zabastovka-gollivudskih-scenaristov (date of access: 05/20/2023).
8. A future that works: automation, employment, and productivity / McKinsey&Company. - 2023. - Electron. Dan. - Access mode: https://www.mckinsey.com/~/media/mckinsey/featured%20insights/Digital%20D isruption/Harnessing%20automation%20for%20a%20future%20that%20works/ MGI-A-future-that- works-executive-summary.ashx (accessed 05/20/2023).
9. Bloomberg reported on the difficulties of Amazon and Google in reducing staff in
Europe / Forbes. - 2023. - Electron. Dan. - Access mode: https://www.forbes.ru/tekhnologii/487268-bloomberg-soobsil-o-sloznostah-amazon-i-google-pri-sokrasenii-sotrudnikov-v-evrope (date of access: 05/20/2023).
X X О го А С.
X
го m
о
2 О
м
CJ