Научная статья на тему 'ТЕХНОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИРОВОЙ ОПЫТ РАЗВИТИЯ'

ТЕХНОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИРОВОЙ ОПЫТ РАЗВИТИЯ Текст научной статьи по специальности «Право»

CC BY
513
108
i Надоели баннеры? Вы всегда можете отключить рекламу.
Журнал
Baikal Research Journal
ВАК
Область наук
Ключевые слова
АВТОНОМНОЕ ОРУЖИЕ / ДАННЫЕ / ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ / ПЕРСОНАЛЬНЫЕ ДАННЫЕ / ПРАВОВОЕ РЕГУЛИРОВАНИЕ / РОБОТ / РОБОТОТЕХНИКА / СВЕРХИНТЕЛЛЕКТ / ЦЕНТР КОМПЕТЕНЦИЙ / ЦИФРОВЫЕ ТЕХНОЛОГИИ / ЭТИКА ДАННЫХ / ЭТИЧНОСТЬ

Аннотация научной статьи по праву, автор научной работы — Бегишев Ильдар Рустамович

Представители отрасли развития и применения технологий искусственного интеллекта все больше осознают как возможности, так и риски, связанные с использованием ИИ. Тем не менее, в обществе отсутствует консенсус в отношении процессов контроля и надзора, которые следует ввести для обеспечения надежного развертывания систем ИИ. В целом можно констатировать, что по мере увеличения числа систем с искусственным интеллектом, обрабатывающих персональные данные граждан, все активнее ставится вопрос об этичности их использования в различных целях. Без формирования этических основ применения систем с искусственным интеллектом и принципов обработки персональных данных, используемых при их обработке, дальнейший прогресс невозможен. Общественные правовые институты уже активно участвуют в этическом регулировании искусственного интеллекта. При этом необходимо также помнить, что чрезмерные ограничения на доступ к данным могут замедлить развитие технологий искусственного интеллекта, на что неустанно обращают внимание технологические гиганты. Продуманная правовая база в сфере технологий искусственного интеллекта и ее применение позволят поддерживать баланс регулирования объема и степени анонимности личных данных без наложения многочисленных запретов. Но такое законодательство, к сожалению, еще не создано ни в одном государстве мира.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

ARTIFICIAL INTELLIGENCE TECHNOLOGY: GLOBAL EXPERIENCE OF ITS DEVELOPMENT

Representatives of the industry of development and application of artificial intelligence technologies are increasingly aware of both the opportunities and risks associated with the use of AI. However, there is no consensus in society on the control and oversight processes that should be introduced to ensure safe deployment of AI systems. In general, it can be stated that as the number of systems with artificial intelligence that process citizens' personal data increases, the issue of the ethics of their use for various purposes is increasingly coming up. Further progress is impossible without forming the ethical basis for the use of artificial intelligence systems and the principles of processing personal data. Public legal institutions are already actively involved in the ethical regulation of artificial intelligence. However, we should also remember that excessive restrictions on access to data can slow down the development of artificial intelligence technologies, which the tech giants constantly pay attention to. A well-thought-out legal framework in the field of artificial intelligence technologies and its application will allow maintaining a balance between regulating the volume and degree of anonymity of personal data without imposing numerous prohibitions. But such legislation, unfortunately, has not yet been created in any country of the world.

Текст научной работы на тему «ТЕХНОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИРОВОЙ ОПЫТ РАЗВИТИЯ»

УДК 349

И.Р. Бегишев

Казанский инновационный университет им. ВГ. Тимирясова (ИЭУП), г. Казань, Российская Федерация

ТЕХНОЛОГИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: МИРОВОЙ ОПЫТ РАЗВИТИЯ

АННОТАЦИЯ. Представители отрасли развития и применения технологий искусственного интеллекта все больше осознают как возможности, так и риски, связанные с использованием ИИ. Тем не менее, в обществе отсутствует консенсус в отношении процессов контроля и надзора, которые следует ввести для обеспечения надежного развертывания систем ИИ. В целом можно констатировать, что по мере увеличения числа систем с искусственным интеллектом, обрабатывающих персональные данные граждан, все активнее ставится вопрос об этичности их использования в различных целях. Без формирования этических основ применения систем с искусственным интеллектом и принципов обработки персональных данных, используемых при их обработке, дальнейший прогресс невозможен. Общественные правовые институты уже активно участвуют в этическом регулировании искусственного интеллекта. При этом необходимо также помнить, что чрезмерные ограничения на доступ к данным могут замедлить развитие технологий искусственного интеллекта, на что неустанно обращают внимание технологические гиганты. Продуманная правовая база в сфере технологий искусственного интеллекта и ее применение позволят поддерживать баланс регулирования объема и степени анонимности личных данных без наложения многочисленных запретов. Но такое законодательство, к сожалению, еще не создано ни в одном государстве мира.

КЛЮЧЕВЫЕ СЛОВА. Автономное оружие, данные, искусственный интеллект, персональные данные, правовое регулирование, робот, робототехника, сверхинтеллект, центр компетенций, цифровые технологии, этика данных, этичность. ИНФОРМАЦИЯ О СТАТЬЕ. Дата поступления 13 сентября 2020 г., дата принятия к печати 5 ноября 2020 г., дата онлайн-размещения 7 декабря 2020 г.

I.R. Begishev

Kazan Innovative University named after V.G. Timiryasov (IEML), Kazan, the Russian Federation

ARTIFICIAL INTELLIGENCE TECHNOLOGY: GLOBAL EXPERIENCE

OF ITS DEVELOPMENT

ABSTRACT. Representatives of the industry of development and application of artificial intelligence technologies are increasingly aware of both the opportunities and risks associated with the use of AI. However, there is no consensus in society on the control and oversight processes that should be introduced to ensure safe deployment of AI systems. In general, it can be stated that as the number of systems with artificial intelligence that process citizens' personal data increases, the issue of the ethics of their use for various purposes is increasingly coming up. Further progress is impossible without forming the ethical basis for the use of artificial intelligence systems and the principles of processing personal data. Public legal institutions are already actively involved in the ethical regulation of artificial intelligence. However, we should also remember that excessive restrictions on access to data can slow down the development of artificial intelligence technologies, which the tech giants constantly pay attention to. A well-thought-out legal framework in the field of artificial intelligence technologies and its application will allow maintaining a balance between regulating the volume and degree of anonymity of personal data without imposing

© Бегишев И.Р., 2020

numerous prohibitions. But such legislation, unfortunately, has not yet been created in any country of the world.

KEYWORDS. Autonomous weapons, data, artificial intelligence, personal data, legal regulation, robot, robotics, superintelligence, competence center, digital technologies, data ethics, ethics.

ARTICLE INFO. Received September 13, 2020, accepted November 5, 2020, available online December 7, 2020.

За последнее десятилетие искусственный интеллект (далее — ИИ) превратился в двигатель программного обеспечения, который движет четвертой промышленной революцией, технологической силой, влияющей на все отрасли экономики.

Сервисы на базе ИИ уже применяются для создания более персонализированных покупок, повышения производительности и эффективности труда. Этот прогресс примечателен во всех отношениях, но он также создает и проблемы. Без контроля и надзора ИИ может воспроизводить или даже усугублять человеческие предубеждения или приводить к другим непредвиденным последствиям. Это особенно важно, когда ИИ применяется в сферах с высокой ответственностью, таких как правосудие, здравоохранение или банковское дело.

Представители отрасли развития и применения технологий искусственного интеллекта все больше осознают как возможности, так и риски, связанные с использованием ИИ. Тем не менее, в обществе отсутствует консенсус в отношении процессов контроля и надзора, которые следует ввести для обеспечения надежного развертывания систем ИИ.

Эти трудности в значительной степени связаны с тем, как работают системы глубокого обучения ИИ, где классификация шаблонов с использованием нейронных сетей, которые могут содержать сотни миллионов параметров, могут приводить к непрозрачным и неинтуитивным процессам принятия решений. Это чрезвычайно затрудняет обнаружение ошибок или несоответствий.

Для обучения систем с ИИ используется огромный массив данных, сбор которых возможен только при помощи технологий сбора и обработки данных, поэтому на взаимосвязи между ИИ и данными приходится почти 100 %. Главный вопрос сегодня: как использовать максимум данных с минимальными рисками?

Технологии ИИ могут анализировать огромные массивы данных и находить сложные и глубоко скрытые взаимосвязи. Однако, на сегодняшний день остается много вопросов об этичности использования данных, в том числе персональных, для обучения технологий с ИИ, применяемых в бизнесе [1].

Этические проблемы, связанные с использованием ИИ, можно разделить на 3 группы:

1. Проблемы, связанные со сбором, анализом и обработкой цифровых данных.

2. Проблемы, связанные с принятием решений ИИ на основе обобщенных данных.

3. Проблема создания сверхинтеллекта, неподконтрольного человечеству и принимающего решения вразрез общечеловеческой этике и морали.

Этические трудности вызваны прежде всего сбором, анализом и обработкой цифровых данных граждан, Big Data, социальных и личных данных.

Этика данных развивается и становится все более актуальной, о чем свидетельствуют соответствующие документы как общественных объединений, так и международных организаций. Определение границ этического доступа к данным является сложной проблемой, которая затрагивает различные заинтересованные стороны: граждан, государство, бизнес-корпорации, государственные учреждения и т.д. и требует комплексного решения [2].

Этика данных как своего рода прикладная этика появилась сравнительно недавно и пока не имеет общепринятого определения. Этика данных — это новая ветвь прикладной этики, которая описывает ценностные суждения и подходы, которые мы используем при генерировании, анализе и распространении данных. Она включает в себя глубокое знание законодательства о защите данных и другого соответствующего законодательства, а также надлежащее использование цифровых технологий, что требует целостного подхода в применении передовой практики в области вычислительной техники, этики и обеспечения информации1.

Благодаря сбору и анализу больших данных и использованием ИИ, технологические гиганты способны выстраивать корреляции, которые сами люди еще не могут определить [3].

В этой связи возникает также вопрос о сохранении баланса между обеспечением права на защиту персональных данных и интересами науки, бизнеса и общества в целом, заинтересованном в широком применении технологий с ИИ. В ряде стран на сегодняшний день наблюдается ожесточенная полемика между использованием правительственными (и не только) организациями персональных данных граждан для обеспечения общественной безопасности, обучения систем с ИИ и обеспечением права на неприкосновенность частной жизни.

По мнению ряда экспертов, тотальная слежка вызывает больше опасений, чем все против чего она должна была бы защищать нас. Ставятся вопросы об этичности использования систем с ИИ для контроля за социально одобряемым поведением. Например, правительство КНР использует ИИ для создания социального рейтинга, при этом используется вся информация о пользователе в сети: его поведение, покупки, кредитная история, передвижения, круг общения, интересы.

Основу Европейского законодательства с 2018 г. составляет Общий регламент по защите данных (GDPR)2. Основная цель принятия регламента — это создание в обществе правового режима, в рамках которого любой гражданин может быть уверен в конфиденциальности его персональных данных, в том числе иметь возможность реагировать на случаи использования его персональных данных без согласия — удалять размещенную информацию.

Вместе с тем, даже не смотря на принимаемые меры, в сети остается большое количество информации, которое при необходимой степени обработки, позволяет идентифицировать человека. Так, используя компьютер, смартфоны с мобильными приложениями большинство без раздумья дает согласие на использование смартфоном данных о геолокации и геопозиционировании, доступ к телефонной книге и звонкам, к поисковым запросам и истории поиска, к фотоабольмам и пр. И тезис о том, что наши данные стали продуктом, стал как никогда актуальным. Львиная доля наиболее технологических компаний мира пользуются бизнес моделью, в основе которой лежит сбор и обработка персональных данных пользователей. И здесь на повестку дня встает вопрос об этичности не только сбора такой информации, но и их использования.

Так, вторая проблема связана с этикой и гуманностью решений ИИ.

Опыт последних лет показывает, что обучающих тренировок систем ИИ недостаточно, к тому же, несмотря на отсутствие у них чувств и эмоций, их нельзя признать беспристрастными и этичными по ряду причин.

Во-первых, само понятие этичности является весьма условным, и может значительно отличаться в рамках одного общества и поколения, не говоря уже более длительных временных промежутках.

1 Data Ethics Framework // Government Digital Service. URL: https://www.gov.uk/government/ publications/data-ethics-framework/data-ethics-framework.

2 General Data Protection Regulation // Intersoft Conculting. URL: https://gdpr-info.eu/.

Во-вторых, уровень «предвзятости, чистоты и релевантности» используемых для обучения ИИ данных. Представляется крайне маловероятным, даже невероятным, найти в обществе достаточно большую группу людей с нулевым уровнем предвзятости, для возможности использования их данных для обучения ИИ. В результате, мы имеем случаи дискриминации ИИ людей по расовому или половому признаку. Несомненно, программисты и крупные компании стараются немедленно устранить такие проявления «расизма, шовинизма или ксенофобии ИИ».

Возможно, машина, которая способна к самообучению будет использовать неэтичные и аморальные данные при обучении. Не факт, что она не будет это реализовать в повседневной жизни человека, и делать не принятые в том или ином обществе вещи, которые допускаются, скажем так, в иных сообществах людей [4].

В своем исследовании PwC рассказали о том, как подготовить данные для обучения ИИ, извлечь из технологии максимальную прибыль и не потерять доверие клиентов. По мнению аналитиков, лучшая основа для внедрения ИИ — это центр компетенций по ИИ. Бизнес сообщество должно следить за соблюдением общих процедур по работе с данными. Однако, стремительное развитие и использование технологий с ИИ делает такой контроль практически невозможным.

В указанных условиях перед экспертным сообществом возникла необходимость создания определенных границ и пределов для разработчиков и эксплу-атантов ИИ, что стало катализатором становления саморегулирования отрасли.

Этические риски и проблемы, связанные с созданием сверхинтеллекта, неподконтрольного человечеству и принимающего решения вразрез общечеловеческой этике и морали, будут оставаться всегда актуальными.

Экспертное сообщество в своем роде стало первым инициатором разработки определенных рамок для регулирования быстро растущей отрасли. Первые инициативы появились еще в 2001 г., когда Японской ассоциацией робототехники (Japan Robotics Association, JARA) был подготовлен краткий отчет для разработки правительственного программы «Робототехническое общество в XXI веке»3. Примечательно, что в данном документе были определены ключевые направления деятельности для вендорных компаний, непосредственно разработчиков ИИ, правительственных и государственных органов управления, а также научно-исследовательских организаций.

В 2017 г. разработаны и приняты по итогам конференции разработчиков и исследователей в сфере ИИ — Bénéficiai AI 2017, прошедшей в январе 2017 г. в Кон-ференц-Центре, расположенном на территории государственного парка-пляжа Ази-ломар в г. Пасифик Гроув (штат Калифорния, США) Азиломарские принципы ИИ4.

В документе говорится, что «суперинтеллект должен разрабатываться только для служения широко разделяемым этическим идеалам и на благо всего человечества, а не одного государства или организации».

Примечательно, что под Принципами поставили свои подписи не только ученые, озабоченные проблемами этики и морали, например, С. Хокинг и Р. Кур-цвейл, но и эксперты в сфере IT, а также крупнейшие IT-предприниматели, такие как И. Маск и Б. Гейтс [5], чьи компании активно инвестируют в разработку и развитие ИИ.

Азиломарские принципы легли в основу этических аспектов, прописанных в Монреальской декларации ответственного ИИ, принятой в декабре 2018 г.5 Прин-

3 Summary Report on Technology Strategy for Creating a «Robot Society» in the 21st Century // Japan Robot Association. URL: https://www.jara.jp/e/news/2001/dl/report0105.pdf.

4 Asilomar AI Principles // Future of Life Institute. URL: https://futureoflife.org/ai-principles/.

5 The Montrfial Declaration for a Responsible Development of Artificial Intelligence // Universitfi de Montrfial. URL: https://www.montrealdeclaration-responsibleai.com/.

ципы ответственности при разработке продвинутых систем ИИ, конфиденциальности личных данных, свободы и неприкосновенности частной жизни, а также безопасности лежат в основе указанных этических меморандумов и ряда иных частных инициатив.

В указанную группу также входят инициативы по созданию этических принципов для разрабатываемых ИИ [5].

В 2018 г. в книге «Вычисляемое будущее: ИИ и его роль в обществе» компания Microsoft формирует представление о том, куда движется технология ИИ, и о новых социальных проблемах, которые она поднимает — обеспечение ответственного проектирования и использования ИИ, установление этических принципов для защиты людей и влияние ИИ на занятость и рабочие места. Принципы справедливости, надежности и безопасности, конфиденциальности и сохранности персональных данных, инклюзивности, прозрачности и подотчетности имеют решающее значение для устранения социальных последствий ИИ и укрепления доверия, поскольку ИИ становится все более и более важной частью продуктов и услуг, которые люди каждый день используют на работе и дома [6].

В ответ на возникающие угрозы С. Пичаи предлагает придерживаться фундаментальных, общечеловеческих ценностей в вопросе регулирования ИИ6. Особого внимания при этом заслуживают вопросы международно-правового регулирования, а точнее необходимость консолидации позиций международного сообщества по вопросам регулирования ИИ.

Компания Google, в свою очередь, также разработала свои принципы ИИ, во многом тождественные ранее упомянутым. Однако, Google выделены также ограничивающие принципы, такие как отказ от участия в разработке ИИ, способного нанести непоправимый ущерб человечеству7.

Не смотря на активную разработку этических основ применения ИИ, техно гиганты остаются крупнейшими представителями IT-бизнеса, и их интерес к технологиям обусловлен, в первую очередь, преимуществами для роста экономического благосостояния и прибыли, которые открываются благодаря внедрению ИИ. И озабоченность вопросами регулирования является следствием опасения того, что выбранные правительствами пути регулирования ИИ (в том числе, самый ограничительный сценарий) затормозят развитие и создадут риск упущенных возможностей для экономического роста.

Еще одна глобальная корпорация — IBM, также занимается активно занимается разработкой подходов к регулированию ИИ. При этом во главу угла компанией ставится принцип открытости, позволяющий пользователем самостоятельно удостовериться в справедливости и беспристрастности систем ИИ: «IBM даст понять: когда и для каких целей применяется ИИ. Основные источники данных и экспертных знаний, а также методы, используемые для обучения систем и решений ИИ» 8. Компания IBM также предлагается модель регулирования рисков, предполагающая ответственность разрабатываемых ИИ систем и продуктов: «Технологические компании должны четко представлять себе, кто обучает их системы ИИ, какие данные использовались в этом обучении и, самое главное, что входит в рекомендации их алгоритма. Если мы хотим использовать ИИ для принятия важных решений, это должно быть объяснимо. Хотя предвзятость никогда не может быть полностью устранена, мы и все компании, продвигающие ИИ, обязаны ре-

6 Why Google thinks we need to regulate AI // Financial Times. URL: https://www.ft.com/ content/3467659a-386d-11ea-ac3c-f68c10993b04.

7 Там же.

8 IBM's Principles for Trust and Transparency // IBM. URL: https://www.ibm.com/blogs/policy/ wp-content/uploads/2018/05/IBM_Principles_OnePage.pdf.

шать ее проактивно. Поэтому мы постоянно тестируем наши системы и находим новые наборы данных, чтобы лучше согласовать их результаты с человеческими ценностями и ожиданиями»9. Компанией также, как и другими техногигантами, декларируется поддержка и приверженность Принципам ИИ, разработанным организацией экономического сотрудничества и развития10.

В 2018 г. в Нью-Йорке был принят закон, направленный на предотвращение дискриминации посредством алгоритмов, используемых государственными службами. Он стал основой для создания общественной группы экспертов, проводящих анализ правовых и этических аспектов работы городских систем автоматизированного принятия решений, а также введения в штат мэрии города должности сотрудника, занимающегося борьбой с предвзятостями в алгоритмах и повышением ответственности за принимаемые ими решения11.

К примеру, социальная сеть Facebook заключила соглашение с Техническим университетом Мюнхена (TUM) для создания независимого исследовательского центра по этике в сфере ИИ. Предпосылкой к проведению исследования стали обвинения в предвзятости алгоритмов Facebook, которые отвечают за формирование ленты новостей пользователей и фильтрацию контента. Для проведения исследования компания предоставит исследователям доступ к своим алгоритмам ИИ12. Проведение столь масштабного исследования предопределяется также желанием компании расширить внедрение ИИ в свои продукты.

Экспертное сообщество нередко выступает инициатором не только создания этических и иных принципов разработки ИИ, но и сторонником запрета развития и использования определенных технологий, видя в них угрозу для всего человечества. Например, в 2018 г. группа экспертов и разработчиков наряду с основателем Tesla Inc. и Space X И. Маском направила в ООН открытое письмо, в котором выступила с призывом запретить автономное летательное оружие13.

К сожалению, инициатива пока не нашла отклика у членов Совета безопасности ООН ввиду того, что большая часть из них обладают развитой военной промышленностью.

Существует и противоположная точка зрения. Так, Р.И. Дремлюга обосновывает необходимость не запрещать автономное оружие, а выработать правила его использования и участия человека в его функционировании [7].

В целом можно констатировать, что по мере увеличения числа систем с ИИ, обрабатывающих персональные данные граждан, все активнее ставится вопрос об этичности их использования в различных целях, в том числе коммерческих. Этику ИИ можно выделить в качестве нового самостоятельного направления этики данных. Без формирования этических основ применения систем с ИИ и принципов обработки персональных данных, используемых при их обработке, дальнейший прогресс невозможен. Общественные правовые институты уже активно участвуют в этическом регулировании ИИ. При этом необходимо также помнить, что чрезмерные ограничения на доступ к данным могут замедлить развитие технологий ИИ, на что неустанно обращают внимание технологические гиганты.

9 IBM's Principles for Trust and Transparency // IBM. URL: https://www.ibm.com/blogs/policy/ wp-content/uploads/2018/05/IBM_Principles_OnePage.pdf.

10 Recommendation of the Council on Artificial Intelligence // Organisation for Economic Cooperation and Development. URL: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.

11 New York City Automated Decision Systems Task Force // City of New York. URL: https:// www1.nyc.gov/site/adstaskforce/index.page.

12 Facebook выделит $7,5 млн на исследования этичности ИИ // Ihodl. URL: https://ru.ihodl. com/topnews/2019-01-21/facebook-vydelit-75-mln-na-issledovaniya-etichnosti-ii/.

13 An Open Letter to the United Nations Convention on Certain Conventional Weapons // Future of Life Institute. URL: https://futureoflife.org/autonomous-weapons-open-letter-2017.

Представляется, что разработка этических правил взаимодействия человека с ИИ должна осуществляться на уровне профессиональных объединений и союзов, иных субъектов гражданского общества. Этическое регулирование в данной сфере не может ограничиваться только лишь рекомендациями по разработке этических стандартов субъектами, использующими ИИ. Необходима разработка единых, централизованных этических правил, которые могли бы дополняться в рамках конкретных направлений использования тех или иных технологий ИИ [8].

На наш взгляд, интеграция этических принципов должна регулироваться национальными или международными организациями. Отметим, что указанная сфера стала ключевой в повестке для обсуждения на мировых аренах. Важно соблюсти баланс между интересами частного лица и бизнеса. Создание цифровой экономики предполагает построение системы, реализующей решение полного спектра задач, связанных с управлением социально-экономическими процессами с использованием робототехники и ИИ, в том числе с учетом ключевого принципа общественного развития «что не запрещено — дозволено» [9].

Причем, что одна из главных задач формирования правовой базы в сфере технологий ИИ — обеспечение баланса интересов всех субъектов, участвующих в процессе создания и внедрения ИИ [10]. Продуманное законодательство и его применение позволят поддерживать баланс регулирования объема и степени анонимности личных данных без наложения многочисленных запретов [11—13]. Но такое законодательство, к сожалению, еще не создано ни в одном государстве мира.

Отметим, что указанная сфера в ближайшие годы станет основной для обсуждения на мировых аренах14. В ряде стран уже приняты отдельные акты, направленные на создание специального правового режима для внедрения технологий ИИ.

14 Report of COMEST on Robotics Ethics / World Commission on the Ethics of Scientific Knowledge and Technology // UNESCO Digital Library. URL: https://unesdoc.unesco.org/ark:/48223/ pf0000253952.

Список использованной литературы

1. Sidorenko E.L. The Main Ethical Risks of Using Artificial Intelligence in Business / E.L. Sidorenko, Z.I. Khisamova, U.E. Monastyrsky. — DOI 10.1007/978-3-030-47458-4_51 // Current Achievements, Challenges and Digital Chances of Knowledge Based Economy / ed. S. Ashmarina, V. Mantulenko. — Cham : Springer, 2020. — P. 423-429.

2. Lee M. Issues in Contemporary Ethics: AI Warfare / M. Lee, L. Cochrane. — Ottawa : Carleton University, 2020. — 5 p.

3. Saariluoma P. Designing Ethical AI in the Shadow of Hume's Guillotine / P. Saariluo-ma, J. Leikas. — DOI 10.1007/978-3-030-39512-4_92 // Intelligent Human Systems Integration 2020 : Proceedings of the 3rd International Conference on Intelligent Human Systems Integration (IHSI 2020): Integrating People and Intelligent Systems / ed. T. Ahram, W. Kar-wowski, A. Vergnano [et. al.]. — Cham : Springer, 2020. — P. 423-429.

4. Серобян Г.А. Этико-правовые проблемы использования систем искусственного интеллекта / Г.А. Серобян, А.А. Яковенко // Теология. Философия. Право. — 2018. — № 4 (8). — С. 42-50.

5. Хисамова З.И. Правовое регулирование искусственного интеллекта / З.И. Хисамо-ва, И.Р. Бегишев. — DOI 10.17150/2411-6262.2019.10(2).19 // Baikal Research Journal. — 2019. — Т. 10, № 2. — URL: http://brj-bguep.ru/reader/article.aspx?id=23011.

6. Smith B. The Future Computed: Artificial Intelligence and Its Role in Society / B. Smith, H. Shum. — Washington : Microsoft Corporation, 2018. — 143 p.

7. Дремлюга Р.И. Использование автономного оружия с позиции принципов международного гуманитарного права / Р.И. Дремлюга // Advances in Law Studies. — 2020. — Т. 8, № S5. — С. 64-71.

8. Минбалеев А.В. Регулирование использования искусственного интеллекта в России / А.В. Минбалеев // Информационное право. — 2020. — № 1. — С. 36-39.

9. Степанов О. А. Ключевой принцип общественного развития «что не запрещено — дозволено» в эпоху искусственного интеллекта / О.А. Степанов // Современное право. — 2020. — № 6. — С. 57-60.

10. Серобян Г.А. Правовое регулирование систем искусственного интеллекта: за или против / Г.А. Серобян // Право и государство: теория и практика. — 2019. — № 10 (178). — С. 89-91.

11. Khisamova Z.I. Artificial Intelligence and Problems of Ensuring Cyber Security / Z.I. Khisamova, I.R. Begishev, E.L. Sidorenko // International Journal of Cyber Criminology. — 2019. — Vol. 13, iss. 2. — P. 564-577.

12. Бегишев И.Р. Искусственный интеллект как правовая категория: доктринальный подход к разработке дефиниции / И.Р. Бегишев, Э.Ю. Латыпова, Д.В. Кирпичников // Актуальные проблемы экономики и права. — 2020. — Т. 14, № 1. — С. 79-91.

13. Khisamova Z.I. On Methods to Legal Regulation of Artificial Intelligence in the World / Z.I. Khisamova, I.R. Begishev, R.R. Gaifutdinov // International Journal of Innovative Technology and Exploring Engineering. — 2019. — Vol. 9, iss. 1. — P. 5159-5162.

References

1. Sidorenko E.L., Khisamova Z.I., Monastyrsky U.E. The Main Ethical Risks of Using Artificial Intelligence in Business. In Ashmarina S., Mantulenko V. (eds). Current Achievements, Challenges and Digital Chances of Knowledge Based Economy. Cham, Springer, 2020, pp. 423-429. DOI: 10.1007/978-3-030-47458-4_51.

2. Lee M., Cochrane L. Issues in Contemporary Ethics: AI Warfare. Ottawa, Carleton University, 2020. 5 p.

3. Saariluoma P., Leikas J. Designing Ethical AI in the Shadow of Hume's Guillotine. In Ahram T., Karwowski W., Vergnano A., Leali F., Taiar R. (eds). Intelligent Human Systems Integration 2020. Proceedings of the 3rd International Conference on Intelligent Human Systems Integration (IHSI 2020): Integrating People and Intelligent Systems. Cham, Springer, 2020, pp. 423-429.

4. Serobyan G.A., Yakovenko A.A. Ethical-Legal Problems of Using an Artificial Intelligence Systems. Teologiya. Filosofiya. Pravo = Theology. Philosophy. Law, 2018, no. 4 (8), pp. 42-50. (In Russian).

5. Khisamova Z.I., Begishev I.R. Legal Regulation of Artificial Intelligence. Baikal Research Journal, 2019, vol. 10, no. 2. DOI: 10.17150/2411-6262.2019.10(2).19. Available at: http://brj-bguep.ru/reader/article.aspx?id=23011. (In Russian).

6. Smith B., Shum H. The Future Computed: Artificial Intelligence and Its Role in Society. Washington, Microsoft Corporation, 2018. 143 p.

7. Dremliuga R.I. The Use of Autonomous Weapons from the Perspective of the Principles of International Humanitarian Law. Advances in Law Studies, 2020, vol. 8, no. S5, pp. 64-71. (In Russian).

8. Minbaleev A.V. Regulation of the Artificial Intelligence Use in Russia. Informatsionnoe pravo = Information Law, 2020, no. 1. pp. 36-39. (In Russian).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

9. Stepanov O.A. The Key Principle of Social Development «What is not Prohibited is Allowed» in the Era of Artificial Intelligence. Sovremennoe pravo = Modern law, 2020, no. 6, pp. 57-60. (In Russian).

10. Serobian G.A. Legal Regulation of Artificial Intelligence Systems: for or Against. Pravo i gosudarstvo: teoriya i praktika = Law and State: The Theory and Practice, 2019, no. 10 (178), pp. 89-91. (In Russian).

11. Khisamova Z.I., Begishev I.R., Sidorenko E.L. Artificial Intelligence and Problems of Ensuring Cyber Security. International Journal of Cyber Criminology, 2019, vol. 13, iss. 2, pp. 564-577.

12. Begishev I.R., Latypova E.Yu., Kirpichnikov D.V. Artificial Intelligence as a Legal Category: Doctrinal Approach to Formulating a Definition. Aktual'niye problemy ekonomiki i prava = Actual Problems of Economics and Law, 2020, vol. 14, no. 1, pp. 79-91. (In Russian).

13. Khisamova Z.I., Begishev I.R., Gaifutdinov R.R. On Methods to Legal Regulation of Artificial Intelligence in the World. International Journal of Innovative Technology and Exploring Engineering, 2019, vol. 9, iss. 1, pp. 5159-5162.

Информация об авторе

Бегишев Ильдар Рустамович — кандидат юридических наук, заслуженный юрист Республики Татарстан, старший научный сотрудник, Казанский инновационный университет им. В.Г. Тимирясова (ИЭУП), Российская Федерация, г. Казань, e-mail: begishev@mail.ru.

Author

Ildar R. Begishev — PhD in Law, Honored Lawyer of the Republic of Tatarstan, Senior Researcher, Kazan Innovative University named after V.G. Timiryasov (Institute of Economics, Management and Law), Kazan, Russian Federation, e-mail: begishev@mail.ru.

Для цитирования

Бегишев И.Р. Технология искусственного интеллекта: мировой опыт развития / И.Р. Бегишев. — DOI: 10.17150/2411-6262.2020.11(3).1 // Baikal Research Journal. — 2020. — Т. 11, № 3.

For Citation

Begishev I.R. Artificial Intelligence Technology: Global Experience of Its Development. Baikal Research Journal, 2020, vol. 11, no. 3. DOI: 10.17150/2411-6262.2020.11(3).1.

i Надоели баннеры? Вы всегда можете отключить рекламу.