Научная статья на тему 'Институциональные аспекты использования искусственного интеллекта в высшем образовании и науке: роль и значение комплаенса'

Институциональные аспекты использования искусственного интеллекта в высшем образовании и науке: роль и значение комплаенса Текст научной статьи по специальности «Право»

CC BY
22
6
i Надоели баннеры? Вы всегда можете отключить рекламу.
Область наук
Ключевые слова
искусственный интеллект / большие генеративные модели / нейросети в образовании / новая этика / риски искусственного интеллекта / artificial intelligence / large generative models / neural networks in education / new ethics / risks of artificial intelligence

Аннотация научной статьи по праву, автор научной работы — Наталья Вячеславовна Сущева

Цель. Сформировать подходы к институциональному регулированию и превентивному реагированию на риски, связанные с применением технологий искусственного интеллекта в организациях науки и высшего образования, на основе комплаенса. Задачи. Определить элементы комплаенс-системы, направленные на снижение рисков использования искусственного интеллекта; выявить тенденции институционального развития, связанные с интеграцией технологий генеративного искусственного интеллекта в научно-образовательные и административно-управленческие процессы. Методология. Вопросы адаптации институциональных механизмов современного высшего образования к вызовам технологического развития исследованы на основе системного, риск-ориентированного, логико-структурного подходов научного познания. Для формирования элементов комплаенс-системы искусственного интеллекта применены методы анализа, синтеза и классификации. Результаты. Концепция комплаенса искусственного интеллекта призвана расширить стратегию цифровой трансформации организаций высшего образования посредством внесения в предметную область управления новых объектов, в частности рисков технологий искусственного интеллекта, а также развития защитной, регулирующей и информационно-управленческой функций. Методология комплаенса позволяет создать организационные механизмы, обеспечивающие защиту организаций высшего образования и науки от недобросовестного поведения субъектов в сфере искусственного интеллекта. Комплаенс искусственного интеллекта в высшем образовании должен обеспечивать защиту прав и свобод человека, соблюдение правил академической честности и научной добросовестности, оценку достоверности систем искусственного интеллекта в образовательном процессе, защиту персональных данных и конфиденциальной информации, защиту авторских прав, противодействие фальсификации данных и киберпреступлениям. Выводы. Проактивное управление на основе методологии комплаенса снизит риски внедрения технологий искусственного интеллекта в деятельность вузов и поможет эффективно адаптироваться к вызовам технологического развития.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по праву , автор научной работы — Наталья Вячеславовна Сущева

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Institutional aspects of the use of artificial intelligence in higher education and science: The role and importance of compliance

Aim. To formulate approaches to institutional regulation and preventive response to risks associated with the use of artificial intelligence technologies in science and higher education organizations on the basis of compliance. Objectives. To determine the elements of compliance system aimed at reducing the risks of using artificial intelligence; to identify the trends of institutional development related to the integration of generative artificial intelligence technologies in scientific and educational and administrative and management processes. Methods. The issues of adaptation of institutional mechanisms of modern higher education to the challenges of technological development are investigated on the basis of system, riskoriented, logical and structural approaches of scientific knowledge. The methods of analysis, synthesis and classification were applied to form the elements of compliance-system of artificial intelligence. Results. The concept of artificial intelligence compliance is designed to expand the strategy of digital transformation of higher education organizations by introducing new objects into the subject area of management, in particular, the risks of artificial intelligence technologies, as well as the development of protective, regulatory and information-management functions. Methods. compliance allows to create organizational mechanisms that provide protection of higher education and science organizations from unfair behavior of subjects in the field of artificial intelligence. Artificial intelligence compliance in higher education should ensure the protection of human rights and freedoms, compliance with the rules of academic honesty and scientific integrity, assessment of the reliability of artificial intelligence systems in the educational process, protection of personal data and confidential information, copyright protection, counteraction to data falsification and cybercrime. Conclusions. Proactive management on the basis of compliance methodology will reduce the risks of implementation of artificial intelligence technologies in the activities of universities and will help to effectively adapt to the challenges of technological development.

Текст научной работы на тему «Институциональные аспекты использования искусственного интеллекта в высшем образовании и науке: роль и значение комплаенса»

Оригинальная статья I Original article

УДК 004.8:378

http://doi.org/10.35854/1998-1627-2024-8-905-913

Институциональные аспекты использования искусственного интеллекта в высшем образовании и науке: роль и значение комплаенса

Наталья Вячеславовна Сущева

Санкт-Петербургский государственный экономический университет, Санкт-Петербург, Россия, [email protected], https://orcid.org/0000-0001-8640-2817

Аннотация «и

Цель. Сформировать подходы к институциональному регулированию и превентивному реа- з гированию на риски, связанные с применением технологий искусственного интеллекта а в организациях науки и высшего образования, на основе комплаенса. ™

Задачи. Определить элементы комплаенс-системы, направленные на снижение рисков £

использования искусственного интеллекта; выявить тенденции институционального развития, 5

связанные с интеграцией технологий генеративного искусственного интеллекта в научно- |

образовательные и административно-управленческие процессы. о

о

Методология. Вопросы адаптации институциональных механизмов современного высшего * образования к вызовам технологического развития исследованы на основе системного, риск- £ ориентированного, логико-структурного подходов научного познания. Для формирования и элементов комплаенс-системы искусственного интеллекта применены методы анализа, син- * теза и классификации. ^

к

Результаты. Концепция комплаенса искусственного интеллекта призвана расширить страте- | гию цифровой трансформации организаций высшего образования посредством внесения 2

о

в предметную область управления новых объектов, в частности рисков технологий искус- 2 ственного интеллекта, а также развития защитной, регулирующей и информационно-управ- о ленческой функций. Методология комплаенса позволяет создать организационные механиз- 5 мы, обеспечивающие защиту организаций высшего образования и науки от недобросовест- 3 ного поведения субъектов в сфере искусственного интеллекта. Комплаенс искусственного £

CU

интеллекта в высшем образовании должен обеспечивать защиту прав и свобод человека, = соблюдение правил академической честности и научной добросовестности, оценку достовер- ™ ности систем искусственного интеллекта в образовательном процессе, защиту персональных | данных и конфиденциальной информации, защиту авторских прав, противодействие фаль- £ сификации данных и киберпреступлениям. S

о

Выводы. Проактивное управление на основе методологии комплаенса снизит риски внедрения технологий искусственного интеллекта в деятельность вузов и поможет эффективно ь адаптироваться к вызовам технологического развития. £

х

Ключевые слова: искусственный интеллект, большие генеративные модели, нейросети в образовании, ^с новая этика, риски искусственного интеллекта 5

ш

3

Для цитирования: Сущева Н. В. Институциональные аспекты использования искусственного интеллекта > в высшем образовании и науке: роль и значение комплаенса // Экономика и управление. 2024. Т. 30. № 8. С. 905-913. http://doi.org/10.35854/1998-1627-2024-8-905-913

© Сущева Н. В., 2024

s Institutional aspects of the use of artificial intelligence 5 in higher education and science: The role and importance of compliance

o

o Natalia V. Sushcheva

St. Petersburg State University of Economics, St. Petersburg, Russia, [email protected], https://orcid.org/0000-0001-8640-2817

Abstract

Aim. To formulate approaches to institutional regulation and preventive response to risks associated with the use of artificial intelligence technologies in science and higher education organizations on the basis of compliance.

Objectives. To determine the elements of compliance system aimed at reducing the risks of using artificial intelligence; to identify the trends of institutional development related to the integration of generative artificial intelligence technologies in scientific and educational and administrative and management processes.

Methods. The issues of adaptation of institutional mechanisms of modern higher education to the challenges of technological development are investigated on the basis of system, risk-oriented, logical and structural approaches of scientific knowledge. The methods of analysis, synthesis and classification were applied to form the elements of compliance-system of artificial intelligence.

Results. The concept of artificial intelligence compliance is designed to expand the strategy of digital transformation of higher education organizations by introducing new objects into the subject area of management, in particular, the risks of artificial intelligence technologies, as well as the development of protective, regulatory and information-management functions. Methods. compliance allows to create organizational mechanisms that provide protection of higher education and science organizations from unfair behavior of subjects in the field of artificial intelligence. Artificial intelligence compliance in higher education should ensure the protection of human rights and freedoms, compliance with the rules of academic honesty and scientific integrity, assessment of the reliability of artificial intelligence systems in the educational process, protection of personal data and confidential information, copyright protection, counteraction to data falsification and cybercrime.

Conclusions. Proactive management on the basis of compliance methodology will reduce the risks of implementation of artificial intelligence technologies in the activities of universities and will help to effectively adapt to the challenges of technological development.

Keywords: artificial intelligence, large generative models, neural networks in education, new ethics, risks of artificial intelligence

For citation: Sushcheva N.V. Institutional aspects of the use of artificial intelligence in higher education and science: The role and importance of compliance. Ekonomika i upravlenie = Economics and Management. 2024;30(8):905-913. (In Russ.). http://doi.org/10.35854/1998-1627-2024-8-905-913

Введение

Организации высшего образования и науки выступают драйверами реализации национальной стратегии инновационного развития. Их эффективное управление и устойчивое развитие выстраиваются на основе функционирования надежных институтов, обеспечивающих их защиту от оппортунистического поведения участников общественных отношений. Современные инновационные технологии активно распространяются в сфере высшего образования, изменяют не только модели управления вузами и методы передачи знаний,

но и воздействуют на онтологию образовательного процесса: изменяется жизненный цикл создания и наращивания новых знаний, преобразуются отношения «преподаватель — обучающийся», происходит новое теоретическое осмысление таких сущностных категорий, как «знание», «познание», «обучение», «творчество» [1].

В парадигму современного высшего образования давно включены такие концепции, как открытое научно-образовательное пространство, персонализированное и адаптивное обучение, сетевое образовательное взаимодействие, коммуникативная цифровая культура, геймификация обучения и ряд

других [2, с. 23]. Электронно-информационно-образовательная среда университетов преобразуется в сложную открытую информационную систему, в частности цифровую экосистему [3, с. 139], в которой присутствуют следующие компоненты: цифровые профили обучающихся и преподавателей, цифровые академические ассистенты, интеллектуальные рекомендательные системы, электронные базы знаний. Возникает вопрос о надежности и доверенности всех компонентов цифровой экосистемы, в том числе верификации и достоверности данных в системах. Эта задача неразрывно связана с пересмотром и адаптацией институциональных механизмов современного высшего образования. В частности, стремительное развитие и общедоступность больших генеративных моделей вызывали широкую дискуссию в академическом сообществе об эффективных и неприемлемых вариантах их применения в образовании и науке.

Так, обсуждают вопросы использования нейросетей для написания научных работ, оценки знаний, создания учебного контента, замены контактной работы преподавателя в пользу использования интеллектуальных симуляторов, рейтингования студентов, преподавателей и многие другие темы. Очевиден тот факт, что академическое сообщество испытывает трудности в адаптации своей деятельности к технологическим изменениям. Эти вопросы требуют научного осмысления.

Комплаенс: сущность и значение в рассматриваемой сфере

Высшая школа не успевает прогнозировать все сценарии воздействия новых технологий на учебный и научно-исследовательский процесс в долгосрочном периоде. Многие правовые и этические вопросы остаются нерешенными. Практически отсутствуют фундаментальные научные исследования, обосновывающие эффективность персонали-зации образования на базе использования технологий искусственного интеллекта (далее — ИИ), недостаточно изучена проблема влияния новых технологий на психическое и физическое состояние обучающихся и преподавателей. Все это требует углубленного изучения.

Сегодня становится понятным, что процесс цифрового развития необратим и нужно научиться жить в новой реальности. Любая

инновация может быть использована как во S

X

благо, так и во вред. Технологии ИИ могут £

кратно усилить человеческие возможности, |

но при этом их применение потенциально £

сопровождается такими кризисными явле- s

ниями, как фальсификация информации ^

и генерация ошибочных сведений, распро- х

странение запрещенной информации, на- =

л

рушение авторских прав, усиление угроз *

информационной безопасности и др. В этой а

связи обратим внимание на необходимость *

формирования системы превентивного ре- 11

s

агирования и регулирования рисков, свя- s

s

занных с применением ИИ. *

Потенциальные риски ИИ определяются о сущностным назначением данной техноло-

ю

гии, ориентированной на имитацию когнитивных функций человека, а также на по- ^ лучение результатов, сопоставимых и даже 3 превосходящих интеллектуальную деятель- m ность человека. Иными словами, техноло- " гии ИИ внутренне присущ риск подмены IS «человеческого» мышлением «машинным». £ Для сферы образования этот риск является = субстанциальным и может привести к по- о тере предназначения образования. При этом | технология ИИ, как и любая технология, Ï нейтральна. Все зависит от того, кем, как £ и для достижения каких целей она исполь- Ï зуется. £

X

В условиях объективного отставания £

развития правовой базы от научно-техно- «

логического прогресса ввиду необходимо- 5

сти времени на теоретическое осмысление £

и апробацию ограничительных барьеров, ü

фокус регулирования перемещается в эти- £

ческое поле, во всяком случае на первона- й

чальном этапе. В этой связи очень важен ъ

X

институциональный механизм, как един- £

ство формальных правил (законодательство) =

и неформальных ограничений (ценности, ï

нормы поведения, вера, культура), который ü

позволит заложить рамки регулирования ^

общественных отношений в данной сфере. s

ей

Поэтому к регулированию ИИ в органи- ^

зациях предлагаем применить категорию «

«комплаенс». Ее преимущество состоит в Ц междисциплинарности. Комплаенс

охваты- и вает правовые, управленческие и этические аспекты, позволяет учитывать человеческий фактор и поведенческие риски, регулирование которых становится необходимым при создании и использовании технологий доверенного ИИ.

Понятие комплаенса давно и широко используют в корпоративном управлении.

^ Комплаенс можно рассматривать как меха? низм внутреннего контроля организации, на-о правленный на превентивное реагирование 2 на риски разной природы. Национальная о Ассоциация Комплаенс предлагает следующее определение: «Комплаенс — система, обеспечивающая выявление и ликвидацию рисков несоответствия деятельности организаций и граждан нормам законодательства, установленным регулятивным правилам и стандартам, рисков применения юридических санкций или санкций регулирующих органов, существенного финансового убытка или потери репутации в результате несоблюдения норм, касающихся бизнес-деятельности» [4].

В зависимости от сферы нормативного регулирования в практике корпоративного управления сложились различные виды комплаенса: антимонопольный, антикоррупционный, налоговый, трудовой и др. В последнее время активно развивается ком-плаенс по защите персональных данных. По своей сути он является составной частью корпоративного управления и призван создать для организации дополнительную систему внутреннего регулирования, которая включает в себя комплекс превентивных процедур, установленных на основе законодательных, профессиональных и этических норм, организационных мер по обучению персонала.

Объектом комплаенса служит деятельность контролируемых лиц, которая может привести к непреднамеренным или умышленным правонарушениям разного рода (нарушениям законодательных норм, профессиональных стандартов, внутренних правил и этического кодекса организации). Данные нарушения могут создать существенные угрозы устойчивости организации. В их числе — технические сбои, финансовые расходы, снижение качества услуг и продукции, потеря репутации и в целом управляемости.

Интерес в защите организаций высшего образования и науки от недобросовестного поведения субъектов в сфере ИИ обусловливает использование концептуального содержания и методологии комплаенса для создания и развития организационных механизмов снижения рисков, связанных с внедрением технологий ИИ в деятельность вузов. Комплаенс ИИ в высшем образовании должен обеспечивать защиту прав и свобод человека, соблюдение правил академиче-

ской честности и научной добросовестности, оценку достоверности систем ИИ в образовательном процессе, защиту персональных данных и конфиденциальной информации, защиту авторских прав, противодействие фальсификации данных и киберпреступле-ниям.

Концепция комплаенса ИИ призвана расширить стратегию цифровой трансформации организаций высшего образования посредством внесения в предметную область управления новых объектов, в частности рисков технологий ИИ, а также развития защитной, регулирующей и информационно-управленческой функций. Итак, главной целью комплаенса ИИ является минимизация социально-экономических, технологических и репутационных рисков, возникающих вследствие нарушения законодательства в сфере ИИ, а также профессиональных и этических стандартов использования технологий ИИ.

Объект комплаенса ИИ — это деятельность лиц и организаций, заинтересованных сторон, принимающих участие в жизненном цикле систем ИИ. Непосредственными участниками жизненного цикла ИИ являются следующие группы людей [5]:

- заказчики (лицо или организация), получающие продукт или услугу;

- разработчики, создающие, обучающие, тестирующие модели, системы ИИ;

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

- поставщики данных и лица, осуществляющие формирование наборов данных для применения их в системах ИИ;

- эксперты, осуществляющие оценку параметров моделей/систем ИИ;

- пользователи систем ИИ (в случае высшего образования обучающиеся, преподаватели, ученые, сотрудники вузов).

Комплаенс ИИ предназначен также для удовлетворения потребностей данных заинтересованных сторон в использовании доверенного ИИ при устойчивом развитии организаций высшего образования. Формирование комплаенс-системы ИИ, как любой системы внутреннего контроля организации, состоит из ряда основных этапов:

- определение нормативно-правовой базы для реализации контроля (совокупности норм внешнего регулирования);

- выявление рисков этой сферы деятельности;

- разработка комплекса политик и норм внутреннего регулирования организации;

- закрепление выполнения норм в функциональных обязанностях ответственных

лиц и структурных подразделений организации;

- организация обучения сотрудников;

- мониторинг исполнения норм и новых рисков.

Институты регулирования ИИ в России

Правовое регулирование ИИ в России пока еще находится в стадии формирования. При этом известна позиция Президента Российской Федерации (РФ) относительно данного вопроса, которая состоит в том, чтобы «Россия стала одной из самых комфортных юрис-дикций в мире для развития искусственного интеллекта» [6]. Иными словами, правовое регулирование общественных отношений с применением ИИ целенаправленно носит стимулирующий характер, поставлена задача по снятию правовых барьеров, затрудняющих разработку и применение систем ИИ в различных отраслях экономики и социальной сферы. Важно обратить внимание на то, что создание благоприятных условий для разработчиков ИИ гармонизировано с приоритетным обеспечением защиты прав и свобод человека, соблюдением интересов общества и государства.

К основным федеральным нормативным актам, регулирующим вопросы ИИ в современной России, можно отнести распоряжение Правительства РФ от 24 ноября 2023 г. № 3339-р «Об утверждении Стратегии развития отрасли связи Российской Федерации на период до 2035 года»; Указ Президента РФ от 10 октября 2019 г. № 490 «Стратегия развитии искусственного интеллекта в России»; Федеральный закон от 27 июля 2006 г. № 152-ФЗ «О персональных данных» (в аспекте сбора, хранения и защиты персональных данных); Федеральный закон от 21 июля 1993 г. № 5485-1 «О государственной тайне» (в аспекте защиты конфиденциальной информации); Федеральный закон от 27 июля 2006 г. № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (в аспекте распространения информации); Закон РФ от 27 декабря 1991 г. № 2124-1 «О средствах массовой информации» (в аспекте требований к недопустимости злоупотребления свободой массовой информации); Федеральный закон от 7 июля 2003 г. № 126-ФЗ «О связи» (в аспекте использования инфотелекоммуникационных сетей); Гражданский кодекс РФ (в аспекте защиты чести и достоинства, деловой репу-

тации); Уголовный кодекс РФ (в аспекте от- S

X

ветственности за киберпреступления). £

Развитие ИИ в России поддерживается |

также через введение экспериментальных £

правовых режимов, действие которых опре- £

делено Федеральным законом от 31 июля ^

2020 г. № 258-ФЗ «Об экспериментальных х

правовых режимах в сфере цифровых инно- s

л

ваций в Российской Федерации», Федераль- *

ным законом от 2 июля 2021 г. № З31-Ф3 а

CU

«О внесении изменений в отдельные зако- *

нодательные акты Российской Федерации 11

s

в связи с принятием Федерального закона s

"Об экспериментальных правовых режимах *

в сфере цифровых инноваций в Российской о

Федерации"». В последние несколько лет а

ю

активно формируется национальная систе- °

ма стандартизации и оценки соответствия ^

в области ИИ. В целом развитие правового £

регулирования ИИ в России, в том числе m

в образовании, соответствует международ- i

ным трендам в данной сфере. IS

В контексте развития норм «мягкого £

права» в сфере ИИ следует обратить вни- s

о

мание на деятельность Альянса в сфере о

искусственного интеллекта, учрежденного х

в 2019 г. ключевыми разработчиками ИИ i

в России. Среди них — Сбер, компании «Газ- £

пром нефть», «Яндекс», VK Company и Рос- *

сийский фонд прямых инвестиций (РФПИ). £

X

В октябре 2021 г. Альянс разработал Кодекс £

этики в сфере ИИ (далее — Кодекс), кото- «

рый является частью федерального проекта 5

«Искусственный интеллект». По состоянию £

на 2024 г. к Кодексу, как к стандарту, при- £

знанному на международном уровне, присо- £ единились 387 организаций. Среди

43 федеральных органа исполнительной |

власти, 17 органов исполнительной власти £

субъектов РФ, более 330 российских орга- =

низаций и 23 иностранные организации. !

Кодекс этики в сфере ИИ устанавливает £

общие этические принципы и стандарты £

поведения, которыми следует руководство- s

ей

ваться участникам отношений в сфере ИИ ^

в своей деятельности. Кодекс распространя- «

ется на отношения, связанные с этическими Ц аспектами создания (проектирования,

кон- и

струирования, пилотирования), внедрения и использования технологий ИИ на всех этапах жизненного цикла, которые в настоящее время не урегулированы законодательством РФ и/или актами технического регулирования.

Факт добровольного присоединения организации к Кодексу является, безусловно,

положительным моментом и свидетельству? ет об осознанном, ответственном отношении о к технологическим вызовам. Как правило, 2 для организации это — старт формирова-о ния политики регулирования использования ИИ в деятельности. Для российских вузов Кодекс служит ценным руководством по актуализации стратегий цифровой трансформации и продвижению цифровой культуры среди участников образовательных отношений, в том числе может стать и основой разработки этической компоненты комплаенс-системы ИИ.

Вместе с тем правомерны замечания экспертной группы Совета при Президенте РФ по развитию гражданского общества и правам человека о необходимости дополнительного регулирования государством общественных отношений в цифровой среде. Кодекс является добровольным для подписантов, не содержит механизмов принуждения и проверки исполнения декларированных норм. В отношении прав граждан и их персональных данных Кодекс этики ИИ формулирует благие пожелания для отрасли, а не обязательные нормы. В связи с этим в 2021 г. в докладе Совета по правам человека (СПЧ) «Цифровая трансформация и защита прав граждан в цифровом пространстве» обоснована необходимость разработки комплексного законодательного акта, регулирующего цифровую сферу в России [7; 8].

В рамках Стратегии развития отрасли связи РФ на период до 2035 г. [9] поставлена задача систематизации законодательства РФ в сфере информации и цифровых технологий, в том числе ИИ. В настоящее время Министерством цифрового развития, связи и массовых коммуникаций РФ ведется работа по разработке Федерального закона «Цифровой кодекс Российской Федерации». Цифровой кодекс РФ призван создать единую логически цельную правовую систему регулирования развития и использования информационных технологий, сетей связи и инфраструктуры связи. Ожидается, что именно Цифровой кодекс займет центральное место в нормативно-правовой базе ком-плаенса ИИ российских организаций.

Экспериментальное саморегулирование генеративного ИИ в высшем образовании

Сегодня мы можем наблюдать в организациях различных отраслей экономики и соци-

альной сферы, в том числе вузах, элементы системы саморегулирования ИИ, которые служат предпосылками формирования института комплаенса ИИ. Данный переходный период вузы проживают по-разному, но все нуждаются в обмене опытом и сотрудничестве. Как в России, так и за рубежом академическое сообщество не выработало единую позицию в отношении использования ИИ.

Анализ показывает, что это отношение варьируется: от полного запрета до легализации и рекомендации использования инструментов ИИ в учебном процессе и научно-исследовательской деятельности. В связи с этим особую актуальность приобретает вопрос выработки единого подхода, который бы заложил основы применения в науке и образовании доверенных технологий ИИ, то есть технологий, отвечающих стандартам безопасности, разработанным с учетом принципов объективности, недискриминации, этичности, исключающих при их использовании возможность причинения вреда человеку и нарушения его основополагающих прав и свобод, нанесения ущерба интересам общества и государства [9].

Анализируя мировую практику, можно констатировать, что многие зарубежные ведущие университеты рассматривают факт использования нейросетевых приложений для выполнения заданий как академический проступок, за который обучающимся грозит дисциплинарное наказание вплоть до отчисления. О такой позиции заявили 24 вуза Russel Group в Великобритании, среди которых Оксфордский и Кембриджский университеты [10]. Во Франции категорически против использования инструментов генеративного ИИ выступил Университет политических наук Sciences Po [11], в Японии — Токийский университет [12], в Университете Гонконга использование инструментов ИИ для создания учебных, курсовых и научных работ рассматривается как плагиат [13], в политике Сиднейского университета по обеспечению академической честности создание контента с использованием ИИ трактуется как форма мошенничества [14]. В Индии, в Бангалоре RV University, с 1 января 2024 г. студентам запрещено использовать ChatGPT, а также инструменты на основе ИИ, включая Github Copilot и Blackbo [15].

В этих же странах другие вузы занимают более мягкую позицию в отношении данного

вопроса и ограничиваются информированием студентов и преподавателей о важности соблюдения принципов академической честности, научной добросовестности, а также предупреждением о возможном вреде ИИ для интеллектуальных способностей человека. Многие образовательные организации активизировали просветительскую деятельность в сфере ИИ путем введения дополнительных дисциплин по этике ИИ и цифровой культуре.

Одни вузы ищут альтернативные методы для регулирования использования ИИ, в частности пересматривают подходы к аттестации обучающихся, усложняют контрольные задания, чтобы их было затруднительно выполнить с помощью ИИ, создают специализированные методологические комиссии по новой педагогике на основе ИИ. Другие — явные апологеты использования нейросете-вых технологий, которые открыто разрешают и легализуют использование ИИ в учебной деятельности. Так, среди российских вузов одним из первых был Московский городской педагогический университет, который в августе 2023 г. разрешил использовать ней-росети для написания дипломных. Большую работу по легализации и регулированию использования инструментов ИИ в учебном процессе провел Национальный исследовательский университет «Высшая школа экономики», который не только адаптировал свою

нормативную базу под задачу активизации использования ИИ в учебном процессе, но и разработал в личных кабинетах обучающихся специальный интерфейс для маркировки и обоснования использования сгенерированных текстов.

Выводы

Итак, в условиях формирующегося законодательства в сфере ИИ вузы вынуждены действовать на опережение. В настоящее время университеты нарабатывают опыт, экспериментируют, стремятся самостоятельно определять правила надлежащего применения инструментов ИИ в учебной и научно-исследовательской деятельности. Значимым подспорьем в этой деятельности служит специализированный комплаенс.

Задача компетентного внедрения и применения ИИ в научно-образовательной и административно-управленческой деятельности сложна и объективно неопределенна. Ее решение требует привлечения специалистов из различных профессиональных областей: юристов, ИТ-инженеров и разработчиков, методистов электронного обучения, психологов, а также пользователей технологий, преподавателей и обучающихся. Кроме того, актуальными будут дальнейшие исследования в этой новой для изучения предметной области.

Список источников

1. Ивахненко Е. Н., Никольский В. С. ChatGPT в высшем образовании и науке: угроза или ценный ресурс? // Высшее образование в России. 2023. Т. 32. № 4. С. 9-22. DOI: 10.31992/0869-3617-2023-32-4-9-22

2. Вихман В. В., Ромм М. В. «Цифровые двойники» в образовании: перспективы и реальность // Высшее образование в России. 2021. Т. 30. № 2. С. 22-32. DOI: 10.31992/ 0869-3617-2021-30-2-22-32

3. Шульженко Т. Г., Сущева Н. В., Царева Е. С. Креатосфера университета в экономике знаний: потенциал развития, концепция, решения: монография. СПб.: Санкт-Петербургский государственный экономический университет, 2023. 240 с.

4. Комплаенс — просто о сложном // Национальная Ассоциация Комплаенс. URL: https:// compliance.su/info/articles/komplaens-prosto-o-slozhnom/?ysclid=m06ewxco5l130177787 (дата обращения: 04.07.2024).

5. Кодекс этики в сфере искусственного интеллекта // Альянс в сфере искусственного интеллекта. URL: https://ethics.a-ai. ru/assets/ethics_files/2023/05/12/%D0%9A%D0%B E%D0%B4%D0%B5%D0%BA%D1%81_%D1%8D%D1%82%D0%B8%D0%BA%D0%B8_20_ 10_1.pdf (дата обращения: 04.07.2024).

6. Путин: юрисдикция России должна стать одной из самых комфортных в мире для развития ИИ // ТАСС. 2023. 24 ноября. URL: https://tass.ru/ekonomika/19373011 (дата обращения: 04.07.2024).

7. Цифровая трансформация и защита прав граждан в цифровом пространстве: доклад Совета при Президенте Российской Федерации по развитию гражданского общества и правам человека. М.: Совет при Президенте РФ по развитию гражданского общества и правам человека, 2021. 124 с. URL: https://ifap.ru/pr/2021/n211213a.pdf (дата обращения: 04.07.2024).

> и

8

9

10.

11.

12.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

13.

14.

15.

1

2

3

4

5

6

7

8

9

Об утверждении Стратегии развития отрасли связи РФ на период до 2035 г.: распоряжение Правительства РФ от 24 ноября 2023 г. № 3339-р // Гарант.ру: информ.-правовой портал. URL: https://www.garant.ru/products/ipo/prime/doc/408020989/?ysclid=m10kblw43t498 898948 (дата обращения: 04.07.2024).

О развитии искусственного интеллекта в Российской Федерации: указ Президента РФ от 10 октября 2019 г. № 490 // Президент России: офиц. сайт. URL: http://www.kremlin. ru/acts/bank/44731 (дата обращения: 04.07.2024).

Wood P. Oxford and Cambridge ban ChatGPT over plagiarism fears but other universities choose to embrace AI bot // Associated Newspapers Limited. February 28. 2023. URL: https://inews.co.uk/news/oxford-cambridge-ban-chatgpt-plagiarism-universities-2178391 (дата обращения: 04.07.2024).

Sciences Po bans the use of ChatGPT without transparent referencing // Sciences Po. January 27. 2023. URL: https://newsroom.sciencespo.fr/sciences-po-bans-the-use-of-chatgpt/#: ~:text=Without%20transparent%20referencing%2C%20students%20are,supervision%20of%20 a%20course%20leader (дата обращения: 04.07.2024).

Sankaran V. Japanese universities become latest to restrict use of ChatGPT // Independent. April 10. 2023. URL: https://www.independent.co.uk/tech/japanese-universities-chatgpt-use-restrict-b2317060.html (дата обращения: 04.07.2024).

Mok L. Top Hong Kong university drops ban on ChatGPT in coursework by students // Hong Kong Free Press. August 4. 2023. URL: https://hongkongfp.com/2023/08/04/top-hong-kong-university-drops-ban-on-chatgpt-in-coursework-by-students/ (дата обращения: 04.07.2024).

Australian universities to return to 'pen and paper' exams after students caught using AI to write essays // The Guardian. January 10. 2023. URL: https://www.theguardian.com/ australia-news/2023/jan/10/universities-to-return-to-pen-and-paper-exams-after-students-caught-using-ai-to-write-essays (дата обращения: 04.07.2024).

ChatGPT banned in Bengaluru colleges, US schools: 9 key things to know // Gadgets Now. January 30. 2023. URL: https://www.gadgetsnow.com/slideshows/chatgpt-banned-in-ben-galuru-colleges-us-schools-9-key-things-to-know/photolist/97430636.cms (дата обращения: 04.07.2024).

References

Ivakhnenko E.N., Nikolskiy V.S. ChatGPT in higher education and science: A threat or a valuable resource? Vysshee obrazovanie v Rossii = Higher Education in Russia. 2023;32(4):9-22. (In Russ.). DOI: 10.31992/0869-3617-2023-32-4-9-22

Vikhman V.V., Romm M.V. "Digital twins" in education: Prospects and reality. Vysshee obrazovanie v Rossii = Higher Education in Russia. 2021;30(2):22-32. (In Russ.). DOI: 10.31992/0869-3617-2021-30-2-22-32

Shul'zhenko T.G., Sushcheva N.V., Tsareva E.S. University creatosphere in the knowledge economy: Development potential, concept, solutions. St. Petersburg: St. Petersburg State University of Economics; 2023. 240 p. (In Russ.).

Compliance - simply about the complex. National Association of Compliance. URL: https:// compliance.su/info/articles/komplaens-prosto-o-slozhnom/?ysclid=m06ewxco5l130177787 (accessed on 04.07.2024). (In Russ.).

Code of ethics in the sphere of artificial intelligence. Alliance in the Sphere of Artificial Intelligence. URL: https://ethics.a-ai.ru/assets/ethics_files/2023/05/12/%D0%9A%D0%BE% D0%B4%D0%B5%D0%BA%D1%81_%D1%8D%D1%82%D0%B8%D0%BA%D0%B8_20_10_1. pdf (accessed on 04.07.2024). (In Russ.).

Putin: Russia's jurisdiction should become one of the most comfortable in the world for AI development. TASS News Agency. Nov. 24, 2023. URL: https://tass.ru/ekonomika/19373011 (accessed on 04.07.2024). (In Russ.).

Digital transformation and protection of citizens' rights in the digital space. Report of the Presidential Council of the Russian Federation for the Development of Civil Society and Human Rights. Moscow: Presidential Council of the Russian Federation for the Development of Civil Society and Human Rights; 2021. 124 p. URL: https://ifap.ru/pr/2021/n211213a. pdf (accessed on 04.07.2024). (In Russ.).

On approval of the Strategy for the Development of the Communications Industry of the Russian Federation for the period up to 2035. Order of the Government of the Russian Federation of November 24, 2023 No. 3339-r. Garant.ru. URL: https://www.garant.ru/ products/ipo/prime/doc/408020989/?ysclid=m10kblw43t498898948 (accessed on 04.07.2024). (In Russ.).

On the development of artificial intelligence in the Russian Federation. Decree of the President of the Russian Federation of October 10, 2019 No. 490. Official website of the President of Russia. URL: http://www.kremlin.ru/acts/bank/44731 (accessed on 04.07.2024). (In Russ.).

10. Wood P. Oxford and Cambridge ban ChatGPT over plagiarism fears but other universities choose to embrace AI bot. Associated Newspapers Limited. Feb. 28, 2023. URL: https:// inews.co.uk/news/oxford-cambridge-ban-chatgpt-plagiarism-universities-2178391 (accessed on 04.07.2024).

11. Sciences Po bans the use of ChatGPT without transparent referencing. Sciences Po. Jan. 27, 2023. URL: https://newsroom.sciencespo.fr/sciences-po-bans-the-use-of-chatgpt/#:~:text =Without%20transparent%20referencing%2C%20students%20are,supervision%20of%20a%20 course%20leader (accessed on 04.07.2024).

12. Sankaran V. Japanese universities become latest to restrict use of ChatGPT. Independent. Apr. 10, 2023. URL: https://www.independent.co.uk/tech/japanese-universities-chatgpt-use-restrict-b2317060.html (accessed on 04.07.2024).

13. Mok L. Top Hong Kong university drops ban on ChatGPT in coursework by students. Hong Kong Free Press. Aug. 4, 2023. URL: https://hongkongfp.com/2023/08/04/top-hong-kong-university-drops-ban-on-chatgpt-in-coursework-by-students/ (accessed on 04.07.2024).

14. Australian universities to return to 'pen and paper' exams after students caught using AI to write essays. The Guardian. Jan. 10, 2023. URL: https://www.theguardian.com/austral-ia-news/2023/jan/10/universities-to-return-to-pen-and-paper-exams-after-students-caught-using-ai-to-write-essays (accessed on 04.07.2024).

15. ChatGPT banned in Bengaluru colleges, US schools: 9 key things to know. Gadgets Now. Jan. 30, 2023. URL: https://www.gadgetsnow.com/slideshows/chatgpt-banned-in-bengaluru-colleges-us-schools-9-key-things-to-know/photolist/97430636.cms (accessed on 04.07.2024).

Сведения об авторе

Наталья Вячеславовна Сущева

кандидат экономических наук, проректор по цифровому развитию

Санкт-Петербургский государственный

экономический университет

191023, Санкт-Петербург, Садовая ул., д. 21

Поступила в редакцию 09.08.2024 Прошла рецензирование 04.09.2024 Подписана в печать 19.09.2024

Information about the author

Natalia V. Sushcheva

PhD in Economics,

Vice-Rector for Digital Development

St. Petersburg State University of Economics

21 Sadovaya st., St. Petersburg 191023, Russia

Received 09.08.2024 Revised 04.09.2024 Accepted 19.09.2024

Конфликт интересов: автор декларирует отсутствие конфликта интересов, связанных с публикацией данной статьи.

Conflict of interest: the author declares no conflict of interest related to the publication of this article.

> и

i Надоели баннеры? Вы всегда можете отключить рекламу.