Научная статья на тему 'ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И МЕЖДУНАРОДНАЯ ИНФОРМАЦИОННО-ПСИХОЛОГИЧЕСКАЯ БЕЗОПАСНОСТЬ: ТЕОРЕТИЧЕСКИЕ И ПРАКТИЧЕСКИЕ АСПЕКТЫ. СЕКЦИЯ В РАМКАХ МЕЖДУНАРОДНОЙ КОНФЕРЕНЦИИ В СПБГУ «СТРАТЕГИЧЕСКИЕ КОММУНИКАЦИИ В БИЗНЕСЕ И ПОЛИТИКЕ» (СТРАТКОМ-2020), САНКТ-ПЕТЕРБУРГ, 12 НОЯБРЯ 2020 Г'

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И МЕЖДУНАРОДНАЯ ИНФОРМАЦИОННО-ПСИХОЛОГИЧЕСКАЯ БЕЗОПАСНОСТЬ: ТЕОРЕТИЧЕСКИЕ И ПРАКТИЧЕСКИЕ АСПЕКТЫ. СЕКЦИЯ В РАМКАХ МЕЖДУНАРОДНОЙ КОНФЕРЕНЦИИ В СПБГУ «СТРАТЕГИЧЕСКИЕ КОММУНИКАЦИИ В БИЗНЕСЕ И ПОЛИТИКЕ» (СТРАТКОМ-2020), САНКТ-ПЕТЕРБУРГ, 12 НОЯБРЯ 2020 Г Текст научной статьи по специальности «Экономика и бизнес»

CC BY
228
55
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по экономике и бизнесу , автор научной работы — Панцерев Константин Арсеньевич, Рущин Дмитрий Александрович, Матяшова Дарья Олеговна

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И МЕЖДУНАРОДНАЯ ИНФОРМАЦИОННО-ПСИХОЛОГИЧЕСКАЯ БЕЗОПАСНОСТЬ: ТЕОРЕТИЧЕСКИЕ И ПРАКТИЧЕСКИЕ АСПЕКТЫ. СЕКЦИЯ В РАМКАХ МЕЖДУНАРОДНОЙ КОНФЕРЕНЦИИ В СПБГУ «СТРАТЕГИЧЕСКИЕ КОММУНИКАЦИИ В БИЗНЕСЕ И ПОЛИТИКЕ» (СТРАТКОМ-2020), САНКТ-ПЕТЕРБУРГ, 12 НОЯБРЯ 2020 Г»

74

К.А. Панцерев, Д.А. Рущин, Д.О. Матяшова

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И МЕЖДУНАРОДНАЯ ИНФОРМАЦИОННО-ПСИХОЛОГИЧЕСКАЯ БЕЗОПАСНОСТЬ: ТЕОРЕТИЧЕСКИЕ И ПРАКТИЧЕСКИЕ АСПЕКТЫ

Секция в рамках международной конференции в СПбГУ «Стратегические коммуникации в бизнесе и политике» (Стратком-2020), Санкт-Петербург, 12 ноября 2020 г.

© Панцерев Константин Арсеньевич - доктор политических наук, профессор, Санкт-Петербургский государственный университет, Санкт-Петербург; e-mail: [email protected]

© Рущин Дмитрий Александрович - кандидат исторических наук, Санкт-Петербургский государственный университет, Санкт-Петербург; e-mail: [email protected]

© Матяшова Дарья Олеговна - студентка магистерской программы «Мировая политика», Санкт-Петербургский государственный университет, Санкт-Петербург; e-mail: [email protected]

см о см

О

3

ю О

12 ноября 2020 г. на базе Высшей школы журналистики и массовых коммуникаций СПбГУ в рамках международной конференции «Стратегические коммуникации в бизнесе и политике» (Стратком-2020) состоялось заседание секции «Искусственный интеллект и международная информационно-психологическая безопасность: теоретические и практические аспекты».

Модераторами секционного заседания выступили профессор СПбГУ К.А. Панцерев и профессор, ведущий научный сотрудник Дипломатической Академии МИД РФ и старший научный сотрудник СПбГУ Е.Н. Пашенцев. Всего на заседании секции было представлено 12 докладов, а общее количество участников, в том числе тех, кто принял участие в дискуссии, составило около 40 человек.

На секционном заседании обсуждался широкий круг вопросов, связанных с возможностями применения искусственного интеллекта в информационно-психологическом противоборстве. Следует отметить, что данная тема крайне заинтересовала зарубежных ученых из Румынии, Индии, Италии, Франции, которые приняли участие в работе секции в режиме видеоконференции. Мариус Вакарелу, доцент Национальной школы политических исследований, Бухарест (Румыния) выступил с докладом на тему «Технология создания фейкового видео (дип-фейков) как перманентное противоборство», а остальные иностранные ученые приняли участие в дискуссии. Среди российских вузов были представлены: СПбГУ, МГУ, Дипломатическая академия МИД РФ, РАНХиГС, МГИМО, Поволжский государственный технологический университет (г. Йошкар-Ола).

Организаторы успешно воспользовались современными информационно-коммуникационными технологиями в условиях пандемии - секция прошла в комбинированном

формате - шесть спикеров выступили в режиме онлайн по видеосвязи.

Центральной темой дискуссий стали угрозы, которые искусственный интеллект потенциально таит в себе. К.А. Панцерев в своем докладе подробно остановился на анализе существующих и перспективных угроз злонамеренного использования искусственного интеллекта, которые, с его точки зрения, могут угрожать не только безопасности личности в цифровую эпоху, но и представлять серьезную угрозу для обеспечения национальной и международной информационно-психологической безопасности. Так К.А. Панцеревым были выделены следующие способы злонамеренного использования технологий искусственного интеллекта:

- Перехват контроля над интеллектуальными комплексами военного назначения. Сегодня все ведущие мировые державы уделяют повышенное внимание разработкам интеллектуальных комплексов военного назначения. Представляется, очевидным, таким образом, что гонка ядерных вооружений постепенно уйдет в прошлое, а на повестку дня выйдет гонка гибридных интеллектуальных систем военного назначения. Но мы до сих пор не задумываемся над тем, что произойдет, если то или иное государство потеряет контроль над подобными интеллектуальными системами или они попадут в руки террористов.

- Манипулирование массовым сознанием. Уже сегодня технологии искусственного интеллекта эффективно применяются в сфере таргетированной рекламы в социальных сетях. Но эти технологии также могут использоваться и злонамеренно. Искусственный интеллект, имея доступ к персональным данным миллионов людей и зная их потребности, сильные и слабые стороны, может организовать целевую адресную пропаганду и промывку мозгов, предназначенную исключительно для конкретного человека.

- Вторжение в частную жизнь. Это, по большому счету, уже реальность. Сейчас специалисты, в том числе и злоумышленники (включая террористов) при помощи размещенных повсюду камер и систем распознавания лиц могут анализировать каждый шаг любого человека.

- Ошибки операторов. Человеческий фактор никто не отменял. Искусственный интеллект представляет для нас большую ценность прежде всего своей высокой производительностью. Тем не менее, если мы не определим четко задачи для гибридной интеллектуальной системы, это может обернуться весьма трагичными последствиями.

- Недостаток данных и отравленные данные. Как известно, эффективная работа систем искусственного интеллекта зависит от того, насколько полный набор данных загружен в эту систему. Но если данных для решения конечной задачи будет недостаточно, либо они будут отравлены, это приведет к сбою в работе всей системы искусственного интеллекта и будет иметь непредвиденные последствия для людей.

- Злонамеренное применение технологий создания фейковых видеороликов (дипфейков). Сегодня мы уже страдаем от информационного мусора, поскольку значительная часть информации размещаемая в сети Интернет создается обычными людьми, которые зачастую публикуют, намеренно или неосознанно, непроверенную или откровенно ложную информацию. А появление технологии создания фейковых видеороликов ставит перед человечеством новый вызов - теперь мы уже не можем доверять своему зрению и слуху. Любое видео, размещенное в сети Интернет может в действительности оказаться фей-ком. Совершенно очевидно, что эта технология открывает широкие возможности для проведения информационно-психологических операций. Они способны окончательно запутать широкую общественность относительно происходящих в мире событий.

К.А. Панцерев убежден, что именно технология создания фейковых видеороликов, которая дает возможность любому пользователю, обладающему базовыми знаниями в области компьютеров, создать цифрового двойника любого человека, который выглядит, говорит и действует точно так же, как его прообраз, и заставить его сказать или сделать все, что потребуется злоумышленнику. В этой связи, делает вывод К.А. Пан-церев, представляется крайне важным разработать действенные механизмы контроля над дальнейшим распространением фейко-вых видеороликов, которые позволили бы быстро блокировать токсичный контент.

Он отмечает, что сегодня специалисты в 75 области компьютерных наук работают над созданием соответствующих алгоритмов, способных обнаруживать дипфейки. Аналогичные алгоритмы могут использоваться социальными сетями, такими как Facebook, Twitter и видеоресурсом YouTube, которые должны проверять все загруженные видео, прежде чем они станут видимыми и доступными для других пользователей. Но проблема заключается в том, что сейчас не существует технологии, способной определить дипфейки со 100-процентной вероятностью. К тому же практическое внедрение подобных алгоритмов может столкнуться с серьезными законодательными проблемами.

При разработке нормативно-правовых актов, направленных на противодействие распространению дипфейков, законодатель может столкнуться с весьма серьезными трудностями, поскольку любой необоснованный запрет на создание и последующее распространение созданного при помощи технологии ИИ фейкового видео может привести к нарушению базового принципа свободы слова и самовыражения. В этой связи перед государством стоит задача провести четкие границы между злонамеренным использованием дипфейков, направленным на создание токсичного контента, и новым видом сатиры, творчества и развлечения. До тех пор, пока эта задача не будет решена, вряд ли будет принят эффективный закон, который бы регулировал процесс создания и распространения дипфейков. Значит в обозримом будущем следует ожидать появление огромного количества реалистичных фейковых видеороликов, которые приведут к окончательной фей-ковизации информационного пространства, что может представлять серьезную угрозу для системы международной информационно-психологической безопасности.

Вопросы злонамеренного использования искусственного интеллекта были затронуты и в выступлениях других участников конференции - в этом отношении особенно следует выделить доклады М. Вакарелу, Е.Н. Пашенцева и Д.Ю. Базаркиной. Если М. Вакарелу в своем докладе подробно осветил перспективы фундаментальных трансформаций политики и политической борьбы в условиях расширения и упрощения практик дезинформации благодаря появлению технологий, позволяющих создавать фейковые видеоролики и аудиоклипы, то Е.Н. Пашенцевым была дана более широкая оценка перспектив угроз злонамеренного использования искусственного интеллек- ^ та - управленческих и экономических. Он о также выделил исследовательские задачи

см о см

о

3

ю о

прогнозирования трансформаций конкретных политических систем и политических стратегий, а также практические задачи совершенствования госуправления и обновления концепций безопасности. Д.Ю. Базакр-кина в своем выступлении произвела оценку перспектив применения технологий искусственного интеллекта террористическими организациями при осуществлении своей пропагандистской деятельности (на примере журнала "Kybernetiq").

Доцент СПбГУ Д.А. Рущин отметил, что России в последние годы уделяется много внимания технологиям искусственного интеллекта (ИИ). Однако реальное состояние и потенциал развития искусственного интеллекта в стране весьма низки, и уступают большинству программ развитых государств мира. Очень долго Россия не имела собственной стратегии развития технологий в сфере искусственного интеллекта. Ситуация существенно изменилась в октябре 2019 года. Тогда была утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года».

Национальная стратегия развития искусственного интеллекта определяет две реперных точки развития искусственного интеллекта в России. Это 2024 и 2030 годы. Предполагается, что к первой дате страна значительно улучшит свои позиции в этой сфере, а к 2030 году ликвидирует отставание от развитых стран, а также добьется мирового лидерства в отдельных направлениях, связанных с искусственным интеллектом. При этом, согласно указанному документу, ключевые приоритеты развития искусственного интеллекта в России соотносятся с Национальными целями и стратегическими задачами развития РФ на период до 2024 года, известными как «майские указы В.В. Путина 2018 года».

Реализуемая ныне национальная стратегия России по развитию искусственного интеллекта весьма существенно отличается от целей и задач национальных стратегий других стран, она носит очевидный анти-санкционный характер и при этом подразумевает ведущую и направляющую роль государства. Стратегия пренебрегает ролью частных инвестиций и частного бизнеса для успешного развития российских прорывных технологий. Ставка делается на крупные государственные и окологосударственные структуры, как при разработке планов развития искусственного интеллекта в стране, так и при их реализации.

По мнению Д.А. Рущина, сегодня отставание России от ведущих технологических держав (прежде всего США и Китая) сохраняется и существует целый ряд негативных

фундаментальных факторов, например, малый объем рынка венчурных инвестиций. Более вероятен сценарий успешного развития отдельных направлений использования технологий искусственного интеллекта, где возможно локальное лидерство России.

Что касается применения искусственного интеллекта и его уровня развития в военной сфере, то здесь надо учесть, что по причине секретности данных международные рейтинги не учитывают военные разработки. Между тем многие десятилетия именно российская военная наука и оборонная промышленность были локомотивами технологического развития страны.

Для руководства страны высокий приоритет развития искусственного интеллекта определяется значительным, по российским меркам, финансированием отраслевых проектов. Однако Россия вряд ли может претендовать на хорошие мировые позиции в области искусственного интеллекта при существующем сравнительно низком уровне финансирования R&D - Research and Development (НИОКР).

На международной арене Россия выступает против запрета смертоносных автономных систем (САС) и военного использования искусственного интеллекта. В то же время страна участвует в диалоге с другими государствами и игроками, а также поддерживает выработку четких универсальных правил и этических норм.

Таким образом, полагает доцент Д.А. Ру-щин, развитие искусственного интеллекта становится важным приоритетом национального развития России. Однако шансы страны догнать лидеров (США, Китай, Японию и Великобританию) весьма маловероятны. При наличии политической воли и достаточного финансирования Россия может стать крупным игроком в сфере искусственного интеллекта и добиться лидерства по отдельным направлениям.

Студентка магистратуры СПбГУ Д.О. Ма-тяшова посвятила свое выступление стратегиям продвижения искусственного интеллекта в немецкой и индийской экономиках, их сравнению и перспективам для миропо-литической системы.

Яркими примерами современных восходящих держав являются Индия и Германия. Обе обладают обширным потенциалом нормативной силы, для обеих актуально стимулирование развития информационной экономики в связи с конкуренцией с лидерами в данной отрасли (США и КНР). Её стимулированию будет способствовать грамотное планирование, отражённое в национальных стратегиях ИИ. Изложенные в них принци-

пы в случае выхода Индии и Германии на уровень мировых лидеров в сфере ИИ могут быть заимствованы другими странами. В данном контексте возникает вопрос о потенциале конфликта в продвижении принципов применения ИИ в экономике. Сходство стандартов способно стать платформой для кооперации, расхождение - фактором соперничества.

В контексте Индии и Германии факторами сближения являются социальная ориентированность ИИ как инструмента. Обе страны декларируют в качестве стратегических целей использование ИИ для общего блага: умные города, транспортный сектор, информирование о чрезвычайных ситуациях, работы сложных систем наблюдения и устранения последствий катастроф как главных драйверов внедрения ИИ в экономику. Оба государства рассматривают процесс внедрения ИИ в экономику как результат многостороннего общественного диалога.

По мнению Д.О. Матяшовой, факторы расхождения имеют тактическое (для Индии диалог имеет прежде всего технократический характер, немецкая стратегия предполагает пересмотр правовой базы и введение государственного и частного аудита), субъективное (Германия сосредоточена на создании общих институтов и промышленных кластеров с ЕС - Индия планирует создавать таковые с американскими и британскими ТНК и университетами) и стратегическое измерения (амбиции Индии сфокусированы на преодолении имеющихся экономических проблем и предложении эффективных решений развивающемуся миру, цели Германии заключаются в том, чтобы немецкий ИИ стал глобальным знаком качества, а европейский ИИ - глобальным лидером отрасли). Если расхождения в первых

двух измерениях могут быть сглажены за 77 счёт ценностной общности и единой функциональной направленности развития ИИ, то рост расхождений в последнем измерении может спровоцировать интенсивную технологическую конкуренцию.

Участники секции затронули перспективную проблематику искусственного интеллекта как драйвера и как фактора динамики конкуренции за глобальное экономическое лидерство - которое, если вспомнить об угрозах применения «жёсткой» силы, становится весьма хрупким. Также, как показали исследования И.Ю. Подоляна и А.Н. Марченко, искусственный интеллект способен быть драйвером научных исследований в социально-гуманитарной сфере, беря на себя задачи анализа большого массива данных, конструирования первичных гипотез и глубинного анализа текстов. Вопросом остаётся то, какие функции в этом случае остаются за самими учёными.

Еще одна важная тема секции - использование современных информационных технологий и их восприятие, видение их будущего отдельными акторами мировой политики. Исследователи этих проблем показали слабость традиционных акторов в противостоянии новым угрозам, воздействующим не на осязаемые объекты, а на дискурс и общественное сознание (К.А. Голубев), способность негосударственных акторов формировать целостные и последовательные медиастратегии (Н.А. Жерлицына) и то, что эти акторы - в частности, международные террористические группировки -обладают видением того, как использовать искусственный интеллект не только для противостояния внешним врагам, но и для того, чтобы формировать собственный положительный образ.

В.А. Шамахов, А.И. Субетто

НООСФЕРНАЯ ПАРАДИГМА РОССИЕВЕДЕНИЯ, ЕВРАЗИЙСТВА И УСТОЙЧИВОГО РАЗВИТИЯ КАК ОСНОВА СТАНОВЛЕНИЯ НООСФЕРНОГО ОБРАЗОВАНИЯ И ВОСПИТАНИЯ В РОССИИ XXI ВЕКА

Х Международная научная конференция «Ноосферное образование в евразийском пространстве», Санкт-Петербург, 17 декабря 2020 года

© Шамахов Владимир Александрович - доктор экономических наук, профессор, действительный государственный советник 1 класса, директор, Северо-Западный институт управления - филиал Российской академии народного хозяйства и государственной службы при Президенте РФ, Санкт-Петербург; e-mail: [email protected] © Субетто Александр Иванович - доктор философских наук, доктор экономических наук, заслуженный деятель науки РФ, директор Центра ноо-сферного развития научно-исследовательской лаборатории россиеведения, евразийства и устойчивого развития, Северо-Западный институт управления РАНХиГС при Президенте РФ, Санкт-Петербург; e-mail: suball [email protected]

Под таким названием 17 декабря 2020 научная конференция «Ноосферное образо-года прошла юбилейная Международная вание в евразийском пространстве» на базе

i Надоели баннеры? Вы всегда можете отключить рекламу.