Научная статья на тему 'Роль искусственного интеллекта в кибербезопасности '

Роль искусственного интеллекта в кибербезопасности Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
48
4
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
искусственный интеллект / кибербезопасность / автоматизация / обнаружение угроз / анализ данных / проактивная защита / машинное обучение / большие данные / предотвращение кибератак / конфиденциальность данных / минимизация рисков / artificial intelligence / cybersecurity / automation / threat detection / data analysis / proactive protection / machine learning / big data / cyberattack prevention / data confidentiality / risk mitigation

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Банкетов Денис Алексеевич, Федоров Михаил Андреевич, Пальмов Сергей Вадимович

Искусственный интеллект оказывает значительное влияние на развитие кибербезопасности, обеспечивая автоматизацию обнаружения угроз, анализ данных и проактивную защиту информационных систем. В статье представлены теоретические и практические аспекты применения искусственного интеллекта в кибербезопасности, включая его использование в предотвращении кибератак, обеспечении конфиденциальности данных и минимизации рисков. Рассмотрены ключевые технологии, такие как машинное обучение и анализ больших данных.

i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

The role of artificial intelligence in cybersecurity

Artificial intelligence (AI) significantly impacts the evolution of cybersecurity by enabling the automation of threat detection, data analysis, and proactive protection of information systems. This paper explores the theoretical and practical aspects of AI applications in cybersecurity, including its role in preventing cyberattacks, ensuring data confidentiality, and mitigating risks. Key technologies such as machine learning and big data analytics are discussed in detail.

Текст научной работы на тему «Роль искусственного интеллекта в кибербезопасности »

УДК 330:004

doi: 10.47576/2949-1886.2024.83.48.021

Банкетов Денис Алексеевич,

cтудент, Поволжский государственный университет телекоммуникаций и информатики, Самара, Россия, [email protected]

Федоров Михаил Андреевич,

cтудент, Поволжский государственный университет телекоммуникаций и информатики, Самара, Россия, fedam24628@gmail. com

Пальмов Сергей Вадимович,

кандидат технических наук, доцент, доцент кафедры информационных систем и технологий, Поволжский государственный университет телекоммуникаций и информатики; доцент кафедры информатики и вычислительной техники, Самарский государственный технический университет, Самара, Россия, [email protected]

роль

ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КИБЕРБЕЗОПАСНОСТИ

Искусственный интеллект оказывает значительное влияние на развитие кибербезопасности, обеспечивая автоматизацию обнаружения угроз, анализ данных и проактивную защиту информационных систем. В статье представлены теоретические и практические аспекты применения искусственного интеллекта в кибербезопасности, включая его использование в предотвращении кибератак, обеспечении конфиденциальности данных и минимизации рисков. Рассмотрены ключевые технологии, такие как машинное обучение и анализ больших данных.

Ключевые слова: искусственный интеллект; кибербезопасность; автоматизация; обнаружение угроз; анализ данных; проактивная защита; машинное обучение; большие данные; предотвраще -ние кибератак; конфиденциальность данных; минимизация рисков.

Banketov Denis A.,

student, Volga Region State University of Telecommunications and Informatics, Samara, Russia, denislychi@bk. ru

Fedorov Mikhail A.,

student, Volga Region State University of Telecommunications and Informatics, Samara, Russia, fedam24628@gmail. com

Palmov Sergey V.,

Candidate of Technical Sciences, Associate Professor, Associate Professor of the Department of Information Systems and Technologies, Volga Region State University of Telecommunications and Informatics; Associate Professor of the Department of Computer Science and Computer Engineering, Samara State Technical University, Samara, Russia, [email protected]

THE ROLE OF ARTIFICIAL INTELLIGENCE IN CYBERSECURITY

ИНДУСТРИАЛЬНАЯ ЭКОНОМИКА • № S1, 2024 1 43

Artificial intelligence (AI) significantly impacts the evolution of cybersecurity by enabling the automation of threat detection, data analysis, and proactive protection of information systems. This paper explores the theoretical and practical aspects of AI applications in cybersecurity, including its role in preventing cyberattacks, ensuring data confidentiality, and mitigating risks. Key technologies such as machine learning and big data analytics are discussed in detail.

Keywords: artificial intelligence; cybersecurity; automation; threat detection; data analysis; proactive protection; machine learning; big data; cyberattack prevention; data confidentiality; risk mitigation.

В эпоху стремительной цифровизации информационные системы играют ключевую роль в функционировании бизнеса, государственных учреждений и социальной инфраструктуры. С каждым годом объем данных, передаваемых и обрабатываемых в этих системах, растет в геометрической прогрессии. По данным International Data Corporation (IDC), к 2025 году мировой объем данных превысит 175 зеттабайт, что усиливает зависимость от информационных технологий и увеличивает риски, связанные с киберугрозами [1].

Одновременно с этим, растет сложность атак и разнообразие методов, используемых злоумышленниками. Вредоносное программное обеспечение (ПО), фишинг, атаки типа «DDoS» и другие виды киберугроз становятся все более изощренными, что требует применения современных подходов к их обнаружению и предотвращению. Согласно отчету Cybersecurity Ventures, ущерб от ки-берпреступности в 2023 году достиг $8 трлн. и продолжает расти, что ставит задачу защиты данных и систем в приоритет для компаний и государств [2].

В таких условиях традиционные методы защиты информации, основанные на статических правилах и сигнатурных технологиях, оказываются недостаточно эффективными. ИИ предлагает революционные решения, способные изменить подход к кибербезопас-ности. Использование ИИ позволяет:

- Автоматически выявлять сложные угрозы в реальном времени, анализируя огромные объемы данных.

- Прогнозировать потенциальные атаки и принимать проактивные меры.

- Снижать зависимость от человеческого фактора за счет автоматизации процессов [3].

Кроме того, ИИ-технологии способствуют повышению устойчивости систем к новым видам угроз, включая атаки типа «нулевого дня», и минимизации последствий уже произошедших инцидентов.

Одной из наиболее ценных функций ИИ в кибербезопасности является возможность оперативного обнаружения угроз в реальном времени. Это достигается благодаря использованию продвинутых алгоритмов, которые анализируют сетевой трафик, данные логов и поведение пользователей для выявления аномалий, соответствующих признакам ки-бератак.

Технологии машинного обучения (ML) создают мощные инструменты для анализа и классификации угроз. Алгоритмы могут быть обучены на больших массивах данных, содержащих примеры как безопасного поведения, так и известных кибератак. После обучения такие модели эффективно вы -являют [4]:

- Изменения в сетевом трафике, такие как всплески активности или нехарактерные запросы.

- Аномальное поведение пользователей, включая подозрительные попытки доступа к критическим системам.

- Неизвестные угрозы, анализируя паттерны поведения, которые не были заранее определены.

Примером внедрения ML являются системы класса IDS (Intrusion Detection Systems), которые используют деревья решений, градиентный бустинг и глубокие нейронные сети. Например, такие системы обучены выявлять DDoS-атаки, основываясь на объемах входящего трафика и его распределении.

Использование User and Entity Behavior Analytics (UEBA). Технологии анализа поведения пользователей и устройств, или UEBA, основываются на ИИ для создания моделей нормального поведения. На их основе можно оперативно выявлять [5]:

- Необычные паттерны, например, входы с нехарактерных IP-адресов;

- Подозрительную активность, такую как многократные неудачные попытки входа или загрузка больших объемов данных;

- Действия инсайдеров, которые могут быть не заметны традиционным системам.

UEBA-системы применяются в крупных корпорациях для анализа активности сотрудников и выявления потенциальных угроз, связанных с человеческим фактором.

Глубокое обучение (Deep Learning) стало основой современных методов анализа угроз. Например, сверточные нейронные сети (CNN) используются для анализа сетевого трафика, а рекуррентные нейронные сети (RNN) - для анализа временных паттернов поведения.

Нейронные сети помогают выявлять сложные угрозы, такие как вредоносные программы, которые скрываются в обычном сетевом трафике.

С развитием цифровой инфраструктуры компании и государственные организации сталкиваются с постоянно увеличивающимся объемом данных. По различным оценкам, в 2024 году ежедневно создается более 402 млн. терабайт информации [6]. Этот объем данных представляет собой как вызов, так и возможность для кибербе-зопасности. ИИ способен анализировать огромные объемы информации в реальном времени, выявляя:

- Корреляции между событиями, которые могут указывать на комплексные атаки;

- Аномалии, связанные с потенциальным нарушением безопасности;

- Тенденции, которые помогают прогнозировать будущие атаки.

Одними из преимуществ анализа больших данных с использованием ИИ можно считать повышенную скорость обработки данных, возможность интеграции данных из разнородных источников, а также снижение вероятности пропуска критических угроз.

Также, немаловажную работу оказывает ИИ не только в обнаружении угроз, но и в автоматизации реагирования. Традиционно устранение последствий кибератак занимало значительное время, что увеличивало ущерб. Использование ИИ позволяет минимизировать этот временной промежуток. Использование возможностей ИИ позволяет автоматически выполнять такие действия как:

- блокировка подозрительных IP-адресов;

- изоляция зараженных устройств в сети;

- оповещение администраторов и предо-

ставление детализированных отчетов о выявленных угрозах.

Важным также является и использование ИИ в системах песочницах для анализа подозрительных файлов или программ. Эти системы изолируют объект в виртуальной среде и изучают его поведение, автоматически блокируя угрозу в случае обнаружения вредоносной активности. Системы песочниц создают виртуализированную среду, которая эмулирует рабочие условия операционной системы или сетевого окружения. Подозрительный объект исполняется в этой среде, а ИИ контролирует его действия, включая:

- доступ к системным файлам и реестру;

- установление сетевых соединений;

- изменение конфигураций системы;

- взаимодействие с другими файлами или процессами.

При обнаружении подозрительных действий, таких как попытки зашифровать данные (характерно для вирусов-вымогателей) или отправить данные на удаленный сервер, песочница блокирует объект и передает информацию для дальнейшего анализа. Однако, несмотря на высокую эффективность, системы-песочницы могут столкнуться с некоторыми проблемами:

- Сложные методы обхода. Современное вредоносное ПО часто снабжено механизма -ми, которые определяют выполнение в виртуальной среде и изменяют свое поведение, чтобы избежать детектирования.

- Высокая вычислительная нагрузка. Анализ сложных объектов требует значительных ресурсов, особенно если речь идет о системах с ИИ.

- Латентные угрозы. Некоторые угрозы активируются через значительное время, что затрудняет их обнаружение в рамках стандартного периода анализа.

Развитие технологий ИИ в кибербезопасности открывает новые горизонты в борьбе с угрозами. Однако вместе с преимуществами внедрения ИИ возникают значительные ограничения и риски, требующие детального анализа.

Эффективность ИИ напрямую зависит от объема и качества данных, используемых для обучения. Недостаток релевантных данных или наличие в них ошибок может привести к созданию моделей с низкой точностью [7]. Кроме того, вредоносные данные, наме-

индустридльндя экономика • № S1, 2024 1 45

ренно добавленные злоумышленниками в тренировочные наборы, могут дезориентировать систему и снизить ее эффективность.

Также, в настоящее время, злоумышленники начинают активно применять технологии ИИ для разработки более сложных угроз, таких как [8]:

- Adversarial attacks. Создание входных данных, вводящих модели в заблуждение (например, изменения в изображениях или текстах, которые ИИ классифицирует неправильно).

- Автоматизированные фишинг-атаки. Генерация высокоточных фишинговых писем с использованием NLP (Natural Language Processing), которые трудно отличить от настоящих.

- Deepfake. Использование технологий генерации видео и аудио для обмана систем безопасности или манипуляции людьми.

Немаловажным является и то, что широкое внедрение ИИ в кибербезопасность поднимает ряд этических и юридических проблем [9]:

- Прозрачность алгоритмов. Решения ИИ могут быть непрозрачными для пользователей, что затрудняет контроль за их действиями и выводами.

- Ответственность за ошибки. Неопределенность в том, кто несет ответственность за ущерб, вызванный ошибками системы ИИ.

- Конфиденциальность данных. Использование персональных данных для обучения моделей ИИ может нарушать права пользователей.

- Этичность применения. Возможность использования систем ИИ для массового наблюдения и нарушения приватности.

Все эти проблемы замедляют развитие ИИ в кибербезопасности.

Применение ИИ в кибербезопасности открывает широкие перспективы, но требует преодоления существующих ограничений и минимизации рисков.

Современные алгоритмы ИИ подвержены воздействию adversarial атак - ситуаций, когда злоумышленники создают данные, вводящие модели в заблуждение. Например, специально измененное изображение или файл может быть классифицирован как безопасный, даже если он содержит угрозу.

Чтобы противостоять этим вызовам, необходимо:

- Создание защищенных моделей. Разработка алгоритмов, устойчивых к манипуляциям, с использованием технологий adversarial training - обучения на данных, уже содержащих потенциальные ошибки.

- Интеграция моделей проверки. Построение многоуровневых систем, где результаты одной модели проверяются другой, что снижает вероятность ошибочных решений.

- Искусственный иммунитет. Имитация биологических защитных механизмов для построения моделей, способных адаптироваться к новым атакам.

Прозрачность алгоритмов ИИ важна для доверия пользователей и предотвращения ошибок, вызванных «черным ящиком» моделей. Кроме того, необходимо регулирование применения ИИ в рамках юридических и этических норм.

Меры по обеспечению прозрачности [10]:

- Explainable AI (XAI). Разработка алгоритмов, которые могут объяснять свои решения, показывая, какие данные и паттерны были использованы для анализа. Это критически важно для выявления ошибок и корректировки моделей.

- Нормативные акты. Создание правовой базы для применения ИИ в кибербезопасно-сти, регулирующей ответственность за действия систем и защищающей права пользователей.

- Общественные и корпоративные стандарты. Внедрение этических принципов использования ИИ, предотвращающих его применение для нарушений приватности или дискриминации.

Качество и разнообразие данных играют ключевую роль в обучении ИИ [11]. Без защищенных и релевантных наборов данных даже самые совершенные алгоритмы могут стать неэффективными или ошибочными. Основная работа должна проводиться в следующих направления:

- Создание защищенных баз данных. Фор -мирование наборов данных, которые невозможно манипулировать злоумышленникам. Это достигается через шифрование и вали-дацию данных.

- Обогащение данных. Использование глобальных источников информации для создания более полных и репрезентативных обучающих наборов. Например, объединение данных из разных стран или отраслей.

- Автоматическое дополнение данных. Применение технологий data augmentation, позволяющих генерировать новые данные на основе существующих для улучшения обучения моделей.

Таким образом, ИИ в кибербезопасности представляет собой не только технологический прорыв, но и критический инструмент для противодействия все более сложным угрозам. Технологии машинного обучения, искусственных нейронных сетей и обработки естественного языка позволяют системам выявлять угрозы, которые ранее оставались незамеченными, ускорять анализ инцидентов и минимизировать человеческий фактор. ИИ обеспечивает возможность проактивной защиты, предсказывая потенциальные атаки и предотвращая их до наступления реального ущерба. Это особенно важно в условиях стремительного роста объемов данных, многообразия угроз и усложнения их векторов.

Он способен автоматизировать рутинные задачи, такие как мониторинг сетевого трафика, фильтрация спама и анализ логов, освобождая время специалистов для решения стратегических задач. Кроме того, системы на основе ИИ значительно снижают вероятность человеческих ошибок, которые часто становятся причиной утечек данных. Однако, как и любая технология, ИИ не лишен ограничений. Эффективность алгоритмов зависит от качества данных, используемых для их обучения, а их зависимость от больших объемов информации создает риски для конфиденциальности. Более того, злоумышленники начинают активно применять ИИ для разработки новых, более сложных типов атак, включая атаки «adversarial» и «deepfake». Это создает ситуацию, где защитные и атакующие технологии развиваются параллельно. Одним из ключевых вызовов является необходимость соблюдения этических и правовых норм при использовании ИИ. Прозрачность алгоритмов, защита персональных данных и предотвращение злоупотреблений становятся приоритетными задачами для разработчиков и регуляторов.

Резюмируя все вышесказанное, можно сказать о том, что ИИ становится неотъемлемой частью современной цифровой инфраструктуры. Его успешное применение

требует не только технологического развития, но и комплексного подхода, который включает улучшение данных, внедрение этических норм и междисциплинарное взаимодействие. Только в этом случае ИИ сможет стать надежным инструментом для создания устойчивой и безопасной цифровой среды.

Список источников

1. ТАСС. URL: https://tass.ru/ekonomika/6209822 (дата обращения: 25.11.2024).

2. Отчет компании Symantec о современных угрозах. URL: https://www.einnews.com/pr_news/606505844/ cybercrime-damages-to-cost-the-world-8-trillion-usd-in-2023 (дата обращения: 25.11.2024).

3. Иэн Гудфеллоу, йошуа Бенжио, Аарон Курвиль. Deep Learning (2016).

4. О машинном обучении с точки зрения ИБ: реальная обстановка. URL: https://habr.com/ru/companies/pt/ articles/721930/ (дата обращения: 26.11.2024).

5. Как UEBA помогает повышать уровень кибербезопасности. URL: https://habr.com/ru/companies/roi4cio/ articles/436082/ (дата обращения: 26.11.2024)

6. Объем данных, создаваемых ежедневно. URL: https://explodingtopics.com/blog/data-generated-per-day (дата обращения: 27.11.2024).

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

7. Искусственный интеллект в кибербезопасности. URL: https://www.analyticsvidhya.com/blog/2023/02/ai-in-cyber-security/ (дата обращения: 28.11.2024).

8. Искусственный интеллект в кибератаках. URL: https://www.ptsecurity.com/ru-ru/research/analytics/ iskusstvennyj-intellekt-v-kiberatakah/#id1 (дата обращения: 28.11.2024).

9. Баюк Д. А., Попова А. В. Правовые и этические проблемы искусственного интеллекта. 2022.

10. Что такое объяснимый искусственный интеллект. URL: https://forklog.com/cryptorium/ai/chto-takoe-obyasnimyj-iskusstvennyj-intellekt-xai (дата обращения: 28.11.2024).

11. Почему при разработке ИИ главное - это данные. URL: https://habr.com/ru/articles/598479/ (дата обращения: 28.11.2024).

References

1. TASS. Access mode: https://tass.ru/ ekonomika/6209822 (accessed 11/25/2024).

2. Symantec's report on modern threats. Access mode: https://www.einnews.com/pr_news/606505844/ cybercrime-damages-to-cost-the-world-8-trillion-usd-in-2023 (accessed 11/25/2024).

3. Ian Goodfellow, Yoshua Bengio, Aaron Courville: Deep Learning (2016).

4. About machine learning from the point of view of information security: the real situation. Access mode: https://habr.com/ru/companies/pt/articles/721930 / (accessed 11/26/2024).

5. How UEBA helps to increase the level of cybersecurity. Access mode: https://habr.com/ru/companies/roi4cio/ articles/436082 / (accessed 11/26/2024).

6. The amount of data created daily. Access mode:

индустриальная ЭКОНОМИКА • № S1, 2024 1 47

https://explodingtopics.com/blog/data-generated-per-day (accessed 11/27/2024).

7. Artificial intelligence in cybersecurity. Access mode: https://www.analyticsvidhya.com/blog/2023/02/ai-in-cyber-security / (accessed 11/28/2024).

8. Artificial intelligence in cyber attacks. Access mode: https://www.ptsecurity.com/ru-ru/research/analytics/ iskusstvennyj-intellekt-v-kiberatakah/#id1 (accessed 11/28/2024).

9. Bayuk D.A., Popova A.V. Legal and ethical problems of artificial intelligence. 2022.

10. What is explicable artificial intelligence. Access mode: https://forklog.com/cryptorium/ai/chto-takoe-obyasnimyj-iskusstvennyj-intellekt-xai (accessed 11/28/2024).

11. Why the main thing in the development of AI is data. Access mode: https://habr.com/ru/articles/598479 / (accessed 11/28/2024).

i Надоели баннеры? Вы всегда можете отключить рекламу.