Статья:

КЛАССИФИКАЦИЯ И АНАЛИЗ УГРОЗ БЕЗОПАСНОСТИ, ВОЗНИКАЮЩИХ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КИБЕРАТАКАХ

Конференция: LXXXVII Международная научно-практическая конференция «Научный форум: инновационная наука»

Секция: Технические науки

Выходные данные
Папоротный Н.В. КЛАССИФИКАЦИЯ И АНАЛИЗ УГРОЗ БЕЗОПАСНОСТИ, ВОЗНИКАЮЩИХ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КИБЕРАТАКАХ // Научный форум: Инновационная наука: сб. ст. по материалам LXXXVII междунар. науч.-практ. конф. — № 8(87). — М., Изд. «МЦНО», 2025.
Конференция завершена
Мне нравится
на печатьскачать .pdfподелиться

КЛАССИФИКАЦИЯ И АНАЛИЗ УГРОЗ БЕЗОПАСНОСТИ, ВОЗНИКАЮЩИХ ПРИ ИСПОЛЬЗОВАНИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В КИБЕРАТАКАХ

Папоротный Никита Владимирович
исследователь, РФ, г. Краснодар

 

CLASSIFICATION AND ANALYSIS OF SECURITY THREATS ARISING FROM THE USE OF ARTIFICIAL INTELLIGENCE IN CYBER ATTACKS

 

Nikita Paporotny

researcher, Russia, Krasnodar

 

Аннотация. С резким скачком технологий машинного обучения мир кибербезопасности изменился. Для выполнения базовых атак достаточно качественно описать, что необходимо, и искусственный интеллект (ИИ) сделает это. ИИ в автоматическом режиме обрабатывает большой массив информации и представляет в нужном виде, что позволяет проводить целенаправленную фишинговую атаку. В статье рассматривается роль (ИИ) в проведении кибератак.

Abstract. With the surge in machine learning technologies, the world of cybersecurity has changed. To perform basic attacks, it is enough to describe qualitatively what is needed, and artificial intelligence (AI) will do it. AI automatically processes a large amount of information and presents it in the desired form, which allows for a targeted phishing attack. The article discusses the role of (AI) in conducting cyber attacks.

 

Ключевые слова: deepfake; C&C; кибербезопасность; искусственный интеллект; фишинг.

Keywords: deepfake; C&C; cybersecurity; artificial intelligence; phishing.

 

В 2023 году ИИ шагнул далеко вперед [2]. На сегодняшний день, технологии машинного обучения используются повсеместно. Технологии ИИ внедряются в различные отрасли: в промышленность, медицину, сельское хозяйство, торговлю, индустрию развлечений. ИИ применяется для различных задач автоматизации рабочих процессов. Широкие возможности машинного обучения имеют большой потенциал, и привлекают внимание киберпреступников.

Злоумышленники внедряют возможности ИИ в различные этапы атаки на компьютерную систему. В этой статье мы обсудим, как ИИ способствует проведению успешных атак.

Противодействовать ИИ может только ИИ. Необходимо создать классификацию использования ИИ при проведении кибератак. Отправной точкой для формирования классификация определим методологию «Penetration Testing Execution Standard» [5].

Классификация применения ИИ в кибератаках выглядит следующим образом:

  1. Разведка и сбор информации.
  2. Моделирование архитектуры.
  3. Анализ уязвимостей.
  4. Создание полезной нагрузки.
  5. Доставка полезной нагрузки.
  6. Эксплуатация уязвимостей.
  7. Создание точки опоры.
  8. Управление и контроль.
  9. Действие на цели.

На этапе разведки и сбора информации ИИ может: анализировать общедоступные источники (социальные сети, веб-сайты, базы данных) и находить утекшие учетные данные и конфиденциальную информацию, профилировать сотрудников организации, для определения их роль в организации, оптимизировать процесс сканирование, сосредотачиваясь на наиболее вероятных уязвимых сервисах, представлять данные в любом формате для использования в других инструментах.

На втором этапе, с применением ИИ возможно практически полностью воссоздать архитектуру исследуемого приложения. Провести предварительное тестирование используемых технологий. Посмотреть, как работают сервисы, как происходит обмен данными.

На третьем этапе, при наличии исходного кода, ИИ анализирует и показывает известные уязвимости в коде [1], которые можно поэксплуатировать. С применением ИИ этот процесс становится мгновенным.

На этапе создания полезной нагрузки ИИ генерирует вредоносный код: полиморфные и метаморфические вирусы, способные избегать обнаружения сигнатурными антивирусами, так же возможна обфускация кода, чтобы его было сложнее проанализировать и обнаружить. Применение ИИ способно адаптировать полезную нагрузку под любую операционную систему.

Доставка полезной нагрузки с применением ИИ перешла на новый этап персонализированного фишинга «deepfake» [4]. ИИ генерирует фишинговые сообщения под конкретного пользователя, позволяет использовать дипфейки, для выдачи себя за доверенных лиц, рассылает спам-сообщения с вредоносным содержимым, определяет оптимальные пути доставки вредоносного ПО, избегая систем обнаружения вторжений и использует машинное обучение для адаптации процесса взлома паролей к конкретным пользователям [1], анализирую их имена, даты рождения, увлечения, род занятий и другую информацию.

На этапе эксплуатации уязвимостей ИИ может: автоматически эксплуатировать известные уязвимости, анализировать работы систем защиты (антивирусов, фаерволов, систем обнаружения вторжений),

ИИ способен создавать хорошие точки опоры, обходить стандартные механизмы защиты операционной системы, скрываться от обнаружения, использую техники руткитов и стеганографии, и присутствовать в системе, даже после перезагрузки.

На этапе управления и контроля ИИ может: автоматически создавать и поддерживать инфраструктуру управления и контроля (C&C), включая регистрацию новых доменов, перенаправление и шифрование трафика, менять местоположение, чтобы обойти ограничения и блокировку, применять приемы инкапсуляции и эксфильтрации данных и управлять ботнетами.

На финальном этапе, ради которого осуществлялась атака, ИИ может: находить и идентифицировать критическую информацию, шифровать данные, координировать DDoS-атаки и распространять дезинформацию [3].

Таким образом, ИИ может изменить баланс сил между атакующими и защищающими. Появляются новые средства защиты, механизмы которых используют технологии машинного обучения для обнаружения кибератак, но целевую систему изучают месяцами, что дает злоумышленникам некое преимущество. Изучение и освещение данной темы, поможет специалистам по информационной безопасности выстраивать защиту целевой системы, которая сможет противодействовать угрозам реального времени.

 

Список литературы:
1. ИИ атакует, ИИ защищает: как использовать нейросети в ИБ. — [Электронный ресурс] — Режим доступа — URL: https://habr.com/ru/companies/bitrix/articles/927564/ (дата обращения: 06.08.2025).
2. Искусственный интеллект в кибератаках. — [Электронный ресурс] — Режим доступа — URL: https://ptsecurity.com/ru-ru/research/analytics/iskusstvennyj-intellekt-v-kiberatakah/ (дата обращения: 06.08.2025).
3. DDoS-атаки на основе искусственного интеллекта: адаптивность и автоматизация на службе преступности. — [Электронный ресурс] — Режим доступа — URL: https://tiinside.com.br/ru/22/05/2024/ataques-ddos-baseados-em-inteligencia-artificial-adaptabilidade-e-automacao-a-servico-do-crime/ (дата обращения: 06.08.2025).
4. DeepFake: A Deep Learning Approach in Artificial Content Generation. — [Электронный ресурс] — Режим доступа — URL: https://medium.com/@gupta.brij/deepfake-a-deep-learning-approach-in-artificial-content-generation-a626ceebe48f (дата обращения: 06.08.2025).
5. High Level Organization of the Standard — [Электронный ресурс] — Режим доступа — URL: http://www.pentest-standard.org/index.php/Main_Page (дата обращения: 06.08.2025).