Статья:

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И КРИМИНОЛОГИЯ: ВОЗМОЖНОСТИ И УГРОЗЫ

Конференция: CCCXXVII Студенческая международная научно-практическая конференция «Молодежный научный форум»

Секция: Юриспруденция

Выходные данные
Карпова А.Д., Курьян М.Д. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И КРИМИНОЛОГИЯ: ВОЗМОЖНОСТИ И УГРОЗЫ // Молодежный научный форум: электр. сб. ст. по мат. CCCXXVII междунар. студ. науч.-практ. конф. № 1(327). URL: https://nauchforum.ru/archive/MNF_interdisciplinarity/1(327).pdf (дата обращения: 01.02.2026)
Лауреаты определены. Конференция завершена
Эта статья набрала 0 голосов
Мне нравится
Дипломы
лауреатов
Сертификаты
участников
Дипломы
лауреатов
Сертификаты
участников
на печатьскачать .pdfподелиться

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И КРИМИНОЛОГИЯ: ВОЗМОЖНОСТИ И УГРОЗЫ

Карпова Анастасия Дмитриевна
студент, Белорусский государственный экономический университет, Республика Беларусь, г. Минск
Курьян Маргарита Дмитриевна
студент, Белорусский государственный экономический университет, Республика Беларусь, г. Минск
Шемет Вадим Сергеевич
научный руководитель, канд. юрид. наук, доц., Белорусский государственный экономический университет, Республика Беларусь, г. Минск

 

Стремительное внедрение технологий искусственного интеллекта (ИИ) формирует ключевую проблему современной криминологии: одни и те же технологии порождают новые формы преступности и одновременно создают инструменты для борьбы с ней. ИИ превратился из объекта защиты в источник принципиально новых криминальных угроз, изучение которых требует учета его способности к самообучению и автономии [1, c. 768].

На наш взгляд, самой опасной проблемой может стать глубокая подделка (deepfakes) для шантажа и мошенничества. Создание реалистичных фальшивых аудио- и видеоматериалов создает прямые угрозы для безопасности личности, финансовой системы и политической стабильности. Правдоподобность таких материалов непрерывно растет, подрывая доверие к цифровой информации в целом [2, c. 99].

Еще одной из проблем может служить автономное вредоносное программное обеспечение (ПО).

Традиционные вирусы действуют по заранее заданному сценарию. Вредоносные программы, усиленные ИИ, становятся автономными агентами: они могут самостоятельно оценивать среду, тестировать уязвимости, выбирать оптимальный метод атаки и мутировать, чтобы избежать обнаружения. Генеративный ИИ резко снизил порог входа в киберпреступность, позволяя создавать сложные атаки без глубоких технических знаний, как это требовалось раньше.

Ключевая правовая коллизия связана с распределением ответственности за вред, причиненный в результате решений или действий автономных систем ИИ. В отличие от традиционных инструментов, где вина лежит на конкретном человеке (следователе, судье, операторе), ИИ создает ситуацию «разрыва ответственности». Круг потенциальных субъектов ответственности широк: разработчик алгоритма, производитель оборудования, организация, внедрившая и эксплуатирующая систему, или конечный оператор.

Многие современные модели ИИ, особенно на основе глубокого обучения, являются «черными ящиками»: даже их создатели не могут досконально объяснить, как именно система пришла к тому или иному выводу [3, с. 107]. Эта необъяснимость вступает в прямое противоречие с фундаментальными принципами правосудия.

Парадоксальным образом, технологии, создающие угрозы, предлагают и наиболее эффективные средства противодействия. Таким образом, центральной задачей является целенаправленная интеграция ИИ-инструментов в систему обеспечения правопорядка.

Современные технологии позволяют анализировать латентную преступность через цифровые следы и прогнозировать преступное поведение с помощью машинного обучения. Для этого, как отмечает А.С. Ильницкий, необходимо разрабатывать новые криминологические методики, включающие алгоритмы работы с конкретным программным обеспечением [4, с. 108]. Одним из таких методов является цифровое профилирование (Digital Profiling), помогающее создавать модель личности преступника на основе его сетевой активности, что особенно важно в борьбе с организованной и киберпреступностью [5, с. 195].

Системы анализа больших данных (Big Data) на основе ИИ способны быстро выявлять скрытые связи и сети организованной преступности. Такая предиктивная аналитика уже широко применяется в мировой практике. ИИ обладает уникальным потенциалом для обработки больших объемов информации, выявления неочевидных закономерностей и работы с цифровыми следами. Нейросети для распознавания лиц в системах видеонаблюдения и мобильных биометрических комплексах кардинально меняют возможности розыска и идентификации [6, с. 50].

При этом, как справедливо отмечает Е.А. Веревошнико, ИИ должен выступать именно как вспомогательный инструмент, автоматизирующий рутинные задачи, но не заменяющий человека в принятии процессуальных решений, что соответствует принципу оценки доказательств по внутреннему убеждению [7, с. 62]. ИИ оптимизирует работу за счет автоматизации (протоколирование, проверка документов, поиск прецедентов), позволяя специалистам сосредоточиться на сложной аналитике.

Однако на практике этот потенциал используется слабо. Опрос, приведенный А.С. Ильницким, свидетельствует о низком уровне внедрения (9%) и узком, преимущественно биометрическом, понимании ИИ среди сотрудников полиции, что указывает на серьезное кадровое отставание и необходимость специальных образовательных программ [4, с. 109].

Для успешной реализации возможностей ИИ необходимо параллельно развивать правовую базу, учитывая этические риски и консенсус исследователей о невозможности наделения ИИ правосубъектностью в уголовном процессе.

Таким образом, реализация потенциала ИИ в борьбе с преступностью возможна только при преодолении фундаментальных ограничений: проблемы «черного ящика», распределения ответственности и кадрового дефицита. Ключевым условием остается сохранение за человеком решающей роли, а за технологией ‒ статуса инструмента. Взвешенное внедрение, основанное на четком правовом регулировании и сохранении человеческого контроля, - обязательное условие для того, чтобы технологический прогресс укреплял, а не подрывал правосудие.

 

Список литературы:
1. Бегишев, И.Р. Криминологические риски применения искусственного интеллекта / И.Р. Бегишев, З.И. Хисамова // Всероссийский криминологический журнал. – 2018. – Т. 12. – № 6. – С. 767–775.
2. Ефремова, М.А. Дипфейк (deepfake) и уголовный закон / М.А. Ефремова, Е.А. Русскевич // Вестник Казанского юридического института МВД России. – 2024. – Т. 15. – №.2 (56). – С. 97–105.
3. Лапутько, К.В. Проблемы использования искусственного интеллекта в судебной экспертизе / К.В. Лапутько // Минск: ИВЦ Минфина, 2025. – C. 107–109. 
4. Ильницкий, А.С. Технологии искусственного интеллекта в криминологической науке и предупреждении преступлений / А.С. Ильницкий // Вестник Московского университета МВД России. – 2023. – № 7. – С. 105–111.
5. Исаева, М.А. Перспективы развития криминологии в киберпространстве / М.А. Исаева, О.А. Кислый // Эпомен. – 2021. – № 57. – С. 188–201. 
6. Мазуров, В.А. Искусственный интеллект как средство прогнозирования и противодействия преступности / В.А. Мазуров, М.А. Стародубцева // Российско-азиатский правовой журнал. – 2019. – № 3. – С. 46–50. 
7. Веревошников, Е.А. Перспективы применения технологий искусственного интеллекта в уголовном судопроизводстве / Е.А. Веревошников // Юридическая наука и правоохранительная практика. – 2025. – № 1 (71). – С. 59–67.