ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И КРИМИНОЛОГИЯ: ВОЗМОЖНОСТИ И УГРОЗЫ
Конференция: CCCXXVII Студенческая международная научно-практическая конференция «Молодежный научный форум»
Секция: Юриспруденция
лауреатов
участников
лауреатов


участников



CCCXXVII Студенческая международная научно-практическая конференция «Молодежный научный форум»
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И КРИМИНОЛОГИЯ: ВОЗМОЖНОСТИ И УГРОЗЫ
Стремительное внедрение технологий искусственного интеллекта (ИИ) формирует ключевую проблему современной криминологии: одни и те же технологии порождают новые формы преступности и одновременно создают инструменты для борьбы с ней. ИИ превратился из объекта защиты в источник принципиально новых криминальных угроз, изучение которых требует учета его способности к самообучению и автономии [1, c. 768].
На наш взгляд, самой опасной проблемой может стать глубокая подделка (deepfakes) для шантажа и мошенничества. Создание реалистичных фальшивых аудио- и видеоматериалов создает прямые угрозы для безопасности личности, финансовой системы и политической стабильности. Правдоподобность таких материалов непрерывно растет, подрывая доверие к цифровой информации в целом [2, c. 99].
Еще одной из проблем может служить автономное вредоносное программное обеспечение (ПО).
Традиционные вирусы действуют по заранее заданному сценарию. Вредоносные программы, усиленные ИИ, становятся автономными агентами: они могут самостоятельно оценивать среду, тестировать уязвимости, выбирать оптимальный метод атаки и мутировать, чтобы избежать обнаружения. Генеративный ИИ резко снизил порог входа в киберпреступность, позволяя создавать сложные атаки без глубоких технических знаний, как это требовалось раньше.
Ключевая правовая коллизия связана с распределением ответственности за вред, причиненный в результате решений или действий автономных систем ИИ. В отличие от традиционных инструментов, где вина лежит на конкретном человеке (следователе, судье, операторе), ИИ создает ситуацию «разрыва ответственности». Круг потенциальных субъектов ответственности широк: разработчик алгоритма, производитель оборудования, организация, внедрившая и эксплуатирующая систему, или конечный оператор.
Многие современные модели ИИ, особенно на основе глубокого обучения, являются «черными ящиками»: даже их создатели не могут досконально объяснить, как именно система пришла к тому или иному выводу [3, с. 107]. Эта необъяснимость вступает в прямое противоречие с фундаментальными принципами правосудия.
Парадоксальным образом, технологии, создающие угрозы, предлагают и наиболее эффективные средства противодействия. Таким образом, центральной задачей является целенаправленная интеграция ИИ-инструментов в систему обеспечения правопорядка.
Современные технологии позволяют анализировать латентную преступность через цифровые следы и прогнозировать преступное поведение с помощью машинного обучения. Для этого, как отмечает А.С. Ильницкий, необходимо разрабатывать новые криминологические методики, включающие алгоритмы работы с конкретным программным обеспечением [4, с. 108]. Одним из таких методов является цифровое профилирование (Digital Profiling), помогающее создавать модель личности преступника на основе его сетевой активности, что особенно важно в борьбе с организованной и киберпреступностью [5, с. 195].
Системы анализа больших данных (Big Data) на основе ИИ способны быстро выявлять скрытые связи и сети организованной преступности. Такая предиктивная аналитика уже широко применяется в мировой практике. ИИ обладает уникальным потенциалом для обработки больших объемов информации, выявления неочевидных закономерностей и работы с цифровыми следами. Нейросети для распознавания лиц в системах видеонаблюдения и мобильных биометрических комплексах кардинально меняют возможности розыска и идентификации [6, с. 50].
При этом, как справедливо отмечает Е.А. Веревошнико, ИИ должен выступать именно как вспомогательный инструмент, автоматизирующий рутинные задачи, но не заменяющий человека в принятии процессуальных решений, что соответствует принципу оценки доказательств по внутреннему убеждению [7, с. 62]. ИИ оптимизирует работу за счет автоматизации (протоколирование, проверка документов, поиск прецедентов), позволяя специалистам сосредоточиться на сложной аналитике.
Однако на практике этот потенциал используется слабо. Опрос, приведенный А.С. Ильницким, свидетельствует о низком уровне внедрения (9%) и узком, преимущественно биометрическом, понимании ИИ среди сотрудников полиции, что указывает на серьезное кадровое отставание и необходимость специальных образовательных программ [4, с. 109].
Для успешной реализации возможностей ИИ необходимо параллельно развивать правовую базу, учитывая этические риски и консенсус исследователей о невозможности наделения ИИ правосубъектностью в уголовном процессе.
Таким образом, реализация потенциала ИИ в борьбе с преступностью возможна только при преодолении фундаментальных ограничений: проблемы «черного ящика», распределения ответственности и кадрового дефицита. Ключевым условием остается сохранение за человеком решающей роли, а за технологией ‒ статуса инструмента. Взвешенное внедрение, основанное на четком правовом регулировании и сохранении человеческого контроля, - обязательное условие для того, чтобы технологический прогресс укреплял, а не подрывал правосудие.

