Статья:

УГОЛОВНО-ПРАВОВАЯ ОЦЕНКА ДЕЯНИЙ, СОВЕРШЕННЫХ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Конференция: CCCXXVII Студенческая международная научно-практическая конференция «Молодежный научный форум»

Секция: Юриспруденция

Выходные данные
Шахно Д.Д., Голубицкий А.В. УГОЛОВНО-ПРАВОВАЯ ОЦЕНКА ДЕЯНИЙ, СОВЕРШЕННЫХ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА // Молодежный научный форум: электр. сб. ст. по мат. CCCXXVII междунар. студ. науч.-практ. конф. № 1(327). URL: https://nauchforum.ru/archive/MNF_interdisciplinarity/1(327).pdf (дата обращения: 03.02.2026)
Лауреаты определены. Конференция завершена
Эта статья набрала 0 голосов
Мне нравится
Дипломы
лауреатов
Сертификаты
участников
Дипломы
лауреатов
Сертификаты
участников
на печатьскачать .pdfподелиться

УГОЛОВНО-ПРАВОВАЯ ОЦЕНКА ДЕЯНИЙ, СОВЕРШЕННЫХ С ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Шахно Даниил Дмитриевич
студент, Белорусский государственный экономический университет, Республика Беларусь, г. Минск
Голубицкий Александр Витальевич
студент, Белорусский государственный экономический университет, Республика Беларусь, г. Минск
Таранова Ксения Николаевна
научный руководитель, канд. юрид. наук, Белорусский государственный экономический университет, Республика Беларусь, г. Минск

 

Современные технологии искусственного интеллекта активно проникают во все сферы общественной жизни, создавая не только новые возможности, но и существенные риски для охраняемых правом общественных отношений. Их использование в противоправных целях становится реальным вызовом для уголовного права Республики Беларусь, требующим теоретического осмысления и адаптации правоприменительной практики. Актуальность темы обусловлена стремительным развитием нейронных сетей, машинного обучения и самообучающихся алгоритмов, которые могут быть направлены на совершение общественно опасных деяний, при этом действующее уголовное законодательство не содержит специальных норм, учитывающих специфику таких технологий. Целью настоящего исследования является комплексный анализ уголовно-правовых аспектов использования искусственного интеллекта в преступных целях, выявление проблем квалификации и формулирование предложений по совершенствованию правового регулирования в данной сфере.

Искусственный интеллект как правовой феномен не имеет универсального и устоявшегося определения в национальном законодательстве. В доктрине под искусственным интеллектом понимают комплекс технологических решений, способных имитировать когнитивные функции человека, такие как обучение, анализ данных и принятие решений, в том числе посредством самообучения и адаптации [1]. Для целей уголовно-правовой оценки ключевым является не техническая сложность системы, а ее функциональная способность действовать автономно или с высокой степенью самостоятельности, выходящей за рамки предсказуемого исполнения заранее заложенного алгоритма. В уголовном праве искусственный интеллект рассматривается, прежде всего, как орудие или средство совершения преступления, а не как самостоятельный субъект ответственности, поскольку он лишен сознания, воли и способности осознавать общественную опасность своих действий [2]. Вместе с тем, его уникальная способность к самообучению и потенциальной автономизации существенно усложняет традиционные подходы к установлению причинно-следственной связи и вины.

Использование технологий искусственного интеллекта расширяет возможности и облегчает способы совершения целого ряда преступлений. Можно выделить несколько основных направлений противоправной деятельности. Во-первых, это экономические преступления, такие как мошенничество. Алгоритмы искусственного интеллекта применяются для создания дипфейков — поддельных видео- и аудиозаписей, имитирующих голос и внешность конкретных людей, с целью выманивания денег под предлогом помощи родственникам или распоряжений руководства. Также используются автоматизированные боты для взлома банковских счетов и систем электронных платежей. Во-вторых, широкий спектр составляют киберпреступления. Нейронные сети могут использоваться для генерации вредоносного программного обеспечения, проведения изощренных компьютерных атак, автоматического подбора паролей и несанкционированного доступа к информационным системам. В-третьих, искусственный интеллект применяется для совершения преступлений против личности и общественной безопасности. Ярким примером является распространение через социальные сети фейковых новостей и пропагандистских материалов, сгенерированных нейросетями с целью манипулирования общественным мнением, дестабилизации общественно-политической обстановки или вмешательства в избирательные процессы. Кроме того, существуют риски причинения вреда жизни и здоровью человека автономными системами, например, беспилотными транспортными средствами или медицинскими диагностическими комплексами, в случае сбоя или ошибки алгоритма. В-четвертых, искусственный интеллект может быть использован для посягательств на государственную безопасность, включая воздействие на критическую информационную инфраструктуру [3].

Основная уголовно-правовая проблематика деяний, совершенных с использованием искусственного интеллекта, вращается вокруг вопросов квалификации и определения субъекта ответственности. В соответствии с фундаментальными принципами уголовного права, основанием ответственности является совершение деяния, содержащего все признаки состава преступления. Ключевой дилеммой является правовая квалификация самого искусственного интеллекта: может ли он рассматриваться как субъект преступления или же всегда остается лишь инструментом в руках человека. Современная доктринальная позиция, разделяемая большинством исследователей, склоняется ко второму варианту. Искусственный интеллект не является ни физическим, ни юридическим лицом, не обладает правосубъектностью, сознанием, волей и, следовательно, не может быть носителем вины в ее уголовно-правовом понимании [2]. Таким образом, субъектом преступления выступает конкретное физическое лицо: разработчик, создавший систему с умыслом на ее противоправное использование; пользователь, применивший технологию для достижения преступного результата; либо иное лицо, допустившее неосторожность при проектировании, внедрении или эксплуатации системы, что привело к наступлению вредных последствий.

На практике возникают сложные ситуации, особенно когда вред причинен в результате действий автономной системы, поведение которой не было прямо запрограммировано человеком на совершение преступления, а стало следствием самообучения, ошибки проектирования или непредвиденного взаимодействия с окружающей средой. Классическим примером является смертельное дорожно-транспортное происшествие с участием беспилотного автомобиля. В таких случаях установление субъективной стороны — вины — становится нетривиальной задачей. Ответственность может быть возложена на разработчика, если будет доказано, что он при необходимой внимательности и предусмотрительности мог и должен был предвидеть возможность наступления общественно опасных последствий и не принял мер для их предотвращения. Также ответственность может нести владелец или оператор системы, нарушивший правила ее безопасной эксплуатации. Вопросы вызывает и установление причинно-следственной связи, особенно когда алгоритм искусственного интеллекта представляет собой «черный ящик» с непрозрачной внутренней логикой принятия решений, затрудняющей экспертный анализ. Правоприменительная практика сталкивается и с проблемой отставания законодательной базы. Действующий уголовный закон оперирует традиционными составами, такими как мошенничество, неправомерный доступ к компьютерной информации, создание вредоносных программ или причинение смерти по неосторожности. Хотя эти нормы могут быть применены и к деяниям с использованием искусственного интеллекта, они не учитывают его повышенную общественную опасность, связанную с масштабируемостью, анонимностью и трудностью обнаружения таких преступлений [3].

Для эффективного противодействия преступлениям, совершаемым с использованием технологий искусственного интеллекта, правовая система Республики Беларусь нуждается в последовательном развитии. Первоочередной задачей является формирование четкой терминологической базы и закрепление на законодательном уровне определения ключевых понятий, таких как «искусственный интеллект», «автономная система», «самообучающийся алгоритм». Это создаст основу для последующей конкретизации норм. В рамках совершенствования уголовного закона целесообразно рассмотреть возможность введения квалифицирующих признаков, указывающих на использование искусственного интеллекта при совершении традиционных преступлений, например, мошенничества или компьютерных преступлений. Это позволит адекватно учесть повышенную опасность и специфику таких деяний при назначении наказания. Кроме того, требуют развития криминалистические методики расследования, включая подготовку экспертов, способных анализировать алгоритмы и цифровые следы, оставляемые нейросетями. Важным направлением является также укрепление международного сотрудничества, поскольку преступления с использованием искусственного интеллекта часто носят трансграничный характер. Республике Беларусь, как активному участнику интеграционных процессов, следует гармонизировать свои подходы с международными стандартами и практиками, разрабатываемыми, в том числе, в рамках ООН и других международных организаций. Необходимо и развитие этических норм и стандартов для разработчиков и компаний, работающих в сфере искусственного интеллекта, что может служить профилактической мерой. Эти меры должны осуществляться в русле обеспечения национальной безопасности, как это определено в соответствующей концепции [7].

Таким образом, уголовно-правовая оценка деяний, совершенных с использованием технологий искусственного интеллекта, представляет собой комплексную и динамично развивающуюся проблему. На современном этапе искусственный интеллект обоснованно рассматривается как высокотехнологичное орудие преступления, а уголовная ответственность возлагается на физических лиц, причастных к его созданию или применению с нарушением закона [2, 3]. Однако стремительное развитие автономных систем ставит перед правовой наукой и законодателем долгосрочный вопрос о необходимости пересмотра классических доктринальных подходов к субъекту преступления и вине. Для Республики Беларусь ключевым является своевременная адаптация уголовного законодательства и правоприменительных механизмов к новым технологическим реалиям, что должно включать уточнение составов преступлений, развитие экспертного потенциала и усиление международного взаимодействия. Только комплексный и опережающий подход позволит обеспечить эффективную защиту охраняемых уголовным законом общественных отношений в условиях цифровой трансформации.

 

Список литературы:
1. Даниленко Ю. А. Использование искусственного интеллекта в преступных целях: уголовно-правовая характеристика // Ученые записки Крымского федерального университета имени В. И. Вернадского. Юридические науки. – 2023. – Т. 9 (75). № 4. – С. 232–240.
2. Карташов И. И., Карташов И. И. Искусственный интеллект как субъект уголовной ответственности: настоящее и перспективы // Право: история и современность. – 2021. – № 2 (15). – С. 68–78.
3. Корбут Н. В. Противоправное использование искусственного интеллекта: уголовно-правовая оценка // Universum: экономика и юриспруденция. – 2026. – № 1 (135). – С. 1–3.
4. Уголовный кодекс Республики Беларусь [Электронный ресурс] : 9 июля 1999 г. № 275-З : в ред. от 01.01.2025 // Национальный правовой Интернет-портал Республики Беларусь. – Режим доступа: https://pravo.by. – Дата доступа: 08.01.2026.
5. Мосечкин И. Н. Искусственный интеллект в уголовном праве: перспективы совершенствования охраны и регулирования : монография. – Киров : Вятский государственный университет, 2020. – 150 с.
6. Кибальник А. Г., Волосюк П. В. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Вестник Нижегородской академии МВД России. – 2018. – № 44. – С. 173–178.
7. Концепция национальной безопасности Республики Беларусь [Электронный ресурс] : утв. постановлением Всебелорус. нар. собр., 25 апр. 2024 г., № 1 // Национальный правовой Интернет-портал Республики Беларусь. – Режим доступа: https://pravo.by. – Дата доступа: 08.01.2026.