Статья:

DEEPFAKE-ТЕХНОЛОГИИ: ИДЕНТИФИКАЦИЯ, ИСПОЛЬЗОВАНИЕ В ПРЕСТУПНЫХ ЦЕЛЯХ И ПРАВОВЫЕ МЕХАНИЗМЫ БОРЬБЫ

Конференция: CCCXXIX Студенческая международная научно-практическая конференция «Молодежный научный форум»

Секция: Юриспруденция

Выходные данные
Куракин И.В., Лукьянцев Д.И. DEEPFAKE-ТЕХНОЛОГИИ: ИДЕНТИФИКАЦИЯ, ИСПОЛЬЗОВАНИЕ В ПРЕСТУПНЫХ ЦЕЛЯХ И ПРАВОВЫЕ МЕХАНИЗМЫ БОРЬБЫ // Молодежный научный форум: электр. сб. ст. по мат. CCCXXIX междунар. студ. науч.-практ. конф. № 3(329). URL: https://nauchforum.ru/archive/MNF_interdisciplinarity/3(329).pdf (дата обращения: 08.02.2026)
Лауреаты определены. Конференция завершена
Эта статья набрала 0 голосов
Мне нравится
Дипломы
лауреатов
Сертификаты
участников
Дипломы
лауреатов
Сертификаты
участников
на печатьскачать .pdfподелиться

DEEPFAKE-ТЕХНОЛОГИИ: ИДЕНТИФИКАЦИЯ, ИСПОЛЬЗОВАНИЕ В ПРЕСТУПНЫХ ЦЕЛЯХ И ПРАВОВЫЕ МЕХАНИЗМЫ БОРЬБЫ

Куракин Игорь Владимирович
студент, Саратовская государственная юридическая академия, РФ, г. Саратов
Лукьянцев Дмитрий Игоревич
студент, Саратовская государственная юридическая академия, РФ, г. Саратов
Ефремов Дмитрий Алексеевич
научный руководитель, Саратовская государственная юридическая академия, РФ, г. Саратов

 

Искусственный интеллект адаптируется в различных сферах жизнедеятельности и завоёвывает внимание как перспективное направление, автоматизирующее многие процессы и позволяющее человеку довести до совершенства свою деятельность.

Кроме позитивных направлений нейросети стали использовать и в преступных целях: создание голоса, видео и подобных элементов для мошенничества, шантажа, подрыва политической и общественной деятельности, а также создание иных угроз и совершение действий в преступных целях.

Наиболее проблемным аспектом, с которым необходимо, но достаточно сложно бороться из-за непоспевающей реакции органов власти за развитием цифровых технологий в преступной сфере являются deepfake-технологии – высокореалистичные аудио о видеоподделки. Человек, особенно старшее поколение, привык верить тому, что видит и слышит, однако на сегодняшний день это делать нужно с большой осторожностью из-за развития подлинной иллюзии восприятия информации, с помощью аудио и видео.

Сотрудники правоохранительных органов, как и органы власти в первую очередь заинтересованы в принятии мер относимо описываемого технологического явления поскольку:

- deepfake имеет распространение через мессенджеры, информацию от которых получить практически невозможно (касается иностранных приложений);

- законодательство не готово к регулированию таких явлений и до сих пор ведутся дискуссии о более эффективном решении вопроса;

- для признания аудио или видеозаписи неаутентичной требуется специальное оборудование, программное обеспечение.

Следует отметить ряд направлений, где сегодня используются deepfake-технологии [1, с.17]:

- клевета, шантаж и вымогательство;

- политические манипуляции и дезинформация;

- мошенничество и финансовые преступления;

- фальсификация доказательств в судопроизводстве;

- использование в «гибридной войне» и иные направления.

В связи с ростом киберпреступлений и масштабным ущербом, связанным с deepfake, члены законодательной власти выражают опасение в продолжении роста обмана через информационное поле и хотят действовать через введение маркировки на материал, созданный при помощи искусственного интеллекта.

Наравне с введением маркировки предлагается ввести санкции за нарушения для граждан и юридических лиц, выразившиеся в штрафах. Позиция членов Госдумы заключается в том, что при кодировке информации на аудио и видео будут либо каким-либо образом отображать создание с помощью нейросети, либо будут привлекаться к ответственности за неисполнение норме.

Однако представители средств массовой информации утверждают, что от изощренных мошеннических схем данный вариант не будет эффективен, а, наоборот, лишь повысит уровень обманов.

Мы согласны с опровержением идеи об эффективности маркировки, поскольку это будут использовать только добросовестные создатели медиа-продуктов, а против нарушителей, тем более использующих материал в преступных целях, необходимо переходить на крайние меры.

К примеру, обезопасить граждан от использования иностранными средствами общения, блокировав их, поскольку от заграничных представителей невозможно получить информацию, необходимую для расследования.

В отечественных мессенджерах ввести блокировку аудио и видео сообщений от номеров, которые не внесены в контакты пользователя. При этом внедрять нейросети, выявляющие и блокирующие подозрительные источники аудио и видео формата.

В качестве правовых мер требуется сделать акцент как на введении и ужесточении ответственности за распространение неаутентичных записей аудио и видео формата, углубить работу с платформами, специализирующимся на создании приложений для общения. В частности:

- криминализовать ответственность за создание и распространение deepfake информации в качестве аудио и видео материалов;

- укрепить взаимодействие на международной арене для борьбы с транснациональными  deepfake-технологиями;

- законодательно урегулировать возложение на социальные платформы ответственности за невыполнение превентивных мер по недопущению распространения противоправного контента. Вероятно, требовать прозрачности для правоохранительных органов при расследовании дел о мошенничестве, а также надзора за статистикой модерации материала;

- внести дополнения в гражданское законодательство о возможности требования запрета на рапространение deepfake, которые ущемляют честь, достоинство и деловую репутацию.

За рубежом принятие правовой базы для регулирования материала, созданного искусственным интеллектом появилось еще в 2023 году, когда Европейский парламент утвердил правила, заключающиеся в определение контента, созданного искусственным интеллектом, включая дипфейки, и признал полный запрет на использование искусственного интеллекта в биометрическом наблюдении, распознавании эмоций и прогнозировании преступного поведения[2].

Таким образом, обращение с искусственным интеллектом нуждается в срочном правовом регулировании во многих отраслях права из-за масштабного практического давления на граждан с помощью deepfake-технологий, посягательства на важные общественные отношения, а также в целом для стабилизации жизни в государстве.

 

Список литературы:
1. Пучнин, А. В. Технологии синтетической дезинформации (deepfake) как один из видов цифрового оружия XXI века / А. В. Пучнин, П. В. Миненко // Вестник Краснодарского университета МВД России. – 2025. – № 2(68). – С. 16-22. 
2. ЕС определил правила использования ИИ и маркировки ИИ-контента [электронный ресурс]. Режим доступа: https://shazoo.ru/2023/06/14/144607/es-opredelil-pravila-ispolzovaniia-ii-i-markirovki-ii-kontenta