Статья:

ИСПОЛЬЗОВАНИЕ DEEPFAKE В МОШЕННИЧЕСТВЕ И КЛЕВЕТЕ

Журнал: Научный журнал «Студенческий форум» выпуск №20(329)

Рубрика: Юриспруденция

Выходные данные
Каграманян И.Д. ИСПОЛЬЗОВАНИЕ DEEPFAKE В МОШЕННИЧЕСТВЕ И КЛЕВЕТЕ // Студенческий форум: электрон. научн. журн. 2025. № 20(329). URL: https://nauchforum.ru/journal/stud/329/173921 (дата обращения: 08.06.2025).
Журнал опубликован
Мне нравится
на печатьскачать .pdfподелиться

ИСПОЛЬЗОВАНИЕ DEEPFAKE В МОШЕННИЧЕСТВЕ И КЛЕВЕТЕ

Каграманян Ирма Давидовна
студент Юридического института, Северо-Кавказский федеральный университет, РФ, г. Ставрополь
Щербалёв Андрей Андреевич
научный руководитель, ассистент кафедры уголовного права и процесса, Юридического института, Северо-Кавказский федеральный университет, РФ, г. Ставрополь

 

Современные технологии искусственного интеллекта (ИИ) открыли новые возможности для цифровых манипуляций, среди которых особую опасность представляет deepfake (от англ. deep learning и fake). Эта технология позволяет создавать высококачественные поддельные изображения, аудио- и видеозаписи, где люди говорят или совершают действия, которых в реальности не было. 

Deepfake активно используется в преступных целях: от финансового мошенничества до клеветы и политических провокаций. В данной статье рассматриваются криминалистические аспекты применения deepfake, методы их обнаружения и противодействия. 

Одним из самых распространенных способов использования deepfake является обман с целью хищения денежных средств. Преступники применяют следующие схемы: фальшивые звонки от руководства, видео с «родственниками в беде», обход биометрической защиты:

- с помощью ИИ-синтеза голоса мошенники, например, имитируют речь директора компании, давая указания на перевод крупных сумм;

- создаются поддельные ролики, где якобы близкий человек просит срочно перевести деньги на «спасение»;

- некоторые банковские системы, использующие распознавание лица или голоса, могут быть взломаны с помощью deepfake.    

Технология активно используется для дискредитации людей с применением  фальшивых компроматов и поддельных интервью и заявлений:

- создаются поддельные видео с участием политиков, бизнесменов или знаменитостей, где они якобы совершают противоправные или аморальные действия;

- мошенники генерируют ложные высказывания от имени известных персон, что может спровоцировать скандалы, панику.

Для выявления подделок применяются технический анализ артефактов, использование ИИ-детекторов,  биометрическая экспертиза.  

При детальном изучении deepfake-материалов можно обнаружить ряд аномалий: 

- неестественная мимика – отсутствие синхронности движений губ и речи, редкое моргание. 

- артефакты в изображении – размытость в области волос, неестественные тени, искажения на границах объектов. 

- аномалии в аудиодорожке – цифровой металлический оттенок голоса, неестественные паузы. 

Для автоматического выявления deepfake разрабатываются специализированные нейросетевые модели: 

- Microsoft Video Authenticator – анализирует микроизменения в цвете и текстуре кожи; 

- Deepfake Detection Challenge (DFDC) от Facebook* – открытый алгоритм для поиска поддельных видео; 

- Forensic-анализ метаданных – проверка исходных параметров записи (формат, частота кадров, сжатие); 

- анализ микроэкспрессий (кратковременных изменений мимики, которые сложно подделать). 

- проверка физиологических параметров (пульс по изменению цвета кожи, движение зрачков). 

Повсеместно с подобным мошенничеством ведется борьба на различных уровнях. В частности, вводятся правовые, просветительские и технические меры противодействия: 

- законодательное регулирование (в некоторых странах уже введена уголовная ответственность за создание и распространение deepfake с преступными целями);  

- цифровая маркировка контента (использование блокчейна для подтверждения подлинности видео);  

- повышение осведомленности – обучение людей распознаванию фейков.  

Deepfake представляет серьезную угрозу для общества, поскольку стирает грань между реальностью и подделкой. Криминалистика должна активно развивать методы детекции таких технологий, а правоохранительные органы – оперативно реагировать на новые схемы мошенничества. Только комплексный подход (технический, юридический и просветительский) позволит минимизировать риски, связанные с deepfake.  

 

Список литературы:
1. Васюков В. Ф., Волеводз А. Г., Долгиева М. М., Чаплыгина В. Н. Преступления в сфере высоких технологий и информационной безопасности. — М.: Общество с ограниченной ответственностью «Издательство Прометей», 2023. — 1086 с.
2. Долгиева М. М. Криптопреступность в условиях специальной военной операции и западных санкций //Актуальные проблемы российского права. — 2022. — Т. 17. — № 8 (141). — С. 144–149.
3. Противодействие преступлениям, совершаемым в сфере информационных технологий: учебник /под науч. ред. И. А. Калиниченко. — М.: ИнфраМ, 2023. — 642 с.
4. Расследование преступлений с использованием компьютерной информации из сети Интернет : учеб.пособие / под ред. д-ра юрид. наук, доц. А. Г. Волеводза. — М.: Проспект, 2022. — 200 с.
 

*социальная сеть, запрещенная на территории РФ, как продукт организации Meta, признанной экстремистской – прим. ред.