ИСПОЛЬЗОВАНИЕ DEEPFAKE В МОШЕННИЧЕСТВЕ И КЛЕВЕТЕ
Журнал: Научный журнал «Студенческий форум» выпуск №20(329)
Рубрика: Юриспруденция

Научный журнал «Студенческий форум» выпуск №20(329)
ИСПОЛЬЗОВАНИЕ DEEPFAKE В МОШЕННИЧЕСТВЕ И КЛЕВЕТЕ
Современные технологии искусственного интеллекта (ИИ) открыли новые возможности для цифровых манипуляций, среди которых особую опасность представляет deepfake (от англ. deep learning и fake). Эта технология позволяет создавать высококачественные поддельные изображения, аудио- и видеозаписи, где люди говорят или совершают действия, которых в реальности не было.
Deepfake активно используется в преступных целях: от финансового мошенничества до клеветы и политических провокаций. В данной статье рассматриваются криминалистические аспекты применения deepfake, методы их обнаружения и противодействия.
Одним из самых распространенных способов использования deepfake является обман с целью хищения денежных средств. Преступники применяют следующие схемы: фальшивые звонки от руководства, видео с «родственниками в беде», обход биометрической защиты:
- с помощью ИИ-синтеза голоса мошенники, например, имитируют речь директора компании, давая указания на перевод крупных сумм;
- создаются поддельные ролики, где якобы близкий человек просит срочно перевести деньги на «спасение»;
- некоторые банковские системы, использующие распознавание лица или голоса, могут быть взломаны с помощью deepfake.
Технология активно используется для дискредитации людей с применением фальшивых компроматов и поддельных интервью и заявлений:
- создаются поддельные видео с участием политиков, бизнесменов или знаменитостей, где они якобы совершают противоправные или аморальные действия;
- мошенники генерируют ложные высказывания от имени известных персон, что может спровоцировать скандалы, панику.
Для выявления подделок применяются технический анализ артефактов, использование ИИ-детекторов, биометрическая экспертиза.
При детальном изучении deepfake-материалов можно обнаружить ряд аномалий:
- неестественная мимика – отсутствие синхронности движений губ и речи, редкое моргание.
- артефакты в изображении – размытость в области волос, неестественные тени, искажения на границах объектов.
- аномалии в аудиодорожке – цифровой металлический оттенок голоса, неестественные паузы.
Для автоматического выявления deepfake разрабатываются специализированные нейросетевые модели:
- Microsoft Video Authenticator – анализирует микроизменения в цвете и текстуре кожи;
- Deepfake Detection Challenge (DFDC) от Facebook* – открытый алгоритм для поиска поддельных видео;
- Forensic-анализ метаданных – проверка исходных параметров записи (формат, частота кадров, сжатие);
- анализ микроэкспрессий (кратковременных изменений мимики, которые сложно подделать).
- проверка физиологических параметров (пульс по изменению цвета кожи, движение зрачков).
Повсеместно с подобным мошенничеством ведется борьба на различных уровнях. В частности, вводятся правовые, просветительские и технические меры противодействия:
- законодательное регулирование (в некоторых странах уже введена уголовная ответственность за создание и распространение deepfake с преступными целями);
- цифровая маркировка контента (использование блокчейна для подтверждения подлинности видео);
- повышение осведомленности – обучение людей распознаванию фейков.
Deepfake представляет серьезную угрозу для общества, поскольку стирает грань между реальностью и подделкой. Криминалистика должна активно развивать методы детекции таких технологий, а правоохранительные органы – оперативно реагировать на новые схемы мошенничества. Только комплексный подход (технический, юридический и просветительский) позволит минимизировать риски, связанные с deepfake.
*социальная сеть, запрещенная на территории РФ, как продукт организации Meta, признанной экстремистской – прим. ред.
