DEEPFAKE-ТЕХНОЛОГИИ: ИДЕНТИФИКАЦИЯ, ИСПОЛЬЗОВАНИЕ В ПРЕСТУПНЫХ ЦЕЛЯХ И ПРАВОВЫЕ МЕХАНИЗМЫ БОРЬБЫ
Конференция: CCCXXIX Студенческая международная научно-практическая конференция «Молодежный научный форум»
Секция: Юриспруденция
лауреатов
участников
лауреатов


участников



CCCXXIX Студенческая международная научно-практическая конференция «Молодежный научный форум»
DEEPFAKE-ТЕХНОЛОГИИ: ИДЕНТИФИКАЦИЯ, ИСПОЛЬЗОВАНИЕ В ПРЕСТУПНЫХ ЦЕЛЯХ И ПРАВОВЫЕ МЕХАНИЗМЫ БОРЬБЫ
Искусственный интеллект адаптируется в различных сферах жизнедеятельности и завоёвывает внимание как перспективное направление, автоматизирующее многие процессы и позволяющее человеку довести до совершенства свою деятельность.
Кроме позитивных направлений нейросети стали использовать и в преступных целях: создание голоса, видео и подобных элементов для мошенничества, шантажа, подрыва политической и общественной деятельности, а также создание иных угроз и совершение действий в преступных целях.
Наиболее проблемным аспектом, с которым необходимо, но достаточно сложно бороться из-за непоспевающей реакции органов власти за развитием цифровых технологий в преступной сфере являются deepfake-технологии – высокореалистичные аудио о видеоподделки. Человек, особенно старшее поколение, привык верить тому, что видит и слышит, однако на сегодняшний день это делать нужно с большой осторожностью из-за развития подлинной иллюзии восприятия информации, с помощью аудио и видео.
Сотрудники правоохранительных органов, как и органы власти в первую очередь заинтересованы в принятии мер относимо описываемого технологического явления поскольку:
- deepfake имеет распространение через мессенджеры, информацию от которых получить практически невозможно (касается иностранных приложений);
- законодательство не готово к регулированию таких явлений и до сих пор ведутся дискуссии о более эффективном решении вопроса;
- для признания аудио или видеозаписи неаутентичной требуется специальное оборудование, программное обеспечение.
Следует отметить ряд направлений, где сегодня используются deepfake-технологии [1, с.17]:
- клевета, шантаж и вымогательство;
- политические манипуляции и дезинформация;
- мошенничество и финансовые преступления;
- фальсификация доказательств в судопроизводстве;
- использование в «гибридной войне» и иные направления.
В связи с ростом киберпреступлений и масштабным ущербом, связанным с deepfake, члены законодательной власти выражают опасение в продолжении роста обмана через информационное поле и хотят действовать через введение маркировки на материал, созданный при помощи искусственного интеллекта.
Наравне с введением маркировки предлагается ввести санкции за нарушения для граждан и юридических лиц, выразившиеся в штрафах. Позиция членов Госдумы заключается в том, что при кодировке информации на аудио и видео будут либо каким-либо образом отображать создание с помощью нейросети, либо будут привлекаться к ответственности за неисполнение норме.
Однако представители средств массовой информации утверждают, что от изощренных мошеннических схем данный вариант не будет эффективен, а, наоборот, лишь повысит уровень обманов.
Мы согласны с опровержением идеи об эффективности маркировки, поскольку это будут использовать только добросовестные создатели медиа-продуктов, а против нарушителей, тем более использующих материал в преступных целях, необходимо переходить на крайние меры.
К примеру, обезопасить граждан от использования иностранными средствами общения, блокировав их, поскольку от заграничных представителей невозможно получить информацию, необходимую для расследования.
В отечественных мессенджерах ввести блокировку аудио и видео сообщений от номеров, которые не внесены в контакты пользователя. При этом внедрять нейросети, выявляющие и блокирующие подозрительные источники аудио и видео формата.
В качестве правовых мер требуется сделать акцент как на введении и ужесточении ответственности за распространение неаутентичных записей аудио и видео формата, углубить работу с платформами, специализирующимся на создании приложений для общения. В частности:
- криминализовать ответственность за создание и распространение deepfake информации в качестве аудио и видео материалов;
- укрепить взаимодействие на международной арене для борьбы с транснациональными deepfake-технологиями;
- законодательно урегулировать возложение на социальные платформы ответственности за невыполнение превентивных мер по недопущению распространения противоправного контента. Вероятно, требовать прозрачности для правоохранительных органов при расследовании дел о мошенничестве, а также надзора за статистикой модерации материала;
- внести дополнения в гражданское законодательство о возможности требования запрета на рапространение deepfake, которые ущемляют честь, достоинство и деловую репутацию.
За рубежом принятие правовой базы для регулирования материала, созданного искусственным интеллектом появилось еще в 2023 году, когда Европейский парламент утвердил правила, заключающиеся в определение контента, созданного искусственным интеллектом, включая дипфейки, и признал полный запрет на использование искусственного интеллекта в биометрическом наблюдении, распознавании эмоций и прогнозировании преступного поведения[2].
Таким образом, обращение с искусственным интеллектом нуждается в срочном правовом регулировании во многих отраслях права из-за масштабного практического давления на граждан с помощью deepfake-технологий, посягательства на важные общественные отношения, а также в целом для стабилизации жизни в государстве.

