ИСПОЛЬЗОВАНИЕ НЕЙРОСЕТЕЙ В СОЗДАНИИ РЕКЛАМНОГО КОНТЕНТА: ЭФФЕКТИВНОСТЬ И ЭТИЧЕСКИЕ РИСКИ НА ПРИМЕРЕ КЕЙСОВ ЯНДЕКСА И СБЕРА
Журнал: Научный журнал «Студенческий форум» выпуск №23(332)
Рубрика: Социология

Научный журнал «Студенческий форум» выпуск №23(332)
ИСПОЛЬЗОВАНИЕ НЕЙРОСЕТЕЙ В СОЗДАНИИ РЕКЛАМНОГО КОНТЕНТА: ЭФФЕКТИВНОСТЬ И ЭТИЧЕСКИЕ РИСКИ НА ПРИМЕРЕ КЕЙСОВ ЯНДЕКСА И СБЕРА
ВВЕДЕНИЕ
Активное внедрение искусственного интеллекта в рекламную индустрию трансформирует способы создания рекламного контента и управления маркетинговыми коммуникациями. По данным Ассоциации коммуникационных агентств, в 2024 году 97 % агентств применяют ИИ‑технологии в рекламе, в том числе собственные разработки и ChatGPT, Midjourney, Yandex GPT [8].
"Искусственный интеллект - это ключевое направление технологического развития, которое будет определять будущее всего мира, которое также создаст новые стандарты в нашем образовании [6].
Генеративные модели позволяют быстро создавать визуальные креативы, что экономит время и ресурсы на производстве рекламных материалов, как минимум в процессе мозгового штурма и питчинга идей [8].
Одновременно с этим возникают серьёзные этические и правовые риски. Многие исследователи такие, как Анна Белоедова и Виктория Романова, анализируют эти аспекты в контексте автоматизации рекламных процессов в России [3].
В данной работе мы имеем цель проанализировать влияние нейросетей на рекламный рынок на основе кейсов Яндекса и Сбера. Компании одни из первых внедрили генеративные модели в свою систему, а сегодня занимают лидерские позиции в сфере ИИ в России [6].
МЕТОДЫ
В работе мы использовали следующие методы: контент-анализ и кейс-стади.
РЕЗУЛЬТАТЫ И ОБСУЖДЕНИЕ
Начнем с генеративных моделей Яндекса — YaGPT и Kandinsky. Компания применяет нейросети для автоматизации создания рекламного контента — текстового и визуального.
YaGPT — языковая модель, адаптированная под рекламный copywriting, запущенная в экосистеме «Яндекс.Директа» в 2023 году. Исследования компании показали, что YaGPT приносит до 15% дополнительных конверсий [10].
Kandinsky — открытая визуальная модель, применяемая для генерации баннеров. Например, в рекламной кампании Delivery Club использовали кадры с нейросетевыми иллюстрациями.
Далее рассмотрим генеративные модели Сбера — SberGPT и Salute AI. Компания применяет ИИ для создания игровых текстовых и голосовых рекламных материалов.
SberGPT используется для генерации сценариев рекламы и клиентских рассылок. Например, Сбер выпустил рекламный ролик, полностью сгенерированный нейросетью [12].
Однако есть случаи некорректного использования нейросети для генерации лживых отзывов в «СберМегаМаркет». Для борьбы с этим компания внедрила фильтр, который отслеживает ИИ-отзывы и отделяет их от настоящих [9].
Salute AI — голосовой ассистент, применяемый в рекламе и автоматических обзвонах клиентов. Данную нейросетевую модель применили для озвучки закадрового текста в рекламе Сбера [7].
Однако повышение оперативности и вовлечённости не компенсирует сниженные креативные, фактологические и этические качества, требуя гибридных моделей и контроля. Мы выделили следующие проблемы использования нейросетей:
Нарушение авторского права может приводить с судебным разбирательствам. Например, как с делом фотоагентства Getty Images и Stability AI, которые обучали свою нейросеть с помощью контента агентства. С момента появления ChatGPT и других ИИ-инструментов креативные индустрии столкнулись с юридическими и этическими вызовами [4].
Дискриминация нередко всплывает у нейросети. Например, ИИ Amazon отбирала только резюме мужчин, потому что IT-индустрии работают преимущественно мужчины — около 80% кадров [14]. Также существуют прецеденты с нейросетью, которая помогает полиции выявить потенциально опасные районы и указывала на места, где живут чернокожие [1].
Манипуляции и deepfake. Deepfake — это фотореалистичное изображение реального человека. У этого есть негативная сторона. Например, в 2019 году опубликовали дипфейк со спикером Палаты представителей США демократкой Нэнси Пелоси. Казалось, что она сильно пьяна, и СМИ стали критиковать ее. Только потом выяснили, что это был дипфейк [2].
В России, например, для борьбы с дипфейками в мае 2024 года Госдума внесла законопроект об уголовной ответственности за мошеннические дипфейки [5].
В Российской практике на данный момент только разрабатывается закон о маркировке ИИ-контента [11]. Сегодня некоторые компании добровольно маркируют рекламу с пометкой «создано с ИИ». Например, в 2024 году Яндекс объявил об этом [13].
В связи с этим мы считаем, что необходимо: ввести обязательную маркировку ИИ-контента, дополнительно редактировать ИИ-контент, использовать легальные данные, проводить мониторинг на наличие рисков, а также повышать медиаграмотность населения. Регуляторные тренды и научный анализ указывают на необходимое сочетание законодательных и организационных мер для безопасного внедрения ИИ в рекламу.
ВЫВОДЫ
На основе анализа кейсов Яндекса и Сбера мы пришли к выводу, что несмотря на существенное ускорение производства, существуют этические проблемы, которые необходимо урегулировать на государственном уровне.
