Видеовопрос от "самого себя" получил президент России в ходе прямой линии "Итоги года с Владимиром Путиным", которая прошла 14 декабря. Студент из СПбГУ обратился к главе государства с помощью дипфейка и спросил, правда ли, что у него много двойников. Вместе с тем он попросил уточнить, как глава государства относится к технологиям искусственного интеллекта.
Фактчекинговый проект "Лапша Медиа" проверил видео с помощью системы "Зефир" (18+), разработанной АНО "Диалог Регионы". Нейросетевые модели системы "Зефир" сработали с максимальной уверенностью в 76—78% на сфабрикованные фрагменты длительностью более 5 секунд. Итоговая оценка системы с учетом особенностей методологии выявления дипфейков — 78%.
Специалисты отметили, что созданный дипфейк оказался высокого качества, так как для воплощения идеи юноша взял реальную запись с участием президента в видеоконференции, состоявшейся 25 января 2021 года по случаю Дня российского студенчества.
"Ролик создан нейросетями и на хорошем уровне. Для создания качественных дипфейков существуют различные подходы, причем не всегда связанные с полной генерацией ИИ-контента. Как правило, для создания ролика подбирается актер, максимально похожий на целевую персону, на которую делается дипфейк. Лучший кандидат на эту роль — сам человек. Так и произошло с данным дипфейком", — прокомментировал начальник аналитического отдела АНО "Диалог Регионы" Сергей Маклаков.
Он добавил, что сегодня заметно растет количество таких атак, и такой формат становится популярнее. Речь идет именно о случаях, когда берут оригинальные видео из сети и с помощью липсинка и генерации речи создают очень правдободобные дипфейки с абсолютно реальным окружением. Это может быть дополнительным фактором "успеха" для введения пользователей в заблуждение.
"В связи с этой тенденцией, важно иметь возможность оперативно детектировать подобные фейки, чтобы минимизировать риски, когда ИИ и нейросети используют в менее добрых целях. Именно на это работает наша система "Зефир", — подчеркнул Сергей Маклаков.
Справочно:
"Зефир" — система мониторинга АНО "Диалог Регионы" для анализа (выявления) и мониторинга сфабрикованного аудиовизуального контента, в том числе дипфейков, на основе сочетания моделей машинного обучения. Ранее с помощью "Зефира" уже удалось разоблачить несколько дипфейков с Владимиром Путиным — фейковое заявление о взаимодействии с Украиной и сообщение о всеобщей мобилизации в РФ.
"Лапша Медиа" — фактчекинговый проект АНО "Диалог Регионы". В 2022 году выявлено 10 млн копий фейков, в 2023 году уже выявлено более 11 млн копий фейков, до конца года ожидается, что их число вырастет до 12,5 млн. В 2024 году прогнозируется рост количества копий фейков до 15 млн в годовом исчислении.
Аналитики "Лапша Медиа" проверяют информацию с помощью партнеров — федеральных ирегиональных СМИ и экспертов ведущих вузов России. Также любой пользователь интернета может направить в "Лапша Медиа" сомнительную информацию с помощью формы на сайте или запросить проверку через чат-ботов в Viber (18+), Telegram (18+) и ВКонтакте (12+).
Кроме того, каждый пользователь может внести и собственный вклад в борьбу с недостоверной информацией — на сайте "Лапша Медиа" можно публиковать собственные разборы фейков и мифов. Подробную инструкцию можно найти по ссылке.