Искусственный интеллект, способный в реальном времени синтезировать голос и изображение, стал мощным оружием в руках аферистов. Как сообщила официальный представитель МВД РФ Ирина Волк, преступники активно используют эти технологии для создания цифровых двойников близких людей, банковских сотрудников или государственных служащих.
Цель — выманить деньги или конфиденциальные данные под видом срочной помощи. Суть схемы в том, что нейросеть, обученная на публичных аудио— и видеозаписях, генерирует новый, но правдоподобный контент от лица жертвы.
Это может быть голосовое сообщение с просьбой о финансовой помощи или даже видеообращение. Например, был случай, когда мошенник, получив доступ к аккаунту в мессенджере, отправил контактному лицу аудиосообщение, сгенерированное голосом владельца страницы.
Полагая, что помощь просит родная сестра, пользователь перевел 35 тысяч рублей, которые в итоге ушли преступникам. Этот пример демонстрирует, что угроза перестала быть абстрактной. Любой человек, чей голос или лицо есть в открытом доступе, может стать мишенью для цифрового клонирования, передает ТАСС.
Арсений Луговой