МИД РФ предупредил о появившемся дипфейке с имитацией голоса Захаровой

Сообщение опубликовано в телеграм-канале министерства. Ролик начал распространяться в социальных сетях, уточнили в МИД. Видео смонтировано на основе кадров интервью Захаровой на радио Sputnik 1 октября 2025 года. Представители ведомства пояснили, что это фальшивка, созданная с использованием технологий искусственного интеллекта: сгенерированный нейросетью аудиотрек, имитирующий голос Марии Захаровой, наложен на реальные кадры из интервью. В фейковом видео обсуждаются якобы события, связанные с СВО и ситуацией в Европе, хотя на самом деле реальные кадры относятся к выборам в Молдавии. МИД РФ предупредил о необходимости тщательно проверять информацию, публикуемую в социальных сетях, включая достоверность видеоконтента, на официальных ресурсах. Глава ведомства Сергей Лавров обратил внимание на дипфейки еще несколько лет назад из-за их реалистичности. До этого эксперты предупредили о росте дипфейк-атак к концу 2025 года, отмечая, что аферисты все чаще используют фотографии или видеозаписи, где голос или внешность человека подделаны с помощью нейросети. По данным специалистов, к концу года каждый второй россиянин может столкнуться с таким видом обмана, и распознать его становится все сложнее с развитием технологий. Премьер-министр Михаил Мишустин высказал поддержку ужесточению ответственности за мошенничество при помощи искусственного интеллекта.