Сообщение опубликовано в телеграм-канале министерства. Ролик начал распространяться в социальных сетях, уточнили в МИД. Видео смонтировано на основе кадров интервью Захаровой на радио Sputnik 1 октября 2025 года. Представители ведомства пояснили, что это фальшивка, созданная с использованием технологий искусственного интеллекта: сгенерированный нейросетью аудиотрек, имитирующий голос Марии Захаровой, наложен на реальные кадры из интервью. В фейковом видео обсуждаются якобы события, связанные с СВО и ситуацией в Европе, хотя на самом деле реальные кадры относятся к выборам в Молдавии. МИД РФ предупредил о необходимости тщательно проверять информацию, публикуемую в социальных сетях, включая достоверность видеоконтента, на официальных ресурсах. Глава ведомства Сергей Лавров обратил внимание на дипфейки еще несколько лет назад из-за их реалистичности. До этого эксперты предупредили о росте дипфейк-атак к концу 2025 года, отмечая, что аферисты все чаще используют фотографии или видеозаписи, где голос или внешность человека подделаны с помощью нейросети. По данным специалистов, к концу года каждый второй россиянин может столкнуться с таким видом обмана, и распознать его становится все сложнее с развитием технологий. Премьер-министр Михаил Мишустин высказал поддержку ужесточению ответственности за мошенничество при помощи искусственного интеллекта.
© 2014-2024 Информационный портал «antmsk.ru». Настоящий ресурс может содержать материалы 18+. Использование материалов издания - как вам угодно, никаких претензий со стороны нашего СМИ не будет. Мнение редакции может не совпадать с мнением авторов публикаций. Контакты редакции: +7 (495) 765-41-64, info@rim.media