МВД предупреждает о новой опасной схеме киберпреступлений, где злоумышленники создают крайне реалистичные дипфейки близких и знакомых, чтобы обманным путем выманить деньги у доверчивых жертв.
Современные мошенники активно применяют технологии искусственного интеллекта для совершения преступных действий. В частности, они генерируют видеоролики, на которых изображены родственники или друзья жертвы, обращающиеся с убедительной просьбой о займе. Эти тревожные данные подтверждаются материалами Министерства внутренних дел.
Суть данной мошеннической схемы заключается в следующем: злоумышленники используют нейросети для преобразования обычных статичных фотографий в полноценные видеоматериалы. Такие сгенерированные ролики способны детально воссоздавать мимику, движения, а порой даже голос и эмоциональное состояние человека, изображенного на исходном фото. После того как дипфейк создан, он отправляется знакомым и членам семьи потенциальной жертвы.
Как защититься от дипфейк-мошенничества?
Для того чтобы не попасться в ловушку киберпреступников, правоохранительные органы настоятельно рекомендуют проявлять бдительность. При получении подозрительной видеозаписи или сообщения с просьбой о деньгах, необходимо немедленно связаться с отправителем по проверенному каналу связи – например, совершить обычный телефонный звонок. Это позволит подтвердить подлинность запроса и выяснить все детали. Как показывает практика, именно на этом этапе чаще всего выясняется, что аккаунт отправителя был скомпрометирован, и реальный человек не имеет никакого отношения к просьбе о финансовой помощи.