Мошенники используют искусственный интеллект для оживления фотографий и вымогательства

Новости киберпреступности

МВД предупреждает о новой опасной схеме киберпреступлений, где злоумышленники создают крайне реалистичные дипфейки близких и знакомых, чтобы обманным путем выманить деньги у доверчивых жертв.

Современные мошенники активно применяют технологии искусственного интеллекта для совершения преступных действий. В частности, они генерируют видеоролики, на которых изображены родственники или друзья жертвы, обращающиеся с убедительной просьбой о займе. Эти тревожные данные подтверждаются материалами Министерства внутренних дел.

Суть данной мошеннической схемы заключается в следующем: злоумышленники используют нейросети для преобразования обычных статичных фотографий в полноценные видеоматериалы. Такие сгенерированные ролики способны детально воссоздавать мимику, движения, а порой даже голос и эмоциональное состояние человека, изображенного на исходном фото. После того как дипфейк создан, он отправляется знакомым и членам семьи потенциальной жертвы.

Как защититься от дипфейк-мошенничества?

Для того чтобы не попасться в ловушку киберпреступников, правоохранительные органы настоятельно рекомендуют проявлять бдительность. При получении подозрительной видеозаписи или сообщения с просьбой о деньгах, необходимо немедленно связаться с отправителем по проверенному каналу связи – например, совершить обычный телефонный звонок. Это позволит подтвердить подлинность запроса и выяснить все детали. Как показывает практика, именно на этом этапе чаще всего выясняется, что аккаунт отправителя был скомпрометирован, и реальный человек не имеет никакого отношения к просьбе о финансовой помощи.

Кирилл Градов
Кирилл Градов

Кирилл Градов - опытный журналист из Тверской области, более 15 лет освещает события в сфере науки и культуры. Автор серии статей о развитии региональных театров и научных достижениях российских учёных.

Обзор последних событий в мире шоу-бизнеса