В преддверии Нового года мошенники в России активизировались, применяя технологии нейросетей, рассказал в беседе с «Газетой.ру» Родион Кадымов из компании FABULA AI.
Злоумышленники используют дипфейк-технологии для создания реалистичных видео, которые отправляют друзьям и родственникам, чтобы обмануть их и выманить деньги.
Например, если аккаунт был взломан или кто-то переслал голосовые сообщения, мошенники могут создать «слепок» голоса и общаться, выдавая себя за знакомых. Они также могут отправлять видеосообщения с использованием технологии замены лиц, что делает обман особенно убедительным.
Мошенники активно используют приемы социальной инженерии, представляясь сотрудниками банков и других организаций. Наибольшему риску подвержены пожилые люди и те, кто не знаком с новыми технологиями.
Кадымов советует быть внимательными к неожиданным обращениям и проверять все сообщения. Если вы получили подозрительное видео, обратите внимание на движения головы — резкие повороты могут указывать на подделку.
Также стоит проверять голос на естественность и эмоции. При подозрении на мошенничество немедленно сообщайте в службу поддержки.