Мошенники в России используют нейросети для обмана под Новый год

В преддверии Нового года мошенники в России активизировались, применяя технологии нейросетей, рассказал в беседе с «Газетой.ру» Родион Кадымов из компании FABULA AI.

Злоумышленники используют дипфейк-технологии для создания реалистичных видео, которые отправляют друзьям и родственникам, чтобы обмануть их и выманить деньги.

Например, если аккаунт был взломан или кто-то переслал голосовые сообщения, мошенники могут создать «слепок» голоса и общаться, выдавая себя за знакомых. Они также могут отправлять видеосообщения с использованием технологии замены лиц, что делает обман особенно убедительным.

Мошенники активно используют приемы социальной инженерии, представляясь сотрудниками банков и других организаций. Наибольшему риску подвержены пожилые люди и те, кто не знаком с новыми технологиями.

Кадымов советует быть внимательными к неожиданным обращениям и проверять все сообщения. Если вы получили подозрительное видео, обратите внимание на движения головы — резкие повороты могут указывать на подделку.

Также стоит проверять голос на естественность и эмоции. При подозрении на мошенничество немедленно сообщайте в службу поддержки.

Поделиться с друзьями
ASTERA