Форма поиска по сайту

Эксперт Кадыров: мошенники используют нейросети для обмана в новогодние праздники

безопасностьобщество

24 декабря, 10:41

Фото: 123RF/f8studio

Мошенники активизируются перед Новым годом, используя в своих целях нейросети. Об этом "Газете.ру" рассказал эксперт по нейросетям Родион Кадыров.

Аферисты все чаще стали использовать дипфейк-технологии для хищения денег. Благодаря нейросетям они создают убедительные видеоизображения человека, а затем отправляют его друзьям и родственникам через мессенджеры и соцсети.

По словам Кадырова, если аккаунт взломали или человек переслал кому-то голосовые сообщения, то по отрезку в 15 секунд можно сделать "слепок" голоса отправителя. Также злоумышленники могут общаться или отправлять голосовые сообщения, схожие с голосом знакомых людей.

Если у аферистов есть изображение с лицом человека, то они могут представляться его именем и отправлять видеосообщения в Telegram, что зачастую выглядит убедительно. Подобное видео можно сделать при помощи технологии Face Swap, уточнил эксперт.

Более того, мошенники пользуются приемами социальной инженерии. Часто они представляются сотрудниками различных учреждений, звонят клиентам и их родственникам от имени службы поддержки.

"С развитием ИИ технологии совершенствуются и мошенники осознают их потенциал, применяя нейросети на профессиональном уровне: используют цифровых двойников, передовые визуальные и голосовые генеративные сети, технологии замены лиц и накладывают нужные звуковые фрагменты на аудиосообщения, такие как голосовые сообщения в Telegram", – добавил Кадыров.

Россиян призвали проверять все электронные письма и аккаунты. Также важно помнить, что техническая поддержка редко звонит клиенту первая, поэтому любые неожиданные обращения должны вызвать подозрения. Кроме того, не нужно отвечать на подобные письма, так как они могут быть фишинговыми.

Собеседник газеты отметил, что если человек столкнулся с мошенником, отправляющим видеокружок, то стоит обратить внимание на движение его головы. При резких поворотах лица может "слететь" технология Face Swap, что говорит о подделке видео, пояснил он.

"Обратите внимание на голос, созданный с помощью ИИ – он часто будет монотонным и лишенным естественных интонаций. Это может быть признаком подделки. Также попробуйте вывести собеседника на эмоции, задавая вопросы, которые могут вызвать реакцию", – рекомендовал Кадыров.

Ранее в столичной прокуратуре предупредили, что правоохранители никогда не склоняют граждан к содействию в борьбе с преступностью противозаконными методами, ведя переговоры по телефону.

В ведомстве напомнили, что неизвестные склонили некоторых россиян к преступлениям в кредитно-финансовых организациях под различными предлогами. Однако за умышленное уничтожение или повреждение чужого имущества может грозить уголовная ответственность.

This browser does not support the video element.