Мошенники начали использовать ИИ для подделки голосовых в Telegram

10 января 2024
Мошенники генерируют с помощью ИИ голосовые обращения на основе аудиосообщений владельцев аккаунта – это позволяет убедительнее просить деньги у его знакомых. Эксперты называют такую схему новой для России.
Пользователи Telegram столкнулись с новым видом мошенничества, выяснил РБК. Сначала злоумышленники получают доступ к аккаунту, затем начинают писать потенциальным жертвам из числа списка контактов его владельца с просьбой перевести деньги. Историю о необходимости помощи преступники подкрепляют голосовым сообщением якобы от лица владельца аккаунта. Для аудиосообщения используются нарезки из его реальных старых голосовых сообщений.
«Пока что, рядовые пользователи могут защититься от подобных атак только перепроверяя сообщения с просьбой о переводе денег по другим каналам связи. Сейчас, для пользователей нет технических решений уровня UEBA, с поведенческой аналитикой и поиском аномалий. Что касается социальных сетей и мессенджеров, то уверен, что они начнут применять поведенческую аналитику, основанную на ИИ для защиты своих клиентов от подобного рода атак в ближайшее время. Сегодня уже существуют специальные решения для подобного рода задач, связанных с анализом аномального поведения пользователей в корпоративных сетях, например, Ankey ASAP. Думаю, что в течение ближайших 5-10 лет, подобные решения по защите пользователей от вымогательских атак, сгенерированных ИИ, станут нормой жизни и будут доступны на премиальных подписках мессенджеров и в виде специализированных персональных защитных приложений, в которые будут преобразованы существующие антивирусные программы», – говорит главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников.
 

Другие пресс-релизы

Все пресс-релизы компании