Аферисты стали активнее пользоваться специальными программами с искусственным интеллектом для подделки голосов родственников и знакомых жертвы. Люди склонны доверять тем, кого хорошо знают. Мошенники этим пользуются. Об этом сообщают РИА Новости.
Центробанк предупредил россиян об участившихся способах мошенничества с помощью нейросетей с имитацией голоса и дипфейков, подделывающих видео с родственниками жертв. Жулики все чаще составляют хитрые комбинированные схемы обмана, ориентируясь при этом на цифровой профиль жертвы. Этот цифровой след в интернете мы оставляем сами, когда публикуем в соцсетях массу информации о себе, оставляем кучу фотографий, видео и голосовых сообщений. Мошенники могут всё это собрать и "скормить" нейросети, которая генерирует похожий голос или видео с очень похожим на вас человеком. С помощью такого видео или голосового сообщения можно обмануть родственников и друзей жертвы и побудить совершить перевод денег на нужный мошенникам счет.
"Мы рекомендуем людям осторожно подходить к размещению личной и финансовой информации в социальных сетях и других открытых ресурсах. Никогда не пересылайте в мессенджерах и социальных сетях сведения из документов, не вводите на сомнительных сайтах свои данные. Не нужно совершать какие-либо денежные операции по просьбе лиц, поступающей по телефону", — посоветовали в ЦБ.
Если у вас возникли сомнения, лучше перезвонить человеку, который якобы звонит вам с денежной просьбой. И уточнить: он ли действительно вам названивает.
Надо наслаждаться жизнью — сделай это, подписавшись на одно из представительств Pravda. Ru в Telegram; Одноклассниках; ВКонтакте; News.Google.