Мошенники в России стали чаще использовать технологии дипфейка для кражи денег, сообщает ТАСС.
С помощью нейросетей злоумышленники создают правдоподобные видео, где от лица знакомого или родственника отправляют сообщения, прося о финансовой помощи. В коротком поддельном видео персонаж, чей голос иногда сложно отличить от оригинала, рассказывает о своей проблеме (например, болезнь, авария, увольнение) и просит перевести деньги на указанный счет.
Иногда мошенники создают дипфейки работодателей, сотрудников госорганов или известных личностей, работающих в той же сфере, что и потенциальная жертва.
Для создания цифровой копии человека злоумышленники используют его фото, видео и запись голоса, которые они чаще всего получают, взламывая его аккаунты в социальных сетях или мессенджерах.
ЦБ также порекомендовал быть осторожными при получении голосовых или видеосообщений с просьбами о помощи от знакомых. Мошенники могут создавать фальшивые страницы с именем и фото, а распознать дипфейк можно по неестественно монотонной речи, дефектам звука и видео, а также по необычной мимике.
Дипфейк (англ. deepfake от deep learning «глубинное обучение» + fake «подделка») — методика синтеза изображения или голоса, основанная на искусственном интеллекте.
Моше́нничество или афери́зм, — хищение чужого имущества или приобретение права на чужое имущество путём обмана или злоупотребления доверием. Лицо, занимающееся этим, называется моше́нником или моше́нницей.
>Надо наслаждаться жизнью — сделай это, подписавшись на одно из представительств Pravda. Ru в Telegram; Одноклассниках; ВКонтакте; News.Google.