Мошенники все чаще применяют технологии подмены голоса с использованием искусственного интеллекта для похищения денег. Как сообщил RT руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко, злоумышленники создают с помощью нейросетей убедительные голосовые копии знакомых или родственников своих жертв.

Для создания такой копии преступникам необходим лишь короткий фрагмент голоса человека. Они находят его в аудио- и видеозаписях, размещенных в социальных сетях и мессенджерах, а некоторые даже специально записывают телефонные разговоры.
Услышав в трубке привычный тембр, человек теряет бдительность и, не испытывая сомнений, переводит деньги на указанные мошенниками счета. Как отметил эксперт, обман обычно раскрывается только после того, как транзакция уже совершена.
Схемы преступников продолжают развиваться: теперь они переходят к видеозвонкам с технологией дипфейк.
«Вы видите не просто голос, а живое изображение близкого человека, его мимику и движения. Этот мощный эффект присутствия стирает последние остатки осторожности, заставляя мозг воспринимать происходящее как реальность», — пояснил Кузьменко.
