80 лет Великой Победе!

В Роскачестве заявили, что мошенники подделывают голоса для кражи денег россиян

Он пояснил, что преступники создают убедительные копии голоса знакомых или родственников потерпевших, используя нейросети на основе искусственного интеллекта. Для этого им нужен лишь короткий образец голоса, который можно получить из аудио- или видеозаписей в социальных сетях, а также просто записав телефонный разговор. Эксперт отметил, что люди часто теряют бдительность, услышав знакомый тембр и манеру речи в трубке, что заставляет их переводить деньги без подозрений. Позже пострадавшие осознают, что их обманули.

С развитием технологий мошенники переходят на видеозвонки с использованием дипфейка, что делает обман еще более опасным, подчеркнул Кузьменко. Во время голосового звонка можно повесить трубку и перезвонить на проверенный номер или написать в мессенджере для подтверждения, но с дипфейком это уже не сработает. "Этот мощный эффект присутствия снимает последние барьеры осторожности, заставляя мозг верить в реальность происходящего", - пояснил руководитель Центра.

Ранее стало известно, что мошенники начали отправлять гражданам электронные письма с фишинговыми ссылками, предлагая получить приз за активность на маркетплейсе. Однако при нажатии на ссылку автоматически устанавливается вредоносное ПО, позволяющее злоумышленникам получить удаленный доступ к телефону или компьютеру жертвы.