Используя искусственный интеллект
Мошенники по-прежнему атакуют россиян
Во втором квартале 2024 года (апрель - июнь) банки зафиксировали почти 257 тыс. мошеннических операций, что на 14,9% меньше, чем в среднем за предшествующие четыре квартала.
Сокращение количества операций без добровольного согласия клиентов произошло на фоне значительного роста атак, которые предотвратили банки. Они отразили 16,3 млн. попыток злоумышленников похитить деньги клиентов на общую сумму 2,3 трлн. рублей. Эти показатели почти в полтора раза больше средних значений за предыдущий период.
Тем не менее во втором квартале мошенникам удалось украсть со счетов граждан и компаний около 4,8 млрд. рублей. Объем потерь примерно на четверть превышает средний показатель за предшествующие четыре квартала.
Мошенники стали чаще выманивать деньги в соцсетях и мессенджерах, рассылая поддельные видеосообщения, имитирующие образ знакомых или известных людей. Они взламывают чужой аккаунт, берут из него фотографии, видео- и аудиозаписи и загружают их в нейросеть. Искусственный интеллект анализирует черты лица, движения, голос и создает дипфейк - цифровой образ, максимально похожий на свой прототип.
Затем мошенники записывают ролик с виртуальным двойником, который говорит, что оказался в беде, например серьезно заболел, попал в аварию или лишился работы, и просит помочь ему деньгами. Преступники рассылают это фальшивое видео родным, друзьям и коллегам человека и добавляют свои реквизиты для перевода денег.
Иногда мошенники создают дипфейки известных людей, популярных блогеров и отправляют видеосообщения всем их подписчикам.
Чтобы распознать подделку, обратите внимание на самые яркие признаки: монотонный голос, несвойственные человеку мимику и интонации, дефекты звука и изображения.
Но даже если видео не вызывает сомнений, стоит насторожиться. Прежде чем переводить какие-то суммы, позвоните знакомому и убедитесь, что ему действительно нужна помощь. Дополнительная проверка еще никому не мешала.