МВД: мошенники используют ИИ для создания поддельных видео с родственниками
тестовый баннер под заглавное изображение
Мошенники освоили технологию создания дипфейков с использованием искусственного интеллекта для хищения денежных средств.
Как следует из материалов МВД, с которыми ознакомилось РИА Новости, преступники с помощью нейросетей преобразуют фотографии людей в реалистичные видео, где цифровой аватар точно воспроизводит мимику, голос и жесты человека. На таких поддельных записях «оживший» человек, как правило, обращается к своим близким с просьбой срочно занять ему денег.
Эти видеоматериалы затем рассылаются родственникам и друзьям жертвы. В ведомстве рекомендуют: при получении подобного сообщения с просьбой о денежном переводе необходимо обязательно позвонить отправителю по известному номеру телефона и устно подтвердить необходимость платежа. Высока вероятность, что аккаунт человека был взломан, а его образ использован злоумышленниками.
Ранее сообщалось, что в Уфе задержали занимавшихся «обналичкой» денежных средств мошенников.
Ваша надежная лента новостей — МК в MAX.
Источник: www.mk.ru