Мошенники стали использовать искусственный интеллект для обмана россиян

МВД: мошенники используют ИИ для создания поддельных видео с родственниками

Мошенники стали использовать искусственный интеллект для обмана россиян

тестовый баннер под заглавное изображение

Мошенники освоили технологию создания дипфейков с использованием искусственного интеллекта для хищения денежных средств.

Как следует из материалов МВД, с которыми ознакомилось РИА Новости, преступники с помощью нейросетей преобразуют фотографии людей в реалистичные видео, где цифровой аватар точно воспроизводит мимику, голос и жесты человека. На таких поддельных записях «оживший» человек, как правило, обращается к своим близким с просьбой срочно занять ему денег.

Эти видеоматериалы затем рассылаются родственникам и друзьям жертвы. В ведомстве рекомендуют: при получении подобного сообщения с просьбой о денежном переводе необходимо обязательно позвонить отправителю по известному номеру телефона и устно подтвердить необходимость платежа. Высока вероятность, что аккаунт человека был взломан, а его образ использован злоумышленниками.

Ранее сообщалось, что в Уфе задержали занимавшихся «обналичкой» денежных средств мошенников.

Ваша надежная лента новостей — МК в MAX.

Источник: www.mk.ru