06 августа 2019, 06:25
Нейросеть как способ обмана: в Сети появились фейковые видео для кражи денег
Мошенники придумали очередной способ похищения средств. В интернете они распространяют фейковые видео, в которых используют лица и голоса знаменитостей. Формируют ролики посредством нейросети.
При обмане применяются технологии Deep Learning, озволяющие заменить движения губ и речь человека в кадре. Вычислить подобный фейк обычному человеку довольно сложно, чем и пользуются в Сети. Об этом РИА «Новости» рассказали в IT-компании «Инфосистемы Джет».
Реклама
Например, в интернете можно найти мошенническое видео, в котором используется образ актера и шоумена Дмитрия Нагиева. С экрана он обещает ценный приз или денежное вознаграждение после перехода на сайт, что в итоге ведет к потере денег. Представители Нагиева заметили, что о подобном обмане артисту неизвестно.
Специалисты пояснили, что при переходе по указанной ссылке пользователя направляют на портал, имя домена у которого сгенерированно. Подобные ресурсы перестают отвечать через несколько дней, попав в черные списки. Количество пострадавших пользователей пока оценить сложно, так как постоянно запускаются новые аналогичные «рекламные» видео и сайты.
Deep fake, те самые фейковые ролики, эксперты по нейронным сетям считают серьезной угрозой. Технология может применяться для шантажа, дискредитации известных персон, быть составляющей недобросовестной конкуренции, в том числе в бизнесе и политике.
Распознать фейки можно по нескольким признакам. В deep fake обычно глаза находятся в статичном состоянии, не моргают, все время либо открыты, либо полузакрыты. Кроме того, настороженность должны вызвать резкие колебания четкости изображения. При резких движениях, поворотах и наклонах вокруг контура головы в фейковых видео могут появиться странные шлейфы. Имеют место и изменения освещенности и теней на лице, при этом само положение лица относительно источника света не меняется.
Реклама
Реклама