06 августа 2019, 06:25

Нейросеть как способ обмана: в Сети появились фейковые видео для кражи денег

Читать 360tv в

Мошенники придумали очередной способ похищения средств. В интернете они распространяют фейковые видео, в которых используют лица и голоса знаменитостей. Формируют ролики посредством нейросети.

При обмане применяются технологии Deep Learning, озволяющие заменить движения губ и речь человека в кадре. Вычислить подобный фейк обычному человеку довольно сложно, чем и пользуются в Сети. Об этом РИА «Новости» рассказали в IT-компании «Инфосистемы Джет».

Реклама

Например, в интернете можно найти мошенническое видео, в котором используется образ актера и шоумена Дмитрия Нагиева. С экрана он обещает ценный приз или денежное вознаграждение после перехода на сайт, что в итоге ведет к потере денег. Представители Нагиева заметили, что о подобном обмане артисту неизвестно.

Специалисты пояснили, что при переходе по указанной ссылке пользователя направляют на портал, имя домена у которого сгенерированно. Подобные ресурсы перестают отвечать через несколько дней, попав в черные списки. Количество пострадавших пользователей пока оценить сложно, так как постоянно запускаются новые аналогичные «рекламные» видео и сайты.

Deep fake, те самые фейковые ролики, эксперты по нейронным сетям считают серьезной угрозой. Технология может применяться для шантажа, дискредитации известных персон, быть составляющей недобросовестной конкуренции, в том числе в бизнесе и политике.

Распознать фейки можно по нескольким признакам. В deep fake обычно глаза находятся в статичном состоянии, не моргают, все время либо открыты, либо полузакрыты. Кроме того, настороженность должны вызвать резкие колебания четкости изображения. При резких движениях, поворотах и наклонах вокруг контура головы в фейковых видео могут появиться странные шлейфы. Имеют место и изменения освещенности и теней на лице, при этом само положение лица относительно источника света не меняется.

Реклама

Реклама