facebook_pixel
  • 15 февраля 2021, 16:13

    Нейросети научились манипулировать людьми. Этим пользуются как медиагиганты, так и мошенники

    Австралийские исследователи научили нейросеть влиять на решения человека. Искусственный интеллект находил уязвимости в действиях испытуемых и манипулировал ими. Спасти от мошенничества могут образование и закон.

    Нейросети научились манипулировать людьми. Этим пользуются как медиагиганты, так и мошенники

    Группа исследователей из подразделения данных и цифровых технологий национального научного агентства Австралии CSIRO’s Data61 сумела обучить нейросеть манипулировать решениями человека. Искусственный интеллект сначала специальным образом обучили анализировать поведение людей, чтобы влиять на его выбор, а затем провели ряд экспериментов. Полностью они описаны в научном отчете, опубликованном на PNAS.

    Манипуляция машин

    Во время одного из испытаний добровольцам нужно было выбрать из двух одинаковых квадратов, один из них мог принести участнику денежное вознаграждение. Причем никаких условий выбора «правильного» квадрата у испытуемых не было, а награда за оба квадрата назначалась одинаковое количество раз. Задачей нейросети было сделать так, чтобы у человека создавалось впечатление, что какой-то конкретный квадрат с большей вероятностью принесет ему выигрыш. Добиться этого удалось в 70% случаев.

    Вторая часть эксперимента заключалась в том, что людям показывали геометрические фигуры: оранжевые круги и синие треугольники. В первом случае человек должен был нажать на кнопку, а во втором — воздержаться. Задача нейросети заключалась в том, чтобы заставить человека ошибиться. Причем искусственный интеллект обманывал добровольцев чаще, чем случайный порядок фигур.

    В третьей части эксперимента искусственный интеллект должен был убедить человека передать машине возможность выбирать, куда инвестировать свои средства. «Доход» от вложения нейросеть возвращала добровольцу, оставляя себе комиссию за услуги. Причем сначала условия были честными для испытуемого, а затем искусственный интеллект начинал работать в свою пользу, максимально повышая комиссию и обманывая человека. В обоих случаях нейросеть могла убедить добровольца в выгодности сотрудничества, хотя во второй части человек оказывался в убытке.

    Новое подтверждение старой проблемы

    Однако ничего нового, по мнению технического директора Qrator Labs Артема Гавриченкова, это исследование не принесло, оно только дало подтверждение известному факту. Активно тема манипулирования общественным мнением при помощи искусственного интеллекта обсуждается последние пять-шесть лет — с тех пор, как Facebook заподозрили во влиянии на результаты выборов в США. Компанию обвиняли в том, что рекламу Дональда Трампа людям показывали чаще.

    «Это исследование не какая-то революция, это демонстрация того, что нейросеть способна влиять на поведение человека», — объяснил Гавриченков.

    Причем, по мнению эксперта, воздействие нейросети на человека мало чем будет отличаться от воздействия тех же телефонных мошенников или представителей сект. Причем технологизация достигла криминального мира уже довольно давно: злоумышленники научились подделывать номера, присылать СМС от имени банка и делать многое другое. Искусственный интеллект — лишь дополнительный инструмент в их арсенале.

    «Но у мошенников хорошо работают и простые методы. Люди, которые разбираются в том, как работают нейросети, вряд ли пойдут работать на такого пошиба киберкриминал», — отметил Гавриченков.

    Нейросети уже среди нас

    Причем, поскольку программирование нейросетей — это довольно сложное и трудозатратное занятие, чаще всего ими пользуются компании, продающие нам рекламу. А настраивать работу искусственного интеллекта ради всеобщего блага на земле — например, для выработки полезных для человека привычек, пропаганду социально значимых инициатив и благотворительных мероприятий, — по мнению Гавриченкова, вряд ли кто-то будет.

    Большинство медиагигантов уже освоили нейросети. Например, голосовые помощники от Google (Google Assistant), Apple (Siri), «Яндекс» (Алиса) и другие — это искусственный интеллект, который многие используют в повседневной жизни. На основании поведения пользователя — в том числе взаимодействия с нейросетями — компании могут предлагать нам наиболее подходящую рекламу услуг и товаров, людей, которые нам могут быть интересны, и так далее.

    «Нам нужно понимать, что на наше сознание влияет рекомендательная система сервисов, которыми мы пользуемся. То есть наши интересы могут постепенно меняться: покажите человеку рекламу iPhone 20 раз, и он задумается, не поменять ли ему телефон», — подчеркнул Гавриченков.

    Однако он отметил, что не стоит говорить о нейросетях как об исключительно опасной технологии. Эксперт уверен, что прежде всего важно научиться определять намерения действий.

    «Потому что нейросеть тоже может быть хорошей, а человек тоже может быть плохим», — добавил он.

    При этом противостоять угрозе манипулирования человеком все же можно, например, за счет повышения компьютерной грамотности населения, чтобы люди понимали, как нейросети используют их данные и поведение в интернете, как этим могут воспользоваться мошенники и как не попадаться на уловки.