Исследователи нарушили принцип «робот не может навредить человеку». Поможет ли это «умным» автопилотам | 360°

27 октября 2018, 11:34

Исследователи нарушили принцип «робот не может навредить человеку». Поможет ли это «умным» автопилотам

Читать 360 в

Необычный эксперимент провели в интернете исследователи искусственного интеллекта. Они предложили респондентам выбрать кого должна убить самоуправляемая машина в случае неизбежной аварии. Результаты исследования передадут разработчикам искусственного интеллекта (ИИ). Правда, их эксперимент нарушил известнейший принцип робототехники.

Выбери, кого убить

Исследование проводили на онлайн-платформе MIT, где изучаются моральные проблемы, с которыми сталкиваются транспортные средства с искусственным интеллектом. Разработчики предложили респондентам выбрать варианты действий самоуправляемых автомобилей в случае неизбежного ДТП. Ситуации были разными, но в каждой нужно было выбрать того, кого «убить» в безвыходной ситуации. В исследовании приняли участие более двух миллионов человек из 233 стран мира.

Чаще всего респонденты предпочитали спасать людей, а не животных, пешеходов, а не водителя и пассажиров авто и переходящих улицу по зебре пешеходов, а не нарушителей ПДД.

Однако результаты опроса отличались в зависимости от страны проживания отвечающего. Так в странах Латинской Америки предпочтение отдавали молодежи, а не пенсионерам. Тогда как в азиатских государствах были диаметрально противоположные результаты. Кроме того, жители бедных стран не делали особых различий между теми, кто нарушает или соблюдает правила дорожного движения. Спасали поровну и тех и других.

Объяснимые результаты

Социальный психолог Алексей Рощин пояснил «360», что психология моральных дилемм, так называемая «проблема вагонетки», является одним из популярных направлений этой науки. Если раньше, отметил эксперт, такие моральные дилеммы воспринимались, как «игра разума», то со временем они стали актуальными для разработчиков искусственного интеллекта.

«Не удивительно, что тема стала актуальной из-за возможности практического применения ИИ, особенно в транспортных средствах. Это же машине придется „решать“ такие вопросы. То есть разработчикам нужно знать, какой алгоритм заложить, и чему обучить», — сказал он.

Однако результаты таких опросов не всегда являются объективными и непредвзятыми. Часто на них влияют, мифы, предубеждения или расхожее общественное мнение. В частности в ситуации выбора между матерью-одиночкой и цыганом, опрашиваемые «спасают» женщину, потому что «все цыгане воры». А многие критики называют такие исследования «аморальными дилеммами» из-за самой тематики опросов.

При этом итоги исследования, отметил психолог, довольно предсказуемые. В критических ситуациях большинство людей старается спасти самого беспомощного. В данном случае — пешехода, чем пассажира защищенного металлом машины. Или того, кто соблюдает правила, а не того, кто «сам виноват, шел где не нужно». Что же касается выбора жителей Латинской Америки и Азии, то на их мнение сильно влияют традиции и общественные предрассудки.

«Если вдуматься, то в Латинской Америке высокая рождаемость, правда смертность тоже. Но в целом население — молодое. Соответственно может быть некий культ молодости. Не исключено, что опрашивали не достигших среднего возраста респондентов, то есть люди спасали „сами себя“. А в Азии культура архаическая, традиционная базируется на уважении к старшим», — пояснил он.

А вот жители бедных стран терпимо отнеслись к нарушителям, из-за того, что мелкие преступления и проступки стали в таких странах своеобразной нормой жизни. Никто не считает предосудительным перейти дорогу в неположенном месте, или, например, продать бракованный товар нетрезвому туристу. А их терпимое отношение объясняется готовностью их самих нарушать правила.

«Как правило, чем человек беднее, тем с большим презрением он относится к соблюдению всяческих правил. Во-первых, им, как говорят, „нечего терять, кроме своих цепей“. Во-вторых, рамки воспринимаются, как ограничения неласкового мира. В-третьих, такие люди считают, что если будут играть по правилам, то ничего не получат, нужно их обходить», — заключил Рощин.

Нарушение принципа робототехники?

Гендиректор компании Alfarobotics и эксперт в области ИИ Владимир Венеров сообщил «360», что подобное исследование безусловно пригодится разработчикам «умных» систем управления автомобилями, так как в нем участвовали люди. То есть критерии оценки создали люди. Хотя, подчеркнул он, никогда не будет полного единогласия в вопросах связанных с человеческими жертвами.

«Люди при заданных условиях действовали определенным образом. И если искусственный интеллект в таких же условиях поведет себя аналогично, то люди воспримут это решение адекватно, как единственно верное в какой-то ситуации. С другой стороны даже когда человек выбирает меньшее из двух зол в критической ситуации, то его действия всегда вызывают обсуждения с точки зрения этики», — добавил Венеров.

На первый взгляд кажется, что проведенное исследование грубо нарушает первый принцип робототехники, утверждающий, что действия или бездействие роботов не должны вредить людям. Однако эксперт напомнил, что принципы эти родились в художественной литературе.

Их сформулировал американский фантаст Айзек Азимов в написанном им в 1942 году рассказе «Хоровод». Кроме того, по его мнению, нельзя сравнивать человекоподобных роботов с самоходными транспортными средствами.

«В некоторых ситуациях, если нет ни малейшей возможности сохранить жизнь всем, то ИИ придется выбирать, как поступать в таком случае. Это очень сложный и тяжелый выбор для человека. Машина — бездушная, но логику и алгоритм будут закладывать люди. Без решения подобных тяжелых вопросов никак не обойтись», — заключил Венеров.

Реклама

Реклама