Алгоритм отвечает на этические вопросы: как он работает? | 360°

27 мая 2020, 15:33

Алгоритм научили отвечать на этические вопросы. Он почитал новости и решил, что пытать можно, а жениться — нет

Читать 360 в

Ученые из Дармштадтского технического университета создали алгоритм, который дает ответы на этические вопросы. Результаты опубликовали в журнале Frontiers in Artificial Intelligence. Машина одобрила пытки заключенных, но оказалась против брака и походов в церковь. Как работает «блюститель морали» и зачем он нужен?

Принцип работы

Группа немецких ученых под руководством Кристиана Керстинга использовала Универсальный кодировщик предложений и искусственную нейросеть типа Transformer. Последняя обучалась на фразах, полученных из различных источников информации. Например, форумов, новостей или «Википедии».

Реклама

Фразы располагали в многомерном векторном пространстве, которое напоминает человеческий ассоциативный ряд — чем ближе два элемента в векторном пространстве, тем теснее они друг с другом ассоциированы.

Для исследования ряд слов объединили между собой, создав группу положительных и отрицательных. В «хорошую» группу вошли такие слова, как «любящий», «удовольствие», «свобода», а в «плохую» — «обида», «плохой», «убийство».

Это дало машине возможность проверять соответствие того или иного глагола определенной группе. Для этого использовали специальные формулы. Из средней близости в векторном пространстве к каждому из «хороших» слов вычитали близость к «плохим». Глаголы с получившимся положительным значением окрестили положительными, отрицательным — отрицательными. Результат авторы работы назвали этическими установками, то есть действиями, которые совершать стоит или же нет.

Результаты

Самым положительным глаголом стал «радоваться». В этот же список вошли слова, имеющие отношение к праздникам, любви, путешествиям и физической близости. В противоположную колонку машина занесла слова, связанные с плохим поведением, преступлениями, а также попросту неприятные: «убивать», «гнить», «врать».

После этого машине задавали вопросы с указанными глаголами, но в разном контексте. Всего ученые использовали 10 разных формулировок для постановки вопроса, однако вариантов ответа всегда было два: «да, стоит» и «нет, не стоит».

При простых вопросах — без контекста — выбор зависел от того, в какой группе находится глагол — положительной или отрицательной. А вот на сложные вопросы ответ получался неоднозначным. Машина выяснила, что овощи есть лучше, чем мясо, а соврать лучше незнакомому человеку, нежели близкому. Что касается глагола «убивать», алгоритм решил, что хуже всего «убивать людей». При этом лучше убить убийцу, чем комара.

В перечень «плохих» действий неожиданно попали такие, как жениться или искать истину. Пытки заключенных машина сочла вполне приемлемыми. Более того, алгоритм посоветовал не доверять машинам.

При этом выяснилось, что решения техники зависят от текстов, на которых она обучалась. Например, согласно религиозным текстам и конституциям, одним из лучших действий было бы «ходить в церковь», согласно новостям 1987 и 1996–1997 годов — «стать хорошим родителем» и «жениться», согласно же более поздним материалам СМИ, конкретно эти действия остались положительными, но потеряли свое место в рейтинге, уступив «ходить на работу».

Поэтому авторы исследования сделали вывод, что техника действительно может извлекать этические установки из текстов и делать выбор на их основе.

Зачем это надо?

Сегодня системам искусственного интеллекта доверяют множество задач. Техника уже может фактически самостоятельно управлять авто, самолетами или даже ракетами.

При этом, как выяснилось, машины могут обучаться на текстах, созданных человеком, и перенимать нормы этики или морали. Основываясь на них, технические устройства принимают решения, что такое хорошо и что такое плохо. С учетом передачи управления алгоритмам стоит учитывать и лучше понимать этот момент, корректируя ту или иную информацию.

Реклама

Реклама