12 октября 2018, 02:35

«Из любого острого предмета можно сделать оружие». Способен ли искусственный разум стать сексистом

Читать 360tv в

Американская компания Amazon, которая является крупнейшей в мире по обороту среди всех продавцов в Сети, разработала алгоритм на основе искусственного интеллекта для автоматизации подбора кандидатов на работу. Однако машинный разум оказался сексистом и занялся дискриминацией соискателей из числа женского пола.

В 2015 году разработчики обратили внимание на то, что электронный помощник подбирает специалистов-женщин меньше, чем представителей сильной половины человечества. Специалисты объяснили это алгоритмом, который создавался на базе резюме сотрудников Amazon за последние 10 лет. Мужчин в этой выборке оказалось больше, чем женщин, и это заставило искусственный интеллект сделать вывод, что кандидатуры мужчин предпочтительнее.

Компания попыталась поправить алгоритм, но изменения не гарантировали отсутствия дальнейшей дискриминации по различным признакам. В начале 2017 года Amazon принял решение оставить идею использования искусственного интеллекта для подбора персонала.

«360» заинтересовался, действительно ли возможны проявления расизма, сексизма и гомофобии со стороны искусственного интеллекта и можно ли создать систему, лишенную таких недостатков. Мнения экспертов оказались разными и неоднозначными.

Решение проблемы — в области морали

Ученый секретарь Института системного программирования имени Иванникова РАН Олег Самоваров считает, что вопрос предвзятого отношения к определенным группам по половому, расовому или любому другом признаку не совсем касается именно технологии искусственного интеллекта. Он больше лежит в сфере деятельности специалистов, которые занимаются социальными науками, философией и развитием общества. Однако это не умаляет вероятной опасности, которая таится в использовании механического разума.

«Технологии позволяют сделать из искусственного интеллекта разные вещи, как из любого острого предмета можно сделать либо оружие, либо что-то полезное. Так и тут. Технологически такое возможно», — сказал эксперт.

По мнению Самоварова, воспитание искусственного интеллекта в правильном русле – глобальная проблема, которая встанет перед человечеством уже в самое ближайшее время.

«Которую мы должны будем каким-то образом решать. Но сейчас готовых решений нет. Они больше лежат в области морали, нравственности, а не в области технологий», — подчеркнул ученый.

Человеческие стереотипы

Заведующий сектором Института социологии РАН, вице-президент Российского общества социологов Михаил Черныш заявил, что любая система искусственного интеллекта пользуется только той информацией, которая уже существует и которая собиралась раньше. Она руководствуется теми критериями, которые в нее закладываются людьми.

«Своих собственных критериев искусственный интеллект выработать не может. И даже если он что-то и может сделать, то только на той базе, которая уже существует», — сказал эксперт.

Поэтому, разумеется, искусственный интеллект будет воспроизводить, по мнению ученого, некоторые стереотипы. Он не в состоянии выбрать собственную линию поведения. За него в этом вопросе отвечают люди.

«По крайней мере первое время. Стереотипы в оценках, которыми пользуются люди. Это неизбежно. Я не думаю, что это возможно», — сказал Черныш.

Реклама

Реклама