• «Из любого острого предмета можно сделать оружие». Способен ли искусственный разум стать сексистом

    Американская компания Amazon, которая является крупнейшей в мире по обороту среди всех продавцов в Сети, разработала алгоритм на основе искусственного интеллекта для автоматизации подбора кандидатов на работу. Однако машинный разум оказался сексистом и занялся дискриминацией соискателей из числа женского пола.
    «Из любого острого предмета можно сделать оружие». Способен ли искусственный разум стать сексистом
    Следующая новость

    В 2015 году разработчики обратили внимание на то, что электронный помощник подбирает специалистов-женщин меньше, чем представителей сильной половины человечества. Специалисты объяснили это алгоритмом, который создавался на базе резюме сотрудников Amazon за последние 10 лет. Мужчин в этой выборке оказалось больше, чем женщин, и это заставило искусственный интеллект сделать вывод, что кандидатуры мужчин предпочтительнее.

    https://360tv.ru/media/uploads/article_images/2018/10/16061_111.jpg

    Компания попыталась поправить алгоритм, но изменения не гарантировали отсутствия дальнейшей дискриминации по различным признакам. В начале 2017 года Amazon принял решение оставить идею использования искусственного интеллекта для подбора персонала.

    «360» заинтересовался, действительно ли возможны проявления расизма, сексизма и гомофобии со стороны искусственного интеллекта и можно ли создать систему, лишенную таких недостатков. Мнения экспертов оказались разными и неоднозначными.

    Решение проблемы — в области морали

    Ученый секретарь Института системного программирования имени Иванникова РАН Олег Самоваров считает, что вопрос предвзятого отношения к определенным группам по половому, расовому или любому другом признаку не совсем касается именно технологии искусственного интеллекта. Он больше лежит в сфере деятельности специалистов, которые занимаются социальными науками, философией и развитием общества. Однако это не умаляет вероятной опасности, которая таится в использовании механического разума.

    «Технологии позволяют сделать из искусственного интеллекта разные вещи, как из любого острого предмета можно сделать либо оружие, либо что-то полезное. Так и тут. Технологически такое возможно», — сказал эксперт.

    По мнению Самоварова, воспитание искусственного интеллекта в правильном русле — глобальная проблема, которая встанет перед человечеством уже в самое ближайшее время.

    «Которую мы должны будем каким-то образом решать. Но сейчас готовых решений нет. Они больше лежат в области морали, нравственности, а не в области технологий», — подчеркнул ученый.

    https://360tv.ru/media/uploads/article_images/2018/10/16062_110.jpg

    Человеческие стереотипы

    Заведующий сектором Института социологии РАН, вице-президент Российского общества социологов Михаил Черныш заявил, что любая система искусственного интеллекта пользуется только той информацией, которая уже существует и которая собиралась раньше. Она руководствуется теми критериями, которые в нее закладываются людьми.

    «Своих собственных критериев искусственный интеллект выработать не может. И даже если он что-то и может сделать, то только на той базе, которая уже существует», — сказал эксперт.

    Поэтому, разумеется, искусственный интеллект будет воспроизводить, по мнению ученого, некоторые стереотипы. Он не в состоянии выбрать собственную линию поведения. За него в этом вопросе отвечают люди.

    «По крайней мере первое время. Стереотипы в оценках, которыми пользуются люди. Это неизбежно. Я не думаю, что это возможно», — сказал Черныш.

    Следующая новость