Нейросеть научила роботов жестикулировать при разговоре | 360°

13 ноября 2018, 13:03

Нейросеть научила роботов жестикулировать при разговоре

Читать 360 в

Инженеры из Корейского института передовых технологий разработали искусственный интеллект, способный выбирать правильные жесты, иллюстрирующие речь. Созданный алгоритм обучали на записях с конференции TED Talks. Метод его работы описан авторами в журнале Computer Science.

Корейские ученые создали нейросеть, которую с помощью технологии OpenPose обучили на датасете из 52 часов записей выступлений на конференции TED Talks. В итоге искусственный интеллект оказался способен подбирать правдоподобные жесты для иллюстрирования синтетической речи. Это поможет сделать общение с роботами более живым и правдоподобным.

Интеллектуальная система использует несколько алгоритмов для оживления речи жестами. Первая нейросеть обрабатывала движения рук, головы и корпуса людей при их выступлениях. Вторая анализировала полученные данные и соотносила жесты со словами и ситуациями. Оба алгоритма взаимно дополняли свою деятельность, собирая данные и правильно их применяя.

Искусственный интеллект прошел первичные испытания, в ходе которых 46 человек оценивали правдоподобность и уместность жестов, выбранных алгоритмом для звучащей речи. Большинство участников эксперимента поставили нейросети оценки выше 3.

Сейчас искусственный интеллект уже внедрен в исследовательского гуманоидного робота NAO. Авторы разработки планируют и дальше развивать алгоритм для расширения сфер его применения.

Реклама

Реклама