Для создания системы SignGAN исследователь Бен Сандерс и его коллеги из Университета Суррея использовали нейросеть, преобразующую разговорную речь в жесты. Команда обучала искусственный разум на видео реальных переводчиков. Теперь алгоритмы сопоставляют знаки с трехмерной моделью скелета человека и создают фотореалистичных сурдопереводочиков. Аватары-помощники способны улучшить доступ пользователей к различным источникам в режиме онлайн.
Ранее специалисты Google придумали модель ИИ для считывания языка жестов в ходе видеообщения. Нейросеть реагирует на активно говорящего участника, но игнорирует при этом собеседника, молча двигающего головой либо руками. Авторы указывают: кому-то решение данной задачи может показаться легким, но ранее ни в одном сервисе видеозвонков подобной системы не было. Как правило, все имеющиеся разработки реагируют на любой жест или звук человека.