Pesquisadores querem que robôs entendam nossa linguagem corporal

Se as assistentes digitais de hoje já são bastante evoluídas na compreensão de nossos comandos de voz, como serão os robôs do futuro?

Segundo pesquisadores do Instituto de Robótica da universidade Carnegie Mellon, nos Estados Unidos, as máquinas terão que aprender a interpretar também nossa linguagem corporal.

“Nós nos comunicamos quase tanto com o movimento dos nossos corpos quanto com nossas vozes”, explica Yaser Sheikh, professor de Robótica e um dos responsáveis pela pesquisa. E completa: “mas computadores são mais ou menos cegos para isso”.  Para compensar essa deficiência o projeto em desenvolvimento conseguiu habilitar um algoritmo para compreender as poses e os movimentos de múltiplas pessoas em um ambiente a partir de vídeo em tempo real, assim como sinais feitos com as mãos. Confira a demonstração:

A tecnologia tem diversas aplicações futuras, não somente no campo da robótica. Até mesmo a computação pessoal poderia ser beneficiada com assistentes mais naturais, capazes de detectar sinais do corpo que complementam instruções comumente interpretadas apenas por voz. O setor de segurança pública também poderia ser outra área a ser contemplada pelo algoritmo: atualmente, autoridades de segurança são treinadas para detectar comportamentos suspeitos na multidão, mas a automação poderia ampliar sensivelmente a eficiência do monitoramento.

Os pesquisadores liberaram o código-fonte de seus algoritmos no Github e relatam que até o momento cerca de 20 empresas, de diferentes setores, já revelaram interesse em licenciar comercialmente suas descobertas.

Queremos saber sua opinião