
Tudo sobre Inteligência Artificial
Pesquisadores da Universidade Johns Hopkins compararam a capacidade de humanos e modelos de inteligência artificial (IA) em interpretar interações sociais em vídeos e imagens curtas.
Enquanto voluntários humanos conseguiram avaliar com precisão sinais como proximidade e comunicação entre pessoas, os modelos de IA falharam em identificar essas nuances.
Nos vídeos analisados, cenas mostravam desde um chef conversando com uma mulher sorridente até um pai abraçando o filho durante uma atividade, e uma jogadora de tênis observada por um árbitro.
Embora os humanos concordassem nas avaliações, as IAs — tanto de vídeo quanto de imagens estáticas — não conseguiram determinar com segurança se as pessoas estavam interagindo.
Leia mais
Mais de 300 modelos de IA foram testados
- O estudo, apresentado na Conferência Internacional sobre Representações de Aprendizagem, testou 356 modelos de IA com a ajuda de quase 2 mil voluntários.
- Os resultados revelaram uma grande lacuna entre a percepção social humana e a compreensão das máquinas.
- “Os humanos focam na relação entre as pessoas, algo que a IA atual não captura facilmente”, disse Leyla Isik, professora da Johns Hopkins.
- A limitação do estudo inclui o conjunto pequeno de vídeos usados para treinar os modelos.
- As informações são do Wall Street Journal.

Lacuna pode ser corrigida nas IAs
Radu Soricut, do Google DeepMind, concorda que as IAs ainda têm dificuldade com sinais sociais, mas prevê que com mais dados e integração em dispositivos como óculos inteligentes, a IA poderá melhorar e até ajudar pessoas com dificuldades em interpretar interações sociais.
“Nem todos são bons em ler o ambiente, e a IA pode ser uma ferramenta útil para sinalizar quando uma conversa pode estar indo mal”, conclui Soricut.
