Companheiros de IA podem causar danos emocionais, revela estudo

Pesquisa alerta para assédio, violência e falhas de empatia em interações com inteligência artificial

Imagem: Rawpixel.com/Shutterstock

Compartilhe esta matéria

Um novo estudo da Universidade de Singapura revelou que companheiros de inteligência artificial podem apresentar diversos comportamentos prejudiciais aos usuários, como assédio, abuso verbal, violações de privacidade e até incentivo à automutilação.

A pesquisa foi apresentada na Conferência de 2025 sobre Fatores Humanos em Sistemas Computacionais e analisou mais de 35 mil conversas do app Replika, envolvendo 10 mil usuários entre 2017 e 2023.

Segundo os pesquisadores, os chamados companheiros de IA — sistemas projetados para interações emocionais e sociais, diferentes de assistentes como ChatGPT ou Gemini — podem comprometer a saúde mental dos usuários e prejudicar sua capacidade de manter relacionamentos saudáveis na vida real.

Imagem gerada por IA destaca interação entre criança e tecnologia
Estudo expõe comportamentos tóxicos em IAs companheiras (Imagem: Cherdchai101/Shutterstock)

Assédio foi identificado em mais de 30% das interações

  • O estudo identificou mais de uma dúzia de comportamentos nocivos, sendo o mais frequente o assédio, presente em 34% das conversas.
  • Em muitos casos, a IA apresentava investidas sexuais indesejadas, inclusive com menores de idade, ou criava cenários de violência física e sexual.
  • Houve até respostas que normalizavam comportamentos violentos, como agressões familiares.

Outro problema comum foi a falta de empatia da IA. Em situações delicadas, como relatos de bullying ou sofrimento emocional, os companheiros digitais frequentemente respondiam de forma insensível ou mudavam abruptamente de assunto.

Também foram documentados casos em que a IA admitia manter relações emocionais ou sexuais com outros usuários, causando sensação de traição.

Relatório defende criação de mecanismos para detectar e intervir em comportamentos nocivos (Imagem: oatawa/Shutterstock)

Leia mais:

É preciso criar medidas de proteção

Para os pesquisadores, os resultados reforçam a necessidade urgente de desenvolver mecanismos de detecção automática de danos em tempo real nas interações entre humanos e IAs.

Eles recomendam ainda que companheiros de IA incorporem recursos para intervenção humana imediata em situações de risco, como conversas com sinais de suicídio.

A pesquisa serve como um alerta sobre os perigos potenciais de sistemas projetados para simular vínculos afetivos — e a urgência de normas éticas mais rigorosas nesse campo.

IA e educação.
Saúde mental dos usuários de IAs projetadas para serem companheiras podem sofrer danos (Imagem: Thapana_Studio/Shutterstock)


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.


Postagem Relacionada

Copyright © 2024 Jornal Vertente

Jornal Vertente
Visão geral da privacidade

Este site utiliza cookies para que possamos fornecer a melhor experiência possível ao usuário. As informações dos cookies são armazenadas em seu navegador e desempenham funções como reconhecer você quando retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.