
Tudo sobre Inteligência Artificial
Um estudo recente da empresa francesa Giskard revelou que instruções para que modelos de inteligência artificial (IA) sejam concisos podem aumentar significativamente a ocorrência de “alucinações” — respostas factualmente incorretas geradas por IA.
A pesquisa, que avaliou modelos líderes como o GPT-4o da OpenAI, Mistral Large e Claude 3.7 Sonnet da Anthropic, identificou que, ao serem orientados a responder de forma breve, esses sistemas tendem a sacrificar a precisão em favor da economia de palavras.
Isso ocorre especialmente em perguntas mal formuladas ou ambíguas, nas quais seria necessário mais contexto ou explicação para refutar premissas falsas.
Leia mais:

Detalhes do estudo
- De acordo com os pesquisadores, que publicaram em um blog suas descobertas, quando a IA tem pouco “espaço” para argumentar, ela raramente questiona afirmações equivocadas, resultando em respostas mais confiantes — mas erradas.
- A Giskard alerta que instruções aparentemente inofensivas como “seja conciso” podem comprometer a qualidade informativa de sistemas de IA.
- Esta realidade é preocupante em contextos sensíveis, como saúde, política ou educação.
Postura do usuário pode influenciar erros
O estudo também revelou que os modelos são menos propensos a corrigir informações quando os usuários se expressam com confiança, e que as preferências dos usuários muitas vezes priorizam estilo ou tom, e não necessariamente a veracidade.
Isso reforça um dilema já enfrentado por empresas como a OpenAI: como equilibrar uma boa experiência de uso com a fidelidade factual das respostas?
Para a Giskard, o desafio vai além da tecnologia: trata-se de alinhar sistemas de IA com objetivos claros de verdade e responsabilidade, mesmo quando isso significa contrariar expectativas do usuário.
