IA pode aprender a dizer “não sei” — e isso seria um grande avanço

Novo método permite que IAs evitem respostas arriscadas em áreas críticas como saúde e direito, priorizando a confiança sobre a velocidade

Imagem: Anggalih Prasetya/Shutterstock

Compartilhe esta matéria

Em áreas de alto risco, como medicina, direito ou engenharia — ou até em situações do cotidiano —, é muitas vezes mais seguro admitir “não sei” do que dar uma resposta errada.

No entanto, muitos modelos de inteligência artificial ainda preferem arriscar uma resposta mesmo quando não têm confiança suficiente.

Para enfrentar esse desafio, cientistas da computação da Universidade Johns Hopkins desenvolveram um novo método que permite que modelos de IA dediquem mais tempo à reflexão e usem uma pontuação de confiança para decidir quando devem se abster de responder.

Novo sistema usa níveis de confiança e penalidades para ensinar modelos a recusar respostas perigosas em contextos sensíveis – Imagem: Suri Studio/Shutterstock

Como o estudo foi feito

  • A pesquisa, publicada no repositório arXiv e que será apresentada na 63ª Reunião da Associação de Linguística Computacional, mostra que cadeias de raciocínio mais longas ajudam os modelos a responder com mais precisão — mas apenas até certo ponto.
  • Mesmo com mais tempo de processamento, erros ainda ocorrem quando não há penalidades associadas a respostas incorretas.
  • A equipe testou diferentes cenários de risco: exames (sem penalidades), com o jogo Jeopardy! (recompensas e penalidades equivalentes) e contextos críticos (erros penalizados mais severamente).
  • Descobriram que, sob regras mais rígidas, os modelos devem evitar responder se não tiverem confiança suficiente após processarem o problema.
inteligencia artificial
Método inovador dá tempo extra para que inteligências artificiais decidam se devem ou não responder – Imagem: Anggalih Prasetya/Shutterstock

Leia mais:

IA admitir que não sabe pode evitar danos maiores

Embora isso possa frustrar usuários em situações cotidianas, é essencial em contextos onde uma resposta errada pode ter consequências graves.

Agora, os pesquisadores incentivam a comunidade de IA a adotar métricas que levem em conta o custo do erro, promovendo o desenvolvimento de modelos mais seguros, transparentes e conscientes de suas limitações.

inteligência artificial
IA mais cautelosa pode prevenir erros graves em áreas de risco – Imagem: NONGASIMO/Shutterstock


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.


Postagem Relacionada

Copyright © 2024 Jornal Vertente

Jornal Vertente
Visão geral da privacidade

Este site utiliza cookies para que possamos fornecer a melhor experiência possível ao usuário. As informações dos cookies são armazenadas em seu navegador e desempenham funções como reconhecer você quando retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.