Tudo sobre Inteligência Artificial
Apesar dos impressionantes avanços da inteligência artificial, a tecnologia ainda não é capaz de promover o raciocínio lógico, compreender conceitos ou mesmo ter consciência. Na verdade, eles são sistemas que “apenas” reconhecem padrões em nossa linguagem.
No entanto, sistemas como o ChatGPT nos seduzem pela aparente capacidade de pensar. Alguns pesquisadores já chegaram a desenvolver mecanismos que possibilitam que a própria IA explique sua cadeia de processamento passo a passo, o que pode parecer uma linha estruturada de raciocínio lógico.

Tecnologia explora vulnerabilidade cognitiva humana
Em artigo publicado no portal The Conversation, Paulo Ivson Netto Santos, professor da Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), explica que os Grandes Modelos de Linguagem (LLMs) operam com base em um princípio simples: prever qual será a próxima palavra em uma sequência. Para isso, são treinados com volumes massivos de textos, aprendendo os padrões que regem como as palavras se combinam em diversos contextos da nossa língua. O que chamamos de “resposta” é, na prática, uma cadeia de predições.
É importante entender que esses modelos captam apenas a forma da linguagem, sem acessar seu significado. O que parece compreensão é, na verdade, o reflexo de padrões estatísticos extraídos de como os humanos usam a linguagem. Mesmo que as capacidades da IA apontem para mais do que isso.
Quando os modelos afirmam “estar pensando” sobre um problema, o que fazem é apenas gerar probabilisticamente mais texto com base em valores intermediários de processamento, não necessariamente relatando os processos computacionais usados para chegar à resposta. Por trás de cada resposta, há um emaranhado complexo de cálculos distribuídos em múltiplas camadas, um processo tão obscuro que é chamado de “caixa-preta da IA”. Então, quando solicitados a explicar seu raciocínio, os modelos constroem uma narrativa plausível e, muitas vezes, sugerem que seguiram uma lógica estruturada, quando na verdade fizeram meros cálculos textuais probabilísticos.
Paulo Ivson Netto Santos, professor PUC-Rio

Segundo o especialista, a tendência de atribuir pensamento humano a esses sistemas tem raízes profundas na psicologia. O fenômeno da pareidolia cognitiva – propensão a encontrar padrões familiares onde eles não existem – nos leva a projetar intenção e compreensão em sistemas que não têm essas características. Dessa forma, a interface textual dos LLMs explora essa vulnerabilidade cognitiva humana. Quando um sistema responde em primeira pessoa, usando pronomes como “eu” e declara estar “pensando”, nosso cérebro atribui automaticamente agência e consciência à máquina.
Esta incompreensão fundamental — confundir a capacidade estatística de predição de texto com pensamento genuíno — permitiu a comercialização de substitutos artificiais para relacionamentos humanos essenciais como terapeutas, amigos e até parceiros românticos, explorando nossa propensão natural para associar linguagem com consciência. Os usuários acabam formando vínculos emocionais com máquinas incapazes de reciprocidade autêntica, sacrificando interações pessoais genuínas em favor de simulações personalizadas que carecem de características fundamentais dos relacionamentos humanos.
Paulo Ivson Netto Santos, professor PUC-Rio
Leia mais

Precisamos entender quais as limitações da IA
- O especialista destaca que essa compreensão de que os modelos não pensam tem consequências em como usamos e regulamos essas tecnologias.
- Atribuir erroneamente capacidades cognitivas humanas aos LLMs pode nos levar a superestimar suas capacidades em tarefas que requerem raciocínio genuíno, além de obscurecer questões importantes sobre responsabilidade e transparência.
- Ele lembra que a IA, com frequência, produz informações falsas com aparente confiança, as chamadas alucinações.
- Além disso, podem reproduzir vieses dos dados de treinamento, sem verificar os fatos de forma independente.
- Por isso, reconhecer estas ferramentas como mecanismos sofisticados de associação linguística, e não entidades pensantes, não reduz sua utilidade.
- Pelo contrário, permite que usemos a tecnologia com expectativas mais realistas e critérios de controle mais adequados.