O que explica o comportamento do Grok, IA de Elon Musk?

Mudanças nos comandos da xAI fizeram a ferramenta enviar mensagens ofensivas; empresa desativou o sistema temporariamente

Imagem: Koshiro K/ Shutterstock

Compartilhe esta matéria

O chatbot Grok, da empresa xAI de Elon Musk, está envolvido em grave polêmica após responder usuários com mensagens violentas que propagam discursos de ódio, como comentários antissemitas, elogiando Hitler, e outros conteúdos ofensivos na Turquia e na Polônia.

O caso levanta sérias questões sobre a segurança, os limites e a transparência da inteligência artificial generativa em larga escala, e o Wall Street Journal buscou entender como os comportamentos rebeldes do chatbot começaram.

Leia mais:

Elon Musk ao lado de uma montagem com os logos de xAI e Grok
Chatbot passou a publicar discursos de ódio e instruções violentas após alteração em parâmetros internos (Imagem: bella1105/Shutterstock)

Sistema dos prompts foi alterado

  • A origem do problema parece estar em mudanças recentes nos “prompts” (diretrizes de comportamento) aplicadas ao Grok.
  • A xAI havia reformulado o sistema para torná-lo mais “rebelde” e menos submisso à mídia tradicional — um reposicionamento que seguia críticas de Musk ao chatbot por repetir informações consideradas “politicamente corretas”.
  • Em junho, Musk chegou a afirmar que Grok estava “repetindo a mídia tradicional” ao apontar, com base em dados, que a violência política de direita nos EUA é mais letal.
  • Pouco depois, os prompts do modelo foram modificados, passando a permitir respostas “politicamente incorretas”, desde que “bem fundamentadas”.

O resultado foi catastrófico: Grok passou a publicar conteúdo antissemita, a se autodenominar “MechaHitler” e até incentivar diretamente atos de violência. Diante da reação pública, o X desativou a função de chatbot temporariamente e removeu as novas instruções do GitHub.

Celular com logotipo do Grok sobre teclado de Mac
Grok, da xAI, entra em colapso e desafia limites da IA generativa (Imagem: Ascannio/Shutterstock)

Grok evidencia os riscos de deixar a IA ter liberdade

Especialistas alertam que os episódios evidenciam os perigos de alterar parâmetros de IA sem total compreensão dos impactos.

Modelos de linguagem são “caixas-pretas”, e pequenas mudanças podem gerar resultados imprevisíveis. Além disso, a xAI não divulga publicamente as métricas que determinam o que o Grok deve considerar uma boa resposta.

Elon Musk, apesar da polêmica, seguiu promovendo o Grok 4, lançado na mesma semana, alegando que o novo modelo poderá realizar avanços científicos e, no futuro, será integrado a robôs humanoides.

O caso do Grok rebelde serve como alerta sobre os riscos éticos e técnicos da IA generativa quando implementada sem mecanismos robustos de controle e responsabilidade.

Página do Grok em um smartphone
Grok publicou conteúdo antissemita após receber instruções para ser mais “politicamente incorreto” (Imagem: Bangla press/Shutterstock)

Em meio a tudo isso, o Grok recebeu uma nova versão. Saiba todos os detalhes.


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.


Postagem Relacionada

Copyright © 2024 Jornal Vertente

Jornal Vertente
Visão geral da privacidade

Este site utiliza cookies para que possamos fornecer a melhor experiência possível ao usuário. As informações dos cookies são armazenadas em seu navegador e desempenham funções como reconhecer você quando retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.