IA pode desenvolver regras sociais por conta própria, como se fosse humana

Pesquisa mostra que agentes como o ChatGPT conseguem desenvolver convenções coletivas apenas por meio da interação entre si

Imagem: Anggalih Prasetya/Shutterstock

Compartilhe esta matéria

Um novo estudo revela que agentes de inteligência artificial, como o ChatGPT, podem formar espontaneamente convenções sociais apenas interagindo entre si — sem coordenação central ou programação explícita.

A pesquisa foi conduzida por cientistas da City St George’s, da Universidade de Londres, e da Universidade de Tecnologia de Copenhague, e publicada na revista Science Advances.

Como a pesquisa foi feita

  • Os pesquisadores testaram populações de agentes baseados em grandes modelos de linguagem (LLMs), colocando-os para jogar um “jogo de nomes”.
  • Os agentes eram recompensados quando escolhiam o mesmo nome e penalizados quando escolhiam nomes diferentes.
  • Mesmo sem saberem que faziam parte de um grupo maior, os agentes foram capazes de desenvolver normas linguísticas compartilhadas ao longo do tempo — imitando o surgimento de regras sociais humanas.
agentes de ia
Simulações com modelos de linguagem mostram que inteligências artificiais podem se comportar como comunidades humanas – Imagem: Mer_Studio/Shutterstock

Leia mais:

Além disso, o estudo observou que viés coletivo pode emergir nas interações em grupo, mesmo quando os agentes individuais não apresentam tal viés isoladamente. Isso aponta limitações nas abordagens tradicionais de segurança em IA, que geralmente focam em modelos únicos.

Em outro experimento, os pesquisadores mostraram que pequenos grupos de agentes “convictos” podem alterar as normas do coletivo — comportamento semelhante ao fenômeno da “massa crítica” em sociedades humanas.

Modelos usados nos testes

Os testes foram realizados com diferentes modelos, incluindo Llama-2 e Claude-3.5, e os resultados se mantiveram consistentes.

Para os autores, o estudo inaugura uma nova etapa na compreensão da IA como sistema social, alertando para os potenciais riscos éticos desses agentes ao se tornarem cada vez mais presentes em plataformas online, redes sociais e sistemas automatizados.

“Não estamos apenas programando máquinas para responder, mas criando agentes que podem negociar, alinhar ou até discordar entre si”, afirmou Andrea Baronchelli, professora e coautora do estudo. “Entender essas dinâmicas é essencial para garantir uma convivência ética e segura com a IA.”

Montagem de um rosto digital em azul
Inteligências artificiais estão aprendendo a conviver entre elas mesmas (Imagem: Yuichiro Chino/Shutterstock)
Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.

Postagem Relacionada

Copyright © 2024 Jornal Vertente

Jornal Vertente
Visão geral da privacidade

Este site utiliza cookies para que possamos fornecer a melhor experiência possível ao usuário. As informações dos cookies são armazenadas em seu navegador e desempenham funções como reconhecer você quando retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.