IA superinteligente exige testes de segurança como os da bomba atômica

O físico Max Tegmark propõe que empresas de IA estimem o risco de perder o controle como cientistas fizeram antes do teste nuclear de 1945

Imagem: KT Stock photos/Shutterstock

Compartilhe esta matéria

Max Tegmark, físico do MIT e referência em segurança da inteligência artificial, defende que empresas de IA realizem cálculos de risco rigorosos antes de lançar sistemas superinteligentes — semelhantes aos feitos antes do primeiro teste nuclear de 1945, liderado por Robert Oppenheimer.

Tegmark propõe que as empresas calculem a “constante de Compton”, uma estimativa da probabilidade de perder o controle sobre uma superinteligência artificial (ASI). A ideia é inspirada em Arthur Compton, físico que aprovou o teste da bomba atômica após estimar um risco extremamente baixo de catástrofe.

Chamada à responsabilidade

  • Segundo Tegmark explicou ao The Guardian, confiar apenas em sensações de segurança não é suficiente.
  • “Não basta dizer ‘nos sentimos bem com isso’. Elas precisam calcular a porcentagem”, afirmou o físico.
  • Ele afirma que cálculos transparentes poderiam gerar consenso político e apoiar a criação de regras globais para o desenvolvimento seguro da IA.
  • Tegmark é cofundador do Future of Life Institute, que publicou uma carta aberta em 2023 com mais de 33.000 assinaturas (incluindo Elon Musk e Steve Wozniak), pedindo uma pausa na corrida por IAs cada vez mais poderosas e difíceis de controlar.
inteligencia artificial
Especialistas recomendam que gigantes da IA quantifiquem o risco de autonomia incontrolável antes de lançarem sistemas avançados – Imagem: Anggalih Prasetya/Shutterstock

Leia mais

Colaboração internacional

Recentemente, Tegmark e outros especialistas divulgaram o Consenso de Singapura, com diretrizes para priorizar a segurança da IA. Ele afirma que, após a cúpula de Paris, o debate voltou a focar em colaboração internacional, fortalecendo a causa por uma IA segura e controlável.

O relatório definiu três grandes áreas a serem priorizadas na pesquisa sobre segurança de IA: desenvolver métodos para medir o impacto dos sistemas de IA atuais e futuros; especificar como uma IA deve se comportar e projetar um sistema para atingir esse objetivo; e gerenciar e controlar o comportamento de um sistema.

Sistemas superinteligentes de IA devem passar por medidas concretas de segurança (Imagem: Lemon_tm/iStock)
Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Postagem Relacionada

Copyright © 2024 Jornal Vertente

Jornal Vertente
Visão geral da privacidade

Este site utiliza cookies para que possamos fornecer a melhor experiência possível ao usuário. As informações dos cookies são armazenadas em seu navegador e desempenham funções como reconhecer você quando retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.