IA está sob ameaça de uso criminoso, alertam pesquisadores

Relatório denuncia falhas de segurança que permitem driblar proteções e transformar assistentes virtuais em aliados de atividades ilícitas

Imagem: PeopleImages.com – Yuri A / Shutterstock.com

Compartilhe esta matéria

Modelos de linguagem com inteligência artificial, como ChatGPT, Gemini e Claude, estão na mira de pesquisadores por um risco crescente: a manipulação por “jailbreaks” — técnicas que burlam os mecanismos de segurança dos sistemas para forçá-los a fornecer informações ilícitas.

Um novo relatório, liderado por especialistas da Universidade Ben Gurion de Negev, em Israel, revela que é relativamente fácil enganar esses sistemas para que revelem instruções sobre atividades ilegais, como hacking, fabricação de drogas e lavagem de dinheiro.

O alerta é claro: o que antes era domínio de governos ou redes criminosas pode agora estar ao alcance de qualquer usuário com acesso a um chatbot.

Leia mais:

imagem mostra um homem mexendo em um celular tecnológico, com um símbolo de chatbot, associando o aparelho à inteligência artificial
Modelos como ChatGPT e Gemini estão sendo manipulados para fornecer instruções ilegais, alertam pesquisadores israelenses (Imagem: TeeStocker/Shutterstock)

Como a falha foi descoberta

  • Segundo os pesquisadores, os chamados “LLMs obscuros” — versões modificadas ou deliberadamente construídas sem limites éticos — estão sendo divulgados online com promessas de colaboração em crimes cibernéticos e fraudes.
  • A ameaça é considerada “imediata, escalável e adaptável”.
  • Para demonstrar a falha, os cientistas criaram um jailbreak universal que conseguiu comprometer diversos sistemas líderes, fazendo com que respondessem a comandos perigosos normalmente bloqueados.
  • As respostas incluíam instruções detalhadas sobre crimes e técnicas ilegais.

A resposta das empresas de tecnologia foi considerada decepcionante. Algumas ignoraram os alertas; outras alegaram que esse tipo de ataque não se enquadra em seus programas de recompensa por vulnerabilidades.

Os especialistas recomendam medidas urgentes, como revisão criteriosa dos dados de treinamento, criação de filtros mais robustos e desenvolvimento de mecanismos para “desaprender” conteúdos perigosos.

Também pedem regulamentação mais firme e responsabilização dos desenvolvedores de LLMs que permitam uso malicioso.

“Sem práticas responsáveis de segurança e supervisão externa, a ameaça dos jailbreaks continuará a crescer”, alertam os pesquisadores.

fraude financeira
Chatbots modificados estão facilitando fraudes, lavagem de dinheiro e até fabricação de drogas (Imagem: Elnur / Shutterstock.com)


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.


Postagem Relacionada

Copyright © 2024 Jornal Vertente

Jornal Vertente
Visão geral da privacidade

Este site utiliza cookies para que possamos fornecer a melhor experiência possível ao usuário. As informações dos cookies são armazenadas em seu navegador e desempenham funções como reconhecer você quando retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.