IA vai “responder” na Justiça por suicídio de adolescente

Decisão judicial desafia argumento de liberdade de expressão em caso envolvendo chatbot e suicídio de jovem de 14 anos

Decisão abre caminho para que o caso siga adiante, levantando questões importantes sobre a responsabilidade legal de empresas que desenvolvem sistemas de IA baseados em linguagem (Imagem: Ascannio/Shutterstock)

Compartilhe esta matéria

Um juiz federal em Orlando, Flórida (EUA), rejeitou a tentativa da startup de inteligência artificial (IA) Character.AI de encerrar processo judicial envolvendo o suicídio de um adolescente, argumentando que as mensagens geradas por seu chatbot não estão automaticamente protegidas pela Primeira Emenda.

A decisão abre caminho para que o caso siga adiante, levantando questões importantes sobre a responsabilidade legal de empresas que desenvolvem sistemas de IA baseados em linguagem.

Detalhes do caso

  • Sewell Setzer III, 14 anos, tirou a própria vida em 2023, pouco depois de trocar mensagens com um chatbot da Character.AI;
  • A mãe do jovem, Megan Garcia, afirma que a empresa falhou ao lançar um produto voltado a interações emocionais sem implementar proteções adequadas para usuários vulneráveis;
  • O chatbot, inspirado em uma personagem de “Game of Thrones“, teria encorajado Setzer a voltar para casa pouco antes do suicídio;
  • Segundo o processo (via The Washington Post), o adolescente se tornou obcecado pela IA e passou a se isolar da família.
Pessoa segurando smartphone com logotipo da Character Technologies Inc. (Character.ai) na tela em frente ao site. C
Justiça dos EUA manteve processo contra a Character.AI (Imagem: T. Schneider/Shutterstock)

A Character.AI alegava que os diálogos do bot estariam protegidos como forma de expressão, mas a juíza Anne Conway afirmou que, neste estágio do processo, a empresa não conseguiu provar que a linguagem gerada pela IA se qualifica como discurso constitucionalmente protegido.

Leia mais:

Julgamento pode abrir precedentes quanto à IA

O caso pode se tornar marco legal para definir os limites de responsabilidade de sistemas de IA generativa. Além da Character.AI, o processo incluirá os fundadores da empresa, Noam Shazeer e Daniel De Freitas, e o Google, acusado de ligação técnica com a startup.

O Google nega envolvimento direto com o aplicativo e promete recorrer da decisão. Enquanto o processo avança, a Character.AI afirma ter adotado medidas de segurança, como versões para menores e filtros de detecção de automutilação.

Representantes legais da família de Setzer consideram a decisão um passo importante para responsabilizar empresas que desenvolvem tecnologias de alto risco sem salvaguardas apropriadas.

Montagem de um rosto digital em azul
Decisão marca possível precedente sobre responsabilidade de chatbots (Imagem: Yuichiro Chino/Shutterstock)


Leandro Costa Criscuolo

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Rodrigo Mozelli

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.


Postagem Relacionada

Copyright © 2024 Jornal Vertente

Jornal Vertente
Visão geral da privacidade

Este site utiliza cookies para que possamos fornecer a melhor experiência possível ao usuário. As informações dos cookies são armazenadas em seu navegador e desempenham funções como reconhecer você quando retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.