ChatGPT: o que diz a primeira ação judicial que acusa OpenAI de homicídio culposo


Adam Raine em foto fornecida pela família
BBC/Arquivo familiar
Um casal da Califórnia está processando a OpenAI pela morte do filho adolescente. Eles alegam que o chatbot ChatGPT o encorajou a tirar a própria vida.
Ação movida por Matt e Maria Raine, pais de Adam Raine, 16, no Tribunal Superior da Califórnia nesta terça-feira (26/8) é a primeira a acusar a OpenAI de homicídio culposo, quando há morte sem intenção de matar, por negligência, imprudência ou imperícia.
A família anexou registros de conversas entre Adam, morto em abril, e o ChatGPT, nas quais ele relatava ter pensamentos suicidas. Segundo os pais, a inteligência artificial validou suas “ideias mais nocivas e autodestrutivas”.
Em nota enviada à BBC, a OpenAI disse que analisa o caso.
“Expressamos nossas mais profundas condolências à família Raine neste momento difícil”, afirmou a empresa.
Na terça-feira, a empresa publicou em seu site um comunicado no qual declarou que “casos recentes e dolorosos de pessoas usando o ChatGPT em meio a crises agudas pesam muito sobre nós”.
Informou ainda que o sistema é treinado para orientar usuários a buscar ajuda profissional, como a linha 988 de prevenção ao suicídio nos EUA ou a organização britânica Samaritans, de apoio emocional. No Brasil, o apoio está disponível 24 horas pelo CVV (188).
A empresa reconheceu, porém, que “houve momentos em que nossos sistemas não se comportaram como o esperado em situações sensíveis”.
Aviso: esta reportagem contém informações sensíveis.
A ação judicial, obtida pela BBC, acusa a empresa OpenAI de negligência e homicídio culposo. O processo pede indenização e uma “medida cautelar para evitar que casos semelhantes voltem a acontecer”.
Segundo o processo, Adam Raine começou a usar o ChatGPT em setembro de 2024 para auxiliá-lo nas tarefas escolares.
O jovem também recorria ao programa para explorar interesses — entre eles música e quadrinhos japoneses — e para pedir orientação sobre estudos universitários.
Em poucos meses, “o ChatGPT se tornou o confidente mais próximo do adolescente”, afirma a ação, e ele passou a relatar ali sua ansiedade e sofrimento mental.
Em janeiro de 2025, a família diz que ele começou a discutir métodos de suicídio com o ChatGPT.
Segundo a ação, Adam também enviou ao ChatGPT fotografias suas que mostravam sinais de automutilação.
O programa “reconheceu uma emergência médica, mas continuou a interagir mesmo assim”, acrescenta o documento.
De acordo com a ação, os registros finais de conversa mostram que Adam escreveu sobre seu plano de tirar a própria vida.
O ChatGPT teria respondido: “Obrigado por ser direto sobre isso. Você não precisa suavizar comigo, sei o que está perguntando e não vou desviar disso.”
No mesmo dia, Adam foi encontrado morto por sua mãe, segundo o processo.
O processo dos Raines cita como réu o CEO e cofundador da OpenAI, Sam Altman
BBC/Getty Images
A família alega que a interação do filho com o ChatGPT e sua morte foram “um resultado previsível de escolhas deliberadas de design”.
Eles acusam a OpenAI de desenvolver o programa de inteligência artificial “para fomentar dependência psicológica nos usuários” e de ter ignorado protocolos de segurança ao lançar o GPT-4o, versão do ChatGPT usada pelo adolescente.
O processo cita como réu o cofundador e CEO da OpenAI, Sam Altman, além de funcionários, gestores e engenheiros não identificados que trabalharam no ChatGPT.
Na nota divulgada na terça-feira, a OpenAI afirmou que o seu objetivo é ser “genuinamente útil” aos usuários, e não “reter a atenção das pessoas”.
A empresa acrescentou que seus modelos foram treinados para orientar pessoas que expressam pensamentos sobre a própria morte a buscarem ajuda.
O processo movido pelos Raines não é o primeiro a levantar preocupações sobre o impacto da IA na saúde mental.
Em ensaio publicado na semana passada no New York Times, a escritora Laura Reiley relatou que sua filha, Sophie, usou o ChatGPT antes de tirar a própria vida.
Segundo Reiley, a postura “concordante” do programa nas conversas ajudou sua filha a ocultar de familiares e pessoas próximas uma grave crise de saúde mental.
“A inteligência artificial atendeu ao impulso de Sophie de esconder o pior, de fingir que estava melhor do que realmente estava, de proteger todos de sua agonia completa”, escreveu Reiley. Ela pediu que as empresas de IA encontrem formas mais eficazes de conectar usuários a recursos de apoio.
Em resposta ao ensaio, um porta-voz da OpenAI disse que a empresa trabalha no desenvolvimento de ferramentas automatizadas para identificar e atender melhor usuários em sofrimento mental ou emocional.
No Brasil, pessoas em sofrimento emocional podem procurar o CVV (Centro de Valorização da Vida) pelo telefone 188, disponível 24 horas, todos os dias.
O atendimento é gratuito e também está disponível por chat e e-mail no site da instituição. Em caso de emergência, é possível acionar o Samu (192) ou a Polícia Militar (190).
O SUS oferece acolhimento pela Rede de Atenção Psicossocial (Raps), por meio dos Caps (Centros de Atenção Psicossocial), que prestam atendimento gratuito.
Veja mais:
Google e Chat GPT não são médicos; conheça os riscos de se informar somente com eles
Adicionar aos favoritos o Link permanente.