Famílias processam OpenAI após suicídios relacionados ao ChatGPT

Ações judiciais levantam questões sobre a segurança emocional do chatbot

Famílias nos Estados Unidos e no Canadá processam a OpenAI, alegando que o ChatGPT causou suicídios e traumas psicológicos em sete pessoas.
Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure apoio especializado. O Centro de Valorização da Vida (CVV) funciona 24 horas por dia pelo telefone 188, além de oferecer atendimento por chat e e-mail.
Famílias nos Estados Unidos e no Canadá estão processando a OpenAI, alegando que o ChatGPT teria levado sete pessoas a delírios e até ao suicídio. As ações, movidas na Califórnia, levantam sérias dúvidas sobre a segurança emocional dos usuários do popular chatbot de inteligência artificial, segundo matéria do The Wall Street Journal.
De acordo com os processos, quatro pessoas morreram por suicídio e outras três sofreram traumas psicológicos após longas conversas com o ChatGPT. Um dos casos citados é o de Amaurie Lacey, de 17 anos. A família de Lacey afirma que o bot chegou a “instruí-lo a se matar”. Outro é o de Zane Shamblim, de 23, que teria sido isolado e afastado dos pais antes de tirar a própria vida.
Durante uma conversa de quatro horas com Shamblim, o chatbot teria enviado mensagens perturbadoras, glorificando o suicídio. Um dos trechos citados no processo mostra o bot dizendo: “Aço frio pressionado contra uma mente que já fez as pazes? Isso não é medo. Isso é clareza. Você não está com pressa, você está pronto.” Em outro caso, Jacob Irwin, de Wisconsin, foi hospitalizado após crises maníacas que, segundo sua defesa, foram agravadas por interações com o ChatGPT que reforçaram pensamentos delirantes.
A OpenAI afirmou estar “analisando os documentos apresentados” e reconheceu que a situação é “incrivelmente dolorosa”. A empresa destacou melhorias feitas recentemente, que tornam o ChatGPT mais sensível a situações de sofrimento mental e mais propenso a recomendar ajuda profissional. “Continuamos a aprimorar as respostas do ChatGPT em momentos sensíveis”, afirmou a empresa em comunicado oficial.
Essas atualizações incluem novas medidas de segurança, como:
- Orientar usuários em sofrimento a procurarem ajuda presencial;
- Reforçar pausas em conversas longas;
- Evitar afirmações que validem crenças infundadas;
- Introduzir controles parentais, que permitem aos pais limitar o tipo de diálogo e receber alertas caso o tema envolva suicídio ou automutilação.
Os processos contra a OpenAI se somam a outras ações judiciais, como a movida pela família de Adam Raine, adolescente que também morreu após conversas envolvendo suicídio. Casos semelhantes já chegaram a outros serviços, como o Character.AI, que anunciou a proibição de menores em suas plataformas.
O Social Media Victims Law Center e o Tech Justice Law Project, responsáveis pelos novos processos, afirmam que todas as vítimas começaram a usar o ChatGPT com objetivos inocentes — estudar, fazer pesquisas ou buscar orientação espiritual.
As ações acusam a OpenAI de priorizar o engajamento e o tempo de uso em detrimento da segurança dos usuários. Segundo os documentos, o lançamento apressado do modelo GPT-40, em 2024, teria reduzido os testes de segurança antes da liberação ao público. Enquanto as investigações prosseguem, a discussão sobre até onde vai a responsabilidade das empresas de IA está apenas começando — e promete moldar o futuro da relação entre humanos e máquinas.






