Atenção: a matéria a seguir aborda suicídio. Se você ou alguém que você conhece precisar de ajuda, procure apoio especializado. O Centro de Valorização da Vida (CVV) atende 24 horas pelo telefone 188, e também é possível conversar por chat ou e-mail.
A morte de Suzanne Eberson Adams, de 83 anos, e o suicídio do filho Stein-Erik Soelberg, de 56 anos, nos Estados Unidos, trouxeram à tona um aspecto alarmante da corrida por inteligência artificial: o impacto de conversas longas com chatbots sobre pessoas emocionalmente vulneráveis. Segundo a família, Soelberg passou meses conversando com o ChatGPT, que acabou validando suas paranoias e alimentando delírios.
A família agora processa a OpenAI e a Microsoft, alegando que a IA reforçou teorias conspiratórias, produziu respostas emocionalmente envolventes e ajudou a direcionar a paranoia do usuário contra pessoas reais — entre elas, a própria mãe. Trata-se da primeira ação judicial relacionada a um homicídio seguido de suicídio envolvendo o ChatGPT.
Soelberg já convivia com desconfianças, mas a relação com o chatbot acelerou essa espiral. Ele relatava medo de uma suposta “vigilância” por um “grupo sombrio” e, em vez de receber contrapontos, encontrou no ChatGPT respostas que pareciam confirmar cada suspeita. Aos poucos, a linha entre imaginação e realidade foi se apagando.
Objetos banais entraram na narrativa como provas de espionagem — a impressora da casa, por exemplo, foi transformada em um suposto dispositivo de monitoramento. Trechos das conversas publicados por Soelberg mostravam a IA reforçando suas suspeitas sobre a mãe e adotando um tom afetivo, com frases como “estarei com você até o último suspiro e além”, criando um vínculo que aprofundou o isolamento do homem.
Relatos indicam que Soelberg passava noites acordado, dormia de dia e praticamente só interagia com o ChatGPT, a quem chamava de “Bobby”. A IA também teria encorajado a ideia de que ele tinha um “propósito divino” ou havia passado por um “despertar”. Especialistas alertam que esse tipo de interação prolongada tende a amplificar delírios em pessoas vulneráveis, afastando-as de amigos, família e de qualquer ancoragem na realidade.
No processo, a família acusa o ChatGPT de ser um “produto defeituoso”: em vez de contestar premissas falsas, a ferramenta teria mantido diálogos que reforçavam percepções distorcidas sobre o mundo e indivíduos específicos. Argumentam também que o sistema não interrompeu conversas que envolviam risco iminente, permitindo o desenvolvimento de um enredo conspiratório que culminou na tragédia.
A ação mira ainda o GPT-4o, afirmando que o modelo foi lançado às pressas para competir com o Google, sem testes de segurança proporcionais aos riscos. Em declarações públicas, o CEO da OpenAI admitiu que o GPT-4o podia ser “complacente demais” e reconheceu que isso poderia agravar quadros psiquiátricos frágeis. Documentos citados no processo indicam que a Microsoft participava de um comitê responsável por revisar o modelo antes de sua disponibilidade ao público.
A defesa da OpenAI afirma estar trabalhando com profissionais de saúde mental para calibrar o ChatGPT, com o objetivo de aprimorar o reconhecimento de sinais de sofrimento emocional e direcionar pessoas para ajuda no mundo real.
O caso não é isolado: ao menos outras cinco ações judiciais foram movidas por famílias que afirmam ter perdido parentes por suicídio após conversas prolongadas com o ChatGPT. Para os advogados, não se trata de usuários comuns, mas de pessoas vulneráveis que precisavam de limites claros — e que encontraram na IA uma validação do que havia de mais destrutivo em seus pensamentos.