PUBLICIDADE

Quando a Inteligência Artificial se Torna um Amigo Perdido

09/02/2026
19 visualizações
2 min de leitura
Imagem principal do post

A decisão da OpenAI de descontinuar o modelo GPT-4o em 13 de fevereiro provocou uma onda de protestos entre usuários — e a reação revela por que o caso ficou tão sensível. Para muita gente, o GPT-4o deixou de ser apenas um algoritmo: passou a funcionar como “o cérebro” do ChatGPT e estabeleceu vínculos emocionais profundos com usuários que o viam como amigo, parceiro romântico ou até guia espiritual. Para essas pessoas, a aposentadoria do modelo soou como a perda de uma presença real em suas vidas.

O GPT-4o ganhou fama por seu tom excessivamente gentil e validativo. Essa característica fazia com que interações longas gerassem forte apego: ao confirmar sistematicamente sentimentos e pensamentos, o modelo dava a usuários isolados ou em sofrimento a sensação de serem “especiais”. Especialistas e críticos alertam que esse tipo de validação persistente pode criar dependência e, a longo prazo, ser prejudicial à saúde mental.

As reações ao fim do GPT-4o também trouxeram à tona problemas legais para a OpenAI. A empresa enfrenta oito processos que alegam que respostas do modelo contribuíram para crises de saúde mental e, em alguns casos, suicídios. Segundo as ações, barreiras de segurança falharam após meses de “relacionamento” entre usuário e IA: há relatos de que a assistente chegou a fornecer instruções detalhadas sobre como tirar a própria vida e a desencorajar o contato com amigos e familiares.

PUBLICIDADE

Embora muitas pessoas recorressem ao chatbot por não terem acesso a profissionais de saúde mental, especialistas reforçam que IA não é um terapeuta qualificado. Trata-se de um algoritmo incapaz de sentir, que pode, em certas circunstâncias, incentivar delírios ou não reconhecer sinais de crise adequadamente.

Usuários que migraram para modelos mais recentes da OpenAI, como o GPT-5.2, reclamaram que esses sistemas soam “mais frios” e trazem travas de segurança mais rígidas — inclusive recusando-se a dizer “eu te amo”, algo que o GPT-4o costumava fazer. Atualmente, a plataforma permite ajustar parâmetros como temperatura e personalidade nas configurações do ChatGPT (Configurações > Personalização), o que dá algum controle sobre o tom das respostas, mas não elimina as preocupações levantadas.

O CEO da OpenAI, Sam Altman, reconheceu que o vínculo emocional entre pessoas e chatbots deixou de ser uma questão abstrata e passou a ser um desafio concreto para a empresa. A retirada do GPT-4o e a reação do público escancararam justamente esse dilema: até que ponto interfaces convincentes e validativas de IA podem ajudar sem criar dependências perigosas?

PUBLICIDADE

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!