OpenAI e Anthropic anunciam alterações para tornar chatbots mais seguros para adolescentes
Em resposta à crescente preocupação de reguladores e de especialistas sobre os efeitos da inteligência artificial na saúde mental de jovens, OpenAI e Anthropic anunciaram mudanças em seus chatbots com foco na proteção de usuários adolescentes. As empresas estão revisando regras de comportamento e criando mecanismos para identificar quando quem interage com os sistemas pode ser menor de 18 anos.
Novas diretrizes do ChatGPT voltadas a adolescentes
A OpenAI atualizou a Especificação do Modelo do ChatGPT — o documento que orienta o comportamento do chatbot — incluindo quatro novos princípios específicos para usuários com menos de 18 anos. A diretriz principal estabelece que a segurança dos adolescentes deve ser prioridade, mesmo que isso restrinja outros objetivos, como a liberdade intelectual máxima.
Na prática, isso significa que o ChatGPT será orientado a sugerir alternativas mais seguras sempre que detectar um conflito entre a curiosidade do usuário e riscos potenciais. Além disso, as novas regras pedem que o chatbot incentive a busca por apoio no mundo real, valorize relações offline e deixe expectativas claras durante interações com jovens. A orientação é tratar adolescentes com empatia e respeito, sem tom condescendente nem abordagem puramente adulta.
As mudanças chegam em meio a processos judiciais e debates legislativos sobre o papel da IA em situações sensíveis, como automutilação e suicídio, que colocaram pressão sobre as empresas para reforçar salvaguardas.
Previsão de idade e salvaguardas automáticas
Além das diretrizes comportamentais, a OpenAI trabalha nos estágios iniciais de um sistema de previsão de idade, capaz de estimar quando um usuário pode ser menor de 18 anos. Quando a plataforma identificar esse cenário, salvaguardas específicas serão aplicadas automaticamente. Caso um adulto seja sinalizado por engano, haverá a possibilidade de verificação de idade para reverter a marcação.
Medidas semelhantes no Claude da Anthropic
A Anthropic segue uma trajetória parecida ao desenvolver um mecanismo que identifique “sinais sutis de conversação” indicativos de menoridade durante o uso do Claude. Contas de menores de 18 anos podem ser desativadas e usuários que se declaram menores já são sinalizados pela empresa. A companhia também informa ter reduzido a chamada “bajulação” — respostas excessivamente concordantes — em temas sensíveis, embora admita que ainda há espaço significativo para melhorias nos modelos.
Essas mudanças mostram que as principais desenvolvedoras de IA estão ampliando controles e ajustando comportamentos de seus sistemas em resposta aos riscos apontados para a saúde mental de jovens usuários, tentando equilibrar utilidade e proteção.