Empresas de IA Anunciam Mudanças para Proteger Adolescentes em Chatbots

20/12/2025
30 visualizações
2 min de leitura
Imagem principal do post

OpenAI e Anthropic anunciam alterações para tornar chatbots mais seguros para adolescentes

Em resposta à crescente preocupação de reguladores e de especialistas sobre os efeitos da inteligência artificial na saúde mental de jovens, OpenAI e Anthropic anunciaram mudanças em seus chatbots com foco na proteção de usuários adolescentes. As empresas estão revisando regras de comportamento e criando mecanismos para identificar quando quem interage com os sistemas pode ser menor de 18 anos.

Novas diretrizes do ChatGPT voltadas a adolescentes

A OpenAI atualizou a Especificação do Modelo do ChatGPT — o documento que orienta o comportamento do chatbot — incluindo quatro novos princípios específicos para usuários com menos de 18 anos. A diretriz principal estabelece que a segurança dos adolescentes deve ser prioridade, mesmo que isso restrinja outros objetivos, como a liberdade intelectual máxima.

Na prática, isso significa que o ChatGPT será orientado a sugerir alternativas mais seguras sempre que detectar um conflito entre a curiosidade do usuário e riscos potenciais. Além disso, as novas regras pedem que o chatbot incentive a busca por apoio no mundo real, valorize relações offline e deixe expectativas claras durante interações com jovens. A orientação é tratar adolescentes com empatia e respeito, sem tom condescendente nem abordagem puramente adulta.

As mudanças chegam em meio a processos judiciais e debates legislativos sobre o papel da IA em situações sensíveis, como automutilação e suicídio, que colocaram pressão sobre as empresas para reforçar salvaguardas.

Previsão de idade e salvaguardas automáticas

Além das diretrizes comportamentais, a OpenAI trabalha nos estágios iniciais de um sistema de previsão de idade, capaz de estimar quando um usuário pode ser menor de 18 anos. Quando a plataforma identificar esse cenário, salvaguardas específicas serão aplicadas automaticamente. Caso um adulto seja sinalizado por engano, haverá a possibilidade de verificação de idade para reverter a marcação.

Medidas semelhantes no Claude da Anthropic

A Anthropic segue uma trajetória parecida ao desenvolver um mecanismo que identifique “sinais sutis de conversação” indicativos de menoridade durante o uso do Claude. Contas de menores de 18 anos podem ser desativadas e usuários que se declaram menores já são sinalizados pela empresa. A companhia também informa ter reduzido a chamada “bajulação” — respostas excessivamente concordantes — em temas sensíveis, embora admita que ainda há espaço significativo para melhorias nos modelos.

Essas mudanças mostram que as principais desenvolvedoras de IA estão ampliando controles e ajustando comportamentos de seus sistemas em resposta aos riscos apontados para a saúde mental de jovens usuários, tentando equilibrar utilidade e proteção.

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!