PUBLICIDADE

Desvendando a Sombra: Como o ChatGPT Perdeu a Oportunidade de Prevenir uma Tragédia

21/02/2026
4 visualizações
2 min de leitura
Imagem principal do post

# OpenAI detectou sinais de ataque no ChatGPT, mas optou por não alertar autoridades canadenses

Em junho de 2025, meses antes de Jesse Van Rootselaar cometer um dos ataques mais mortais da história recente do Canadá, o sistema de monitoramento da OpenAI já havia identificado comportamentos extremamente perturbadores nas interações do jovem de 18 anos com o ChatGPT. O chatbot detectou que Van Rootselaar utilizava a plataforma para descrever cenários detalhados de violência com armas de fogo, gerando um alerta vermelho entre os moderadores.

Segundo informações reveladas com exclusividade pelo The Wall Street Journal, cerca de doze funcionários da empresa participaram de uma discussão interna sobre o caso. Uma parcela da equipe defendeu que o comportamento indicava um risco real de violência e pediu à liderança que notificasse a Real Polícia Montada do Canadá (RCMP). No entanto, a diretoria optou pelo silêncio.

PUBLICIDADE

## A decisão polêmica

A OpenAI decidiu não contatar as autoridades na época. Em comunicado, uma porta-voz da empresa explicou os motivos:

- A conta de Van Rootselaar foi banida por violar as políticas de uso

- As mensagens não atendiam aos critérios legais para quebra de privacidade, que exigem evidência de um risco crível e iminente de dano físico grave a terceiros

A empresa justificou a decisão afirmando que precisa equilibrar a segurança pública com a privacidade dos usuários, evitando envolver a polícia em casos que possam ser interpretados apenas como "estresse mental" ou ficção, sem um plano de ação concreto detectado.

## A tragédia em Tumbler Ridge

No dia 10 de fevereiro, Jesse Van Rootselaar matou oito pessoas – incluindo sua mãe e seu meio-irmão – antes de abrir fogo na escola secundária de Tumbler Ridge, na Colúmbia Britânica, onde cometeu suicídio.

Após o ataque, outras facetas do comportamento digital do jovem vieram à tona, revelando que os sinais estavam presentes em diversas plataformas:

- **Roblox**: havia criado um jogo que simulava um tiroteio em massa

- **Redes sociais**: publicava fotos em estandes de tiro e discutia a criação de munição em impressoras 3D

- **Histórico policial**: a polícia local já havia visitado sua residência anteriormente por questões de saúde mental

## O dilema da vigilância tecnológica

A tragédia coloca as empresas de inteligência artificial no mesmo cenário crítico em que redes sociais como Facebook e X (antigo Twitter) já foram criticadas. A diferença,no entanto, reside na intimidade: usuários tendem a confessar pensamentos mais profundos a chatbots do que em fóruns públicos.

Atualmente, a OpenAI treina seus modelos para recusar pedidos violentos e encaminha intenções de dano a revisores humanos. Contudo, o caso Van Rootselaar demonstra que a linha entre uma "fantasia sombria" e um "plano de ataque" ainda é uma zona cinzenta que a tecnologia não consegue navegar com precisão absoluta.

A OpenAI afirmou ao WSJ que está collaborando com as investigações da RCMP e revisando seus critérios de denúncia para evitar que casos semelhantes voltem a ocorrer.

PUBLICIDADE

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!