# Anthropic accuse DeepSeek, Moonshot e MiniMax de usar o Claude para desenvolver seus modelos de IA
A Anthropic, criadora do Claude, publicou um comunicado detalhando acusações graves contra três empresas chinesas de inteligência artificial. Segundo a companhia americana, DeepSeek, Moonshot e MiniMax teriam utilizado o chatbot Claude de forma fraudulenta para melhorar seus próprios modelos de IA, violando os termos de serviço da plataforma.
A empresa afirma ter identificado três campanhas distintas de destilação, todas executadas seguindo um mesmo padrão: a criação de contas falsas e o uso de serviços de proxy para acessar o Claude em larga escala, simultaneamente driblando os sistemas de detecção da Anthropic.
De acordo com os dados revelados, as três empresas chinesas criaram aproximadamente 24 mil contas falsas e geraram mais de 16 milhões de interações com o Claude. Os prompts enviados seguiam um comportamento fora do padrão normal de uso, com o objetivo claro de extrair informações sobre como o modelo trabalha internamente.
Os invasores especificamente escolhiam a opção de raciocínio do chatbot para ter acesso à chamada "linha de pensamento" do robô, obtendo o passo a passo detalhado que o Claude utiliza para chegar a cada resposta.
**Os números por empresa**
O DeepSeek foi responsável por mais de 150 mil interações focadas em acessar as habilidades de raciocínio do Claude, além de usar o chatbot para avaliar as respostas do próprio modelo chinês.
A Moonshot realizou mais de 3,4 milhões de interações, tentando aprender habilidades de raciocínio, uso de ferramentas, programação, análise de dados, desenvolvimento de agentes e visão computacional.
A maior parte da atividade fraudulenta veio da MiniMax, com mais de 13 milhões de prompts trocados, direcionados principalmente à programação de agentes e uso de ferramentas.
Procuradas pela agência Reuters para comentar o caso, as três companhias chinesas não enviaram suas respostas sobre as acusações.
**Entenda a destilação**
A destilação é uma técnica de treinamento que utiliza um modelo de inteligência artificial já estabelecido para criar outro modelo. Enquanto o treinamento tradicional exige o processamento de um volume enorme de dados para identificar padrões e relacionamentos, a destilação parte de uma IA existente e usa suas respostas como base para o novo modelo.
Com isso, o processo se torna significativamente mais rápido e barato, já que utiliza dados selecionados como ponto de partida e exige menos trabalho computacional.
A Anthropic reconhece que a destilação pode ser legítima em muitos casos, como quando uma empresa destila um modelo grande para criar uma versão menor, mais econômica e eficiente. O problema, segundo a empresa, começa quando concorrentes utilizam o método para entregar produtos similares sem arcar com os custos reais do treinamento.
A companhia também considera essas ações uma ameaça à segurança nacional dos Estados Unidos.
Não é a primeira vez que empresas americanas fazem esse tipo de acusação. Quando o DeepSeek ganhou destaque no início de 2025, a OpenAI já havia feito questionamentos semelhantes sobre práticas de destilação.