# Anthropic entra em confronto com Pentágono e leva classificação de risco à cadeia de suprimentos
A Anthropic, empresa responsável pelo modelo de linguagem Claude, foi oficialmente classificada pelo governo dos Estados Unidos como um risco à cadeia de suprimentos militares. A confirmação veio do próprio CEO da empresa, Dario Amodei, na noite desta quinta-feira, após semanas de impasse entre a startup de inteligência artificial e o Departamento de Defesa dos EUA. A decisão coloca em xeque a participação da empresa em contratos governamentais e representa uma medida extraordinária aplicada a uma empresa de tecnologia americana.
Amodei afirmou que a Anthropic não teve outra alternativa besides recorrer à Justiça contra a decisão. Segundo ele, a empresa foi informada sobre a inclusão na lista de restrições por meio de publicações em redes sociais, antes mesmo de qualquer comunicação oficial. “Não acreditamos, e nunca acreditamos, que seja papel da Anthropic ou de qualquer empresa privada se envolver na tomada de decisões operacionais — esse é o papel dos militares”, escreveu o executivo em comunicado.
O conflito entre a Anthropic e o Pentágono gira em torno de garantias que a empresa exige antes de disponibilizar seus modelos de inteligência artificial para uso militar. A startup buscava compromissos formais de que sua tecnologia não seria aplicada no desenvolvimento de armas totalmente autônomas ou em programas de vigilância doméstica em massa. Do lado do Departamento de Defesa, a exigência era de acesso irrestrito ao Claude para qualquer finalidade legal.
A classificação de risco à cadeia de suprimentos é uma ferramenta que o governo americano tradicionalmente aplica a organizações consideradas adversárias estratégicas, como a empresa chinesa Huawei. Ao aplicar a mesma designação a uma empresa norte-americana de tecnologia, o Pentágono envia um sinal forte ao setor de inteligência artificial sobre os limites que está disposto a impor no uso militar de modelos de linguagem.
Com a decisão oficializada, fornecedores e contratadas do setor de defesa americano agora precisam certify que não utilizam os modelos da Anthropic em trabalhos realizados para o Pentágono. A medida ameaça contratos significativos da empresa com agências governamentais e cria incerteza sobre parcerias já estabelecidas.
A Anthropic havia firmado em julho um contrato de 200 milhões de dólares com o Departamento de Defesa, tornando-se o primeiro laboratório de inteligência artificial a integrar seus modelos a fluxos de trabalho de missões em redes classificadas. No entanto, o avanço das divergências abriu espaço para que concorrentes ocupassem esse espaço. A OpenAI, de Sam Altman, e a xAI, de Elon Musk, concordaram em implementar seus modelos em ambientes classificados, recebendo autorização para trabalhar com o Departamento de Defesa poucas horas após a Anthropic ser incluída na lista de restrições.
A Microsoft, que anunciou em novembro planos de investir até 5 bilhões de dólares na Anthropic, afirmou por meio de comunicado que seus advogados analisaram a designação e concluíram que os produtos da empresa podem continuar disponíveis para clientes que não sejam o Departamento de Defesa. O investimento bilionário, no entanto, agora paira sobre uma nuvem de incerteza.
A relação entre a Anthropic e o governo do presidente Trump tem se deteriorado progressivamente nos últimos meses. Na quarta-feira, um dia antes da confirmação oficial da classificação de risco, Amodei pediu desculpas por um memorando interno crítico à administração que vazou para a imprensa. De acordo com reportagem do The Information, o executivo teria dito a funcionários que o governo não simpatizava com a Anthropic porque a empresa não havia feito doações políticas nem oferecido elogios ao estilo de Trump.
Amodei posteriormente esclareceu que o memorando foi escrito após um dia difícil para a empresa e não reflete suas opiniões ponderadas. Ele destacou que o texto representa uma avaliação desatualizada e que a Anthropic não vazou a publicação nem orientou ninguém a fazê-lo. “Não é do nosso interesse escalar essa situação”, escreveu o executivo.
O caso levanta questões fundamentais sobre o futuro da inteligência artificial no contexto de defesa e segurança nacional. A disputa entre a Anthropic e o Pentágono evidencia a tensão entre o desejo das empresas de manter princípios éticos sobre o uso de sua tecnologia e a pressão do governo para acesso irrestrito a ferramentas que podem ser decisivas em operações militares.
Analistas do setor observam que a decisão pode ter implicações profundas para todo o ecossistema de startups de inteligência artificial nos Estados Unidos. A classificação de risco à cadeia de suprimentos, aplicada de forma unprecedented a uma empresa americana do setor, estabelece um precedente que pode influenciar futuras negociações entre laboratórios de IA e agências governamentais.
Amodei garantiu que a designação não limita o uso do Claude ou as relações comerciais com a Anthropic quando não estão relacionadas a contratos específicos com o Departamento de Guerra. A empresa sustenta que suas únicas preocupações sempre foram relacionadas a exceções para armas autônomas e vigilância em massa, áreas que considera de uso de alto nível, distintas da tomada de decisões operacionais.
O recurso judicial deve ser apresentado nas próximas semanas e promete prolongar um embate que já se transformou em um dos capítulos mais tensos da relação entre o setor de tecnologia e as forças armadas americanas. O desenlace dessa disputa definirá os contornos de como a inteligência artificial será utilizada em contextos de defesa e segurança nacional nos próximos anos.
RESUMO: A Anthropic foi classificada pelo Pentágono como risco à cadeia de suprimentos militares após impasse sobre uso do modelo Claude em armas autônomas e vigilância. A empresa vai recorrer à Justiça e garante ser a única empresa americana nessa situação. O caso gera incerteza sobre contratos bilionários e amplia a tensão entre Big Techs e o governo Trump.