PUBLICIDADE

Governo dos EUA e Big Techs em Alerta: O Poder e o Perigo do Modelo de IA Mythos

11/04/2026
10 visualizações
6 min de leitura
Imagem principal do post

Governo dos EUA reúne CEOs de big techs antes do lançamento do Mythos, modelo de IA da Anthropic com capacidade ofensiva de segurança cibernética

Antes que a Anthropic anunciasse oficialmente ao mercado o seu mais recente modelo de inteligência artificial, o governo dos Estados Unidos já havia mobilizado os principais nomes do setor tecnológico para uma discussão sigilosa. Na semana passada, Washington realizou uma conferência telefônica privada com executivos das maiores empresas do Vale do Silício, entre eles Elon Musk, da xAI, Dario Amodei, da Anthropic, Sam Altman, da OpenAI, Sundar Pichai, da Google, e Satya Nadella, da Microsoft. O motivo central da convocação foi a preocupação com o modelo batizado de Mythos, um sistema que se destaca pela capacidade de identificar e explorar vulnerabilidades em infraestruturas digitais, o que levou as autoridades a discutir como o país deve se preparar caso a tecnologia seja apropriada por grupos mal-intencionados.

Os Grandes Modelos de Linguagem, conhecidos pela sigla LLM, são sistemas de inteligência artificial treinados com grandes volumes de texto para compreender e gerar linguagem humana. Até então, a maior parte desses modelos era empregada em tarefas como redação, tradução e atendimento ao cliente. O que diferencia o Mythos é o seu foco em segurança cibernética: segundo fontes ouvidas pela CNBC, o modelo consegue analisar e descobrir falhas em sistemas operacionais e navegadores com uma precisão que levantou alertas em Washington. A reunião também contou com a participação de líderes da CrowdStrike e da Palo Alto Networks, duas das empresas mais relevantes do segmento de defesa digital, o que reforça a gravidade com que o assunto foi tratado.

PUBLICIDADE

De acordo com as informações divulgadas, a Anthropic optou por um caminho de transparência proativa com o governo americano. Uma fonte citada pela CNBC afirmou que a empresa apresentou as capacidades do Mythos Preview às autoridades antes de qualquer liberação ao público, detalhando tanto os potenciais benefícios defensivos quanto os riscos ofensivos da ferramenta. A decisão de envolver o governo desde os primeiros estágios de desenvolvimento revela a consciência da Anthropic sobre o impacto que um modelo com essas características pode ter na segurança nacional. A postura, no entanto, contrasta com a turbulência que a empresa enfrenta em suas relações institucionais com a administração Trump.

Do ponto de vista técnico, a capacidade do Mythos de encontrar vulnerabilidades de software, incluindo as chamadas falhas de dia zero — falhas ainda desconhecidas pelos fabricantes e sem correção disponível — coloca a ferramenta em uma categoria distinta dos chatbots convencionais. Modelos de linguagem com essa especialização podem ser usados tanto para fortalecer defesas cibernéticas quanto para automatizar ataques em escala. É exatamente essa dualidade que preocupa as autoridades: embora a Anthropic afirme que o modelo foi projetado com freios de segurança e controles de uso, a possibilidade de que atores mal-intencionados adaptem a tecnologia para fins ofensivos levou o governo a buscar garantias com as big techs sobre medidas de contenção.

Para mitigar os riscos associados ao lançamento, a Anthropic decidiu restringir o acesso ao Mythos a apenas quarenta parceiros iniciais. Entre as organizações selecionadas estão Apple, Nvidia, Google e Microsoft, todas com estruturas robustas de segurança da informação e capacidade técnica para avaliar e lidar com os riscos envolvidos. A estratégia de liberação limitada é uma prática que tem sido adotada por desenvolvedores de modelos avançados de inteligência artificial como forma de monitorar o comportamento da ferramenta em ambientes controlados antes de uma distribuição mais ampla. No caso do Mythos, a cautela ganha uma dimensão adicional, dada a natureza sensível das capacidades que o sistema possui.

A preocupação do governo americano, porém, não se restringiu ao círculo das empresas de tecnologia. O secretário do Tesouro, Scott Bessent, e o presidente do Banco Central dos Estados Unidos, Jerome Powell, convocaram uma reunião de emergência com os chefes executivos dos maiores bancos do país, incluindo Goldman Sachs e Morgan Stanley. O receio das autoridades é que o Mythos, caso seja obtido por grupos criminosos ou nações hostis, possa ser utilizado para orquestrar ataques cibernéticos automatizados contra instituições financeiras, com potencial para desestabilizar o sistema bancário global. A convergência de interesses entre o setor de defesa digital e o sistema financeiro demonstra a abrangência dos impactos que a inteligência artificial de nova geração pode provocar na economia real.

A relação entre a Anthropic e a Casa Branca, contudo, não é marcada apenas por cooperação. A administração Trump tem buscado proibir o uso do Claude, o chatbot principal da Anthropic, em agências federais. Além disso, a empresa enfrenta um processo judicial complexo contra o Departamento de Defesa dos Estados Unidos. Embora uma decisão judicial proferida em São Francisco tenha suspendido temporariamente a restrição à Anthropic em alguns órgãos governamentais, um tribunal de apelações manteve nesta semana a proibição de novos contratos entre a Anthropic e o Pentágono. A justificativa citada pela corte envolve riscos na cadeia de suprimentos, o que demonstra que as tensões entre a startup de inteligência artificial e o governo americano ultrapassam a questão do Mythos e alcançam o campo da segurança institucional.

Esse cenário contraditório — no qual a Anthropic colabora com o governo na avaliação de riscos do Mythos enquanto enfrenta restrições judiciais em suas relações com o Pentágono — ilustra a complexidade do debate regulatório em torno da inteligência artificial avançada. Por um lado, o Estado precisa compreender e se preparar para as ameaças que modelos poderosos podem representar. Por outro, a desconfiança institucional e os embates jurídicos revelam que ainda não existe um consenso claro sobre como integrar essas tecnologias à estrutura governamental de forma segura.

O caso do Mythos também reacende uma discussão mais ampla sobre o papel das empresas de inteligência artificial na segurança cibernética global. Com modelos capazes de identificar falhas antes que sejam exploradas por atacantes reais, as big techs passam a ocupar uma posição central na defesa digital. Ao mesmo tempo, a posse dessa capacidade ofensiva gera dilemas éticos e estratégicos que vão além das fronteiras corporativas e nacionais. O fato de o governo dos Estados Unidos ter promovido uma reunião de cúpula antes mesmo do anúncio oficial do modelo indica que as autoridades reconhecem a urgência de estabelecer marcos regulatórios e protocolos de colaboração pública e privada para lidar com essa nova realidade.

No curto prazo, a expectativa é que a Anthropic mantenha a liberação controlada do Mythos enquanto avalia os resultados obtidos junto aos parceiros iniciais. A empresa também deverá continuar os diálogos com o governo americano, tanto para aprofundar as medidas de segurança do modelo quanto para tentar resolver os impasses jurídicos que impedem sua atuação junto ao Departamento de Defesa. Para o mercado de inteligência artificial como um todo, o episódio marca um precedente relevante sobre a forma como a tecnologia avançada passará a ser supervisionada, negociada e eventualmente integrada às estruturas de segurança nacional dos países.

PUBLICIDADE

Leitura recomendada

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!