PUBLICIDADE

Hackers Estaduais Usam Inteligência Artificial para Acelerar Ataques Cibernéticos

12/02/2026
10 visualizações
5 min de leitura
Imagem principal do post

Hackers patrocinados por Estados nacionais estão usando inteligência artificial para acelerar ataques cibernéticos, com grupos do Irã, Coreia do Norte, China e Rússia aproveitando modelos como o Gemini do Google para criar campanhas de phishing sofisticadas e desenvolver malware, segundo relatório recente do Threat Intelligence Group (GTIG) do Google.

O relatório trimestral AI Threat Tracker, divulgado hoje, descreve como atacantes com apoio governamental integraram a IA em todo o ciclo de ataque — obtendo ganhos de produtividade em reconhecimento, engenharia social e desenvolvimento de malware durante o último trimestre de 2025. "Para atores apoiados por governos, modelos de linguagem de grande porte tornaram-se ferramentas essenciais para pesquisa técnica, direcionamento e geração rápida de iscas de phishing nuanceadas", afirmam os pesquisadores do GTIG.

Reconhecimento e engenharia social impulsionados por IA

PUBLICIDADE

O ator iraniano APT42 utilizou o Gemini para ampliar operações de reconhecimento e campanhas de engenharia social dirigidas. O grupo empregou o modelo para enumerar endereços de e-mail oficiais de entidades específicas e para pesquisar e elaborar pretextos críveis para abordar alvos. Ao alimentar o Gemini com biografias de alvos, o APT42 criou personas e cenários projetados para obter engajamento. O modelo também foi usado para traduzir entre idiomas e entender melhor expressões não nativas — capacidades que ajudam os invasores a contornar sinais tradicionais de phishing, como gramática ruim ou sintaxe estranha.

O ator apoiado pela Coreia do Norte, UNC2970, focado em alvos do setor de defesa e em se passar por recrutadores corporativos, utilizou o Gemini para sintetizar inteligência de código aberto e perfilar alvos de alto valor. As atividades de reconhecimento incluíram busca por informações sobre grandes empresas de cibersegurança e defesa, mapeamento de cargos técnicos específicos e levantamento de faixas salariais. "Essa atividade torna tênue a distinção entre pesquisa profissional de rotina e reconhecimento malicioso, já que o ator reúne os componentes necessários para criar personas de phishing personalizadas e de alta fidelidade", observa o GTIG.

Aumento de ataques de extração de modelos

Além do uso operacional, o Google DeepMind e o GTIG identificaram um aumento nas tentativas de extração de modelos — também chamadas de "ataques de destilação" — destinadas a roubar propriedade intelectual de modelos de IA. Em uma campanha contra as capacidades de raciocínio do Gemini, foram enviadas mais de 100.000 solicitações (prompts) projetadas para forçar o modelo a revelar processos completos de raciocínio. A variedade e o alcance das perguntas sugerem a intenção de replicar a capacidade de raciocínio do Gemini em línguas não inglesas para diversas tarefas.

Embora o GTIG não tenha observado ataques diretos a modelos de vanguarda por atores persistentes avançados (APTs), a equipe detectou e interrompeu repetidas tentativas de extração vindas do setor privado e de pesquisadores que buscavam clonar lógicas proprietárias. Os sistemas do Google reconheceram esses ataques em tempo real e aplicaram defesas para proteger rastros internos de raciocínio.

Malware integrado com IA

O GTIG analisou amostras de malware rastreadas como HONESTCUE que utilizam a API do Gemini para terceirizar geração de funcionalidades. Esse malware adota uma abordagem de ofuscação em camadas para dificultar detecção baseada em rede e análise estática. O HONESTCUE atua como um framework de download e execução que envia prompts pela API do Gemini e recebe código-fonte em C# como resposta. Em seguida, uma segunda etapa sem arquivos (fileless) compila e executa os payloads diretamente na memória, deixando nenhum artefato em disco.

Separadamente, o relatório identifica o COINBAIT, um kit de phishing que aparenta ter sua construção acelerada por ferramentas de geração de código por IA. O kit, que se faz passar por uma grande exchange de criptomoedas para coletar credenciais, foi criado com auxílio da plataforma de IA Lovable AI.

Campanhas ClickFix exploram plataformas de chat de IA

Em uma campanha de engenharia social observada pela primeira vez em dezembro de 2025, o Google detectou atores abusando de recursos de compartilhamento público de serviços generativos de IA — incluindo Gemini, ChatGPT, Copilot, DeepSeek e Grok — para hospedar conteúdo enganoso que distribui malware ATOMIC voltado a sistemas macOS. Os atacantes manipulavam os modelos para gerar instruções convincentes para tarefas comuns de computador, inserindo scripts de linha de comando maliciosos como a "solução". Ao criar links compartilháveis para essas transcrições de chat, os criminosos passaram a usar domínios confiáveis para alojar a primeira etapa do ataque.

Mercados clandestinos e chaves de API roubadas

Observações em fóruns clandestinos em inglês e russo indicam demanda persistente por ferramentas e serviços habilitados por IA. No entanto, tanto hackers patrocinados por Estados quanto criminosos têm dificuldade para desenvolver modelos de IA personalizados, recorrendo a produtos comerciais maduros acessados por meio de credenciais roubadas. O toolkit anunciado como "Xanthorox" se apresentava como uma IA customizada para geração autônoma de malware e campanhas de phishing; a investigação do GTIG revelou que, na verdade, o produto era sustentado por vários serviços comerciais, incluindo o Gemini, usados por meio de chaves de API furtadas.

Resposta do Google e mitigação

O Google tomou medidas contra atores identificados, desativando contas e ativos associados a atividades maliciosas. A empresa também aplicou sua inteligência para fortalecer classificadores e modelos, fazendo com que eles se recusem a auxiliar em ataques semelhantes futuramente. "Estamos comprometidos em desenvolver IA com ousadia e responsabilidade, o que significa tomar medidas proativas para interromper atividades maliciosas desativando projetos e contas associadas a atores mal-intencionados, ao mesmo tempo em que melhoramos continuamente nossos modelos para torná-los menos suscetíveis a abusos", afirma o relatório.

O GTIG ressaltou que, apesar desses desenvolvimentos, nenhum ator APT ou de operações de informação alcançou habilidades revolucionárias que alterem fundamentalmente o panorama de ameaças. As descobertas sublinham o papel em evolução da IA na cibersegurança, com defensores e atacantes competindo pelo uso das capacidades da tecnologia.

Para equipes de segurança corporativa — especialmente na região Ásia-Pacífico, onde permanecem ativos hackers patrocinados pela China e pela Coreia do Norte — o relatório serve como lembrete da necessidade de reforçar defesas contra operações de reconhecimento e engenharia social ampliadas por IA.

PUBLICIDADE

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!