HP aposta em infraestrutura local para transformar dados empresariais em resultados concretos de inteligência artificial
Empresas de todo o mundo acumulam volumes cada vez maiores de informações, mas transformar esse patrimônio de dados em vantagem competitiva por meio de inteligência artificial continua sendo um desafio significativo. É esse o diagnóstico apresentado por Jerome Gabryszewski, gerente de desenvolvimento de negócios em inteligência artificial e ciência de dados da HP, em entrevista concedida antes da edição de 2025 da AI & Big Data Expo, realizada em San José, na Califórnia. Segundo o executivo, a barreira não está na quantidade de dados disponíveis, mas na dificuldade de organizá-los e prepará-los de forma que os modelos de IA consigam gerar resultados realmente úteis para o negócio.
Um dos obstáculos mais recorrentes identificados pela HP junto a seus clientes é a subestimação do que Gabryszewski chama de dívida organizacional e arquitetural por trás dos dados corporativos. Antes que qualquer processo de automação consiga funcionar, as empresas precisam resolver problemas como a fragmentação da propriedade dos dados entre diferentes departamentos, a inconsistência dos esquemas de informação nos diversos sistemas internos e a infraestrutura legada, que em muitos casos não foi projetada para permitir interoperabilidade. O esforço técnico da automação, segundo a HP, tende a ser menor do que o trabalho de governança e integração que precisa antecedê-lo.
A transição da ingestão de dados manual para processos automatizados é frequentemente apontada como uma solução ideal, mas na prática revela-se complexa e demorada. A HP tem observado que as organizações encontram dificuldades justamente nos passos preliminares, como a definição clara de quem é responsável por cada conjunto de dados, a padronização dos formatos utilizados e a modernização de sistemas antigos. Somente após essas questões estruturais serem resolvidas é que a automação da ingestão de dados, processo pelo qual o sistema recebe e organiza informações para alimentar os modelos, consegue se consolidar de forma eficiente.
Quando modelos de inteligência artificial passam a se atualizar continuamente, novos riscos surgem. Um deles é o desvio de conceito, situação em que o modelo perde precisão porque os padrões dos dados mudam ao longo do tempo. Outro é a contaminação de dados, que ocorre quando informações maliciosas são introduzidas no conjunto de treinamento. A recomendação da HP é que as empresas tratem as atualizações de modelos com o mesmo rigor aplicado às implantações de software tradicional, estabelecendo portas de validação antes que qualquer mudança vá para o ambiente de produção. Para lidar com o desvio de conceito, a HP sugere o uso de pipelines de operações de aprendizado de máquina com detecção automatizada de mudanças de padrão e intervenção humana antes de qualquer novo treinamento. Já no caso da contaminação, o foco deve estar na procedência dos dados, garantindo que se saiba exatamente de onde vieram e quem teve acesso a eles.
É nesse cenário de desafios que a HP apresenta sua estratégia de hardware voltada ao ciclo de vida autônomo da inteligência artificial. A empresa, que há mais de 15 anos desenvolve a linha Z de estações de trabalho para profissionais de computação de alto desempenho, defende que a solução não reside em uma única máquina, mas em um espectro de opções que acompanha a maturidade do fluxo de trabalho de cada equipe. No nível do desenvolvedor individual, equipamentos como o ZBook Ultra e o Z2 Mini oferecem capacidade local para rodar experimentos sem depender de nuvem a cada iteração, suportando modelos de linguagem de grande porte e fluxos de trabalho pesados simultaneamente.
Um destaque da linha é o ZGX Nano, descrito como um supercomputador de inteligência artificial com dimensões de apenas quinze por quinze centímetros. Equipado com o superchip NVIDIA GB10 Grace Blackwell, o dispositivo conta com 128 gigabytes de memória unificada e atinge mil trilhões de operações por segundo em performance de inteligência artificial no formato FP4. De acordo com a HP, uma única unidade é capaz de processar modelos de até 200 bilhões de parâmetros localmente, e ao conectar duas unidades por meio de interconexão de alta velocidade esse limite sobe para 405 bilhões de parâmetros, sem necessidade de nuvem ou centro de dados. O equipamento vem pré-configurado com o software NVIDIA DGX e o kit de ferramentas HP ZGX, permitindo que as equipes passem da instalação ao primeiro fluxo de trabalho em minutos.
Para equipes que demandam ainda mais capacidade, o Z8 Fury suporta até quatro placas de vídeo NVIDIA RTX PRO 6000 Blackwell em um único sistema, totalizando 384 gigabytes de memória de vídeo. Já o ZGX Fury, posicionado na fronteira da linha, utiliza o superchip NVIDIA GB300 Grace Blackwell Ultra, com 748 gigabytes de memória coerente, permitindo inferência de modelos com trilhões de parâmetros diretamente na mesa de trabalho. Para organizações que operam ajuste fino contínuo e inferência sobre dados sensíveis, a HP afirma que esse equipamento pode se pagar em oito a doze meses quando comparado ao custo equivalente em computação em nuvem. Toda a linha Z foi projetada com formatos prontos para racks, integrando-se a ambientes de tecnologia da informação gerenciados sem comprometer segurança ou residência de dados.
A questão dos custos de computação para inteligência artificial generativa empresarial é outro ponto central abordado por Gabryszewski. Ele cita que os gastos corporativos com inteligência artificial generativa atingiram 37 bilhões de dólares em 2025, e 80% das empresas ainda superaram suas previsões de custo em mais de 25%. O problema, segundo a HP, é estrutural. Embora o custo unitário por inferência esteja caindo, o gasto total continua subindo porque o uso cresce mais rápido do que a redução de custos. O modelo de serviços de nuvem por aplicativo de interface de programação, originalmente concebido para cargas de trabalho experimentais e de baixo volume, não foi projetado para ser o motor econômico da produção de inteligência artificial em larga escala.
A recomendação prática da HP é separar de forma rigorosa o trabalho exploratório das cargas de produção, evitando usar o mesmo modelo de computação para ambos. Atividades como prototipagem, ajuste fino e avaliação de modelos devem rodar em hardware local, onde o investimento é feito uma vez, em vez de consumir orçamento operacional continuamente em experimentos sem retorno claro. Organizações que adotam essa abordagem operam em três camadas: nuvem para treinamento de pico e acesso a modelos de fronteira, infraestrutura local HP para inferência de alto volume e previsível, e computação de borda onde a latência é crítica. Análises independentes indicam que a computação local pode oferecer até dezoito vezes de vantagem de custo por milhão de tokens ao longo de um ciclo de vida de cinco anos.
Tornar os dados proprietários prontos para inteligência artificial sem expor informações sensíveis ou fragmentadas é outro desafio enfrentado pelas corporações. A HP alerta que o erro mais comum é tratar essa preparação como uma questão de engenharia de dados quando, na verdade, trata-se de um problema de soberania dos dados. Enviar informações proprietárias para processamento em nuvem pode representar não apenas um risco de exposição, mas também uma falha de governança, especialmente em setores regulados onde a simples transmissão de dados para fora da organização pode configurar violação de conformidade.
A arquitetura apontada pela HP como solução para esse dilema é a Geração Aumentada por Recuperação, técnica que combina busca de informações com geração de texto, executada em infraestrutura local. Essa abordagem permite que o modelo recupere contextos relevantes de uma base de conhecimento interna no momento da consulta, sem nunca treinar sobre esses dados ou expô-los externamente. A combinação de computação local, modelo local, recuperação local e controle de acesso baseado em funções garante que a inteligência artificial acesse apenas as informações que cada funcionário tem permissão para ver. Para Gabryszewski, as empresas que estão acertando nessa frente não enviam seus ativos mais valiosos para a nuvem, mas sim levam a inteligência até os dados.
O impacto dessas mudanças sobre o papel das equipes de tecnologia da informação nas organizações é igualmente relevante. A consultoria Gartner projeta que 40% dos aplicativos empresariais terão agentes de inteligência artificial embarcados até o final de 2026, um salto significativo frente aos menos de 5% registrados um ano antes. Isso significa que a camada de execução rotineira da área de tecnologia está sendo absorvida rapidamente, enquanto a camada de governança e arquitetura se expande na mesma proporção. O que se observa em organizações líderes é uma transição de equipes que executavam tarefas para equipes que projetam e governam os agentes que executam essas tarefas em seu lugar.
Gabryszewski ressalta, porém, que apenas uma em cada cinco empresas possui um modelo de governança maduro para lidar com esse cenário. É nesse ponto que a infraestrutura local volta a ser determinante. Quando a camada de automação opera em hardware sob controle direto da organização, há visibilidade completa sobre o comportamento dos agentes, algo que não se obtém quando as cargas de trabalho estão abstraídas na nuvem. Nos próximos anos, a equipe de tecnologia não será aquela que mantém os sistemas funcionando, mas sim aquela que decide quais agentes recebem confiança para quais decisões e garante que a infraestrutura subjacente sustente essas escolhas com segurança e conformidade.