## IA Faminta: Como a Inteligência Artificial Ameaça Devorar Nossos Recursos e o Futuro do Planeta

16/05/2025
4 visualizações
Imagem principal do post

## A Inteligência Artificial Está Sedenta por Energia e o Planeta Pode Pagar o Preço

A sede insaciável da Inteligência Artificial (IA) por energia está se transformando em um desafio monstruoso, e não se trata apenas de contas de luz exorbitantes. As consequências ambientais são graves, desde o consumo excessivo de recursos hídricos preciosos até a criação de montanhas de lixo eletrônico e, sim, o aumento das emissões de gases de efeito estufa que todos estamos tentando reduzir.

À medida que os modelos de IA se tornam cada vez mais complexos e se infiltram em mais aspectos de nossas vidas, uma grande interrogação paira no ar: podemos alimentar essa revolução sem prejudicar o planeta?

### A Demanda Energética da IA Está em Ascensão Vertiginosa

O poder computacional necessário para a IA mais avançada está em uma curva ascendente quase inacreditável – alguns dizem que está dobrando a cada poucos meses. Não é uma inclinação suave, mas sim uma escalada vertical que ameaça deixar até mesmo nossos planos energéticos mais otimistas para trás.

Para se ter uma ideia da escala, as futuras necessidades energéticas da IA em breve poderão consumir tanta eletricidade quanto países inteiros como o Japão ou a Holanda, ou até mesmo grandes estados americanos como a Califórnia. Quando você ouve estatísticas como essa, começa a perceber a potencial pressão que a IA pode exercer sobre as redes de energia das quais todos dependemos.

Em 2024, houve um aumento recorde de 4,3% na demanda global de eletricidade, e a expansão da IA foi um dos principais motivos, juntamente com o boom dos carros elétricos e das fábricas trabalhando mais intensamente.

Em 2022, os data centers, a IA e até mesmo a mineração de criptomoedas já representavam quase 2% de toda a eletricidade usada em todo o mundo – cerca de 460 terawatt-horas (TWh).

Em 2024, os data centers sozinhos usam cerca de 415 TWh, o que representa aproximadamente 1,5% do total global, e cresce a uma taxa de 12% ao ano. A fatia direta da IA nesse bolo ainda é relativamente pequena – cerca de 20 TWh, ou 0,02% do uso global de energia – mas preparem-se, porque esse número está prestes a disparar.

As previsões? Bem, elas são bem surpreendentes. Até o final de 2025, os data centers de IA em todo o mundo poderão demandar 10 gigawatts (GW) extras de energia. Isso é mais do que toda a capacidade de energia de um lugar como Utah.

Em 2026, o uso global de eletricidade por data centers poderá atingir 1.000 TWh – semelhante ao que o Japão usa atualmente. E, até 2027, a fome global de energia dos data centers de IA deverá atingir 68 GW, o que é quase o que a Califórnia tinha em capacidade total de energia em 2022.

No final desta década, os números ficam ainda mais impressionantes. O consumo global de eletricidade por data centers deverá dobrar para cerca de 945 TWh até 2030, o que é pouco menos de 3% de toda a eletricidade usada no planeta.

A OPEP estima que o uso de eletricidade por data centers poderá até triplicar para 1.500 TWh até então. E o Goldman Sachs? Eles estão dizendo que a demanda global de energia dos data centers pode saltar até 165% em comparação com 2023, com aqueles data centers especificamente equipados para IA vendo sua demanda aumentar mais de quatro vezes.

Há até sugestões de que os data centers podem ser responsáveis por até 21% de toda a demanda global de energia até 2030, se você contar a energia necessária para levar os serviços de IA até nós, os usuários.

Quando falamos sobre o uso de energia da IA, ele se divide principalmente em duas grandes partes: treinar a IA e, em seguida, realmente usá-la.

Treinar modelos enormes, como o GPT-4, exige uma quantidade colossal de energia. Apenas para treinar o GPT-3, por exemplo, estima-se que foram usados 1.287 megawatt-horas (MWh) de eletricidade, e acredita-se que o GPT-4 precisou de 50 vezes mais do que isso.

Embora o treinamento seja um grande consumidor de energia, é o funcionamento diário desses modelos treinados que pode consumir mais de 80% da energia total da IA. Relata-se que fazer uma única pergunta ao ChatGPT usa cerca de dez vezes mais energia do que uma pesquisa no Google (estamos falando de aproximadamente 2,9 Wh versus 0,3 Wh).

Com todos entrando na onda da IA generativa, a corrida está em busca de construir data centers cada vez mais poderosos – e, portanto, mais consumidores de energia.

### Podemos Fornecer Energia para a IA – e para Nós Mesmos?

Essa é a pergunta de um milhão de dólares, não é? Os sistemas de energia do nosso planeta podem lidar com essa nova demanda? Já estamos equilibrando uma mistura de combustíveis fósseis, energia nuclear e energias renováveis. Se vamos alimentar o crescente apetite da IA de forma sustentável, precisamos aumentar e diversificar a forma como geramos energia, e rápido.

Naturalmente, a energia renovável – solar, eólica, hidrelétrica, geotérmica – é uma grande parte do quebra-cabeça. Nos EUA, por exemplo, as energias renováveis devem passar de 23% da geração de energia em 2024 para 27% em 2026.

As gigantes da tecnologia estão fazendo algumas grandes promessas; a Microsoft, por exemplo, está planejando comprar 10,5 GW de energia renovável entre 2026 e 2030 apenas para seus data centers. A própria IA pode realmente nos ajudar a usar a energia renovável de forma mais eficiente, talvez cortando o uso de energia em até 60% em algumas áreas, tornando o armazenamento de energia mais inteligente e gerenciando melhor as redes de energia.

Mas não vamos nos deixar levar. As energias renováveis têm seus próprios problemas. O sol nem sempre brilha e o vento nem sempre sopra, o que é um problema real para os data centers que precisam de energia 24 horas por dia, todos os dias. As baterias que temos agora para suavizar esses solavancos são frequentemente caras e ocupam muito espaço. Além disso, conectar novos projetos renováveis maciços em nossas redes de energia existentes pode ser um processo lento e complicado.

É aqui que a energia nuclear está começando a parecer mais atraente para alguns, especialmente como uma forma estável e de baixo carbono de alimentar as enormes necessidades de energia da IA. Ela fornece essa energia crucial 24 horas por dia, 7 dias por semana, que é exatamente o que os data centers desejam. Há muito burburinho em torno dos Pequenos Reatores Modulares (SMRs) também, porque eles são potencialmente mais flexíveis e têm recursos de segurança reforçados. E não é apenas conversa; grandes nomes como Microsoft, Amazon e Google estão analisando seriamente as opções nucleares.

Matt Garman, que chefia a AWS, disse recentemente à BBC, chamando a energia nuclear de uma "ótima solução" para data centers. Ele disse que é "uma excelente fonte de energia zero carbono, 24 horas por dia, 7 dias por semana". Ele também enfatizou que o planejamento para a energia futura é uma grande parte do que a AWS faz.

"É algo que planejamos com muitos anos de antecedência", mencionou Garman. "Investimos antecipadamente. Acho que o mundo terá que construir novas tecnologias. Acredito que a energia nuclear é uma grande parte disso, particularmente quando olhamos para 10 anos à frente."

Ainda assim, a energia nuclear não é uma varinha mágica. Construir novos reatores leva um tempo notoriamente longo, custa uma fortuna e envolve navegar por burocracias complexas. E sejamos francos, a opinião pública sobre a energia nuclear ainda é um pouco instável, muitas vezes por causa de acidentes passados, mesmo que os reatores modernos sejam muito mais seguros.

A velocidade com que a IA está se desenvolvendo também cria uma certa incompatibilidade com o tempo que leva para colocar uma nova usina nuclear em funcionamento. Isso pode significar que acabamos nos apoiando ainda mais em combustíveis fósseis no curto prazo, o que não é ótimo para nossas ambições verdes. Além disso, a ideia de colocar data centers bem ao lado de usinas nucleares deixou algumas pessoas preocupadas com o que isso pode fazer com os preços da eletricidade e a confiabilidade para todos os outros.

### Não Apenas Quilowatts: A Sombra Ambiental Mais Ampla da IA se Aproxima

O impacto da IA no planeta vai muito além da eletricidade que ela usa. Esses data centers ficam quentes e resfriá-los usa grandes quantidades de água. Seu data center médio consome cerca de 1,7 litros de água para cada quilowatt-hora de energia que ele queima.

Em 2022, os data centers do Google teriam consumido cerca de 5 bilhões de galões de água doce – um salto de 20% em relação ao ano anterior. Algumas estimativas sugerem que para cada kWh que um data center usa, ele pode precisar de até dois litros de água apenas para resfriamento. Em outras palavras, a infraestrutura global de IA em breve poderá consumir seis vezes mais água do que toda a Dinamarca.

E então há a montanha cada vez maior de lixo eletrônico, ou e-lixo. Como a tecnologia de IA – especialmente hardware especializado como GPUs e TPUs – se move tão rápido, o kit antigo é jogado fora com mais frequência. Podemos estar vendo a IA contribuindo para um acúmulo de e-lixo de data centers atingindo cinco milhões de toneladas todos os anos até 2030.

Mesmo fazer os chips de IA e todas as outras partes para data centers tem um impacto em nossos recursos naturais e no meio ambiente. Isso significa minerar minerais críticos como lítio e cobalto, muitas vezes usando métodos que não são exatamente gentis com o planeta.

Apenas para fazer um chip de IA pode levar mais de 1.400 litros de água e 3.000 kWh de eletricidade. Essa fome por novo hardware também está pressionando por mais fábricas de semicondutores, o que, adivinhe, muitas vezes leva à construção de mais usinas de energia a gás.

E, claro, não podemos esquecer as emissões de carbono. Quando a IA é alimentada por eletricidade gerada pela queima de combustíveis fósseis, ela aumenta o problema das mudanças climáticas que todos estamos enfrentando. Estima-se que treinar apenas um grande modelo de IA pode bombear tanto CO2 quanto centenas de casas americanas fazem em um ano.

Se você olhar para os relatórios ambientais das grandes empresas de tecnologia, pode ver a crescente pegada de carbono da IA. As emissões anuais da Microsoft, por exemplo, aumentaram cerca de 40% entre 2020 e 2023, principalmente porque eles estavam construindo mais data centers para IA. O Google também relatou que suas emissões totais de gases de efeito estufa aumentaram quase 50% nos últimos cinco anos, com as demandas de energia de seus data centers de IA sendo um dos principais culpados.

### Podemos Inovar para Sair Dessa?

Pode parecer tudo sombrio e triste, mas uma combinação de novas ideias pode ajudar.

Um grande foco é tornar os próprios algoritmos de IA mais eficientes em termos de energia. Os pesquisadores estão criando truques inteligentes como "poda de modelo" (removendo bits desnecessários de um modelo de IA), "quantização" (usando números menos precisos, o que economiza energia) e "destilação de conhecimento" (onde um modelo de IA menor e mais econômico aprende com um grande e complexo). Projetar modelos de IA menores e mais especializados que fazem trabalhos específicos com menos energia também é uma prioridade.

Dentro dos data centers, coisas como "limite de energia" (colocando um limite em quanta energia o hardware pode consumir) e "alocação dinâmica de recursos" (mudando o poder computacional com base nas necessidades em tempo real e quando a energia renovável é abundante) podem fazer uma diferença real. O software que é "consciente da IA" pode até mesmo mudar trabalhos de IA menos urgentes para momentos em que a energia é mais limpa ou a demanda na rede é menor. A IA pode até ser usada para tornar os sistemas de resfriamento em data centers mais eficientes.

A IA no dispositivo também pode ajudar a reduzir o consumo de energia. Em vez de enviar dados para data centers de nuvem maciços e famintos por energia, o processamento de IA acontece ali mesmo em seu telefone ou dispositivo. Isso poderia reduzir o uso de energia, pois os chips projetados para isso priorizam ser eficientes em vez de poder bruto.

E não podemos esquecer as regras e regulamentos. Os governos estão começando a acordar para a necessidade de tornar a IA responsável por seu uso de energia e impacto ambiental mais amplo.

Ter maneiras claras e padrão de medir e relatar a pegada da IA é um primeiro passo crucial. Também precisamos de políticas que incentivem as empresas a fazer hardware que dure mais e seja mais fácil de reciclar, para ajudar a enfrentar essa montanha de e-lixo. Coisas como sistemas de negociação de créditos de energia podem até dar às empresas uma razão financeira para escolher tecnologia de IA mais verde.

Vale a pena notar que os Emirados Árabes Unidos e os Estados Unidos apertaram as mãos esta semana em um acordo para construir o maior campus de IA fora dos EUA no Golfo. Embora isso mostre o quão importante a IA está se tornando globalmente, também lança um holofote sobre por que todas essas preocupações energéticas e ambientais precisam estar na frente e no centro para projetos tão grandes.

### Encontrando um Futuro Sustentável para a IA

A IA tem o poder de fazer algumas coisas incríveis, mas seu apetite voraz por energia é um obstáculo sério. As previsões para suas futuras demandas de energia são genuinamente surpreendentes, potencialmente correspondendo ao que países inteiros usam.

Se vamos atender a essa demanda, precisamos de uma mistura inteligente de fontes de energia. As energias renováveis são fantásticas a longo prazo, mas têm suas oscilações quando se trata de fornecimento consistente e ampliação rápida. A energia nuclear – incluindo esses novos SMRs – oferece uma opção confiável e de baixo carbono que está definitivamente chamando a atenção das grandes empresas de tecnologia. Mas ainda precisamos entender a segurança, o custo e quanto tempo eles levam para construir.

E lembre-se, não se trata apenas de eletricidade. O impacto ambiental mais amplo da IA – desde a água que ela bebe para resfriar data centers, até as pilhas crescentes de e-lixo de seu hardware e os recursos que ela usa durante a fabricação – é enorme. Precisamos olhar para o quadro geral se formos sérios em diminuir a pegada ecológica da IA.

As boas notícias? Há muitas ideias e inovações promissoras surgindo.

Algoritmos de IA que economizam energia, gerenciamento inteligente de energia em data centers, software consciente de IA que pode gerenciar cargas de trabalho de forma inteligente e a mudança para IA no dispositivo oferecem maneiras de reduzir o uso de energia. Além disso, o fato de estarmos até mesmo falando mais sobre o impacto ambiental da IA significa que as discussões sobre políticas e regras para impulsionar a sustentabilidade estão finalmente acontecendo.

Lidar com os desafios energéticos e ambientais da IA precisa que todos – pesquisadores, a indústria de tecnologia e os formuladores de políticas – arregaçem as mangas e trabalhem juntos, e rápido.

Se fizermos da eficiência energética uma prioridade máxima em como a IA é desenvolvida, investirmos adequadamente em energia sustentável, gerenciarmos o hardware de forma responsável do berço ao túmulo e implementarmos políticas de apoio, podemos almejar um futuro onde o incrível potencial da IA seja desbloqueado de uma forma que não quebre nosso planeta.

A corrida para liderar em IA tem que ser uma corrida para IA sustentável também.

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!