“Há um grande problema com a IA generativa”, diz Sasha Luccioni, da Hugging Face, uma empresa de aprendizado de máquina. A IA generativa consome muita energia. “Toda vez que você consulta o modelo, todo o sistema é ativado, o que é extremamente ineficiente do ponto de vista computacional”, afirma ela.
Os modelos de linguagem grandes (LLMs) no centro de muitos sistemas de IA generativa foram treinados em vastos repositórios de informações escritas, o que os ajuda a gerar texto em resposta a praticamente qualquer consulta. “Quando você usa a IA generativa, ela está gerando conteúdo do zero, essencialmente criando respostas”, explica a Dra. Luccioni. Isso significa que o computador tem que trabalhar bastante.
Um sistema de IA generativa pode usar cerca de 33 vezes mais energia do que máquinas executando software específico para tarefas, de acordo com um estudo recente da Dra. Luccioni e colegas. O trabalho foi revisado por pares, mas ainda não foi publicado em uma revista científica.
Não é o seu computador pessoal que usa toda essa energia, nem o seu smartphone. Os cálculos que dependemos cada vez mais acontecem em grandes centros de dados que, para a maioria das pessoas, estão fora de vista e fora da mente. “A nuvem”, diz a Dra. Luccioni. “Você não pensa nessas enormes caixas de metal que aquecem e consomem tanta energia.”
Os centros de dados do mundo estão usando cada vez mais eletricidade. Em 2022, consumiram 460 terawatts-hora de eletricidade, e a Agência Internacional de Energia (IEA) espera que isso dobre em apenas quatro anos. Os centros de dados poderiam estar usando um total de 1.000 terawatts-hora anualmente até 2026. “Essa demanda é aproximadamente equivalente ao consumo de eletricidade do Japão”, diz a IEA. O Japão tem uma população de 125 milhões de pessoas.
Nos centros de dados, enormes volumes de informações são armazenados para recuperação em qualquer lugar do mundo – desde seus e-mails até filmes de Hollywood. Os computadores nesses edifícios sem rosto também alimentam a IA e as criptomoedas. Eles sustentam a vida como a conhecemos.
Alguns países conhecem muito bem o quão famintos por energia esses centros de dados são. Atualmente, há uma moratória impedindo a construção de novos centros de dados em Dublin. Quase um quinto da eletricidade da Irlanda é consumida por centros de dados, e espera-se que essa cifra cresça significativamente nos próximos anos – enquanto as residências irlandesas estão reduzindo seu consumo.
O chefe da National Grid disse em um discurso em março que a demanda de eletricidade dos centros de dados no Reino Unido aumentará seis vezes em apenas 10 anos, impulsionada principalmente pelo crescimento da IA. A National Grid espera que a energia necessária para eletrificar o transporte e o aquecimento seja muito maior no total, no entanto.
Empresas de serviços públicos nos EUA estão começando a sentir a pressão, diz Chris Seiple, da Wood Mackenzie, uma empresa de pesquisa. “Elas estão sendo atingidas por demandas de centros de dados ao mesmo tempo em que temos um renascimento acontecendo – graças à política governamental – na fabricação doméstica”, ele explica. Legisladores em alguns estados estão repensando as isenções fiscais oferecidas aos desenvolvedores de centros de dados devido à enorme pressão que essas instalações estão colocando na infraestrutura de energia local, segundo relatórios nos EUA.
O Sr. Seiple diz que há uma “corrida por terrenos” acontecendo para locais de centros de dados próximos a estações de energia ou centros de energia renovável: “Iowa é um celeiro de desenvolvimento de centros de dados, há muita geração de energia eólica lá.”
Alguns centros de dados podem se dar ao luxo de ir para locais mais remotos hoje em dia porque a latência – o atraso, geralmente medido em milissegundos, entre o envio de informações de um centro de dados e o usuário recebê-las – não é uma grande preocupação para os sistemas de IA generativa cada vez mais populares. No passado, centros de dados que lidavam com comunicações de emergência ou algoritmos de negociação financeira, por exemplo, eram situados dentro ou muito perto de grandes centros populacionais, para os melhores tempos de resposta absolutos.
Há poucas dúvidas de que a demanda de energia dos centros de dados aumentará nos próximos anos, mas há uma enorme incerteza sobre quanto, enfatiza o Sr. Seiple. Parte dessa incerteza se deve ao fato de que o hardware por trás da IA generativa está evoluindo o tempo todo.
Tony Grayson é gerente geral da Compass Quantum, uma empresa de centros de dados, e aponta para os chips supercomputadores Grace Blackwell recentemente lançados pela Nvidia, que são projetados especificamente para alimentar processos de ponta, incluindo IA generativa, computação quântica e design assistido por computador de medicamentos.
A Nvidia diz que, no futuro, uma empresa poderia treinar IAs várias vezes maiores do que as atualmente disponíveis em 90 dias. Isso exigiria 8.000 chips da geração anterior da Nvidia e precisaria de um fornecimento de 15 megawatts de eletricidade. Mas o mesmo trabalho poderia ser realizado no mesmo tempo por apenas 2.000 chips Grace Blackwell, e eles precisariam de um fornecimento de quatro megawatts, de acordo com a Nvidia. Isso ainda resulta em 8,6 gigawatts-hora de eletricidade consumida – aproximadamente a mesma quantidade que toda a cidade de Belfast usa em uma semana.
“A performance está aumentando tanto que suas economias gerais de energia são grandes”, diz o Sr. Grayson. Mas ele concorda que as demandas de energia estão moldando onde os operadores de centros de dados situam suas instalações: “As pessoas estão indo para onde a energia barata está.”
A Dra. Luccioni observa que a energia e os recursos necessários para fabricar os chips de computador mais recentes são significativos.
Ainda assim, é verdade que os centros de dados se tornaram mais eficientes em termos de energia ao longo do tempo, argumenta Dale Sartor, consultor e afiliado do Laboratório Nacional Lawrence Berkeley nos EUA. Sua eficiência é frequentemente medida em termos de eficácia no uso de energia, ou PUE. Quanto menor o número, melhor. Centros de dados de última geração têm um PUE de cerca de 1,1, ele observa.
Essas instalações ainda criam quantidades significativas de calor residual e a Europa está à frente dos EUA na busca de formas de usar esse calor residual – como aquecer piscinas – diz o Sr. Sartor.
Bruce Owen, diretor-gerente da Equinix no Reino Unido, uma empresa de centros de dados, diz: “Ainda acho que a demanda vai crescer mais do que o ganho de eficiência que vemos.” Ele prevê que mais centros de dados serão construídos com instalações de geração de energia no local incluídas. A Equinix teve permissão de planejamento negada para um centro de dados alimentado a gás em Dublin no ano passado.
O Sr. Sartor acrescenta que os custos podem, em última análise, determinar se a IA generativa vale a pena para certas aplicações: “Se o modo antigo for mais barato e mais fácil, então não haverá muito mercado para o novo modo.”
A Dra. Luccioni enfatiza, no entanto, que as pessoas precisarão entender claramente como as opções à sua frente diferem em termos de eficiência energética. Ela está trabalhando em um projeto para desenvolver classificações de energia para IA. “Em vez de escolher este modelo derivado do GPT que é muito desajeitado e usa muita energia, você pode escolher este modelo com classificação A+ estrela de energia que será muito mais leve e eficiente”, ela diz.
***
Elon Musk acredita que este é apenas o começo de uma iminente seca de eletricidade. “A IA ficará sem transformadores em 2025”, disse ele.
Elon Musk chefia a empresa de carros elétricos que disputa com a chinesa BYD a liderança do mercado mundial, que agora está se voltando para a inteligência artificial. A Tesla, além de fabricantes de baterias, telhados solares e até caminhões elétricos, é uma empresa líder em adaptadores de energia. Sua rede de superalimentadores é uma das maiores e mais poderosas do mundo.
O magnata deu uma declaração um tanto polêmica na convenção Bosch Connected World, afirmando que o mundo está ficando sem transformadores por causa da IA. “A computação de inteligência artificial na nuvem parece estar aumentando em um fator de 10 a cada seis meses. Isso não pode continuar em uma taxa tão alta para sempre, mas eu nunca vi nada parecido. A corrida do chip é maior do que qualquer outra corrida do ouro”.
“As limitações no cálculo da IA são muito previsíveis. Há um ano, a escassez era de chips. Agora é muito fácil prever que a próxima escassez será em transformadores de tensão redutores. Você tem que alimentá-los com energia. Você tem de 100 a 300 quilovolts saindo de uma rede elétrica e precisa reduzi-los para 6 volts, o que é uma redução considerável. Eles estão ficando sem transformadores para alimentar os Transformers”.
Transformers é a arquitetura de aprendizagem profunda na qual se baseiam modelos de linguagem como ChatGPT da OpenAI, Llama da Meta ou Gemini do Google. O que Musk quer dizer é que a próxima seca não será de água, mas de eletricidade porque, no curto prazo, a rede elétrica não terá transformadores suficientes para alimentar todos os chips que treinam e fazem funcionar os modelos de inteligência artificial nos data centers das empresas.
Esses chips ou placas gráficas de altíssima potência têm alto consumo tanto no treinamento da IA quanto no cálculo das respostas. A chamada “inferência de IA” consome 33 vezes mais do que uma consulta a um algoritmo tradicional, de acordo com um estudo recente.
Se superarmos a crise dos transformadores que Musk prevê, entraremos num terreno ainda mais complicado: o do crescimento exponencial da procura de eletricidade devido ao ímpeto da inteligência artificial somado ao dos carros elétricos e do ar condicionado.
Passaríamos de sobrecarregar a rede elétrica a ter que gerar mais energia justamente quando o mundo está em transição para fontes renováveis. De acordo com a Agência Internacional de Energia, a procura global de eletricidade pelos centros de dados deverá duplicar até 2026. Há quem defenda a aceleração da instalação de painéis solares e quem aposte na energia nuclear, como Sam Altman, CEO da OpenAI, que tem investimentos em tecnologia emergente de fusão. Mas também há quem pense como a Microsoft, que investe em pequenos reatores modulares de fissão SMR para os seus futuros centros de dados.
Com informações da BBC e da IGN Brasil.