A próxima seca será de eletricidade: segundo Elon Musk, a rede elétrica “está ficando sem transformadores” devido à procura por IA
A previsão do magnata parece estar cada vez mais perto de se concretizar.
A rede elétrica está começando a sofrer. Não só pela eletrificação dos automóveis, mas também pela enorme procura de inteligência artificial. Elon Musk acredita que este é apenas o começo de uma iminente seca de eletricidade. “A IA ficará sem transformadores em 2025”, disse ele.
Elon Musk lidera a empresa de carros elétricos mais próspera do mundo, que agora está se voltando para a inteligência artificial. A Tesla, além de fabricantes de baterias, telhados solares e até caminhões elétricos, é uma empresa líder em adaptadores de energia. Sua rede de superalimentadores é uma das maiores e mais poderosas do mundo.
Um mundo sem transformadores
O magnata deu uma declaração um tanto polêmica na convenção Bosch Connected World, afirmando que o mundo está ficando sem transformadores por causa da IA. “A computação de inteligência artificial na nuvem parece estar aumentando em um fator de 10 a cada seis meses. Isso não pode continuar em uma taxa tão alta para sempre, mas eu nunca vi nada parecido. A corrida do chip é maior do que qualquer outra corrida do ouro”.
“As limitações no cálculo da IA são muito previsíveis. Há um ano, a escassez era de chips. Agora é muito fácil prever que a próxima escassez será em transformadores de tensão redutores. Você tem que alimentá-los com energia. Você tem de 100 a 300 quilovolts saindo de uma rede elétrica e precisa reduzi-los para 6 volts, o que é uma redução considerável. Eles estão ficando sem transformadores para alimentar os Transformers”.
Seca de eletricidade
Transformers é a arquitetura de aprendizagem profunda na qual se baseiam modelos de linguagem como ChatGPT da OpenAI, Llama da Meta ou Gemini do Google. O que Musk quer dizer é que a próxima seca não será de água, mas de eletricidade porque, no curto prazo, a rede elétrica não terá transformadores suficientes para alimentar todos os chips que treinam e fazem funcionar os modelos de inteligência artificial nos data centers das empresas.
Esses chips ou placas gráficas de altíssima potência têm alto consumo tanto no treinamento da IA quanto no cálculo das respostas. A chamada “inferência de IA” consome 33 vezes mais do que uma consulta a um algoritmo tradicional, de acordo com um estudo recente.
Se superarmos a crise dos transformadores que Musk prevê, entraremos num terreno ainda mais complicado: o do crescimento exponencial da procura de eletricidade devido ao ímpeto da inteligência artificial somado ao dos carros elétricos e do ar condicionado.
Passaríamos de sobrecarregar a rede elétrica a ter que gerar mais energia justamente quando o mundo está em transição para fontes renováveis. E esta não é apenas uma previsão de um guru da tecnologia. De acordo com a Agência Internacional de Energia, a procura global de eletricidade pelos centros de dados deverá duplicar até 2026. Há quem defenda a aceleração da instalação de painéis solares e quem aposte na energia nuclear, como Sam Altman, CEO da OpenAI, que tem investimentos em tecnologia emergente de fusão. Mas também há quem pense como a Microsoft, que investe em pequenos reatores modulares de fissão SMR para os seus futuros centros de dados.
*Texto traduzido do site parceiro Xataka