Menu Close
um grande complexo de edifícios ao lado de uma estrada
Um data center em Ashburn, Virgínia, o coração da região dos EUA conhecida como “Alameda dos Data Centers”: aumento no uso da IA também fez explodir a demanda por energia do setor de tecnologia. AP Photo/Ted Shaffrey

IA sobrecarrega o uso de energia dos data centers, prejudicando os esforços de sustentabilidade

O boom da inteligência artificial (IA) teve um efeito tão profundo nas grandes empresas de tecnologia que seu consumo de energia e, com isso, suas emissões de carbono aumentaram.

O sucesso espetacular de grandes modelos de linguagem, como o ChatGPT, ajudou a alimentar esse crescimento na demanda por energia. Com 2,9 watts-hora por solicitação do ChatGPT, as consultas à IA exigem cerca de 10 vezes a energia das consultas tradicionais do Google, de acordo com o Electric Power Research Institute, uma empresa de pesquisa sem fins lucrativos. Os recursos emergentes de IA, como a geração de áudio e vídeo, provavelmente aumentarão essa demanda por energia.

As necessidades de energia da IA estão mudando o cálculo das empresas elétricas. Elas agora estão contemplando opções anteriormente insustentáveis, como reiniciar um reator nuclear na usina de Three Mile Island, local do infame desastre em 1979, que está inativo desde 2019.

Os data centers têm tido um crescimento contínuo há décadas, mas a magnitude do crescimento na era ainda jovem dos grandes modelos de linguagem tem sido excepcional. A IA exige muito mais recursos computacionais e de armazenamento de dados do que a taxa de crescimento dos datas centers anterior à IA poderia oferecer.

IA e a rede elétrica

Graças à IA, a rede elétrica - em muitos lugares já perto de sua capacidade máxima ou sujeita a problemas de estabilidade - está sofrendo mais pressão do que antes. Há também uma defasagem substancial entre o crescimento da capacidade de computação e o crescimento da rede. Os data centers levam de um a dois anos para serem construídos, enquanto a adição de nova energia à rede requer mais de quatro anos.

Como mostra relatório recente do Electric Power Research Institute, apenas 15 estados dos EUA abrigam 80% dos data centers do país. Alguns estados - como a Virgínia, lar do Data Center Alley (a “Alameda dos Data Centers”) - têm mais de 25% de seu consumo de eletricidade nos data centers. Há tendências semelhantes de crescimento de data centers agrupados em outras partes do mundo. Por exemplo, a Irlanda tornou-se uma nação de data centers.

A IA está causando um grande impacto na rede elétrica e, possivelmente, no clima.

Junto à necessidade de adicionar mais geração de energia para sustentar esse crescimento, quase todos os países têm metas de descarbonização. Isso significa que eles estão se esforçando para integrar mais fontes de energia renovável à rede. As energias renováveis, como a eólica e a solar, são intermitentes: o vento nem sempre sopra, e o Sol nem sempre brilha. A escassez de opções de armazenamento de energia baratas, ecológicas e escaláveis significa que a rede enfrenta um problema ainda maior para atender à oferta e à demanda.

Outros desafios ambientais no crescimento dos data centers incluem o aumento do uso de resfriamento a água para aumentar a eficiência, que sobrecarrega as fontes limitadas de água doce. Como resultado, algumas comunidades estão resistindo a receber novos investimentos em data centers.

Melhor tecnologia

Há várias maneiras pelas quais o setor de tecnologia está lidando com essa crise no consumo de energia. Primeiro, o hardware de computação tornou-se substancialmente mais eficiente em termos de energia ao longo dos anos em termos de operações executadas por watt consumido. A eficiência do uso de energia nos data centers, uma métrica que mostra a relação entre a energia consumida para computação e para resfriamento e outras infraestruturas, foi reduzida para 1,5 em média, e até mesmo para impressionantes 1,2 em instalações avançadas. Os novos data centers têm resfriamento mais eficiente, usando água e também ar frio externo quando disponível.

Infelizmente, a eficiência por si só não resolverá o problema da sustentabilidade. De fato, o chamado paradoxo de Jevons aponta como a eficiência pode resultar em um aumento no consumo de energia a longo prazo. Além disso, os ganhos de eficiência do hardware desaceleraram substancialmente, pois o setor atingiu os limites de escalonamento da tecnologia de chips.

Para continuar melhorando a eficiência, os pesquisadores estão projetando hardware especializado, como aceleradores, novas tecnologias de integração, como chips 3D, e novas técnicas de resfriamento de chips.

Da mesma forma, os pesquisadores estão estudando e desenvolvendo cada vez mais tecnologias de resfriamento de data centers. O relatório do Electric Power Research Institute endossa novos métodos de resfriamento, como o resfriamento líquido assistido por ar e o resfriamento por imersão. Embora o resfriamento líquido já tenha entrado nos data centers, apenas alguns poucos novos data centers implementaram o resfriamento por imersão, ainda em desenvolvimento.

Um homem usando luvas de borracha e uma viseira abaixa uma placa de circuito em uma calha contendo um líquido
Manter servidores de computador dentro de um líquido - em vez de no ar - poderia ser uma maneira mais eficiente de resfriá-los. Craig Fritz, Sandia National Laboratories

Futuro flexível

Uma nova maneira de construir data centers de IA é a computação flexível, em que a ideia principal é computar mais quando a eletricidade é mais barata, mais disponível e mais ecológica, e menos quando ela é mais cara, escassa e poluente.

As operadoras de data centers podem converter suas instalações para uma carga flexível na rede. A academia e o setor forneceram exemplos iniciais de resposta à demanda do data center, em que os data centers regulam sua energia dependendo das necessidades da rede elétrica. Por exemplo, eles podem programar determinadas tarefas de computação para horários fora do pico.

A implementação de uma flexibilidade mais ampla e em maior escala no consumo de energia exige inovação em hardware, software e coordenação entre a rede elétrica e os data centers. Especialmente para IA, há muito espaço para desenvolver novas estratégias para ajustar as cargas computacionais dos data centers e, portanto, o consumo de energia. Por exemplo, os data centers podem reduzir a precisão para reduzir as cargas de trabalho ao treinar modelos de IA.

A concretização dessa visão exige melhor modelagem e previsão. Os data centers podem tentar entender e prever melhor suas cargas e condições. Também é importante prever a carga e o crescimento da rede.

A iniciativa de previsão de carga do Electric Power Research Institute envolve atividades para ajudar no planejamento e nas operações da rede. O monitoramento abrangente e a análise inteligente - possivelmente com base em IA - para os data centers e a rede são essenciais para uma previsão precisa.

No limite

Os EUA estão em um momento crítico com o crescimento explosivo da IA. É extremamente difícil integrar centenas de megawatts de demanda de eletricidade em redes já sobrecarregadas. Talvez seja hora de repensar como o setor constrói data centers.

Uma possibilidade é construir de forma sustentável mais data centers marginais (edge data centers)- instalações menores e amplamente distribuídas - para levar a computação às comunidades locais. Estes data centers também podem adicionar, de forma confiável, potência de computação a regiões urbanas densas sem estressar ainda mais a rede elétrica. Embora esses centros menores representem atualmente 10% dos data centers nos EUA, os analistas projetam que o mercado de data centers marginais de menor escala crescerá mais de 20% nos próximos cinco anos.

Além de converter os data centers para usarem cargas flexíveis e controláveis, a inovação no espaço dos data centers pode tornar as demandas de energia da IA muito mais sustentáveis.

This article was originally published in English

Want to write?

Write an article and join a growing community of more than 191,300 academics and researchers from 5,063 institutions.

Register now