Um dos impactos menos discutidos da inteligência artificial é a quantidade enorme de energia necessária para alimentar as infraestruturas desses sistemas expansivos. Segundo relatórios, o processo de treinamento do GPT-4 da OpenAI, que é alimentado por cerca de 25.000 GPUs Nvidia A100, exigiu até 62.000 megawatts-hora. Isso equivale às necessidades de energia de 1.000 lares nos EUA por mais de 5 anos. E este é apenas um projeto.
O novo supercluster de IA da Meta incluirá 350.000 GPUs Nvidia H100, enquanto X e Google, entre outros, também estão construindo grandes projetos de hardware para alimentar seus próprios modelos. É um grande fardo de recursos, que exigirá um investimento significativo para viabilizá-lo. E também terá um impacto ambiental. Para fornecer uma perspectiva sobre isso, a equipe do Visual Capitalist montou uma visão geral das necessidades crescentes de eletricidade da Microsoft enquanto continua a trabalhar com a OpenAI em seus projetos.