Quando enviamos uma solicitação para uma inteligência artificial como o ChatGPT, os servidores de um data center calculam a resposta. Até este ponto, o processo é semelhante a qualquer serviço de nuvem, mas modelos generativos de IA, que foram treinados para prever respostas, usam 33 vezes mais energia do que máquinas que executam um algoritmo tradicional para executar tarefas específicas.
“É extremamente ineficiente do ponto de vista computacional”, disse Sasha Luccioni, pesquisadora do Hugging Face, à BBC News.
O alerta dos especialistas em ética da IA
Um estudo pré-publicado de Luccioni e outros autores alerta para o elevado custo ambiental dos grandes modelos de IA, tanto pela quantidade de energia que exigem como pelas toneladas de carbono que emitem.
Quando empresas como Meta, OpenAI e Google treinam seus grandes modelos de linguagem (Llama 3, GPT-4o, Gemini 1.5 Ultra), elas os colocam para trabalhar centenas de milhares de placas gráficas ou TPUs que consomem enormes quantidades de eletricidade, especialmente à medida que aumentam de tamanho (de milhões para centenas de bilhões de parâmetros).
1.000 terawatts-hora em data centers
No entanto, isso é apenas parte da história. A IA generativa é cada vez mais popular, o que significa que milhões de pessoas fazem perguntas a cada momento que colocam o mecanismo de inferência em funcionamento: o processo pelo qual os modelos de aprendizagem automática fazem previsões ou generalizações a partir de qualquer consulta.
Este processo é igualmente caro porque gerar conteúdo do zero em data centers em todo o mundo. Data centers que utilizam cada vez mais eletricidade: de 460 TWh em 2022 para mais de 1.000 TWh projetados para 2026; aproximadamente o consumo de eletricidade do Japão, que tem uma população de 125 milhões de pessoas.
Na National Grid, operadora da rede elétrica do Reino Unido, eles estão preocupados. Estimam que a procura de eletricidade dos centros de dados aumentará seis vezes nos próximos 10 anos devido ao uso da IA, à qual devemos acrescentar a eletrificação dos transportes e do aquecimento.
Nos Estados Unidos, as operadoras de rede já eles estão começando a se ressentirAfirma a consultora Wood Mackenzie: “Eles estão a ser atingidos pelas exigências dos centros de dados exactamente ao mesmo tempo que ocorre o ressurgimento (graças à política governamental) da produção nacional”.
Flertando com a energia nuclear
Os novos modelos pequenos como Phi-3 ou Gemini Nano, que funcionam diretamente em nossos dispositivos, pode aliviar parte do problema. Ao mesmo tempo, o desempenho do hardware está melhorando, economizando energia tanto no treinamento quanto na inferência.
Mas à medida que o hardware melhora, as Big Tech também competem para treinar modelos maiores e mais capazes, exigindo mais centros de dados para armazenar os dados de treino e mais energia para alimentar todo o poder computacional.
É um badejo que morde o rabo. E embora os data centers tenham normalmente instalações de autoconsumo, isso exigirá soluções mais drásticas. É por isso que empresas como a Microsoft começam a apostar em reatores nucleares modulares enquanto Sam Altman, CEO da OpenAI, investe na fusão nuclear.
Imagem | Microsoft
Em Xataka | A resposta de um executivo da Meta sobre quanto a IA consome: “seriam necessários apenas dois reatores nucleares para cobri-lo”