Saltar para o conteúdo

A pegada invisível da inteligência artificial

Pessoa jovem a trabalhar num portátil numa sala com janela ampla, vista para central elétrica e servidores.

Por trás do ecrã, está a acontecer algo muito menos sedutor.

A inteligência artificial parece leve: um chatbot num navegador, uma funcionalidade no telemóvel, um botão na aplicação de correio eletrónico. No entanto, cada pedido feito à IA depende de enormes centros de dados, chips especializados e fluxos gigantescos de eletricidade e água. Investigadores do Instituto de Tecnologia de Massachusetts alertam agora que esta infraestrutura invisível poderá alterar o consumo mundial de energia e recursos muito mais depressa do que reguladores e planificadores imaginam.

A pegada oculta da IA começa na energia

A primeira coisa que a IA consome é eletricidade. E não pouca: falamos de quantidades à escala da rede, medidas em megawatts e terawatts-hora.

Treinar um modelo generativo moderno implica repetir milhares de milhões de cálculos em chips muito potentes. Depois de o modelo entrar em funcionamento, a fase de “inferência” - isto é, todas as perguntas quotidianas colocadas pelos utilizadores - mantém esses chips em atividade contínua.

Os centros de dados em todo o mundo consumiram cerca de 460 terawatts-hora de eletricidade em 2022, aproximadamente o mesmo que o consumo anual inteiro de França, e essa quantidade deverá mais do que duplicar até 2026.

Só na América do Norte, a procura elétrica dos centros de dados passou de 2688 megawatts no final de 2022 para 5341 megawatts um ano depois. A IA não é o único fator, mas é agora a principal razão pela qual se propõem novos parques de servidores nos Estados Unidos, na Irlanda, nos Países Baixos e noutros países.

A carga não é uniforme. As sessões de treino geram picos bruscos de consumo que os operadores da rede têm de prever com antecedência. Quando a produção renovável é fraca, esses picos podem levar as empresas de eletricidade a ligar centrais a gás ou até geradores a gasóleo, aumentando as emissões precisamente no momento em que o setor tecnológico afirma estar a tornar-se mais verde.

Uma pergunta à IA versus uma pesquisa na Internet

Para quem utiliza estes serviços, perguntar a um chatbot parece quase o mesmo que fazer uma pesquisa convencional na Internet. A fatura energética conta outra história.

Estima-se que uma consulta média num assistente conversacional do tipo ChatGPT consuma cerca de cinco vezes mais eletricidade do que uma pesquisa web tradicional.

À medida que os modelos crescem em dimensão e capacidade, cada resposta passa a exigir ainda mais computação. Isso faz com que o impacto climático dependa fortemente da rapidez com que o sistema energético descarboniza - e da possibilidade de a procura da IA ultrapassar a oferta limpa.

A água: o outro recurso que a IA esgota

A eletricidade é apenas metade da equação. Manter dezenas de milhares de chips arrefecidos gera uma enorme necessidade de água.

A maior parte dos grandes centros de dados recorre a sistemas de refrigeração com água. Essa água pode vir das redes municipais, rios, lagos ou águas subterrâneas. Cada quilowatt-hora consumido por um centro de dados típico está associado a um uso significativo de água, desde as torres de arrefecimento no local até à água necessária a montante nas centrais elétricas.

Os investigadores calculam que o funcionamento de um centro de dados pode consumir cerca de dois litros de água por cada quilowatt-hora de eletricidade gasto.

Em regiões com escassez hídrica ou ecossistemas sob pressão, isto levanta difíceis compromissos entre o crescimento digital e as necessidades locais. Um único novo campus intensivo em IA numa zona seca pode competir com a agricultura ou com as habitações pelo mesmo recurso limitado.

Onde a IA e a seca colidem

Países como Espanha, os Estados Unidos e partes da Índia já enfrentam ondas de calor e reservas de água em queda. Instalar grandes centros de dados de IA nestas regiões pode agravar a pressão, sobretudo no verão, quando o ar condicionado e a refrigeração dos servidores atingem o pico.

  • As temperaturas elevadas implicam mais refrigeração e, por consequência, mais consumo de água.
  • As secas reduzem a disponibilidade de água à superfície, levando os operadores a recorrer à extração de águas subterrâneas.
  • Os ecossistemas locais podem sofrer quando rios e aquíferos são explorados mais depressa do que conseguem recuperar.

Em alguns locais, o calor residual dos centros de dados pode ser reaproveitado para aquecimento urbano ou para certos processos industriais. Ainda assim, essa opção exige uma coordenação cuidadosa e consumidores de energia térmica suficientemente próximos, pelo que não resolve sozinha a pressão sobre a água e a eletricidade.

O hardware por detrás das emissões da IA

Para além da operação diária, as máquinas que alimentam a IA também têm o seu próprio custo ambiental. O fabrico de servidores e, sobretudo, de chips de gama alta é intensivo em recursos e está fortemente concentrado em poucos países.

As unidades de processamento gráfico são os verdadeiros cavalos de batalha da IA moderna. Foram concebidas para cálculos paralelos e deixam as unidades centrais de processamento tradicionais muito para trás quando se trata de treinar redes neurais.

Estima-se que a Nvidia, a AMD e a Intel tenham vendido cerca de 3,85 milhões de unidades de processamento gráfico para centros de dados em 2023, um aumento acentuado face aos 2,67 milhões de 2022, sendo provável que 2024 tenha sido ainda superior.

Cada unidade implica extração e processamento de metais, fabrico complexo de semicondutores e transporte internacional. Face aos processadores convencionais, os chips de topo para IA são maiores, mais complexos e mais exigentes em termos energéticos para produzir, o que aumenta a sua pegada carbónica incorporada antes mesmo de chegarem a um bastidor.

Das minas às fábricas de semicondutores e aos aterros

A história do hardware da IA vai do cobre e dos metais raros extraídos do subsolo às fábricas de chips com forte uso de químicos e, no fim, aos resíduos eletrónicos.

Os riscos de poluição surgem em todas as etapas:

Etapa Impactos principais
Extração mineira Destruição de habitats, escombreiras, contaminação da água, elevado consumo de energia
Fabrico de chips Produtos químicos tóxicos, gases com efeito de estufa usados na gravação, elevada procura de água e eletricidade
Montagem e transporte Emissões associadas à logística, resíduos de embalagem
Fim de vida Resíduos eletrónicos, reciclagem limitada de componentes avançados, possível libertação de materiais perigosos

Com a procura de IA a disparar, os operadores de centros de dados substituem o hardware com maior frequência para se manterem competitivos, encurtando a vida útil efetiva destes equipamentos complexos e intensificando o fluxo de materiais.

Porque diz o Instituto de Tecnologia de Massachusetts que ainda estamos às cegas

Os investigadores do Instituto de Tecnologia de Massachusetts defendem que a sociedade está a subestimar o verdadeiro custo ambiental da IA, em grande parte porque a tecnologia evolui mais depressa do que os métodos de medição.

Apontam várias zonas de sombra:

  • Os dados de treino e a metodologia raramente são divulgados com detalhe, o que dificulta estimar o consumo total de energia do treino.
  • As empresas tendem a apresentar as emissões globais de forma agregada, sem separar o que é causado pela IA.
  • As cadeias de abastecimento de chips e servidores são pouco transparentes, com escassa informação pública sobre carbono incorporado e uso de água.

Os cientistas do Instituto de Tecnologia de Massachusetts afirmam que faltam métodos “sistemáticos e abrangentes” para acompanhar em tempo real os compromissos e os custos do rápido desenvolvimento da IA.

Sem melhores dados, os decisores políticos e os planeadores energéticos têm dificuldade em prever quantas novas centrais elétricas, atualizações da rede ou infraestruturas hídricas serão necessárias para alimentar a vaga da IA.

Pode a energia limpa salvar a consciência da IA?

As grandes empresas tecnológicas apontam para compras agressivas de eletricidade renovável e promessas de neutralidade carbónica como prova de que a IA pode crescer sem destruir as metas climáticas. A realidade é mais ambígua.

Muitas empresas compram certificados ou financiam parques eólicos distantes, mas continuam a operar centros de dados exigentes em regiões dominadas por combustíveis fósseis. Quando a procura da IA dispara durante a noite ou em períodos sem vento e com céu nublado, esses servidores dependem do que estiver disponível na rede local nesse momento.

Há também ideias promissoras: instalar centros de dados perto de fontes hidroelétricas ou geotérmicas, ligá-los a baterias de grande capacidade ou programar sessões de treino para momentos de excedente de produção renovável. Ainda assim, estas abordagens estão longe de ser universais e raramente resolvem os impactos do uso da água e do fabrico do hardware.

Outro aspeto muitas vezes esquecido é a eficiência dos próprios modelos. Quando as equipas reduzem a dimensão dos sistemas, fazem compressão ou criam modelos especializados para tarefas concretas, conseguem baixar de forma significativa a energia necessária por resposta. Isso não elimina o problema, mas pode travar parte do crescimento da pegada da IA se for acompanhado por metas claras de desempenho por watt.

O que “treino” e “inferência” significam realmente para as emissões

Há dois termos da IA que vale a pena esclarecer, porque estão diretamente ligados ao impacto ambiental.

Treino é a fase inicial - ou ocasional - em que um modelo aprende a partir de conjuntos de dados gigantescos. Pode durar semanas em milhares de unidades de processamento gráfico, consumindo grandes quantidades de energia e água. Nos modelos de fronteira, só o treino pode emitir tanto dióxido de carbono como a vida útil de centenas de automóveis.

Inferência é o que acontece sempre que escreve um pedido ou uma empresa usa IA sobre dados de clientes. Individualmente, cada interação é pequena. Mas quando milhões ou milhares de milhões de pedidos são processados diariamente por chatbots, ferramentas de correio eletrónico, motores de pesquisa e telemóveis, o consumo acumulado de energia pode igualar ou ultrapassar o treino.

Se os assistentes de IA se tornarem a interface por defeito para tudo, desde trabalho de escritório até recomendações de conteúdos em fluxo contínuo, as emissões da inferência poderão tornar-se a parte dominante da pegada da IA.

E se o uso da IA continuar a duplicar?

Imagine um cenário em que o número de consultas à IA por pessoa duplica todos os anos durante os próximos três anos, à medida que mais serviços integram ferramentas generativas por defeito:

  • Ano um: a IA é usada apenas de forma ocasional, sobretudo por utilizadores mais precoces.
  • Ano dois: passa a estar integrada em software de escritório, pesquisa e mensagens; o uso diário torna-se comum.
  • Ano três: muitas aplicações executam IA em segundo plano, gerando resumos, alertas e recomendações sem necessidade de pedido direto.

Nesse mundo, mesmo que cada resposta da IA se torne ligeiramente mais eficiente, a procura total pode disparar. As redes elétricas teriam de crescer, novos centros de dados seriam aprovados mais depressa e as comunidades locais poderiam enfrentar nova concorrência por solo e água.

Ao mesmo tempo, aplicações de IA bem direcionadas podem ajudar as utilities a prever a procura, integrar renováveis e reduzir desperdícios noutros setores. Por exemplo, um controlo mais inteligente do aquecimento, da logística ou dos processos industriais pode cortar emissões e, potencialmente, compensar parte da própria pegada da IA. O equilíbrio dependerá das decisões tomadas agora sobre onde a IA é aplicada e quão transparentes as empresas tecnológicas serão quanto aos seus custos reais.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário