Edgar Cervantes / Autoridade Android
Tudo tem um custo, e a IA não é diferente. Embora o ChatGPT e o Gemini possam ser gratuitos, eles exigem uma quantidade impressionante de poder computacional para operar. E se isso não bastasse, a Big Tech está atualmente envolvida em uma corrida armamentista para construir modelos maiores e melhores como o GPT-5. Os críticos argumentam que essa crescente demanda por hardware poderoso — e intensivo em energia — terá um impacto devastador nas mudanças climáticas. Então, quanta energia a IA como o ChatGPT usa e o que esse uso de eletricidade significa de uma perspectiva ambiental? Vamos analisar.
Consumo de energia do ChatGPT: quanta eletricidade a IA precisa?
Calvin Wankhede / Autoridade Android
O modelo de linguagem grande GPT-3 mais antigo da OpenAI exigia pouco menos de 1.300 megawatts-hora (MWh) de eletricidade para treinar, o que é igual ao consumo anual de energia de cerca de 120 lares nos EUA. Para algum contexto, um lar americano médio consome pouco mais de 10.000 quilowatts-hora a cada ano. Isso não é tudo — os modelos de IA também precisam de poder de computação para processar cada consulta, o que é conhecido como inferência. E para conseguir isso, você precisa de muitos servidores poderosos espalhados por milhares de data centers globalmente. No coração desses servidores estão normalmente os chips H100 da NVIDIA, que consomem 700 watts cada e são implantados às centenas.
As estimativas variam muito, mas a maioria dos pesquisadores concorda que o ChatGPT sozinho requer algumas centenas de MWh todos os dias. Isso é eletricidade suficiente para abastecer milhares de lares nos EUA, e talvez até dezenas de milhares, por ano. Dado que o ChatGPT não é mais o único player de IA generativa na cidade, é lógico que o uso só crescerá a partir daqui.
A IA poderá usar 0,5% do consumo mundial de eletricidade até 2027.
Um artigo publicado em 2023 tenta calcular quanta eletricidade a indústria de IA generativa consumirá nos próximos anos. Seu autor, Alex de Vries, estima que a líder de mercado NVIDIA enviará até 1,5 milhão de unidades de servidores de IA até 2027. Isso resultaria em servidores de IA utilizando de 85,4 a 134 terawatts-hora (TWh) de eletricidade a cada ano, mais do que o consumo anual de energia de países menores como Holanda, Bangladesh e Suécia.
Embora esses sejam certamente números alarmantemente altos, vale a pena notar que a produção total de eletricidade mundial era de quase 29.000 TWh há apenas alguns anos. Em outras palavras, os servidores de IA seriam responsáveis por cerca de meio por cento do consumo mundial de energia até 2027. Ainda é muito? Sim, mas precisa ser julgado com algum contexto.
O caso do consumo de eletricidade da IA
A IA pode consumir eletricidade suficiente para igualar a produção de nações menores, mas não é a única indústria a fazê-lo. Na verdade, os data centers que alimentam o resto da internet consomem muito mais do que aqueles dedicados à IA e a demanda nessa frente tem crescido independentemente de novos lançamentos como o ChatGPT. De acordo com a Agência Internacional de Energia, todos os data centers do mundo consomem 460 TWh hoje. No entanto, a linha de tendência tem aumentado acentuadamente desde que a Grande Recessão terminou em 2009 — a IA não teve nenhum papel a desempenhar nisso até o final de 2022.
Mesmo se considerarmos o pior cenário do pesquisador acima e assumirmos que os servidores de IA serão responsáveis por 134 TWh de eletricidade, isso empalidecerá em comparação ao consumo geral de data centers do mundo. A Netflix sozinha usou eletricidade suficiente para abastecer 40.000 lares nos EUA em 2019, e esse número certamente aumentou desde então, mas você não vê ninguém clamando para acabar com o streaming de internet como um todo. Os condicionadores de ar são responsáveis por impressionantes 10% do consumo global de eletricidade, ou 20x mais do que a pior estimativa de consumo de 2027 da IA.
O consumo de eletricidade da IA é insignificante em comparação ao dos data centers globais como um todo.
O consumo de eletricidade da IA também pode ser comparado com a controvérsia em torno do uso de energia do Bitcoin. Assim como a IA, o Bitcoin enfrentou severas críticas por seu alto consumo de eletricidade, com muitos o rotulando como uma séria ameaça ambiental. No entanto, os incentivos financeiros da mineração impulsionaram sua adoção em regiões com fontes de energia mais baratas e renováveis. Isso só é possível devido à abundância de eletricidade nessas regiões, onde ela poderia ser subutilizada ou até mesmo desperdiçada. Tudo isso significa que deveríamos realmente perguntar sobre a pegada de carbono da IA, e não apenas focar nos números brutos de consumo de eletricidade.
A boa notícia é que, assim como as operações de mineração de criptomoedas, os data centers são frequentemente construídos estrategicamente em regiões onde a eletricidade é abundante ou mais barata de produzir. É por isso que alugar um servidor em Cingapura é significativamente mais barato do que em Chicago.
O Google pretende executar todos os seus data centers com energia livre de carbono 24 horas por dia, 7 dias por semana, até 2030. E de acordo com o relatório ambiental de 2024 da empresa, 64% do uso de eletricidade de seus data centers já vem de fontes de energia livres de carbono. A Microsoft definiu uma meta semelhante e seus data centers do Azure alimentam o ChatGPT.
Aumento da eficiência: a demanda por eletricidade da IA pode atingir um patamar?
Robert Triggs / Autoridade Android
À medida que a tecnologia de IA generativa continua a evoluir, as empresas também vêm desenvolvendo modelos menores e mais eficientes. Desde o lançamento do ChatGPT no final de 2022, vimos uma série de modelos que priorizam a eficiência sem sacrificar o desempenho. Alguns desses modelos de IA mais novos podem fornecer resultados comparáveis aos de seus predecessores maiores de apenas alguns meses atrás.
Por exemplo, o recente GPT-4o mini da OpenAI é significativamente mais barato do que o GPT-3 Turbo que ele substitui. A empresa não divulgou números de eficiência, mas a redução da ordem de grandeza nos custos de API indica uma grande redução nos custos de computação (e, portanto, no consumo de eletricidade).
Também vimos um impulso para o processamento no dispositivo para tarefas como resumo e tradução que podem ser alcançadas por modelos menores. Embora você possa argumentar que a inclusão de novos pacotes de software como o Galaxy AI ainda resulta em maior consumo de energia no próprio dispositivo, a troca pode ser compensada pelos ganhos de produtividade que ele permite. Eu, por exemplo, trocaria de bom grado uma duração de bateria um pouco pior pela capacidade de obter tradução em tempo real em qualquer lugar do mundo. A pura conveniência pode fazer com que o modesto aumento no consumo de energia valha a pena para muitos outros.
Ainda assim, nem todos veem a IA como um desenvolvimento necessário ou benéfico. Para alguns, qualquer uso adicional de energia é visto como desnecessário ou desperdício, e nenhuma quantidade de aumento de eficiência pode mudar isso. Só o tempo dirá se a IA é um mal necessário, semelhante a muitas outras tecnologias em nossas vidas, ou se é simplesmente um desperdício de eletricidade.