Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124


Por trás da praticidade de ferramentas como os chatbots, existe um custo energético enorme. Centros de dados que sustentam a inteligência artificial já representam mais de 1,5% do consumo global de energia, e especialistas projetam que esse número pode dobrar até 2030. Mas afinal, por que a IA consome tanta eletricidade? A resposta se resume a dois processos principais: treinamento e inferência.
Treinar um modelo de inteligência artificial é como ensinar um cérebro artificial a reconhecer padrões e prever respostas. Para isso, são utilizados conjuntos massivos de dados que precisam ser processados repetidamente até que o sistema consiga aprender.
Esse processo não é nada leve. Os modelos atuais são tão grandes que não cabem em apenas uma GPU ou em um único servidor. Por isso, é necessário utilizar vários servidores equipados com múltiplas placas gráficas, que funcionam em paralelo durante semanas ou até meses.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Um exemplo ajuda a dimensionar: treinar o GPT-4 consumiu cerca de 50 gigawatt-horas de energia, o equivalente a abastecer uma cidade como São Francisco por três dias inteiros. Isso acontece porque cada servidor pode demandar até 6,5 quilowatts de potência contínua, e centenas deles são utilizados ao mesmo tempo. Quanto maior o modelo, maior a conta de energia.
O treinamento é a fase em que mais se consome eletricidade, principalmente porque existe uma crença de que “quanto maior o modelo, melhor o resultado”. Esse paradigma ainda guia a indústria, elevando a cada ano a escala dos modelos e, consequentemente, do consumo energético.

Se o treinamento é a fase de preparação, a inferência é o momento da prática, quando a IA gera respostas para perguntas dos usuários. Embora a inferência demande menos poder de processamento do que o treinamento, o grande volume de interações faz dela outro ponto crítico de consumo.
Para ter uma ideia, apenas o ChatGPT processa hoje mais de 2,5 bilhões de prompts por dia. Cada solicitação, aparentemente simples, exige que o modelo percorra redes complexas de cálculos antes de entregar uma resposta instantânea. Isso significa que milhares de servidores precisam estar sempre ativos, em funcionamento contínuo, para atender à enorme demanda global.
E não é apenas a OpenAI que consome essa energia: outras empresas, como Google, Microsoft e Meta, também operam modelos semelhantes em grande escala. O problema é que esses gigantes do setor não divulgam números detalhados, dificultando a real compreensão do impacto ambiental da IA.
Um dos maiores desafios atuais é a falta de transparência sobre o consumo energético das grandes plataformas. Sem informações claras, fica difícil para os usuários e para os formuladores de políticas públicas entenderem o real impacto ambiental da inteligência artificial. A responsabilidade não é só das empresas de tecnologia, e envolve também os usuários e dos governos.
Leia também:
VÍDEO | Por que tudo agora tem Inteligência Artificial gratuita? É de graça mesmo? E a paga?
Leia a matéria no Canaltech.