Na última semana, a Google publicou um paper no qual apresentou dados sobre o impacto ambiental de seus serviços de IA, especialmente do modelo Gemini. Esse tema, tão distante à primeira vista, pode estar, em breve, na nossa agenda cotidiana a partir da discussão sobre a implantação de datacenters no Brasil – aliás, o assunto já está pegando fogo nos embates entre a sociedade civil, especialistas, empresas e governo no debate regulatório do PL 2.338/23 (o Marco Legal da IA no Brasil).
O estudo do Google destacou ganhos de eficiência energética e hídrica, chegando a afirmar que cada resposta do Gemini consome apenas 0,26 mililitros de água, algo comparável a cinco gotas, uma métrica bem menor do que de estudos anteriores, abertamente mencionados, como os estudos do pesquisador Shaolin Ren.
É caso de prego batido e ponta virada na questão: modelos de IA são ambientalmente adequados? Não é raro, especialmente no campo da IA, que pesquisas financiadas e implementadas diretamente por empresas tenham aquele toque “a mais” para construir uma realidade específica.
O argumento celebrativo não durou muito e causou reações. Rapidamente, pesquisadores que vêm se debruçando sobre o tema, como o próprio Shaolei Ren, e veículos especializados como o The Verge, começaram a apontar os furos e seletividades do documento. O que parecia ser uma contribuição ao debate público logo revelou uma outra possibilidade: tratar-se-ia de um movimento calculado de disputa narrativa em torno de como traduzir a demanda predatória e econômica do setor em uma linguagem aparentemente técnica e politicamente aceitável.
A Google defendeu, no estudo, que sua IA é muito mais eficiente do que se pensava, chegando a ganhos de 33 vezes em apenas um ano de operação. Em seguida, o estudo confrontou esse dado mais recente e favorável com as estimativas de 2023 produzidas por outros trabalhos, como o de Ren, que calcularam o consumo total (onsite e offsite) em 18 localidades distintas. A mensagem é clara: se antes acreditávamos que uma resposta de IA custava algo em torno de 45 a 50 mL de água, agora sabemos que ela custa “apenas cinco gotas”.
Ocorre que existem alguns pulos de gato nessa história. Para sustentar a comparação, o artigo toma como referência apenas o chamado “consumo onsite”, isto é, a água usada diretamente nos sistemas de resfriamento de seus data centers, excluindo do cálculo toda a chamada “offsite water”, aquela utilizada indiretamente para a geração da energia elétrica que mantém os servidores funcionando. E esse é só um dos pontos problemáticos.
Shaolei Ren mostrou que em oito das 18 localidades analisadas em 2023, o consumo de água onsite do modelo GPT-3 (hoje estamos no 5!) já era menor do que o número global que a Google divulgou agora para o Gemini. Mais ainda: se fosse possível projetar o dado retrospectivamente, aplicando o ganho de eficiência de 33 vezes ao que se sabia antes, os números de GPT-3 se tornariam mais favoráveis do que os da própria Google no mesmo período.
A comparação, portanto, não demonstra superioridade, mas uma possível manipulação metodológica. Soma-se a isso o fato de que a empresa não esclareceu o tamanho médio de resposta que serviu como parâmetro para seus cálculos. Enquanto a literatura trabalha com o intervalo de 150 a 300 palavras (por token), o paper fala em resposta “mediana” sem qualquer padronização.
O que disso resta para nós, cidadãos brasileiros, que estamos sendo bombardeados pelo setor privado com o argumento de que o país está em uma “janela de oportunidade para apropriar seu parque de geração elétrica e energia renovável para atrair datacenters”? Não acredite em mim, veja, quase como num “copiar e colar” de argumentos: aqui, aqui, aqui e aqui e em tantos outros.
Ao apresentar uma lógica de “apenas cinco gotas” como metáfora do custo ambiental da IA, o Google faz um movimento além de uma possível impostura metodológica, mas força uma redução da realidade ao que pode ser calculado, representado, estocado em uma tabela.
O problema não é, portanto, só que o cálculo seja incompleto, mas vai além: que a redução ao cálculo opere como forma de enquadrar o mundo. Ao dizer que a IA custa pouco, quase nada, a empresa não está apenas ocultando a água invisível que alimenta o desenvolvimento da IA no pré-durante-e-após uso do modelo, mas também modelando o horizonte de sentido em que decidimos o que é aceitável consumir em nome do progresso técnico.
A técnica não é mais um instrumento subordinado ao humano, é uma moldura que transforma até o próprio humano em recurso administrável.
Tal fato vem a reboque – como o custo ambiental vem junto à adoção massiva de projetos de IA – de uma falácia: que a economia da IA é incorpórea, imaterial, etérea.
A economia da inteligência artificial, como alertou Kate Crawford, é tudo menos o inefável da matemática que está à base de um modelo: é uma economia de extração de minérios raros, de demanda inacabável por recursos energéticos (e uma dependência de fontes estáveis não renováveis), além de ser uma economia baseada em aparatos industriais (os datacenters) cuja presença em territórios causa pressão sobre os recursos naturais e danos sociais relevantes – barulho, luminosidade, poluição e tantos outros.
Este é só um começo de conversa nesta coluna, mas é importante situar que a resposta crítica não pode se limitar à disputa sobre qual número é mais fiel, mas precisa reconhecer que estamos diante da forja de um mito contemporâneo. O mito sempre foi uma forma de domesticar a contingência, de dar inteligibilidade ao indomável.
Hoje, a técnica ocupa esse lugar, prometendo “domar” a incerteza com o selo da objetividade. O gesto da Google é exemplar: apresentar um cálculo como se fosse um espelho do real, ocultando que esse cálculo é sempre seletivo, histórico e situado e que legitima interesses que não são, necessariamente, coletivos.
A crença no número substitui o juízo sobre o sentido e os custos humanos e ambientais do desenvolvimento da IA. A política, que deveria ser o espaço da invenção coletiva de destinos, corre o risco de ser reduzida à gestão corporativa de externalidades. Nesse horizonte, a IA não apenas consome água: ela consome a própria capacidade humana de decidir o que significa viver em sociedade.