Sem conversinha: estudo sugere que pedir respostas curtas pode reduzir gasto de energia das IAs

Mudanças na interação com as ferramentas de inteligência artificial generativa, como solicitar respostas curtas, podem reduzir o consumo de energia dos bots em até 54%. É o que aponta um estudo recente feito pela University College London (UCL) em parceria com a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO).

De acordo com a entidade, uma plataforma como o ChatGPT gasta aproximadamente 310 GWh de eletricidade por ano para gerar textos — na conta, não entra a demanda energética relacionada às solicitações para imagens. Esse consumo equivale aos gastos anuais de 3 milhões de pessoas na Etiópia.

Os avanços da IA resultaram em um aumento considerável nos gastos de energia. (Imagem: Getty Images)

Como reduzir a demanda das IAs por eletricidade?

No experimento, pesquisadores da UCL usaram suas próprias máquinas para rodar modelos de IA de grande porte. Dessa forma, foi possível monitorar o gasto energético da tecnologia em cada máquina e plataforma.

  • Segundo os cientistas da computação envolvidos nos testes, o primeiro passo para reduzir o gasto de energia dos bots é optar por prompts mais curtos ao interagir com eles;
  • Assim, a IA vai responder de forma mais suscinta às solicitações, levando a uma redução no gasto de energia superior a 50%;
  • A UNESCO recomendou às desenvolvedoras que realizem campanhas de conscientização dos usuários, reforçando tal prática;
  • O relatório também sugere que as empresas de IA passem a usar ferramentas com capacidade de comprimir os resultados fornecidos pelos chatbots;
  • Esse tipo de recurso diminui o tempo de processamento e não compromete a qualidade dos resultados.

“A responsabilidade por uma IA energeticamente eficiente não deveria recair apenas sobre os usuários. Porém, se isso for adotado em escala, o pedido de respostas mais curtas poderia levar a economias energéticas significativas, mesmo sem mudanças estruturais”, explicou a especialista da UNESCO, Leona Verdadero.

Cabe ressaltar que os cálculos feitos durante a pesquisa levam em consideração somente o momento em que acontece a interação entre o usuário e a plataforma. O treinamento dos modelos de linguagem consome outros milhares de GWh de energia.

Usar prompts mais curtos diminui a exigência de processamento das IAs. (Imagem: Getty Images)

Modelos menores gastam menos

Ainda de acordo com o estudo, os modelos de linguagem menores, para tarefas específicas, podem ser ainda mais eficazes na redução da demanda de energia. Dependendo do uso, eles igualam o desempenho de modelos de grande porte consumindo muito menos eletricidade.

Em certos casos, os modelos pequenos chegam a consumir 10% dos gastos gerados por plataformas como ChatGPT, Gemini e Claude, segundo Verdadero. No estudo, as versões menores mostraram performance semelhante à das grandes IAs em tarefas como resumos e tradução.

Além do gasto energético reduzido, eles surgem como alternativa para países que não possuem investimentos avançados em poder computacional e têm conectividade limitada. Apostando neles, nações na África e na América Latina podem desenvolver suas próprias ferramentas de IA acessíveis, conforme a autora principal da pesquisa.

Com o consumo de eletricidade dobrando a cada 100 dias por causa da inteligência artificial, segundo dados da Agência Internacional de Energia (IEA), a UNESCO ressaltou a urgência de debater o tema globalmente.

Você costuma usar prompts maiores ao interagir com o ChatGPT e as demais IAs ou já segue as orientações do estudo, solicitando respostas curtas? Comente nas redes sociais do TecMundo.

Related posts

OpenAI adquire empresa para fortalecer segurança de agentes de IA

Andrea Ghez, a mulher que enxergou o invisível aos olhos

Nvidia: Elon Musk aumenta participação na empresa com um milhão de ações