Existe una forma sencilla de reducir drásticamente el uso de energía de la IA

Las IA dependen de centros de datos que utilizan grandes cantidades de energía

Jason Alden/Bloomberg/Getty

Ser más prudentes en los modelos de IA que utilizamos para las tareas podría ahorrar potencialmente 31,9 teravatios-hora de energía solo este año, lo que equivale a la producción de cinco reactores nucleares.

Tiago da Silva Barros de la Universidad de la Costa Azul en Francia y sus colegas analizaron 14 tareas diferentes para las que las personas utilizan herramientas de IA generativa, que van desde la generación de texto hasta el reconocimiento de voz y la clasificación de imágenes.

Luego examinaron las tablas de clasificación públicas, incluidas las alojadas en el centro de aprendizaje automático Hugging Face, para comprobar el rendimiento de los diferentes modelos. La eficiencia energética de los modelos durante la inferencia (cuando un modelo de IA produce una respuesta) se midió mediante una herramienta llamada CarbonTracker, y el uso total de energía de ese modelo se calculó mediante el seguimiento de las descargas de los usuarios.

“Basándonos en el tamaño del modelo, estimamos el consumo de energía y, en base a esto, podemos intentar hacer nuestras estimaciones”, dice da Silva Barros.

Los investigadores descubrieron que, en las 14 tareas, cambiar de los modelos de mejor rendimiento a los de mayor eficiencia energética para cada tarea reducía el uso de energía en un 65,8 por ciento, mientras que sólo hacía que la producción fuera un 3,9 por ciento menos útil, una compensación que, según sugieren, podría ser aceptable para el público.

Debido a que algunas personas ya usan los modelos más económicos, si la gente en el mundo real cambiara de modelos de alto rendimiento al modelo más eficiente energéticamente, podrían lograr una reducción del 27,8 por ciento en el consumo de energía en general. “Nos sorprendió lo mucho que se puede ahorrar”, dice el miembro del equipo Frédéric Giroire del Centro Nacional Francés de Investigación Científica.

Sin embargo, eso requeriría cambios tanto por parte de los usuarios como de las empresas de IA, afirma da Silva Barros. “Tenemos que pensar en utilizar modelos pequeños, incluso si perdemos parte del rendimiento”, afirma. “Y las empresas, cuando desarrollan modelos, es importante que compartan cierta información sobre el modelo que permita a los usuarios comprender y evaluar si el modelo consume mucha energía o no”.

Algunas empresas de IA están reduciendo el consumo de energía de sus productos mediante un proceso llamado destilación de modelos, donde se utilizan modelos grandes para entrenar modelos más pequeños. Esto ya está teniendo un impacto significativo, afirma Chris Preist de la Universidad de Bristol en el Reino Unido. Por ejemplo, Google afirmó recientemente que la eficiencia energética en Gemini se había multiplicado por 33 durante el año pasado.

Sin embargo, lograr que los usuarios elijan los modelos más eficientes “es poco probable que resulte en limitar el aumento de energía de los centros de datos como sugieren los autores, al menos en la actual burbuja de la IA”. dice Preist. “Reducir la energía por mensaje simplemente permitirá atender a más clientes más rápidamente con opciones de razonamiento más sofisticadas”, afirma.

“El uso de modelos más pequeños definitivamente puede resultar en un menor consumo de energía en el corto plazo, pero hay muchos otros factores que deben considerarse al hacer cualquier tipo de proyección significativa hacia el futuro”, dice Sasha Luccioni de Hugging Face. Advierte que los efectos de rebote, como el mayor uso, “deben tenerse en cuenta, así como los impactos más amplios en la sociedad y la economía”.

Luccioni señala que cualquier investigación en este espacio se basa en estimaciones y análisis externos debido a la falta de transparencia de las empresas individuales. “Lo que necesitamos para hacer este tipo de análisis más complejos es más transparencia por parte de las empresas de inteligencia artificial, los operadores de centros de datos e incluso los gobiernos”, afirma. “Esto permitirá a los investigadores y responsables políticos hacer proyecciones y decisiones informadas”.

Temas: