Ae1cfa10 Bb53 41cf 9d9f713da1ba26b4.jpg

Cada interacción en línea depende de una estructura de información almacenada en servidores remotos, y esas máquinas, apiladas en centros de datos de todo el mundo, requieren mucha energía. En todo el mundo, los centros de datos representan actualmente aproximadamente Del 1 al 1,5 por ciento del consumo mundial de electricidad., según la Agencia Internacional de Energía. Y el auge aún explosivo de la inteligencia artificial en el mundo podría aumentar mucho ese número, y rápidamente.

Los investigadores han estado dando la alarma general sobre Los elevados requisitos energéticos de la IA durante los últimos meses. Pero un análisis revisado por pares publicado esta semana en Joule es uno de los primeros en cuantificar la demanda que se está materializando rápidamente. Una continuación de las tendencias actuales en capacidad y adopción de IA conducirá a que NVIDIA envíe 1,5 millones de unidades de servidores de IA por año para 2027. Estos 1,5 millones de servidores, funcionando a plena capacidad, consumir al menos 85,4 teravatios-hora de electricidad al año—más de lo que muchos países pequeños utilizan en un año, según la nueva evaluación.

El análisis fue realizado por Alex de Vries, científico de datos del banco central de los Países Bajos y Ph.D. Candidato en la Universidad Vrije de Ámsterdam, donde estudia los costos energéticos de las tecnologías emergentes. Anteriormente, De Vries ganó prominencia por hacer sonar la alarma sobre la enormes costos energéticos de las criptomonedas minería y transacciones. Ahora ha centrado su atención en la última moda tecnológica. Científico americano Habló con él sobre el impactante apetito de la IA por la electricidad.

[An edited and condensed transcript of the interview follows.]

¿Por qué crees que es importante examinar el consumo de energía de la inteligencia artificial?

Porque la IA consume mucha energía. Puse un ejemplo de esto en mi artículo de investigación: destaqué que si convirtieras completamente el motor de búsqueda de Google en algo como ChatGPT, y todos lo usaran de esa manera, tendrías nueve mil millones de interacciones de chatbot en lugar de nueve mil millones de búsquedas regulares por día—entonces el uso de energía de Google se dispararía. Google necesitaría tanta potencia como Irlanda sólo para ejecutar su motor de búsqueda.

Ahora bien, no va a suceder así porque Google también tendría que invertir 100 mil millones de dólares en hardware para hacerlo posible. e incluso si [the company] Si tenía dinero para invertir, la cadena de suministro no podía entregar todos esos servidores de inmediato. Pero sigo pensando que es útil ilustrar eso si vas a utilizar IA generativa en aplicaciones. [such as a search engine]que tiene el potencial de hacer que cada interacción en línea requiera muchos más recursos.

Creo que es saludable incluir al menos la sostenibilidad cuando hablamos del riesgo de la IA. Cuando hablamos del riesgo potencial de errores, las incógnitas de la caja negra o el sesgo de discriminación de la IA, deberíamos incluir también la sostenibilidad como factor de riesgo. Espero que mi artículo al menos fomente el proceso de pensamiento en esa dirección. Si vamos a utilizar IA, ¿ayudará? ¿Podemos hacerlo de forma responsable? ¿Realmente necesitamos utilizar esta tecnología en primer lugar? ¿Qué es lo que un usuario final quiere y necesita y cuál es la mejor manera de ayudarlo? Si la IA es parte de esa solución, está bien, adelante. Pero si no es así, no lo pongas.

¿Qué partes de los procesos de la IA utilizan toda esa energía?

Generalmente hay dos grandes fases cuando se trata de IA. Una es una fase de entrenamiento, que es donde se configura y se logra que el modelo enseñe a sí mismo cómo comportarse. Y luego tienes una fase de inferencia, en la que simplemente pones el modelo en una operación en vivo y comienzas a alimentarlo con indicaciones para que pueda producir respuestas originales. Ambas fases consumen mucha energía y no sabemos realmente cuál es la proporción de energía. Históricamente, con Google, el equilibrio era 60 por ciento de inferencia y 40 por ciento de capacitación. Pero luego con ChatGPT eso se rompió, porque entrenar ChatGPT requirió comparativamente muy poco consumo de energía, en comparación con la aplicación del modelo.

Depende de muchos factores, como la cantidad de datos que se incluyen en estos modelos. Quiero decir, estos grandes modelos de lenguaje que impulsan ChatGPT son conocidos por utilizar enormes conjuntos de datos y tener miles de millones de parámetros. Y, por supuesto, hacer que estos modelos sean más grandes es un factor que contribuye a que simplemente necesiten más potencia, pero también es la forma en que las empresas hacen que sus modelos sean más robustos.

¿Cuáles son algunas de las otras variables a considerar al pensar en el uso de energía de la IA?

La refrigeración no está incluida en mi artículo, pero si hubiera algún dato para continuar, lo habría sido. Una gran incógnita es dónde terminarán esos servidores. Eso es muy importante, porque si están en Google, entonces el uso adicional de energía de refrigeración estará en el rango de un aumento del 10 por ciento. Pero los centros de datos globales, en promedio, agregarán un 50 por ciento al costo de energía sólo para mantener las máquinas frías. Hay centros de datos que funcionan incluso peor que eso.

El tipo de hardware que estás utilizando también importa. Los servidores más recientes son más eficientes que los más antiguos. También importa para qué vas a utilizar la tecnología de IA. Cuanto más complicada es una solicitud y cuanto más tiempo trabajan los servidores para cumplirla, más energía se consume.

En su evaluación, describe algunos escenarios diferentes de uso de energía, del peor al mejor de los casos. ¿Cuál es el más probable?

En el peor de los casos, si decidimos que vamos a hacer todo con IA, entonces cada centro de datos experimentará efectivamente un aumento de 10 veces en el consumo de energía. Eso sería una explosión masiva en el consumo mundial de electricidad porque los centros de datos, sin incluir la minería de criptomonedas, ya son responsables de consumir alrededor del 1 por ciento de la electricidad mundial. Ahora bien, eso no va a suceder; eso no es nada realista. Es un ejemplo útil para ilustrar que la IA consume mucha energía.

En el extremo opuesto, tenemos la idea de que no hay crecimiento: cero. Hay gente que dice que el crecimiento de la demanda se verá completamente compensado por la mejora de la eficiencia, pero esa es una visión muy optimista que no incluye lo que entendemos sobre la demanda y la eficiencia. Cada vez que una nueva tecnología importante hace que un proceso sea más eficiente, en realidad genera que más personas exijan lo que se está produciendo. La eficiencia aumenta la demanda, por lo que, al final, aumentar la eficiencia no significa realmente ahorrar energía.

¿Cuál creo que es el camino más probable a seguir? Creo que la respuesta es que habrá un crecimiento en el consumo de electricidad relacionado con la IA. Al menos inicialmente, será algo lento. Pero existe la posibilidad de que se acelere en un par de años a medida que aumente la producción de servidores. Saber esto nos da algo de tiempo para pensar en lo que estamos haciendo.

¿Qué investigaciones adicionales u otros pasos podrían ser necesarios?

Necesitamos una mayor calidad de datos. Necesitamos saber adónde van estos servidores. Necesitamos conocer la fuente de la energía misma. Las emisiones de carbono son las cifras reales que nos importan cuando se trata de impacto ambiental. La demanda de energía es una cosa, pero ¿proviene de energías renovables? ¿Proviene de combustibles fósiles?

Tal vez los reguladores deberían comenzar a exigir que los desarrolladores de IA divulguen el uso de energía porque hay muy poca información para continuar. Fue realmente difícil hacer este análisis: cualquiera que intente trabajar en IA en este momento se enfrenta a los mismos desafíos, donde la información es limitada. Creo que ayudaría si hubiera más transparencia. Y si esa transparencia no es algo natural, cosa que no ha ocurrido hasta ahora, entonces deberíamos pensar en darle un pequeño empujón.