Por qué los chips de IA personalizados de Google están revolucionando la industria tecnológica

Ironwood es la última unidad de procesamiento de tensores de Google

La posición de Nvidia como proveedor dominante de chips de IA puede verse amenazada por un chip especializado del que Google fue pionero, con informes que sugieren que empresas como Meta y Anthropic están buscando gastar miles de millones en las unidades de procesamiento tensorial de Google.

¿Qué es una TPU?

El éxito de la industria de la inteligencia artificial se ha basado en gran parte en las unidades de procesamiento gráfico (GPU), un tipo de chip de computadora que puede realizar muchos cálculos paralelos al mismo tiempo, en lugar de uno tras otro, como las unidades de procesamiento de computadora (CPU) que alimentan la mayoría de las computadoras.

Las GPU se desarrollaron originalmente para ayudar con los gráficos por computadora, como su nombre indica, y los juegos. “Si tengo muchos píxeles en un espacio y necesito rotarlos para calcular una nueva vista de la cámara, esta es una operación que se puede realizar en paralelo, para muchos píxeles diferentes”, dice Francesco Conti de la Universidad de Bolonia en Italia.

Esta capacidad de realizar cálculos en paralelo resultó útil para entrenar y ejecutar modelos de IA, que a menudo utilizan cálculos que involucran grandes cuadrículas de números realizados al mismo tiempo, lo que se denomina multiplicación de matrices. “Las GPU tienen una arquitectura muy general, pero son extremadamente adecuadas para aplicaciones que muestran un alto grado de paralelismo”, afirma Conti.

Sin embargo, debido a que no fueron diseñados originalmente teniendo en cuenta la IA, puede haber ineficiencias en la forma en que las GPU traducen los cálculos que se realizan en los chips. Las unidades de procesamiento tensorial (TPU), que fueron desarrolladas originalmente por Google en 2016, están diseñadas únicamente en torno a la multiplicación de matrices, dice Conti, que son los principales cálculos necesarios para entrenar y ejecutar grandes modelos de IA.

Este año, Google lanzó la séptima generación de su TPU, llamada Ironwood, que impulsa muchos de los modelos de inteligencia artificial de la compañía, como Gemini y AlphaFold, que modela proteínas.

¿Son las TPU mucho mejores que las GPU para la IA?

Tecnológicamente, los TPU son más un subconjunto de GPU que un chip completamente diferente, dice Simon McIntosh-Smith de la Universidad de Bristol, Reino Unido. “Se centran en los bits que hacen las GPU, más específicamente destinados al entrenamiento y la inferencia para la IA, pero en realidad son, en algunos aspectos, más similares a las GPU de lo que se podría pensar”. Pero debido a que las TPU están diseñadas teniendo en cuenta ciertas aplicaciones de IA, pueden ser mucho más eficientes para estos trabajos y ahorrar potencialmente decenas o cientos de millones de dólares, afirma.

Sin embargo, esta especialización también tiene sus desventajas y puede hacer que las TPU sean inflexibles si los modelos de IA cambian significativamente entre generaciones, afirma Conti. “Si no tienes la flexibilidad en tu [TPU]tienes que hacer [calculations] en la CPU de su nodo en el centro de datos, y esto lo ralentizará enormemente”, dice Conti.

Una ventaja que tradicionalmente han tenido las GPU de Nvidia es que existe un software simple disponible que puede ayudar a los diseñadores de inteligencia artificial a ejecutar su código en chips de Nvidia. Esto no existía de la misma manera para los TPU cuando aparecieron por primera vez, pero los chips ahora están en una etapa en la que son más sencillos de usar, dice Conti. “Con la TPU ahora puedes hacer lo mismo [as GPUs]”, dice. “Ahora que lo ha habilitado, está claro que la disponibilidad se convierte en un factor importante”.

¿Quién construye las TPU?

Aunque Google lanzó por primera vez la TPU, muchas de las empresas de IA más grandes (conocidas como hiperescaladoras), así como pequeñas empresas emergentes, ahora han comenzado a desarrollar sus propias TPU especializadas, incluida Amazon, que utiliza sus propios chips Trainium para entrenar sus modelos de IA.

“La mayoría de los hiperescaladores tienen sus propios programas internos, y eso se debe en parte a que las GPU se volvieron muy caras porque la demanda superaba a la oferta, y podría ser más barato diseñar y construir una propia”, dice McIntosh-Smith.

¿Cómo afectarán las TPU a la industria de la IA?

Google ha estado desarrollando sus TPU durante más de una década, pero ha utilizado principalmente estos chips para sus propios modelos de IA. Lo que parece estar cambiando ahora es que otras grandes empresas, como Meta y Anthropic, están comprando cantidades importantes de potencia informática de las TPU de Google. “Lo que no hemos oído hablar es de que los grandes clientes están cambiando, y tal vez eso es lo que está empezando a suceder ahora”, dice McIntosh-Smith. “Han madurado lo suficiente y hay suficientes”.

Además de crear más opciones para las grandes empresas, podría tener sentido financiero para ellas diversificarse, afirma. “Incluso podría ser que eso signifique que Nvidia obtendrá un mejor trato en el futuro”, dice.

Temas: