Google AI lanza TensorFlow GNN 1.0 (TF-GNN): una biblioteca probada en producción para crear GNN a escala

Las redes neuronales de gráficos (GNN) son métodos de aprendizaje profundo que operan en gráficos y se utilizan para realizar inferencias sobre los datos descritos por gráficos. Los gráficos se han utilizado en matemáticas e informática durante mucho tiempo y brindan soluciones a problemas complejos formando una red de nodos conectados por aristas de diversas formas irregulares. Los algoritmos de ML tradicionales solo permiten relaciones regulares y uniformes entre los objetos de entrada, tienen dificultades para manejar relaciones complejas y no comprenden los objetos y sus conexiones, lo cual es crucial para muchos datos del mundo real.

Los investigadores de Google agregaron una nueva biblioteca en TensorFlow, llamada TensorFlow GNN 1.0 (TF-GNN)) diseñado para construir y entrenar redes neuronales gráficas (GNN) a escala dentro del ecosistema TensorFlow. Esta biblioteca GNN es capaz de procesar la estructura y las características de gráficos, lo que permite predicciones sobre nodos individuales, gráficos completos o bordes potenciales.

En TF-GNN, los gráficos se representan como GraphTensor, una colección de tensores bajo una clase que consta de todas las características de los gráficos: nodos, propiedades de cada nodo, aristas y pesos o relaciones entre nodos. La biblioteca admite gráficos heterogéneos, que representan con precisión escenarios del mundo real donde los objetos y sus relaciones son de distintos tipos. En el caso de conjuntos de datos grandes, el gráfico formado tiene una gran cantidad de nodos y conexiones complejas. Para entrenar estas redes de manera eficiente, TF-GNN utiliza la técnica de muestreo de subgrafos en la que una pequeña parte de los gráficos se entrena con suficientes datos originales para calcular el resultado de GNN para el nodo etiquetado en su centro y entrenar el modelo.

La arquitectura central de GNN se basa en redes neuronales de paso de mensajes. En cada ronda, los nodos reciben y procesan mensajes de sus vecinos, refinando iterativamente sus estados ocultos para reflejar la información agregada dentro de sus vecindarios. TF-GNN admite la capacitación de GNN tanto de manera supervisada como no supervisada. El entrenamiento supervisado minimiza una función de pérdida basada en ejemplos etiquetados, mientras que el entrenamiento no supervisado genera representaciones continuas (incrustaciones) de la estructura gráfica para su utilización en otros sistemas de aprendizaje automático.

TensorFlow GNN 1.0 aborda la necesidad de una solución sólida y escalable para crear y entrenar GNN. Sus puntos fuertes clave residen en su capacidad para manejar gráficos heterogéneos, muestreo de subgrafos eficiente, construcción de modelos flexible y soporte para capacitación supervisada y no supervisada. Al integrarse perfectamente con el ecosistema de TensorFlow, TF-GNN permite a los investigadores y desarrolladores aprovechar el poder de los GNN para diversas tareas que implican análisis y predicción de redes complejas.


Pragati Jhunjhunwala es pasante de consultoría en MarktechPost. Actualmente está cursando su B.Tech en el Instituto Indio de Tecnología (IIT), Kharagpur. Es una entusiasta de la tecnología y tiene un gran interés en el alcance del software y las aplicaciones de ciencia de datos. Siempre está leyendo sobre los avances en diferentes campos de la IA y el ML.