Los algoritmos que sustentan los sistemas de inteligencia artificial como ChatGPT no pueden aprender sobre la marcha, lo que obliga a las empresas tecnológicas a gastar miles de millones de dólares para entrenar nuevos modelos desde cero. Si bien esto ha sido una preocupación en la industria durante algún tiempo, un nuevo estudio sugiere que existe un problema inherente con la forma en que los modelos están diseñados – pero puede haber una manera de solucionarlo.
La mayoría de las IA actuales son las llamadas redes neuronales Inspirados en el funcionamiento del cerebro, los modelos cuentan con unidades de procesamiento conocidas como neuronas artificiales. Normalmente pasan por distintas fases en su desarrollo. En primer lugar, se entrena a la IA, que se perfecciona con un algoritmo para reflejar mejor un conjunto de datos determinado. A continuación, la IA se puede utilizar para responder a nuevos datos, como entradas de texto como las que se introducen en ChatGPT. Sin embargo, una vez que las neuronas del modelo se han configurado en la fase de entrenamiento, no pueden actualizarse ni aprender de los nuevos datos.
Esto significa que la mayoría de los modelos de IA de gran tamaño deben volver a entrenarse si hay nuevos datos disponibles, lo que puede resultar prohibitivamente costoso, especialmente cuando esos nuevos conjuntos de datos consisten en grandes porciones de todo Internet.
Los investigadores se han preguntado si estos modelos pueden incorporar nuevos conocimientos después del entrenamiento inicial, lo que reduciría costes, pero no está claro si son capaces de hacerlo.
Ahora, Shibhansh Dohare En la Universidad de Alberta, en Canadá, un equipo de investigadores ha probado si los modelos de IA más comunes pueden adaptarse para aprender continuamente. El equipo ha descubierto que pierden rápidamente la capacidad de aprender algo nuevo, y un gran número de neuronas artificiales se quedan estancadas en un valor de cero después de ser expuestas a nuevos datos.
“Si lo piensas como si fuera tu cerebro, entonces es como si el 90 por ciento de las neuronas estuvieran muertas”, dice Dohare. “Simplemente no queda suficiente para que aprendas”.
Dohare y su equipo entrenaron primero los sistemas de IA a partir de la base de datos ImageNet, que consta de 14 millones de imágenes etiquetadas de objetos simples, como casas o gatos. Pero en lugar de entrenar la IA una vez y luego probarla intentando distinguir entre dos imágenes varias veces, como es habitual, volvieron a entrenar el modelo después de cada par de imágenes.
Probaron de esta manera una variedad de algoritmos de aprendizaje diferentes y descubrieron que después de un par de miles de ciclos de reentrenamiento, las redes parecían incapaces de aprender y tenían un desempeño deficiente, y muchas neuronas parecían “muertas” o con un valor de cero.
El equipo también entrenó a las IA para simular el aprendizaje de una hormiga a través del aprendizaje por refuerzo, un método común en el que se le enseña a una IA cómo es el éxito y descubre las reglas mediante ensayo y error. Cuando intentaron adaptar esta técnica para permitir el aprendizaje continuo mediante el reentrenamiento del algoritmo después de caminar sobre diferentes superficies, descubrieron que también conduce a una incapacidad significativa para aprender.
Este problema parece inherente a la forma en que estos sistemas aprenden, dice Dohare, pero hay una forma posible de evitarlo. Los investigadores desarrollaron un algoritmo que activa aleatoriamente algunas neuronas después de cada ronda de entrenamiento, y pareció reducir el bajo rendimiento. [neuron] “Si un bebé ha muerto, lo resucitamos”, dice Dohare. “Ahora puede aprender de nuevo”.
El algoritmo parece prometedor, pero será necesario probarlo en sistemas mucho más grandes antes de que podamos estar seguros de que ayudará, dice Mark van der Wilk en la Universidad de Oxford.
“La solución al aprendizaje continuo es una pregunta de mil millones de dólares”, afirma. “Una solución real e integral que permitiera actualizar continuamente un modelo reduciría significativamente el costo de entrenamiento de estos modelos”.
Temas: