Un nuevo y notable sistema de inteligencia artificial llamado AlfaGeometría Recientemente resolvió problemas matemáticos difíciles de nivel de escuela secundaria que desconciertan a la mayoría de los humanos. Al combinar redes neuronales de aprendizaje profundo con razonamiento simbólico lógico, AlphaGeometry traza una dirección interesante para desarrollar un pensamiento más humano.
La innovación clave que subyace a AlphaGeometry es su arquitectura “neurosimbólica” que integra componentes de aprendizaje neuronal y motores de deducción simbólica formal. Como explican los investigadores de DeepMind, las tareas de demostración de teoremas, como los problemas de construcción de geometría, requieren tanto (i) razonamiento creativo neuronal flexible para inferir relaciones implícitas e introducir nuevos pasos, y (ii) deducción lógicamente rigurosa basada en reglas para construir de manera confiable cadenas de inferencias sólidas.
Ni las redes neuronales puras ni la IA simbólica pura pueden por sí solas resolver desafíos tan multifacéticos. Pero juntos logran sinergias impresionantes que no serían posibles con ninguno de los dos paradigmas por separado.
El desafío de la demostración de teoremas matemáticos
La demostración de teoremas se considera una prueba definitiva de la capacidad de razonamiento lógico. Tareas como la construcción de geometría implican desafíos multifacéticos:
- Reconocimiento de patrones flexible para descubrir relaciones geométricas implícitas
- Saltos creativos para introducir construcciones auxiliares y ampliar el espacio de búsqueda de pruebas.
- Cadenas de inferencia lógicamente sólidas que se adhieren a reglas de deducción formales
Tanto el razonamiento basado en reglas como el aprendizaje basado en datos tienen limitaciones a la hora de abordar estas diversas facetas simultáneamente:
Motores simbólicos puros Carecen de versatilidad en el reconocimiento de patrones y la sugerencia especulativa de pasos de prueba. Pero permiten:
- Cadenas de razonamiento interpretables y verificables.
- Deducción confiable basada en reglas basada en el rigor matemático
Redes neuronales puras exhiben déficits en solidez lógica y transparencia. Pero aportan fortalezas en:
- Aprender estrategias complejas a partir de ejemplos de datos
- Reconocer relaciones intrincadas ocultas en diagramas geométricos.
- Razonamiento especulativo flexible para formular hipótesis sobre posibles direcciones de prueba.
La solución neurosimbólica
Integrando el aprendizaje neuronal con motores de lógica simbólica, como lo demuestra AlphaGeometry…