DeepMind AI obtiene medalla de plata en la Olimpiada Internacional de Matemáticas

La inteligencia artificial AlphaProof de DeepMind puede abordar una variedad de problemas matemáticos

Google DeepMind

Una inteligencia artificial de Google DeepMind ha conseguido una medalla de plata en la Olimpiada Internacional de Matemáticas (OIM) de este año, la primera vez que una IA llega al podio.

La OMI se considera la competición más prestigiosa del mundo para jóvenes matemáticos. Responder correctamente a sus preguntas de prueba requiere una capacidad matemática de la que normalmente carecen los sistemas de IA.

En enero, Google DeepMind Se demostró AlphaGeometryun sistema de IA que podía responder algunas preguntas de geometría de la OMI tan bien como los humanos. Sin embargo, no se trataba de una competencia en vivo y no podía responder preguntas de otras disciplinas matemáticas, como teoría de números, álgebra y combinatoria, que son necesarias para ganar una medalla de la OMI.

Google DeepMind ha lanzado una nueva IA, llamada AlphaProof, que puede resolver una gama más amplia de problemas matemáticos, y una versión mejorada de AlphaGeometry, que puede resolver más preguntas de geometría.

Cuando el equipo probó ambos sistemas juntos en las preguntas de la OMI de este año, respondieron correctamente cuatro de seis preguntas, lo que les dio una puntuación de 28 de los 42 puntos posibles. Esto fue suficiente para ganar una medalla de plata y solo un punto por debajo del umbral de la medalla de oro de este año.

En el concurso celebrado en Bath, Reino Unido, la semana pasada, 58 participantes ganaron una medalla de oro y 123 ganaron una medalla de plata.

“Todos somos muy conscientes de que la IA acabará siendo mejor que los humanos a la hora de resolver la mayoría de los problemas matemáticos, pero el ritmo al que está mejorando es impresionante”, afirma Gregorio Dolinarel presidente de la OMI. “Perder la medalla de oro en la OMI 2024 por solo un punto hace unos días es realmente impresionante”.

En una conferencia de prensa, Timoteo Gowers Gowers, de la Universidad de Cambridge, que ayudó a calificar las respuestas de AlphaProof, dijo que el desempeño de la IA fue sorprendente y que pareció encontrar “claves mágicas” para responder a los problemas de manera similar a los humanos. “Pensé que estas claves mágicas probablemente estarían un poco más allá de lo que podía hacer, por lo que fue una gran sorpresa en uno o dos casos en que el programa efectivamente las encontró”, dijo Gowers.

AlphaProof funciona de manera similar a las IA anteriores de Google DeepMind que pueden Derrotar a los mejores humanos en ajedrez y IrTodas estas IA se basan en un método de ensayo y error denominado aprendizaje por refuerzo, en el que el sistema encuentra su propia manera de resolver un problema tras muchos intentos. Sin embargo, este método requiere un gran conjunto de problemas escritos en un lenguaje que la IA pueda comprender y verificar, mientras que la mayoría de los problemas similares a los de la OMI están escritos en inglés.

Para evitar esto, Thomas Hubert En DeepMind y sus colegas utilizaron Gemini AI de Google, un modelo de lenguaje como el que impulsa ChatGPT, para traducir estos problemas a un lenguaje de programación llamado Lean para que la IA pudiera aprender a resolverlos.

“Al principio, podrá resolver los problemas más simples y aprender de la solución de esos problemas más simples para abordar problemas cada vez más difíciles”, dijo Hubert en la conferencia de prensa. Además, produce sus respuestas en Lean, por lo que se puede verificar instantáneamente que son correctas.

Si bien el desempeño de AlphaProof es impresionante, funciona lentamente, y tarda hasta tres días en encontrar algunas soluciones en lugar de las 4,5 horas por cada tres preguntas que se les permite a los competidores. Tampoco logró responder las dos preguntas sobre combinatoria, que es el estudio de contar y ordenar números. “Aún estamos trabajando para entender por qué sucede esto, lo que esperamos nos lleve a mejorar el sistema”, dice Alex Davies en Google DeepMind.

Tampoco está claro cómo AlphaProof llega a sus respuestas o si utiliza el mismo tipo de intuiciones matemáticas que los humanos, dijo Gowers, pero su capacidad para traducir pruebas de Lean al inglés hace que sea fácil comprobar que sean correctas.

El resultado es impresionante y un hito significativo, dice Geordie Williamson en la Universidad de Sydney, Australia. “Ha habido muchos intentos previos de aplicar aprendizaje de refuerzo a pruebas formales y ninguno ha tenido mucho éxito”.

Si bien un sistema como AlphaProof podría ser útil para los matemáticos en activo para ayudarlos a desarrollar pruebas, obviamente no puede ayudar a identificar problemas para resolver y trabajar en ellos, lo que ocupa una gran parte del tiempo de los investigadores, dice Yang-Hui Él en el Instituto de Ciencias Matemáticas de Londres.

Hubert dijo que su equipo espera que AlphaProof pueda ayudar a mejorar los grandes modelos de lenguaje de Google, como Gemini, al reducir las respuestas incorrectas.

La empresa comercial XTX Markets ha ofrecido un premio de 5 millones de dólares (llamado Olimpiada Matemática de IA) para una IA capaz de conseguir una medalla de oro en la OMI, pero AlphaProof no es elegible porque no está disponible públicamente. “Esperamos que los avances de DeepMind inspiren a más equipos a participar en el Premio AIMO y, por supuesto, agradeceríamos una participación pública de la propia DeepMind”, afirma Alex Gerko de XTX Markets.

Temas: