El diseño de algoritmo y el descubrimiento científico a menudo exigen un ciclo meticuloso de exploración, pruebas de hipótesis, refinamiento y validación. Tradicionalmente, estos procesos dependen en gran medida de la intuición de expertos y la iteración manual, particularmente para problemas enraizados en la combinatoria, la optimización y la construcción matemática. Si bien los modelos de idiomas grandes (LLM) han demostrado recientemente una promesa para acelerar la generación de códigos y la resolución de problemas, su capacidad para generar autónomos de manera autónoma algoritmos correctos y computacionalmente superiores sigue siendo limitada, especialmente cuando las soluciones deben generalizarse a través de diversos casos de uso o ofrecer un rendimiento de grado de producción.
Google Deepmind presenta alphaevolve
Para abordar estas limitaciones, Google Deepmind ha presentado Alphaevolveun agente de codificación de próxima generación impulsado por Gemini 2.0 LLMS. Alphaevolve está diseñado para automatizar el proceso de descubrimiento de algoritmos utilizando una nueva fusión de modelos de lenguaje a gran escala, evaluación automatizada del programa y cálculo evolutivo. A diferencia de los asistentes de código convencionales, AlphaEvolve reescribe y mejora autónomos y mejora el código algorítmico al aprender de un ciclo de retroalimentación estructurado, proponiendo, evaluando y evolucionando de forma automática con nuevas soluciones candidatas a lo largo del tiempo.
Alphaevolve orquesta una tubería donde las LLM generan mutaciones del programa informadas por soluciones de alto rendimiento anteriores, mientras que los evaluadores automatizados asignan puntajes de rendimiento. Estos puntajes impulsan un proceso de refinamiento continuo. Alphaevolve se basa en sistemas anteriores como FunSearch pero extiende su alcance dramáticamente: manejar las bases de código completas en varios idiomas y optimizar para múltiples objetivos simultáneamente.
Arquitectura del sistema y ventajas técnicas
La arquitectura de Alphaevolve combina múltiples componentes en un sistema asincrónico y distribuido:
- Rápida construcción: Una muestra ensambla indicaciones utilizando soluciones de alta puntuación anteriores, contexto matemático o estructura de código.
- LLM Ensemble: Un híbrido de Gemini 2.0 Pro y Gemini 2.0 Flash permite un equilibrio entre la visión de alta calidad y la exploración de ideas rápidas.
- Marco de evaluación: Las funciones de puntuación personalizadas se utilizan para evaluar sistemáticamente el rendimiento algorítmico basado en métricas predefinidas, permitiendo una comparación transparente y escalable.
- Bucle evolutivo: Alphaevolve mantiene una base de datos de programas anteriores y datos de rendimiento, que utiliza para informar nuevas generaciones de código, equilibrando la exploración y la explotación.
Una fuerza técnica clave radica en la flexibilidad de Alphaevolve. Puede evolucionar programas completos, admitir la optimización de objetivos múltiples y adaptarse a diferentes abstracciones de problemas, ya sea funciones de constructor en evolución, heurísticas de búsqueda o tuberías de optimización completa. Esta capacidad es particularmente útil para problemas en los que el progreso es medible en máquina, como la multiplicación de matriz o la programación del centro de datos.
Resultados y aplicaciones del mundo real
Alphaevolve ha demostrado un rendimiento robusto en los dominios teóricos y aplicados:
- Multiplicación matriz: Alphaevolve descubrió 14 nuevos algoritmos de bajo rango para la multiplicación de matriz. En particular, encontró un método para multiplicar las matrices complejas 4 × 4 usando 48 multiplicaciones escalares, superando el larga multiplicación de 49 multiplicación establecido por el algoritmo de Strassen en 1969.
- Descubrimiento matemático: Aplicado a más de 50 problemas matemáticos, incluida el problema de superposición mínima de ERD y el problema del número de besos en 11 dimensiones, alhaevole coincidió con las construcciones de vanguardia existentes en ~ 75% de los casos y los superó en ~ 20%, todo mientras requiere una marca mínima de expertos.
- Optimización de infraestructura en Google:
- Programación del centro de datos: Alphaevolve generó una heurística de programación que mejoró la eficiencia de los recursos en la flota de cómputo global de Google, recuperando el 0.7% de la capacidad de cómputo varado, equivalente a cientos de miles de máquinas.
- Ingeniería del núcleo para Géminis: La heurística optimizada de mosaico arrojó una aceleración del 23% para los núcleos de multiplicación de matriz, reduciendo el tiempo general de entrenamiento de Géminis en un 1%.
- Diseño de hardware: Alphaevolve Optimizaciones de nivel de verilog propuestas a los circuitos aritméticos de TPU, contribuyendo a las reducciones de área y potencia sin comprometer la corrección.
- Optimización de nivel de compilador: Al modificar las representaciones intermedias XLA generadas por el compilador para los núcleos de atención, Alphaevolve ofreció una mejora del rendimiento del 32% en la ejecución de flashatents.
Estos resultados subrayan la generalidad e impacto de Alphaevolve, descubriendo con éxito algoritmos novedosos y desplegándolos en entornos de grado de producción.
Conclusión
Alphaevolve representa un salto significativo hacia adelante en el descubrimiento científico y algorítmico asistido por AI-AI. Al integrar las LLM con Gemini con búsqueda evolutiva y evaluación automatizada, Alphaevolve trasciende las limitaciones de los sistemas anteriores, ofreciendo un motor escalable y de uso general capaz de descubrir algoritmos de alto rendimiento y verificablemente correctos en los diversos dominios.
Su implementación dentro de la infraestructura de Google, y su capacidad para mejorar tanto los límites teóricos como los sistemas del mundo real, sugiere un futuro en el que los agentes de IA no simplemente ayudan en el desarrollo de software, sino que contribuyen activamente al avance científico y la optimización del sistema.
Mira el Papel y Lanzamiento oficial. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.