8pzkgooudbtamqh9keu Q7o0ex5xxggiik3bkqnavev6wdzikfadsbnphu0qcg5purfgnaosoclrm9dqhigvoee9mplua5uhyfcun3fvnmbfpi63mwkw1200 H630 N Nu.jpeg

Investigación

Publicado

Desarrollar agentes de IA de próxima generación, explorar nuevas modalidades y ser pioneros en el aprendizaje fundamental.

La próxima semana, investigadores de IA de todo el mundo convergerán en la 12.ª Conferencia Internacional sobre Representaciones del Aprendizaje (ICLR), que tendrá lugar del 7 al 11 de mayo en Viena, Austria.

Raia Hadsell, vicepresidenta de investigación de Google DeepMind, pronunciará un discurso de apertura en el que reflexionará sobre los últimos 20 años en este campo y destacará cómo las lecciones aprendidas están dando forma al futuro de la IA en beneficio de la humanidad.

También ofreceremos demostraciones en vivo que mostrarán cómo hacemos realidad nuestra investigación fundamental, desde el desarrollo de Transformadores de robótica a la creación de kits de herramientas y modelos de código abierto como Gema.

Equipos de todo Google DeepMind presentarán más de 70 artículos este año. Algunas investigaciones destacadas:

Agentes de resolución de problemas y enfoques inspirados en el ser humano

Los modelos de lenguajes grandes (LLM) ya están revolucionando las herramientas avanzadas de IA, pero todo su potencial sigue sin explotar. Por ejemplo, los agentes de IA basados ​​en LLM capaces de tomar acciones efectivas podrían transformar a los asistentes digitales en herramientas de IA más útiles e intuitivas.

Los asistentes de IA que siguen instrucciones en lenguaje natural para llevar a cabo tareas basadas en la web en nombre de las personas supondrían un gran ahorro de tiempo. En una presentación oral presentamos Agente webun agente impulsado por un LLM que aprende de la propia experiencia para navegar y gestionar tareas complejas en sitios web del mundo real.

Para mejorar aún más la utilidad general de los LLM, nos centramos en mejorar sus habilidades para resolver problemas. Demostramos cómo logramos esto al equipar un sistema basado en LLM con un enfoque tradicionalmente humano: producir y utilizar “herramientas”. Por separado, presentamos una técnica de entrenamiento que garantiza que los modelos de lenguaje produzcan de manera más consistente. resultados socialmente aceptables. Nuestro enfoque utiliza un espacio de ensayo tipo sandbox que representa el valores de la sociedad.

Superando los límites en visión y codificación

Nuestro modelo Dynamic Scene Transformer (DyST) aprovecha videos de una sola cámara del mundo real para extraer representaciones 3D de objetos en la escena y sus movimientos.

Hasta hace poco, los grandes modelos de IA se centraban principalmente en texto e imágenes, sentando las bases para el reconocimiento de patrones y la interpretación de datos a gran escala. Ahora, el campo está progresando más allá de estos ámbitos estáticos para abrazar la dinámica de los entornos visuales del mundo real. A medida que la informática avanza en todos los ámbitos, es cada vez más importante que su código subyacente se genere y optimice con la máxima eficiencia.

Cuando miras un vídeo en una pantalla plana, captas intuitivamente la naturaleza tridimensional de la escena. Las máquinas, sin embargo, luchan por emular esta capacidad sin una supervisión explícita. Mostramos nuestro Transformador de escena dinámica (DyST), que aprovecha vídeos de una sola cámara del mundo real para extraer representaciones 3D de objetos en la escena y sus movimientos. Además, DyST también permite generar versiones novedosas del mismo vídeo, con control del usuario sobre los ángulos de la cámara y el contenido.

La emulación de estrategias cognitivas humanas también contribuye a mejorar los generadores de códigos de IA. Cuando los programadores escriben código complejo, normalmente «descomponen» la tarea en subtareas más simples. Con ExeDecpresentamos un novedoso enfoque de generación de código que aprovecha un enfoque de descomposición para elevar el rendimiento de programación y generalización de los sistemas de IA.

en paralelo papel de foco Exploramos el novedoso uso del aprendizaje automático no solo para generar código, sino también para optimizarlo, introduciendo una conjunto de datos para una evaluación comparativa sólida del rendimiento del código. La optimización del código es un desafío, requiere un razonamiento complejo y nuestro conjunto de datos permite la exploración de una variedad de técnicas de aprendizaje automático. Demostramos que las estrategias de aprendizaje resultantes superan las optimizaciones de código creadas por humanos.

ExeDec presenta un novedoso enfoque de generación de código que aprovecha un enfoque de descomposición para elevar el rendimiento de programación y generalización de los sistemas de IA.

Avanzando en el aprendizaje fundamental

Nuestros equipos de investigación están abordando las grandes cuestiones de la IA, desde explorar la esencia de la cognición de las máquinas hasta comprender cómo se generalizan los modelos avanzados de IA, al mismo tiempo que trabajan para superar desafíos teóricos clave.

Tanto para los humanos como para las máquinas, el razonamiento causal y la capacidad de predecir eventos son conceptos estrechamente relacionados. En una presentación destacada, exploramos cómo El aprendizaje por refuerzo se ve afectado por los objetivos de entrenamiento basados ​​en predicciones.y establecer paralelismos con cambios en la actividad cerebral también relacionados con la predicción.

Cuando los agentes de IA son capaces de generalizar bien a nuevos escenarios, ¿es porque, al igual que los humanos, han aprendido un modelo causal subyacente de su mundo? Esta es una pregunta crítica en la IA avanzada. En una presentación oral, revelamos que tales modelos De hecho, he aprendido un modelo causal aproximado. de los procesos que resultaron en sus datos de entrenamiento, y discutir las profundas implicaciones.

Otra cuestión crítica en la IA es la confianza, que en parte depende de la precisión con la que los modelos pueden estimar la incertidumbre de sus resultados, un factor crucial para una toma de decisiones confiable. hemos hecho Avances significativos en la estimación de la incertidumbre dentro del aprendizaje profundo bayesiano.empleando un método simple y esencialmente gratuito.

Finalmente, exploramos el equilibrio de Nash (NE) de la teoría de juegos: un estado en el que ningún jugador se beneficia al cambiar su estrategia si otros mantienen la suya. Más allá de los simples juegos de dos jugadores, incluso aproximarse a un equilibrio de Nash es computacionalmente intratable, pero en una presentación oral, podemos revelar nuevos enfoques de última generación en la negociación de acuerdos, desde póquer hasta subastas.

Reuniendo a la comunidad de IA

Estamos encantados de patrocinar ICLR y apoyar iniciativas que incluyen Queer en IA y Mujeres en el aprendizaje automático. Estas asociaciones no solo refuerzan las colaboraciones en investigación, sino que también fomentan una comunidad vibrante y diversa en inteligencia artificial y aprendizaje automático.

Si está en ICLR, asegúrese de visitar nuestro stand y a nuestros colegas de Google Research que se encuentran al lado. Descubra nuestra investigación pionera, conozca a nuestros equipos que organizan talleres e interactúe con nuestros expertos que presentarán durante la conferencia. ¡Esperamos conectarnos con usted!