Todo el día, todos los días, tomas decisiones. Los filósofos han sostenido durante mucho tiempo que esta capacidad de actuar intencionalmente o con agencia, distingue a los seres humanos de formas de vida y máquinas más simples. Pero la inteligencia artificial pronto podría trascender esa división ahora que las empresas de tecnología están creando “agentes” de IA: sistemas capaces de tomar decisiones y alcanzar objetivos con una mínima supervisión humana.
Ante la presión de mostrar retornos sobre inversiones multimillonarias, los desarrolladores de IA están promoviendo a los agentes como la próxima ola de tecnología de consumo. Los agentes, como los chatbots, aprovechan modelos de lenguaje grandes y se puede acceder a ellos desde teléfonos, tabletas u otros dispositivos personales. Pero a diferencia de los chatbots, que necesitan un apoyo constante para generar texto o imágenes, los agentes pueden interactuar de forma autónoma con aplicaciones externas para realizar tareas en nombre de individuos u organizaciones. OpenAI tiene listado la existencia de agentes como el tercero de cinco pasos para construir inteligencia artificial general (AGI)—IA que puede superar a los humanos en cualquier tarea cognitiva, y la empresa está según se informa Está previsto que libere a un agente con el nombre en código “Operador” en enero. Ese sistema podría ser una temprana caída en medio de un aguacero: el director ejecutivo de Meta, Mark Zuckerberg, ha previsto que los agentes de IA eventualmente superarán en número a los humanos. Mientras tanto, algunos expertos en IA temen que la comercialización de agentes sea un nuevo paso peligroso para una industria que ha tendido a priorizar la velocidad sobre la seguridad.
Según el argumento de venta de las grandes empresas tecnológicas, los agentes liberarán a los trabajadores humanos del trabajo pesado, abriendo la puerta a un trabajo más significativo (y grandes ganancias de productividad para las empresas). “Al liberarnos de las tareas mundanas, [agents] puede permitirnos centrarnos en lo que realmente importa: las relaciones, el crecimiento personal y la toma de decisiones informada”, afirma Iason Gabriel, investigador senior de Google DeepMind. El pasado mes de mayo la empresa desvelado un prototipo del “Proyecto Astra” descrito como “un agente de IA universal que resulta útil en la vida cotidiana”. En una demostración en vídeo, Astra habla con un usuario a través de un teléfono Google Pixel y analiza el entorno a través de la cámara del dispositivo. En un momento dado, el usuario acerca el teléfono a la pantalla de la computadora de un colega, que está llena de líneas de código. La IA describe el código (define las funciones de cifrado y descifrado) con una voz femenina parecida a la humana.
Sobre el apoyo al periodismo científico
Si está disfrutando este artículo, considere apoyar nuestro periodismo galardonado al suscribiéndose. Al comprar una suscripción, ayudas a garantizar el futuro de historias impactantes sobre los descubrimientos y las ideas que dan forma a nuestro mundo actual.
No se espera que el Proyecto Astra se publique hasta el próximo año como muy pronto, y los agentes actualmente disponibles se limitan en su mayoría a trabajos monótonos, como escribir código o presentar informes de gastos. Esto refleja tanto las limitaciones técnicas como la cautela de los desarrolladores a la hora de confiar en los agentes en ámbitos de alto riesgo. “Los agentes deben desplegarse para implementar tareas menores y repetitivas” que puedan “definirse muy claramente”, dice Silvio Savarese, científico jefe de la empresa de software basado en la nube Salesforce. La compañía presentó recientemente Agentforce, una plataforma que ofrece agentes que pueden responder preguntas de servicio al cliente y realizar otras funciones específicas. Savarese dice que “se sentiría muy reacio” a confiar en agentes en contextos más delicados, como la sentencia judicial.
Aunque Agentforce y plataformas similares se comercializan principalmente para empresas, Savarese predice el eventual aumento de agentes personales, que podrían acceder a sus datos personales y actualizar constantemente su comprensión de sus necesidades, preferencias y peculiaridades. Un agente basado en una aplicación encargado de planificar sus vacaciones de verano, por ejemplo, podría reservar sus vuelos, asegurar mesas en restaurantes y reservar su alojamiento mientras recuerda su preferencia por los asientos junto a la ventana, su alergia al maní y su afición por los hoteles con piscina. Fundamentalmente, también tendría que responder a lo inesperado: si la mejor opción de vuelo estuviera completamente reservada, tendría que ajustar el rumbo (verificando con otra aerolínea, tal vez). “La capacidad de adaptarse y reaccionar a un entorno es esencial para un agente”, afirma Savarese. Es posible que las primeras versiones de agentes personales ya estén en camino. Amazon, por ejemplo, es según se informa trabajando en agentes que podrán recomendarle y comprar productos según su historial de compras en línea.
¿Qué caracteriza a un agente?
El repentino aumento del interés corporativo en los agentes de IA contradice su larga historia. Todos los algoritmos de aprendizaje automático son técnicamente “agentes” en el sentido de que “aprenden” o refinan constantemente su capacidad para lograr objetivos específicos, basándose en patrones obtenidos de montañas de datos. “En IA, durante décadas hemos visto todos los sistemas como agentes”, dice Stuart Russell, investigador pionero en IA e informático de la Universidad de California, Berkeley. “Es sólo que algunos de ellos son muy simples”.
Pero las herramientas modernas de IA ahora se están volviendo más Agentic, gracias a algunas nuevas innovaciones. Una es la capacidad de utilizar herramientas digitales como los motores de búsqueda. A través de una nueva función de “uso de computadora” lanzada para pruebas beta públicas en octubre, el modelo detrás del chatbot Claude de la compañía de inteligencia artificial Anthropic ahora puede mover un cursor y hacer clic en botones después de que se le muestren capturas de pantalla del escritorio de un usuario. Un video publicado por la compañía muestra a Claude completando y enviando un formulario de solicitud de proveedor ficticio.
La agencia también se correlaciona con la capacidad de tomar decisiones complejas a lo largo del tiempo; A medida que los agentes se vuelvan más avanzados, se les pondrá a trabajar en tareas más sofisticadas. Gabriel de Google DeepMind imagina un futuro agente que podría ayudar a descubrir nuevos conocimientos científicos. Y puede que esto no esté muy lejos. A papel publicado en el servidor de preimpresión arXiv.org en agosto describía un agente “Científico de IA” capaz de formular nuevas ideas de investigación y probarlas mediante experimentación, automatizando efectivamente el método científico.
A pesar de las estrechas asociaciones ontológicas entre agencia y conciencia, no hay razón para creer que, en las máquinas, los avances en la primera conduzcan a la segunda. Las empresas de tecnología ciertamente no anuncian que estas herramientas tengan nada parecido al libre albedrío. Es posible que los usuarios traten la IA agente como si fuera sensible, pero eso reflejaría, más que cualquier otra cosa, los millones de años de evolución que han programado el cerebro de las personas para atribuir conciencia a cualquier cosa que parece humano.
Desafíos florecientes
El aumento de agentes podría presentar nuevos desafíos en el lugar de trabajo, en las redes sociales e Internet y para la economía. Los marcos legales que han sido cuidadosamente elaborados durante décadas o siglos para limitar el comportamiento de los seres humanos deberán tener en cuenta la introducción repentina de agentes artificiales, cuyo comportamiento difiere fundamentalmente del nuestro. Algunos expertos incluso han insistido en que una descripción más precisa de la IA es “inteligencia extraterrestre”.
Tomemos el sector financiero, por ejemplo. Los algoritmos han ayudado durante mucho tiempo a rastrear los precios de diversos bienes, ajustándolos a la inflación y otras variables. Pero los modelos agentes ahora están comenzando a tomar decisiones financieras para individuos y organizaciones, lo que potencialmente plantea una serie de espinosas cuestiones legales y económicas. “No hemos creado la infraestructura para integrar [agents] en todas las reglas y estructuras que tenemos para asegurarnos de que nuestros mercados se comporten bien”, dice Gillian Hadfield, experta en gobernanza de IA en la Universidad Johns Hopkins. Si un agente firma un contrato en nombre de una organización y luego viola los términos de ese acuerdo, ¿debería responsabilizarse a la organización o al algoritmo mismo? Por extensión, ¿debería concederse a los agentes “personalidad” jurídica, como se les otorga a las corporaciones?
Otro desafío es diseñar agentes cuyo comportamiento se ajuste a las normas éticas humanas, un problema conocido en el campo como “alineación”. A medida que aumenta la agencia, a los humanos les resulta más difícil descifrar cómo La IA está tomando decisiones. Los objetivos se dividen en subobjetivos cada vez más abstractos y, en ocasiones, los modelos muestran comportamientos emergentes que son imposibles de predecir. “Hay un camino realmente claro desde tener agentes que son buenos planificando hasta la pérdida del control humano”, dice Yoshua Bengio, un científico informático que ayudó a inventar las redes neuronales, que están permitiendo el actual auge de la IA.
Según Bengio, el problema de la alineación se ve agravado por el hecho de que las prioridades de las grandes empresas tecnológicas tienden a estar en desacuerdo con las de la humanidad en general. “Existe un verdadero conflicto de intereses entre ganar dinero y proteger la seguridad del público”, afirma. En la década de 2010, los algoritmos utilizados por Facebook (ahora Meta), dado el objetivo aparentemente benigno de maximizar la participación de los usuarios, comenzaron a promover mensajes de odio. contenido para usuarios en Myanmar contra eso La población minoritaria rohingya del país.. Esa estrategia, que los algoritmos decidieron seguir por su cuenta, después de enterarse de que el contenido incendiario conducía más a la participación de los usuarios, en última instancia ayudó a impulsar una campaña de limpieza étnica que mató a miles de personas. El riesgo de modelos desalineados y manipulación humana probablemente aumentará a medida que los algoritmos se vuelvan más agentes.
Perros guardianes para agentes
Bengio y Russell han argumentado que regular la IA es necesario para evitar repetir errores del pasado o ser sorprendido por otros nuevos en el futuro. Ambos científicos se encuentran entre los 33.000 firmantes de un carta abiertapublicado en marzo de 2023, que pedía una pausa de seis meses en la investigación de la IA para establecer barreras de seguridad. Mientras las empresas tecnológicas se apresuran a construir IA agente, Bengio insta al principio de precaución: la idea de que los avances científicos poderosos deben ampliarse lentamente y los intereses comerciales deben quedar en segundo plano frente a la seguridad.
Ese principio ya es la norma en otras industrias estadounidenses. Una compañía farmacéutica no puede lanzar un nuevo medicamento hasta que haya sido sometido a rigurosos ensayos clínicos y haya recibido la aprobación de la Administración de Alimentos y Medicamentos; un fabricante de aviones no puede lanzar un nuevo avión de pasajeros sin la certificación de la Administración Federal de Aviación. Si bien se han tomado algunas medidas regulatorias tempranas, en particular la orden ejecutiva del presidente Joe Biden sobre la IA (que el presidente electo Donald Trump ha prometido derogar), actualmente no existe un marco federal integral para supervisar el desarrollo y la implementación de la IA.
La carrera por comercializar agentes, advierte Bengio, podría llevarnos rápidamente a un punto sin retorno. “Una vez que tengamos agentes, serán útiles, tendrán valor económico y su valor crecerá”, afirma. “Y una vez que los gobiernos comprendan que también podrían ser peligrosos, podría ser demasiado tarde porque el valor económico será tal que no podrán detenerlo”. Compara el ascenso de los agentes con el de las redes sociales, que, en la década de 2010, rápidamente superaron cualquier posibilidad de una supervisión gubernamental efectiva.
Mientras el mundo se prepara para recibir una avalancha de agencia artificial, nunca ha habido un momento más apremiante para ejercer la nuestra. Como dice Bengio: “Necesitamos pensar detenidamente antes de saltar”.