Mit Samaltman 01 Press.jpg

¿Cómo está evolucionando el campo de la inteligencia artificial y qué significa para el futuro del trabajo, la educación y la humanidad? La presidenta del MIT, Sally Kornbluth, y el director ejecutivo de OpenAI, Sam Altman, cubrieron todo eso y más en una amplia discusión en el campus del MIT el 2 de mayo.

El éxito de los grandes modelos de lenguaje ChatGPT de OpenAI ha ayudado a estimular una ola de inversión e innovación en el campo de la inteligencia artificial. ChatGPT-3.5 se convirtió en la aplicación de software de consumo de más rápido crecimiento de la historia después de su lanzamiento a finales de 2022, con cientos de millones de personas utilizando la herramienta. Desde entonces, OpenAI también ha demostrado productos de generación de imágenes, audio y vídeo basados ​​en IA y se ha asociado con Microsoft.

El evento, que tuvo lugar en un auditorio Kresge abarrotado, capturó la emoción del momento en torno a la IA, con la vista puesta en lo que viene.

«Creo que la mayoría de nosotros recordamos la primera vez que vimos ChatGPT y dijimos: ‘¡Dios mío, eso es genial!'», dijo Kornbluth. «Ahora estamos tratando de descubrir cuál será la próxima generación de todo esto».

Altman, por su parte, acoge con satisfacción las altas expectativas en torno a su empresa y al campo de la inteligencia artificial en general.

«Creo que es increíble que durante dos semanas todo el mundo estuviera enloquecido por ChatGPT-4, y luego, a la tercera semana, todo el mundo decía: ‘Vamos, ¿dónde está GPT-5?'», dijo Altman. “Creo que eso dice algo legítimamente grandioso sobre las expectativas y el esfuerzo humanos y por qué todos tenemos que hacerlo. [be working to] mejorar las cosas”.

Los problemas con la IA

Al principio de su discusión, Kornbluth y Altman discutieron los numerosos dilemas éticos que plantea la IA.

«Creo que hemos logrado un progreso sorprendentemente bueno en cuanto a cómo alinear un sistema en torno a un conjunto de valores», dijo Altman. «Por mucho que a la gente le guste decir ‘No puedes usar estas cosas porque están arrojando desechos tóxicos todo el tiempo’, GPT-4 se comporta de la manera que quieres y podemos lograr que funcione». Seguir un conjunto determinado de valores, no perfectamente bien, pero mejor de lo que esperaba a estas alturas”.

Altman también señaló que la gente no se pone de acuerdo sobre cómo debería comportarse exactamente un sistema de IA en muchas situaciones, lo que complica los esfuerzos por crear un código de conducta universal.

«¿Cómo decidimos qué valores debe tener un sistema?» Preguntó Altman. “¿Cómo decidimos qué debe hacer un sistema? ¿En qué medida la sociedad define límites versus confiar estas herramientas al usuario? No todo el mundo las usará como nos gusta, pero ese es el caso de las herramientas. Creo que es importante darle a la gente mucho control… pero hay algunas cosas que un sistema simplemente no debería hacer, y tendremos que negociar colectivamente cuáles son”.

Kornbluth estuvo de acuerdo en que será difícil hacer cosas como erradicar los prejuicios en los sistemas de inteligencia artificial.

«Es interesante pensar si podemos o no hacer modelos menos sesgados que nosotros como seres humanos», dijo.

Kornbluth también planteó preocupaciones sobre la privacidad asociadas con las grandes cantidades de datos necesarios para entrenar los grandes modelos lingüísticos actuales. Altman dijo que la sociedad ha estado lidiando con esas preocupaciones desde los albores de Internet, pero la IA está haciendo que esas consideraciones sean más complejas y de mayor riesgo. También ve preguntas completamente nuevas que surgen ante la perspectiva de potentes sistemas de inteligencia artificial.

«¿Cómo vamos a navegar las compensaciones entre privacidad, utilidad y seguridad?» Preguntó Altman. “El lugar donde todos decidimos individualmente establecer esas compensaciones y las ventajas que serán posibles si alguien permite que el sistema se entrene durante toda su vida es algo nuevo que debe navegar la sociedad. No sé cuáles serán las respuestas”.

Para las preocupaciones sobre la privacidad y el consumo de energía que rodean a la IA, Altman dijo que cree que el progreso en futuras versiones de los modelos de IA ayudará.

«Lo que queremos de GPT-5 o 6 o lo que sea es que sea el mejor motor de razonamiento posible», dijo Altman. «Es cierto que ahora mismo, la única forma en que podemos hacerlo es entrenándolo». en toneladas y toneladas de datos en ese proceso, está aprendiendo algo sobre cómo hacer un razonamiento o cognición muy, muy limitado o como quiera llamarlo, pero el hecho de que puede memorizar datos, o el hecho de que está almacenando datos. todo en su espacio de parámetros, creo que miraremos hacia atrás y diremos: «Eso fue una especie de extraño desperdicio de recursos». Supongo que en algún momento descubriremos cómo separar el motor de razonamiento de la necesidad de toneladas de datos o de almacenarlos en [the model]y poder tratarlos como cosas separadas”.

Kornbluth también preguntó cómo la IA podría conducir al desplazamiento laboral.

“Una de las cosas que más me molesta de las personas que trabajan en IA es cuando se paran con cara seria y dicen: ‘Esto nunca provocará la eliminación de ningún empleo’. Esto es sólo algo aditivo. Todo esto va a ser genial’”, dijo Altman. “Esto eliminará muchos empleos actuales, cambiará la forma en que funcionan muchos de los empleos actuales y creará empleos completamente nuevos. Eso siempre pasa con la tecnología».

La promesa de la IA

Altman cree que el progreso en la IA hará que valga la pena abordar todos los problemas actuales del campo.

«Si gastáramos el 1 por ciento de la electricidad mundial en entrenar una poderosa IA, y esa IA nos ayudara a descubrir cómo llegar a energía no basada en carbono o mejorar la captura profunda de carbono, eso sería una gran victoria», dijo Altman.

También dijo que la aplicación de la IA que más le interesa es el descubrimiento científico.

«Yo creo [scientific discovery] es el motor central del progreso humano y que es la única manera de impulsar el crecimiento económico sostenible”, dijo Altman. “La gente no está contenta con GPT-4. Quieren que las cosas mejoren. Todo el mundo quiere vivir más, mejor y más rápido, y la ciencia es la forma de lograrlo”.

Kornbluth también le pidió a Altman consejo para los estudiantes que están pensando en sus carreras. Instó a los estudiantes a no limitarse.

«La lección más importante que debes aprender al principio de tu carrera es que puedes resolver cualquier cosa, y nadie tiene todas las respuestas cuando empiezas», dijo Altman. “Simplemente te abres camino a trompicones, tienes una velocidad de iteración rápida y tratas de desviarte hacia los problemas más interesantes para ti, y estás rodeado de las personas más impresionantes y tienes la confianza de que iterarás exitosamente hacia lo correcto. … Puedes hacer más de lo que piensas, más rápido de lo que piensas”.

El consejo fue parte de un mensaje más amplio que Altman tenía sobre mantenerse optimista y trabajar para crear un futuro mejor.

“La forma en que estamos enseñando a nuestros jóvenes que el mundo está totalmente jodido y que es inútil tratar de resolver los problemas, que todo lo que podemos hacer es sentarnos en nuestras habitaciones en la oscuridad y pensar en lo horribles que somos, es un sentimiento realmente profundo. racha improductiva”, dijo Altman. “Espero que el MIT sea diferente a muchos otros campus universitarios. Supongo que lo es. Pero todos debéis hacer parte de la misión de vuestra vida luchar contra esto. Prosperidad, abundancia, una vida mejor el año que viene, una vida mejor para nuestros hijos. Ése es el único camino a seguir. Esa es la única manera de tener una sociedad que funcione… y la racha contra el progreso, la racha contra ‘la gente merece una gran vida’, es algo contra lo que espero que todos luchen”.