Los mayores desafíos de la IA aún están sin resolver

El siguiente ensayo se reimprime con el permiso de La conversaciónuna publicación en línea que cubre las últimas investigaciones.

2023 fue un punto de inflexión en la evolución de la inteligencia artificial y su papel en la sociedad. El año vio la aparición de la IA generativa, que trasladó la tecnología de las sombras al centro del escenario en la imaginación del público. También vio drama en la sala de juntas en una startup de IA dominan el ciclo de noticias durante varios días. Y vio el problema de la administración Biden. una orden ejecutiva y la unión europea aprobar una ley destinado a regular la IA, movimientos quizás mejor descritos como intentar frenar un caballo que ya está galopando.

Hemos reunido un panel de académicos de IA para mirar hacia el año 2024 y describir los problemas que probablemente enfrentarán los desarrolladores de IA, los reguladores y la gente común, y para expresar sus esperanzas y recomendaciones.


Casey Fiesler, profesor asociado de ciencias de la información, Universidad de Colorado Boulder

2023 fue el año de exageración de la IA. Independientemente de si la narrativa era que la IA iba a salvar el mundo o destruirlo, a menudo parecía como si las visiones de lo que la IA podría ser algún día abrumaran la realidad actual. Y aunque creo que anticipar daños futuros es un componente crítico de superar la deuda ética en tecnología, dejarse llevar demasiado por la exageración corre el riesgo de crear una visión de la IA que parece más mágica que una tecnología que aún puede moldearse mediante elecciones explícitas. Pero tomar el control requiere una mejor comprensión de esa tecnología.

Uno de los principales debates sobre IA de 2023 giró en torno al papel de ChatGPT y chatbots similares en la educación. En esta época el pasado año, titulares más relevantes centrados en cómo los estudiantes podrían usarlo para hacer trampa y cómo los educadores luchaban para evitar que lo hicieran, de maneras que A menudo hacen más daño que bien..

Sin embargo, a medida que avanzaba el año, se reconoció que no enseñar a los estudiantes sobre la IA podría ponerlos en desventaja, y muchas escuelas rescindió sus prohibiciones. No creo que debamos renovar la educación para poner la IA en el centro de todo, pero si los estudiantes no aprenden cómo funciona la IA, no entenderán sus limitaciones y, por lo tanto, no entenderán cómo es útil y apropiado usarla y como no lo es. Esto no es sólo cierto para los estudiantes. Cuanto más entiendan las personas cómo funciona la IA, más empoderadas estarán para utilizarla y criticarla.

Así que mi predicción, o quizás mi esperanza, para 2024 es que habrá un gran impulso para aprender. En 1966, Joseph Weizenbaum, el creador del chatbot ELIZA, escribio eso las máquinas son “a menudo suficientes para deslumbrar incluso al observador más experimentado”, pero una vez que su “funcionamiento interno se explica en un lenguaje lo suficientemente claro como para inducir la comprensión, su magia se desmorona”. El desafío con la inteligencia artificial generativa es que, en contraste con la metodología muy básica de coincidencia y sustitución de patrones de ELIZA, es mucho más difícil encontrar un lenguaje “suficientemente sencillo” para hacer que la magia de la IA se desmorone.

Creo que es posible que esto suceda. Espero que las universidades que están apresurándose a contratar más expertos técnicos en IA poner el mismo esfuerzo en contratar especialistas en ética de la IA. Espero que los medios de comunicación ayuden a superar el revuelo. Espero que todos reflexionen sobre sus propios usos de esta tecnología y sus consecuencias. Y espero que las empresas de tecnología escuchen las críticas informadas al considerar qué opciones siguen dando forma al futuro.


Kentaro Toyama, profesor de información comunitaria, Universidad de Michigan

En 1970, Marvin Minsky, el pionero de la IA y escéptico de las redes neuronales, dijo a la revista Life“Dentro de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano medio”. Con la singularidaden el momento en que la inteligencia artificial iguale y comience a superar la inteligencia humana (todavía no ha llegado), es seguro decir que Minsky estaba equivocado por al menos un factor de 10. Es peligroso hacer predicciones sobre la IA.

Aun así, hacer predicciones a un año no parece tan arriesgado. ¿Qué se puede esperar de la IA en 2024? Primero, ¡la carrera ha comenzado! El progreso en IA había sido constante desde los días del apogeo de Minsky, pero el público lanzamiento de ChatGPT en 2022 inició una competencia total por ganancias, gloria y supremacía global. Espere una IA más potente, además de una avalancha de nuevas aplicaciones de IA.

La gran cuestión técnica es cuándo y con qué profundidad los ingenieros de IA podrán abordar el actual talón de Aquiles de la tecnología. aprendizaje profundo – lo que podría llamarse razonamiento duro generalizadocosas como lógica deductiva. Se realizarán ajustes rápidos a los existentes. red neuronal Los algoritmos serán suficientes o requerirán un enfoque fundamentalmente diferente, como afirman los neurocientíficos. Gary Marcos sugiere? Ejércitos de científicos de IA están trabajando en este problema, por lo que espero algunos avances en 2024.

Mientras tanto, es probable que las nuevas aplicaciones de IA también generen nuevos problemas. Es posible que pronto empieces a oír hablar de chatbots de IA y asistentes que hablan entre sí y mantienen conversaciones enteras en tu nombre pero a tus espaldas. Algunas cosas se volverán locas: cómicamente, trágicamente o ambas cosas. Es probable que los deepfakes, las imágenes y los vídeos generados por IA que son difíciles de detectar, se vuelvan rampantes a pesar de regulación naciente, causando más daños sórdidos a las personas y a las democracias en todas partes. Y es probable que haya nuevas clases de calamidades de la IA que no habrían sido posibles ni siquiera hace cinco años.

Hablando de problemas, las mismas personas que hacen sonar las alarmas más fuertes sobre la IA, como Elon Musk y Sam Altman – Parece que no pueden evitar construir una IA cada vez más poderosa. Espero que sigan haciendo más de lo mismo. Son como pirómanos que provocan el incendio que ellos mismos atizaron, rogando a las autoridades que los detengan. Y en ese sentido, lo que más espero para 2024 –aunque parece tardar en llegar– es una regulación más estricta de la IA, a nivel nacional e internacional.


Anjana Susarla, profesora de sistemas de información, Universidad Estatal de Michigan

En el año transcurrido desde la presentación de ChatGPT, el desarrollo de modelos de IA generativa continúa a un ritmo vertiginoso. En contraste con ChatGPT hace un añoque tomó indicaciones textuales como entradas y produjo salidas textuales, la nueva clase de modelos de IA generativa está entrenada para ser multimodal, lo que significa que los datos utilizados para entrenarlos provienen no solo de fuentes textuales como Wikipedia y Reddit, pero también de vídeos en YouTube, canciones en Spotifyy otra información audiovisual. Con la nueva generación de modelos de lenguaje grande (LLM) multimodales que impulsan estas aplicaciones, puede usar entradas de texto para generar no solo imágenes y texto, sino también audio y video.

Las empresas corren hacia desarrollar LLM que se puedan implementar en una variedad de hardware y en una variedad de aplicaciones, incluida la ejecución de un LLM en su teléfono inteligente. El surgimiento de estos LLM ligeros y LLM de código abierto podría marcar el comienzo de una mundo de agentes autónomos de IA – un mundo para el que la sociedad no está necesariamente preparada.

Estas capacidades avanzadas de IA ofrecen un inmenso poder transformador en aplicaciones que van desde negocio a medicina de precisión. Mi principal preocupación es que capacidades tan avanzadas planteen nuevos desafíos para distinguir entre contenido generado por humanos y contenido generado por IAasí como plantear nuevos tipos de daños algorítmicos.

La avalancha de contenido sintético producido por la IA generativa podría desencadenar un mundo en el que personas e instituciones malintencionadas puedan fabricar identidades sintéticas y orquestar desinformación a gran escala. Una avalancha de contenido generado por IA preparado para explotar filtros algorítmicos y motores de recomendación pronto podría dominar funciones críticas como verificación de información, alfabetización informacional y serendipia proporcionada por motores de búsqueda, plataformas de redes sociales y servicios digitales.

La Comisión Federal de Comercio ha advertido sobre fraude, engaño, violaciones a la privacidad y otras prácticas desleales permitidas por la facilidad de creación de contenido asistida por IA. Mientras que plataformas digitales como YouTube han instituido directrices políticas Para la divulgación de contenido generado por IA, es necesario un mayor escrutinio de los daños algorítmicos por parte de agencias como la FTC y de los legisladores que trabajan en la protección de la privacidad, como la Ley Estadounidense de Protección y Privacidad de Datos.

un nuevo proyecto de ley bipartidista presentado en el Congreso tiene como objetivo codificar la alfabetización algorítmica como una parte clave de la alfabetización digital. Con la IA cada vez más entrelazada con todo lo que hace la gente, está claro que ha llegado el momento de centrarse no en los algoritmos como piezas de tecnología, sino de considerar los contextos en los que operan los algoritmos: personas, procesos y sociedad.

Este artículo fue publicado originalmente en La conversación. Leer el artículo original.