¿Qué hace que muchas personas resientan la IA generativa y qué impacto tiene eso en las empresas responsables?
La reciente revelación de Deepseek-R1, el LLM a gran escala desarrollado por una empresa china (también llamada Deepseek), ha sido un evento muy interesante para aquellos de nosotros que pasamos tiempo observando y analizando los fenómenos culturales y sociales alrededor de la IA. La evidencia sugiere que R1 fue entrenado por una fracción del precio que cuesta entrenar chatgpt (Cualquiera de sus modelos recientes, realmente), y hay algunas razones que podrían ser ciertas. Pero eso no es realmente de lo que quiero hablar aquí: toneladas de considerado escritores tener comentado En lo que es Deepseek-R1 y lo que realmente sucedió en el proceso de entrenamiento.
Lo que más me interesa en este momento es cómo esta noticia cambió parte del impulso en el espacio de IA. Nvidia y otras existencias relacionadas cayeron precipitadamente cuando salieron la noticia de Deepseek-R1en gran medida (parece) porque no requería que las GPU más nuevas entrenen, y al entrenar de manera más eficiente, requirió menos potencia que un modelo Operai. Ya había estado pensando en la reacción cultural que enfrentaba una gran IA generativa, y algo como esto abre aún más espacio para que las personas sean críticas con las prácticas y promesas de empresas generativas de IA.
¿Dónde estamos en términos de las voces críticas contra la IA generativa como empresa o como tecnología? ¿De dónde viene eso y por qué podría estar ocurriendo?
Los dos ángulos de crítica a menudo superpuestos que creo que son más interesantes son los primeros, la buena perspectiva social o de la comunidad, y en segundo lugar, la perspectiva práctica. Desde una buena perspectiva social, las críticas de la IA generativa como negocio y una industria son innumerables, y He hablado mucho sobre ellos en mi escritura aquí.. Convertir la IA generativa en algo omnipresente tiene costos extraordinarios, desde el medio ambiente hasta lo económico y más allá.
Como cuestión práctica, podría ser más simple reducirlo a “esta tecnología no funciona de la forma en que nos prometieron”. La IA generativa nos recae en nosotros, o “alucina”, y se desempeña mal en muchos de los tipos de tareas en las que más necesitamos para ayuda tecnológica. Se nos lleva a creer que podemos confiar en esta tecnología, pero no cumple con las expectativas, al tiempo que se usa simultáneamente para cosas criminales y inductores de miseria como CSAM sintéticas y defectos profundos para socavar la democracia.
Entonces, cuando los veamos juntos, puede desarrollar un argumento bastante fuerte: esta tecnología no está a la altura de las expectativas sobrevaloradas, y a cambio de este rendimiento decepcionante, estamos renunciando a electricidad, agua, clima, dinero, cultura, y trabajos. ¡No es un oficio que valga la pena, a los ojos de muchas personas, para decirlo suavemente!
Me gusta traer un poco de matices al espacio, porque creo que cuando aceptamos las limitaciones de lo que puede hacer la IA generativa, y el daño que puede causar, y no jueguen el juego de Overhype, podemos encontrar un punto medio pasable. . No creo que debamos pagar el alto precio por la capacitación y por la inferencia de estos modelos a menos que los resultados realmente valgan la pena. ¿Desarrollar nuevas moléculas para la investigación médica? Tal vez, sí. ¿Ayudar a los niños a hacer trampa (mal) por la tarea? No, gracias. Ni siquiera estoy seguro de que valga la pena el costo de externalidad para ayudarme a escribir el código un poco más eficientemente en el trabajo, a menos que esté haciendo algo realmente valioso. Necesitamos ser honestos y realistas sobre el verdadero precio de la creación y el uso de esta tecnología.
Entonces, con esto dicho, me gustaría sumergir y mirar cómo surgió esta situación. Escribí en septiembre de 2023 que el aprendizaje automático tenía un problema de percepción pública, y en el caso de la IA generativa, creo que ha sido probado por los eventos. Específicamente, si las personas no tienen expectativas realistas y comprensión de para qué son buenos LLM y para qué no son buenos, se van a rebotar y se producirán una reacción.
“Mi argumento es algo como esto:
1. Las personas no están naturalmente preparadas para comprender e interactuar con el aprendizaje automático.
2. Sin comprender estas herramientas, algunas personas pueden evitarlas o desconfiarlas.
3. Peor aún, algunas personas pueden hacer mal uso de estas herramientas debido a la información errónea, lo que resulta en resultados perjudiciales.
4. Después de experimentar las consecuencias negativas del mal uso, las personas podrían volverse reacios a adoptar futuras herramientas de aprendizaje automático que puedan mejorar sus vidas y comunidades “.
yo, en Problema de percepción pública del aprendizaje automático, septiembre de 2023
Entonces, ¿qué pasó? Bueno, la industria generativa de la IA se lanzó primero al problema y estamos viendo las repercusiones.
Parte del problema es que La IA generativa realmente no puede hacer de manera efectiva todo lo que el bombo afirma. Un LLM no se puede usar de manera confiable para responder preguntas, porque no es una “máquina de hechos”. Es una “Probable siguiente palabra en una máquina de oraciones”. Pero estamos viendo promesas de todo tipo que ignoran estas limitaciones, y las compañías tecnológicas están obligando a las características generativas de IA en todo tipo de software que se le ocurra. La gente odiaba a Microsoft’s Clippy porque no era bueno y no querían que lo empujen por la garganta, y se podría decir Están haciendo lo mismo básico con una versión mejorada, y podemos ver que algunas personas todavía se resienten comprensiblemente.
Cuando alguien va a un LLM hoy y pide el precio de los ingredientes en una receta en su supermercado local en este momento, no hay absolutamente ninguna posibilidad de que el modelo pueda responder eso correctamente, de manera confiable. Eso no está dentro de sus capacidades, porque los datos verdaderos sobre esos precios no están disponibles para el modelo. El modelo podría adivinar accidentalmente que una bolsa de zanahorias es de $ 1.99 en Publix, pero es solo eso, un accidente. En el futuro, con modelos de encadenamiento juntos en formas de agente, existe la posibilidad de que podamos desarrollar un modelo estrecho para hacer este tipo de cosas correctamente, pero en este momento es absolutamente falso.
¡Pero la gente le está haciendo estas preguntas a LLMS hoy! Y cuando llegan a la tienda, están muy decepcionados por ser mentidos por una tecnología que pensaron que era una caja de respuestas mágicas. Si usted es OpenAi o antrópico, podría encogerse de hombros, porque si esa persona le estaba pagando una tarifa mensual, bueno, ya obtuvo el efectivo. Y si no lo estaban, bueno, tienes el número de usuario que marque uno más, y eso es un crecimiento.
Sin embargo, este es en realidad un gran problema comercial. Cuando su producto falla así, de una manera obvia y predecible (¡inevitable!), Estás comenzando a cantar el puente entre ese usuario y su producto. Puede que no lo queme todo a la vez, pero gradualmente está derribando la relación que el usuario tiene con su producto, y solo tiene muchas oportunidades antes de que alguien se rinda y pase de un usuario a un crítico. En el caso de la IA generativa, me parece que no tienes muchas oportunidades en absoluto. Además, la falla en un modo puede hacer que las personas desconfien de toda la tecnología en todas sus formas. ¿Ese usuario confiará o le cree en unos años cuando haya conectado el backend de LLM a las API de precios en tiempo real y, de hecho, puede devolver correctamente los precios de la tienda de comestibles? Dudo. Es posible que ese usuario ni siquiera permita que su modelo ayude a revisar los correos electrónicos a los compañeros de trabajo después de que les falló en alguna otra tarea.
Por lo que puedo ver, las compañías tecnológicas piensan que pueden usar a las personas, obligándolas a aceptar que la IA generativa es una parte ineludible de todo su software ahora, ya sea que funcione o no. Tal vez puedan, pero creo que esta es una estrategia autocructuable. Los usuarios pueden caminar y aceptar el estado de cosas, pero como resultado no se sentirán positivos hacia la tecnología o hacia su marca. ¡La aceptación de conformidad no es el tipo de energía que desea que su marca inspire entre los usuarios!
Puede pensar, bueno, eso está lo suficientemente claro: retroceda en las funciones generativas de IA en el software, y simplemente aplíquelo a tareas donde pueda sorprender al usuario y funciona bien. Tendrán una buena experiencia, y luego a medida que la tecnología mejore, agregaremos más donde tenga sentido. Y esto sería un pensamiento algo razonable (aunque, como mencioné antes, los costos de externalidad serán extremadamente altos para nuestro mundo y nuestras comunidades).
Sin embargo, no creo que los grandes jugadores generativos de IA realmente puedan hacer eso, y aquí está el por qué. Los líderes tecnológicos han gastado una cantidad de dinero verdaderamente exorbitante en la creación y tratando de mejorar esta tecnología, de invertir en empresas que lo desarrollana Construyendo plantas de energía y centros de datosPara cabildear para evitar las leyes de derechos de autor, ya hay cientos de miles de millones de dólares hundidos en este espacio con más por venir.
En la industria de la tecnología, las expectativas de ganancias son bastante diferentes de lo que podría encontrar en otros sectores, Una startup de software financiada por VC tiene que recuperar de 10 a 100 veces lo que se invertirá (dependiendo de la etapa) para parecer un éxito realmente destacado. Entonces, los inversores en tecnología empujan a las empresas, explícita o implícitamente, a tomar mayores columpios y mayores riesgos para que los mayores rendimientos sean plausibles. Esto comienza a convertirse en lo que llamamos una “burbuja”: las valoraciones quedan fuera de la alineación con las posibilidades económicas reales, aumentando cada vez más sin esperanza de convertirse en realidad. Como señaló Gerrit de Vynck en el Washington Post“… Los analistas de Wall Street esperan que las grandes compañías tecnológicas gasten alrededor de $ 60 mil millones al año en desarrollar modelos de IA para 2026, pero cosechan solo alrededor de $ 20 mil millones al año en ingresos de IA en ese momento … Los capitalistas de riesgo también han vertido miles de millones más en miles de nuevas empresas de IA. El auge de la IA ha ayudado a contribuir a los $ 55.6 mil millones que los inversores de riesgo pusieron en las nuevas empresas estadounidenses en el segundo trimestre de 2024, la cantidad más alta en un solo trimestre en dos años, según la firma de datos de capital de riesgo Pitchbook “.
Entonces, dados los miles de millones invertidos, hay argumentos serios de que la cantidad invertida en el desarrollo de IA generativa hasta la fecha es imposible igualar con los rendimientos. Simplemente no hay mucho dinero para ganar aquí, por esta tecnología, ciertamente no en comparación con la cantidad que se ha invertido. Pero, las empresas ciertamente lo intentarán. Creo que es parte de la razón por la que estamos viendo IA generativa insertada en todo tipo de casos de uso en los que en realidad podría no ser particularmente útil, efectivo o bienvenido. En cierto modo, “hemos gastado todo este dinero en esta tecnología, por lo que tenemos que encontrar una manera de venderla” es el marco. Tenga en cuenta también que las inversiones continúan hundiéndose para tratar de hacer que la tecnología funcione mejor, pero cualquier avance de LLM en estos días está demostrando ser muy lento e incremental.
Las herramientas generativas de IA no están demostrando ser esenciales para la vida de las personas, por lo que el cálculo económico no funciona para hacer que un producto esté disponible y convencer a la gente de que lo compre. Entonces, estamos viendo a las empresas pasar al modelo de “característica” de IA generativa, que Teoricé que podría suceder en mi artículo desde agosto de 2024. Sin embargo, el enfoque está tomando una mano muy pesada, como con Microsoft agregando IA generativa a Office365 y haciendo que las características y el aumento de los precios acompañantes aumenten tanto obligatorios. Admito que no había hecho la conexión entre el problema de la imagen pública y el problema de la función frente al modelo de producto hasta hace poco, pero ahora podemos ver que están entrelazados. Dar a las personas una característica que tiene los problemas de funcionalidad que estamos viendo, y luego recubrirlos por ello, sigue siendo un problema real para las empresas. Tal vez cuando algo simplemente no funciona para una tarea, ¿no es ni un producto ni una característica? Si ese resulta ser el caso, entonces los inversores en IA generativo tendrán un problema real en sus manos, por lo que las empresas se comprometen con características generativas de IA, ya sea que funcionen bien o no.
Voy a ver con gran interés para ver cómo progresan las cosas en este espacio. No espero grandes saltos en la funcionalidad generativa de IA, aunque dependiendo de cómo resulten las cosas con Deepseek, podemos ver algunos saltos en eficiencia, al menos en el entrenamiento. Si las empresas escuchan las quejas y un pivote de sus usuarios, para dirigirse a la IA generativa en las aplicaciones para las que realmente es útil, pueden tener una mejor oportunidad de resistir la reacción, para bien o para mal. Sin embargo, eso para mí parece muy, muy poco probable que sea compatible con el desesperado incentivo de ganancias que enfrentan. En el camino, terminaremos desperdiciando recursos tremendos en usos tontos de la IA generativa, en lugar de centrar nuestros esfuerzos en avanzar en las aplicaciones de la tecnología que realmente valen la pena.