la conversación es un tipo especial de charla trivial, que normalmente se observa en espacios de oficina alrededor de un enfriador de agua. Allí, los empleados comparten con frecuencia todo tipo de chismes corporativos, mitos, leyendas, opiniones científicas inexactas, anécdotas personales indiscretas o mentiras descaradas. Todo vale. En mis publicaciones sobre Water Cooler Small Talk, analizo opiniones extrañas y generalmente científicamente inválidas que yo, mis amigos o algún conocido mío hemos escuchado en la oficina y que literalmente nos han dejado sin palabras.
Entonces, aquí está la opinión del enfriador de agua de la publicación de hoy:
Me decepcionó mucho usar ChatGPT el otro día para revisar los resultados del tercer trimestre. Esto no es Inteligencia Artificial; es solo una herramienta de búsqueda y resumen, pero no Inteligencia Artificial.
🤷♀️
A menudo hablamos de IA, imaginando algún tipo de inteligencia superior, sacada directamente de una película de ciencia ficción de los noventa. Es fácil alejarse y pensar en ello como una singularidad cinematográfica como Skynet de Terminator o la IA distópica de Dune. Las ilustraciones de uso común sobre temas relacionados con la IA con robots, androides y portales intergalácticos, listos para transportarnos al futuro, nos inducen a error aún más y nos hacen interpretar la IA de forma errónea.
de izquierda a derecha: 1) foto de julien Tromeur en Unsplash, 2) foto de Luke Jones en Unsplash, 3) foto de Xu Haiwei en Unsplash
Sin embargo, para bien o para mal, los sistemas de IA funcionan de una manera fundamentalmente diferente, al menos por ahora. Por el momento, no existe una superinteligencia omnipresente esperando resolver todos los problemas insolubles de la humanidad. Por eso es esencial comprender qué son realmente los modelos de IA actuales y qué pueden (y qué no pueden) hacer. Sólo entonces podremos gestionar nuestras expectativas y hacer el mejor uso posible de esta nueva y poderosa tecnología.
🍨 DataCream es un boletín informativo sobre lo que aprendo, construyo y pienso sobre la IA y los datos. Si estás interesado en estos temas suscríbete aquí.
Pensamiento deductivo versus inductivo
Para entender qué es y qué no es la IA en su estado actual, y qué puede y qué no puede hacer, primero debemos comprender la diferencia entre pensamiento deductivo e inductivo.
El psicólogo Daniel Kahneman dedicó su vida a estudiar cómo funciona nuestra mente, lo que lleva a conclusiones y decisiones, y forma nuestras acciones y comportamientos: una investigación vasta e innovadora que finalmente le valió el Premio Nobel de Economía. Su trabajo está bellamente resumido para el lector medio en Thinking Fast and Slow, donde describe dos modos de pensamiento humano:
Sistema 1: rápido, intuitivo y automático, esencialmente inconsciente. Sistema 2: lento, deliberado y esforzado, que requiere un esfuerzo consciente.
Desde un punto de vista evolutivo, tendemos a preferir operar con el Sistema 1 porque ahorra tiempo y energía, algo así como vivir la vida en piloto automático, sin pensar mucho en las cosas. Sin embargo, la alta efectividad del Sistema 1 muchas veces va acompañada de una baja precisión, lo que lleva a errores.
De manera similar, el razonamiento inductivo se alinea estrechamente con el Sistema 1 de Kahneman. Pasa de observaciones específicas a conclusiones generales. Este tipo de pensamiento se basa en patrones y, por tanto, es estocástico. En otras palabras, sus conclusiones siempre conllevan un cierto grado de incertidumbre, incluso si no lo reconocemos conscientemente.
Por ejemplo:
Patrón: El sol ha salido todos los días de mi vida.
Conclusión: Por lo tanto, mañana saldrá el sol.
Como puede imaginar, este tipo de pensamiento es propenso a sesgos y errores porque generaliza a partir de datos limitados. En otras palabras, lo más probable es que el sol también salga mañana, ya que ha salido todos los días de mi vida, pero no necesariamente.
Para llegar a esta conclusión, también asumimos silenciosamente que “todos los días seguirán el mismo patrón que los que hemos experimentado”, lo cual puede ser cierto o no. En otras palabras, implícitamente asumimos que los patrones observados en una muestra pequeña se aplicarán en todas partes.
Estas suposiciones silenciosas hechas para llegar a una conclusión son exactamente las que hacen que el razonamiento inductivo conduzca a resultados que son altamente plausibles, pero nunca seguros. De manera similar a ajustar una función a través de unos pocos puntos de datos, podemos suponer cuál puede ser la relación subyacente, pero nunca podemos estar seguros, y siempre es posible equivocarnos. Construimos un modelo plausible de lo que observamos y simplemente esperamos que sea bueno.
O dicho de otra manera, diferentes personas que operan con diferentes datos o en diferentes condiciones producirán diferentes resultados cuando utilicen la inducción.
Por otro lado, el razonamiento deductivo pasa de principios generales a conclusiones específicas, es decir, esencialmente el Sistema 2 de Kahneman. Está basado en reglas, es determinista y lógico, y sigue la estructura de “si A, entonces con seguridad B”.
Por ejemplo:
Premisa 1: Todos los humanos son mortales.
Premisa 2: Sócrates es humano.
Conclusión: Por tanto, Sócrates es mortal.
Este tipo de pensamiento es menos propenso a errores, ya que cada paso del razonamiento es determinista. No hay suposiciones silenciosas; Como las premisas son verdaderas, la conclusión debe ser verdadera.
Volviendo a la analogía del ajuste de funciones, podemos imaginar la deducción como el proceso inverso. Calcular un punto de datos dada la función. Como conocemos la función, podemos calcular con seguridad el punto de datos y, a diferencia de las curvas múltiples que se ajustan mejor o peor a los mismos puntos de datos, para el punto de datos, habrá una respuesta correcta definitiva. Lo más importante es que el razonamiento deductivo es consistente y sólido. Podemos realizar el recálculo en un punto específico de la función un millón de veces y siempre obtendremos exactamente el mismo resultado.
Aparentemente, incluso cuando utilizamos el razonamiento deductivo, los humanos podemos cometer errores. Por ejemplo, podemos estropear el cálculo del valor específico de la función y obtener un resultado incorrecto. Pero esto será sólo un error aleatorio. Por el contrario, el error en el razonamiento inductivo es sistémico. El proceso de razonamiento en sí es propenso a errores, ya que incluimos estas suposiciones silenciosas sin saber nunca hasta qué punto son ciertas.
Entonces, ¿cómo funcionan los LLM?
Es fácil, especialmente para las personas sin experiencia en tecnología o informática, imaginar los modelos de IA actuales como una inteligencia extraterrestre y divina, capaz de proporcionar respuestas sabias a todas las preguntas de la humanidad. Sin embargo, este no es (todavía) el caso, y los modelos de IA actuales, por impresionantes y avanzados que sean, siguen estando limitados por los principios sobre los que operan.
Los modelos de lenguaje grande (LLM) no “piensan” ni “entienden” en el sentido humano. En cambio, se basan en patrones en los datos con los que han sido entrenados, muy parecido al Sistema 1 de Kahneman o al razonamiento inductivo. En pocas palabras, funcionan prediciendo la siguiente palabra más plausible de una entrada determinada.
Puede pensar en un LLM como un estudiante muy diligente que memorizó grandes cantidades de texto y aprendió a reproducir patrones que suenan correctos sin necesariamente entender por qué son correctos. La mayoría de las veces esto funciona porque las oraciones que suenan correctas tienen más posibilidades de ser realmente correctas. Esto significa que dichos modelos pueden generar texto y voz similares a los humanos con una calidad impresionante y, esencialmente, sonar como un ser humano muy inteligente. Sin embargo, generar texto de apariencia humana y producir argumentos y conclusiones que parezcan correctos no garantiza que realmente lo sean. Incluso cuando los LLM generan contenido que suena a razonamiento deductivo, no lo es. Puede resolver esto fácilmente echando un vistazo a las herramientas de inteligencia artificial sin sentido que ocasionalmente producen ChatGPT.
También es importante comprender cómo los LLM obtienen las siguientes palabras más probables. Ingenuamente, podemos suponer que tales modelos simplemente cuentan las frecuencias de las palabras en el texto existente y luego, de alguna manera, reproducen estas frecuencias para generar texto nuevo. Pero no es así como funciona. Hay alrededor de 50.000 palabras de uso común en inglés, lo que resulta en combinaciones posibles de palabras prácticamente infinitas. Por ejemplo, incluso para una frase corta de 10 palabras, las combinaciones serían 50.000 x 10^10, que es como un número astronómicamente grande. Por otro lado, todos los textos en inglés existentes en libros e Internet son unos cientos de miles de millones de palabras (alrededor de 10^12). Como resultado, ni siquiera existe suficiente texto para cubrir todas las frases posibles y generar texto con este enfoque.
En cambio, los LLM utilizan modelos estadísticos creados a partir de texto existente para estimar la probabilidad de palabras y frases que quizás nunca antes hayan aparecido. Sin embargo, como cualquier modelo de la realidad, se trata de una aproximación simplificada, lo que hace que la IA cometa errores o fabrique información.
¿Qué pasa con la cadena de pensamiento?
Entonces, ¿qué pasa con “el modelo está pensando” o con el “razonamiento en cadena de pensamiento (CoT)”? Si los LLM realmente no pueden pensar como lo hacen los humanos, ¿qué significan esos términos elegantes? ¿Es sólo un truco de marketing? Bueno, más o menos, pero no exactamente.
La cadena de pensamiento (CoT) es principalmente una técnica de indicaciones que permite a los LLM responder preguntas dividiéndolas en secuencias de razonamiento más pequeñas, paso a paso. De esta manera, en lugar de hacer una gran suposición para responder la pregunta del usuario en un solo paso, con un mayor riesgo de generar una respuesta incorrecta, el modelo realiza múltiples pasos de generación con mayor confianza. Básicamente, el usuario “guía” al LLM dividiendo la pregunta inicial en múltiples indicaciones que el LLM responde una tras otra. Por ejemplo, se puede implementar una forma muy simple de indicación CoT agregando al final de la indicación algo como “pensemos en ello paso a paso”.
Llevando este concepto un paso más allá, en lugar de requerir que el usuario divida la pregunta inicial en preguntas más pequeñas, los modelos con “pensamiento prolongado” pueden realizar este proceso por sí mismos. En particular, dichos modelos de razonamiento pueden dividir la consulta del usuario en una secuencia de consultas más pequeñas, paso a paso, lo que da como resultado mejores respuestas. CoT fue uno de los mayores avances en IA, ya que permitió a los modelos gestionar de forma eficaz tareas de razonamiento complejas. El modelo o1 de OpenAI fue el primer ejemplo importante que demostró el poder del razonamiento CoT.
en mi mente
Comprender los principios subyacentes que permiten que funcionen los modelos de IA actuales es esencial para tener expectativas realistas sobre lo que pueden y no pueden hacer, y optimizar su uso. Las redes neuronales y los modelos de IA operan inherentemente con un razonamiento de estilo inductivo, incluso si muchas veces suenan como una deducción. Incluso técnicas como el razonamiento en cadena de pensamiento, si bien producen resultados impresionantes, todavía operan fundamentalmente por inducción y aún pueden producir información que suena correcta, pero que en realidad no lo es.
¿Te encantó esta publicación? ¡Seamos amigos! Únase a mí en:
📰Substack 💌 Medio 💼LinkedIn ☕¡Cómprame un café!
¿Qué pasa con los pialgoritmos?
¿Quiere incorporar el poder de RAG a su organización?
pialgorithms puede hacerlo por usted 👉 reserve una demostración hoy