Intentos de comunicar qué generativo inteligencia artificial (Ai) es y lo que sí ha producido una gama de metáforas y analogías.
De un “caja negra” a “autocompletar con esteroides“, a “loro“, e incluso un par de”zapatillas“, el objetivo es hacer que la comprensión de una compleja pieza de tecnología sea accesible al fundamentarla en las experiencias cotidianas, incluso si la comparación resultante a menudo se simplifica demasiado o se engaña.
Una analogía cada vez más generalizada describe la IA generativa como una “calculadora para palabras”. Popularizado en parte por el director ejecutivo de OpenAi, Sam Altmanla comparación de la calculadora sugiere que al igual que los objetos de plástico familiares que usamos para cruzar números en la clase de matemáticas, el propósito de las herramientas de IA generativas es ayudarnos a cruzar grandes cantidades de datos lingüísticos.
Relacionado: ‘Ai Slop’ está apareciendo en todas partes. Un experto explica lo que está en juego.
La analogía de la calculadora ha sido correctamente criticadoporque puede oscurecer los aspectos más preocupantes de la IA generativa. A diferencia de los chatbots, las calculadoras no tienen sesgos incorporados, no cometen errores y no plantean dilemas éticos fundamentales.
Sin embargo, también existe el peligro de descartar esta analogía por completo, dado que en su núcleo, las herramientas generativas de IA son calculadoras de palabras.
Sin embargo, lo que importa no es el objeto en sí, sino la práctica de calcular. Y los cálculos en herramientas de IA generativas están diseñados para imitar aquellos que sustentan el uso de lenguaje humano cotidiano.
Los idiomas tienen estadísticas ocultas
La mayoría de los usuarios del lenguaje solo son conscientes indirectamente de la medida en que sus interacciones son el producto de los cálculos estadísticos.
Piense, por ejemplo, sobre la incomodidad de escuchar a alguien decir “pimienta y sal” en lugar de “sal y pimienta”. O el aspecto extraño que obtendrías si ordenara “té poderoso” en lugar de “té fuerte” en un café.
Las reglas que rigen la forma en que seleccionamos y ordenamos palabras, y muchas otras secuencias en el lenguaje, provienen de la frecuencia de nuestros encuentros sociales con ellas. Cuanto más a menudo escuche algo dicho de cierta manera, menos viable suena cualquier alternativa. O más bien, el menos plausible cualquier otra secuencia calculada parecerá.
En lingüística, el vasto campo dedicado al estudio del lenguaje, estas secuencias se conocen como “colocaciones“. Son solo uno de los muchos fenómenos que muestran cómo los humanos calculan los patrones de múltiples palabras en función de si” se sienten bien “, si suenan apropiados, naturales y humanos.
Por qué la salida de chatbot ‘se siente bien’
Uno de los logros centrales de los grandes modelos de idiomas (LLM), y por lo tanto, chatbots, es que han logrado formalizar este factor de “sentirse bien” de manera que ahora engañan con éxito la intuición humana.
De hecho, son algunos de los sistemas de colocación más poderosos del mundo.
Al calcular las dependencias estadísticas entre tokens (ya sean palabras, símbolos o puntos de color) dentro de un espacio abstracto que mapea sus significados y relaciones, la IA produce secuencias que, en este punto, no solo Pase como humano en la prueba de Turingpero quizás de manera más inquietante, puede hacer que los usuarios enamorarse con ellos.
Una razón importante por la cual estos desarrollos son posibles tienen que ver con las raíces lingüísticas de la IA generativa, que a menudo están enterradas en la narración del desarrollo de la tecnología. Pero las herramientas de IA son tanto un producto de la informática como de diferentes ramas de la lingüística.
Los antepasados de los LLM contemporáneos como GPT-5 y Gemini son las herramientas de traducción automática de la era de la Guerra Fría, diseñadas para traducir el ruso al inglés. Con el desarrollo de la lingüística bajo cifras como Noam Chomskysin embargo, el objetivo de tales máquinas pasó de una simple traducción a decodificar los principios de naturaleza (es decir, humano) procesamiento del lenguaje.
El proceso de Desarrollo de LLM sucedió en las etapas, comenzando por intentos para mecanizar las “reglas” (como la gramática) de los idiomas, a través de enfoques estadísticos que midieron frecuencias de secuencias de palabras basadas en conjuntos de datos limitados y a los modelos actuales que utilizan redes neuronales para generar un lenguaje fluido.
Sin embargo, la práctica subyacente de calcular las probabilidades ha seguido siendo la misma. Aunque la escala y la forma han cambiado inmensamente, las herramientas de IA contemporáneas siguen siendo sistemas estadísticos de reconocimiento de patrones.
Están diseñados para calcular cómo “lenguaje” sobre fenómenos como el conocimiento, el comportamiento o las emociones, sin acceso directo a ninguno de estos. Si solicita un chatbot como chatgpt para “revelar” este hecho, lo obligará fácilmente.

Ai siempre está calculando
Entonces, ¿por qué no reconocemos fácilmente esto?
Una razón importante tiene que ver con la forma en que las empresas describen y nombran las prácticas de las herramientas generativas de IA. En lugar de “calcular”, las herramientas generativas de IA están “pensando”, “razonamiento”, “búsqueda” o incluso “soñador“.
La implicación es que al descifrar la ecuación de cómo los humanos usan patrones de lenguaje, la IA generativa ha obtenido acceso a los valores que transmitimos a través del lenguaje.
Pero al menos por ahora, no lo ha hecho.
Puede calcular que “yo” y “usted” es más probable que se coloque con “amor”, pero no es ni un “yo” (no es una persona), ni entiende “amor”, ni, para el caso, usted, el usuario que escribe las indicaciones.
La IA generativa siempre es simplemente calculador. Y no debemos confundirlo con más.
Eldin MilakProfesor, Escuela de Medios, Artes Creativas e Investigación Social, Universidad Curtin
Este artículo se republicó de La conversación bajo una licencia Creative Commons. Leer el artículo original.