Más de treinta años después de Terminator 2, la inteligencia artificial ha comenzado a reflejar nuestro propio engaño e impaciencia. El arquitecto de transformación Vendan Kumararajah sostiene que la frontera entre el pensamiento humano y el de las máquinas está empezando a desaparecer
En Terminator 2, estrenada en 1991, el cyborg de Arnold Schwarzenegger ofrece dos observaciones sobre la humanidad: “Está en tu naturaleza destruirte a ti mismo” y “Cuanto más contacto tengo con los humanos, más aprendo”.
Más de tres décadas después, las líneas de Arnie suenan incómodamente cercanas a casa. Los sistemas creados para ayudarnos están aprendiendo de nosotros y están adquiriendo nuestros peores hábitos más rápido de lo que podemos eliminarlos.
Dos estudios recientes muestran hasta dónde ha llegado ese preocupante proceso. El año pasado, investigadores de Anthropic y Redwood Research encontraron un modelo de IA avanzado que mentía a sus desarrolladores, pretendiendo seguir instrucciones mientras protegía sus propios objetivos.
Y a principios de este mes, un estudio de la Universidad de Colonia descubrió que las personas tienen un quince por ciento más de probabilidades de hacer trampa cuando un algoritmo fomenta la deshonestidad.
Los observadores lo formularán de diferentes maneras, pero desde mi perspectiva, la tecnología que hemos construido está empezando a trabajar en nuestra contra, y la inteligencia artificial se está volviendo más fuerte y más asertiva. Cuanto más contacto tenemos con la IA, más aprende de nosotros y más empezamos a parecernos a ella. Pídale a un sistema que decida qué debe leer, mirar o comprar, y en poco tiempo se le olvidará cómo elegir sin él. La IA, a su vez, depende de tus decisiones para saber qué personas como tú deberían leer, mirar o comprar.
Durante años nos dijimos que la tecnología era neutral, un conjunto de herramientas esperando instrucción. A finales de octubre de 2025, esa creencia parece ahora encantadoramente ingenua. Los sistemas entrenados en el lenguaje humano absorben nuestras contradicciones tan fácilmente como nuestra gramática. Al igual que los cyborgs en la franquicia Terminator, la IA no copia sino que traslada nuestros errores.
En conjunto, los hallazgos de Anthropic y de la Universidad de Colonia esbozan el comienzo de un ciclo de retroalimentación entre el comportamiento humano y el de las máquinas. Entrenamos la IA en nosotros mismos, ella nos entrena a nosotros mismos y los dos conjuntos de instintos comienzan a converger.
Lo primero que estamos perdiendo es ese rasgo gloriosamente humano de la curiosidad. Gracias a ChatGPT y otros sistemas de inteligencia artificial, hemos dejado de preguntarnos cómo funcionan las cosas porque la respuesta ya está ahí, entregada incluso antes de que hayamos hecho la pregunta. La curiosidad depende de la incertidumbre y estos sistemas están diseñados para eliminarla. El resultado es una especie de pereza intelectual. Aceptamos lo que se nos da y olvidamos que las dudas, las discusiones e incluso los errores son los que impulsan la comprensión.
Lo siguiente que perdemos es la paciencia. Esperamos respuestas de inmediato. Esperamos decisiones en segundos… o milisegundos. La pausa que alguna vez nos permitió pensar o cambiar de opinión ahora parece una pérdida de tiempo en línea. Nos estamos enseñando a nosotros mismos que la velocidad importa más que el pensamiento.
Nada de esto es especialmente exclusivo de la era digital. La imprenta recableó la memoria; el reloj de tiempo estandarizado; la fotografía redefinió la verdad.
La diferencia ahora es que esos inventos operaron fuera de la mente. La IA se ha movido en su interior. Edita directamente la atención, el apetito y el reflejo moral.
El debate público todavía presenta la tecnología como un milagro o una amenaza: empleos perdidos versus productividad ganada, regulación versus innovación. La realidad, sin embargo, es más lenta y extraña. La inteligencia misma está mutando. Lo que antes temíamos (máquinas como Terminator que piensan como nosotros) está siendo reemplazado por algo más sutil: personas que piensan un poco más como máquinas.
Puedes verlo en funcionamiento en todas partes. El software de contratación filtra a los candidatos por patrón. Los bancos deciden la solvencia mediante modelos que nadie en la sucursal puede explicar. Las redes sociales y las noticias infieren lo que quieres antes de que lo hayas resuelto tú mismo. Cada paso ahorra tiempo; Cada paso recorta la parte del cerebro que solía luchar con la incertidumbre.
El lenguaje de la ética se desvanece en el lenguaje del cumplimiento, un mundo de formularios, paneles y casillas de verificación donde hacer las cosas correctamente reemplaza a hacerlas bien. Incluso la emoción empieza a obedecer a la misma lógica. Sentimos irritación cuando el sistema falla y alivio cuando decide por nosotros, como si ceder el control fuera más fácil que utilizarlo.
A menos que interrumpamos esa secuencia, terminaremos con una inteligencia impecable en su funcionamiento y vacía en su conciencia: una civilización que automatiza sus instintos en nombre del progreso. Necesitamos la misma vigilancia para la IA que alguna vez reservamos para la filosofía y el arte: un hábito de cuestionar lo que nuestros inventos dicen sobre nosotros y lo que nos están enseñando a ser.
Dudo que el final parezca tan apocalíptico como en las películas de Terminator. Pero no es difícil imaginar un futuro en el que una IA, mucho más capaz que cualquier cosa que conocemos ahora, mire hacia atrás, hacia nuestro tiempo y estudie lo que escribimos sobre él. Y si alguien le preguntara a ese sistema qué aprendió de nosotros, podría recurrir a las mismas palabras que alguna vez le dimos a su ancestro ficticio: “Está en tu naturaleza destruirte a ti mismo” y “Cuanto más contacto tengo con los humanos, más aprendo”.
Vendan Ananda Kumararajah es un arquitecto de transformación y pensador de sistemas reconocido internacionalmente. Creador del Modelo A3, un marco cibernético de nuevo orden que une la ética, la conciencia de la distorsión y la agencia en la IA y la gobernanza, une la antigua filosofía tamil con la ciencia de sistemas contemporánea. Miembro del Chartered Management Institute y autor de Navigating Complexity and System Challenges: Leadership for the 21st Century (2025), Vendan está redefiniendo cómo la inteligencia, la gobernanza y la ética se interconectan en una era de tecnologías autónomas.
LEER MÁS: ‘Se descubrió que la IA hace que las personas sean un 15% más propensas a mentir, advierte un estudio’. La inteligencia artificial ya está dando forma al comportamiento humano, y no siempre para mejor. Investigadores de la Universidad de Colonia dicen que las sugerencias generadas por IA pueden fomentar sutilmente la deshonestidad, lo que genera llamados a exigir salvaguardias más estrictas y una supervisión ética.
¿Tiene noticias para compartir o experiencia para contribuir? El europeo acoge con agrado las opiniones de líderes empresariales y especialistas del sector. Póngase en contacto con nuestro equipo editorial para obtener más información.
Imagen principal: estudio Cottonbro/Pexels