El verdadero desafío de IA es humano, no técnico: la revista europea

A medida que las empresas se apresuran a implementar herramientas de IA, corren el riesgo de pasar por alto el componente más crítico: el cerebro humano. Sin alineación cognitiva y una comprensión más profunda de cómo aprenden las personas, la automatización puede hacer más daño que bien, advierte a la Dra. Sarah Chardonnens

Recientemente estuve en una reunión de estrategia con una gran organización cuando alguien me hizo una pregunta que he escuchado más de una vez: “Tenemos los sistemas de IA en su lugar, ¿por qué no nuestros equipos toman mejores decisiones?”

Es una pregunta que habla de un problema mayor. Las empresas están corriendo para adoptar inteligencia artificial, algoritmos de capas en recursos humanos, logística, finanzas y diseño de productos. Las herramientas se están volviendo más rápidas, más integradas y más potentes. Pero debajo de la superficie, algo sale mal en silencio: la gente no sabe cómo trabajar con ellos.

El problema no es la falta de tecnología, sino más bien de preparación cognitiva. Hemos implementado la automatización más rápido de lo que hemos equipado a las personas para que piensen de manera crítica, reflexiva o independiente en respuesta a ella. Y al hacerlo, hemos creado entornos donde la toma de decisiones a menudo es pasiva, apresurada o no examinada.

“Lo que falta no es funcionalidad. Lo que falta es la fluidez”.

Vengo de una experiencia en ciencia cognitiva e investigación educativa, y he pasado más de una década estudiando cómo las personas aprenden, se adaptan y se autorregulan. Lo que he visto, una y otra vez, es que las estrategias de transformación digital rara vez explican cómo funciona el cerebro humano. Hay una tendencia a tratar la IA como plug-and-play, cuando lo que realmente se necesita es un rediseño de cómo las personas se involucran con la información, las decisiones y la incertidumbre.

El riesgo de cumplimiento pasivo
En un caso informado, una empresa de logística implementó un sistema de IA que reasignó tareas basadas en datos de comportamiento. Los resultados iniciales mostraron una eficiencia mejorada, pero poco después, comenzaron a surgir signos de desconexión y drenaje del talento. Nadie podía explicar la lógica detrás de las decisiones del sistema. Los empleados se sintieron alienados, escritos. Algunos dejaron de hacer preguntas por completo.

Este es un patrón familiar. Y señala algo más profundo que las métricas de rendimiento. Cuando las personas no entienden cómo o por qué un sistema se comporta como lo hace, comienzan a adivinarse a sí mismas, o, lo que es peor, deja de participar por completo.

AI no causa eso. La IA mal implementada lo hace. Más específicamente, la IA que se introduce sin a tierra pedagógica, sin ayudar a las personas a construir los marcos mentales que necesitan para trabajar de manera inteligente.

Cuando hablo con los equipos de liderazgo, trato de cambiar la conversación. No se trata solo de cómo funciona el sistema, sino también de cómo las personas responden. Cómo lo piensan. Cómo lo cuestionan, o no. Esto no es capacitación técnica, entonces, sino más bien el desarrollo cognitivo.

Construyendo fluidez cognitiva con el modelo de sinapsis

La brecha real no está en la funcionalidad de las herramientas en sí, sino en la fluidez con la que las personas las usan.

La fluidez en este sentido significa competencia y confianza. Significa poder interrogar una recomendación generada por la IA, comprender la lógica que la sustenta y tomar una decisión informada sobre si seguirla. Eso requiere más que capacitación en herramientas. Requiere capacitación para pensar.

“Lo que falta no es una herramienta. Es la capacidad de pensar críticamente junto a ella”.

Muchas organizaciones invierten en kits de herramientas, módulos de incorporación y seminarios web, pero estas a menudo se detienen en la competencia a nivel de superficie. Enseñan a las personas cómo usar herramientas, pero no cómo pensar con ellas. Ahí es donde comienzan los riesgos. Las decisiones se toman sin crítica. Los sesgos se arrastran desapercibidos. Los equipos aplazan al sistema en lugar de comprometerse con él.

Por lo tanto, esto es más una brecha de pensamiento que una brecha de habilidades. Y lleva a lo que yo llamo desconexión cognitiva: un estado en el que las personas ya no se sienten responsables de los resultados de su trabajo, porque creen que el sistema está tomando las decisiones.

La buena noticia es que esto se puede abordar. La alineación cognitiva no es abstracta ni teórica. Con los marcos cognitivos correctos, existe un fuerte potencial para ayudar a las personas a comprender mejor lo que están haciendo los sistemas inteligentes y cómo pueden mantener el control de su propio juicio.

Basándose en aproximadamente 400 estudios científicos, he conceptualizado un marco cognitivo llamado sinapsis, una forma de comprender cómo aprendemos y cuáles son los beneficios y riesgos de la IA en cada etapa de ese proceso. No es un programa de capacitación o un manual del usuario, sino un modelo para dar sentido al aprendizaje solo.

El modelo se basa en cuatro capas: atención y activación, ajuste interno, autorregulación reflexiva y consolidación de memoria. Estos se basan en el trabajo fundamental en neurociencia y psicología educativa, incluidas las ideas del neurocientífico francés Stanislas dehaene, cuya investigación sobre los ciclos de aprendizaje del cerebro ha influido en cómo pensamos sobre el compromiso, la retroalimentación y la memoria; Olivier Houdé, especialista en inhibición cognitiva y la capacidad de anular las respuestas impulsivas con pensamiento reflexivo; y Barry Zimmerman, cuyo trabajo sobre el aprendizaje autorregulado sigue siendo crítico para comprender la autonomía en entornos complejos.

Estas cuatro capas no son pasos rígidos, sino procesos dinámicos. En la configuración del mundo real, se superponen e influyen entre sí constantemente. Por ejemplo, si un usuario no se siente emocionalmente seguro o seguro en la primera etapa (atención y activación, nunca se involucran completamente con la tarea. Del mismo modo, sin tiempo para reflexionar y regular su aprendizaje, incluso una interacción AI técnicamente exitosa puede no dar como resultado un conocimiento o habilidad duradera.

No siempre lo explico de esa manera en una sala de juntas. Pero sí hablo sobre la necesidad de hacer comentarios, darle espacio a las personas para probar su propio pensamiento, estructurar momentos de reflexión, y para evitar abrumar al cerebro con constantes indicaciones y automatización.

Haciéndolo funcionar en el suelo

Lo poderoso es que estas ideas no solo pertenecen a la teoría. Si bien aún no tenemos datos científicos definitivos sobre la implementación del mundo real, el modelo de sinapsis ofrece un camino prometedor a seguir. En mis conferencias e investigaciones, he explorado cómo podría aplicarse a plataformas de aprendizaje adaptativas y entornos de capacitación corporativa, donde el contenido podría dividirse en secuencias manejables, ideas clave reforzadas a través de la repetición y el espacio permitido para la reflexión, en línea con los ritmos cognitivos naturales. Algunos colegas están comenzando a explorar estas aplicaciones, y el interés temprano sugiere un potencial significativo para mejorar cómo la IA se integra en los procesos de aprendizaje.

“Si su sistema de IA elimina la fricción, pero también elimina el pensamiento, no está ayudando”.

He visto la diferencia cuando las organizaciones comienzan a pensar de esta manera. Una empresa global con la que trabajé reconstruyó su incorporación en torno a los hitos cognitivos en lugar de los tutoriales de productos. En lugar de medir la velocidad, midieron la retención. En lugar de automatizar las correcciones, provocaron reflexión. El rendimiento no solo mejoró, sino que el equipo informó sentirse más seguro y controlado también.

También he trabajado con equipos de liderazgo en salud y finanzas, donde las apuestas son más altas y la complejidad de la información aún mayor. Lo que necesitaban no era otra demostración técnica: era una forma de ayudar a su gente a construir la resistencia mental y las habilidades de autorregulación para seguir involucrados cuidadosamente con herramientas que operan más rápido que la intuición.

En ambos casos, el cambio proviene de volver a poner el cerebro en la estrategia, un enfoque que defiendo a través de la investigación y la discusión en curso con líderes y equipos.

Incrustar el aprendizaje humano en la estrategia tecnológica

Esa es una pregunta que más organizaciones deben hacer. Con demasiada frecuencia, los tomadores de decisiones suponen que mientras un sistema sea técnicamente sólido, se usará de manera inteligente. Pero no es así como funciona el aprendizaje humano. Sin andamios reflectantes, la mayoría de los usuarios recurrirán al instinto, o peor, cumplimiento. Confiarán en las salidas sin análisis, seguirán las instrucciones sin contexto y adoptarán herramientas sin comprenderlos realmente.

La lección es simple: las herramientas digitales son tan buenas como las mentes que las usan.

Demasiadas organizaciones están sobrecargadas técnicamente y poco preparadas cognitivamente. Ese desequilibrio crea riesgos reales: malas decisiones, desconexión y una fuerza laboral que es buena para el cumplimiento pero mal en la adaptación.

Otros investigadores y organismos de políticas han llamado la atención sobre esta brecha. Por ejemplo, la OCDE ha pedido un mayor enfoque en las habilidades cognitivas necesarias para usar la IA de manera efectiva en el lugar de trabajo, mientras que la estrategia educativa de la UNESCO enfatiza cada vez más el aprendizaje autorregulado y centrado en los humanos en la era digital. Estos hallazgos hacen eco de lo que veo a diario: que el éxito de la IA depende de si los humanos pueden pensar críticamente en conjunto con las máquinas.

“El éxito de la IA depende de si los humanos pueden pensar críticamente en conjunto con las máquinas”.

Y este desafío solo va a crecer. A medida que los modelos de idiomas grandes y las herramientas generativas de IA se integran más en los flujos de trabajo cotidianos, la necesidad de una participación crítica se volverá más apremiante. Estos sistemas son persuasivos y a menudo convincentes, pero no son inherentemente precisos o sabios. Sin las habilidades para evaluar, desafiar y contextualizar su producción, los usuarios corren el riesgo de ser engañados o mal uso.

Es por eso que el aprendizaje debe colocarse en el corazón de la transformación digital. No de incorporación técnica, y no solo la alfabetización digital, sino el aprendizaje real y sostenido, del tipo que fortalece la cognición, mejora el control metacognitivo y permite la resolución creativa de problemas frente a la incertidumbre.

Si queremos que la IA tenga éxito a largo plazo, necesitamos centrar el aprendizaje humano, no como una idea de último momento, sino como la base. Este no es un llamado para frenar la transformación digital, sino para fortalecerla construyendo en la arquitectura humana necesaria para hacerlo sostenible. De eso se trata la alineación cognitiva. Y esa es la próxima fase de la adopción de IA.

Porque al final, la inteligencia no vive en el sistema. Vive en la persona que sabe cómo usarlo.

Dra. Sarah Chardonnens es profesor de ciencias educativas con sede en suiza en la Universidad de Educación de Maestros Friborg. Una experta en metacognición, diseño de aprendizaje e integración responsable de la IA, trabaja con instituciones y empresas en toda Europa para apoyar enfoques éticos y centrados en los humanos para la transformación digital. Ella es la autora de The Learning Revolution – Synapse Model.

Más información
www.sarahchardonnens.ch