Si pasa por cualquier parque de la ciudad, notará estrechos senderos de tierra que atraviesan el césped. Aparecen entre las aceras, a través del césped y en las esquinas que los planificadores nunca pretendieron que la gente cruzara.
Los diseñadores urbanos llaman a estos caminos del deseo.
Se forman cuando las personas eligen sus propias rutas en lugar de las pasarelas oficiales. Con el tiempo, la hierba desaparece y el sendero informal se convierte en una evidencia visible de cómo las personas realmente se mueven por un espacio.
Durante décadas, los planificadores trataron estos caminos como errores. Hoy muchos los ven de otra manera. Los caminos del deseo revelan algo valioso. Muestran dónde el diseño original no coincidía con el comportamiento humano.
Algo similar está sucediendo dentro de las organizaciones modernas.
Los empleados ya están utilizando inteligencia artificial para redactar correos electrónicos, analizar datos, resumir documentos y generar ideas. Un gerente de marketing puede utilizar un modelo de lenguaje para preparar el texto de la campaña. Un analista financiero puede resumir informes con un asistente de inteligencia artificial. Un gerente de producto puede probar ideas a través de herramientas generativas.
A menudo esta experimentación se produce silenciosamente, al margen de los sistemas o políticas oficiales.
Este fenómeno tiene un nombre: Shadow AI.
El término se hace eco del concepto más antiguo de TI en la sombra, cuando los empleados instalaban software sin la aprobación de los departamentos de TI corporativos. Hoy el patrón se repite con la inteligencia artificial. Los trabajadores incorporan herramientas generativas a sus flujos de trabajo diarios mucho antes de que las organizaciones establezcan estructuras de gobernanza o plataformas aprobadas.
Esto plantea preocupaciones obvias. La información corporativa confidencial puede ingresar a sistemas externos sin una visibilidad clara de cómo se procesan o almacenan esos datos. Marcos regulatorios como el RGPD o la Ley de IA de la UE pueden violarse involuntariamente. Los equipos de seguridad pierden la supervisión de cómo se mueve la información a través de la organización.
Sin embargo, centrarse únicamente en el riesgo pasa por alto algo importante.
La IA en la sombra a menudo revela dónde los sistemas existentes ya no siguen el ritmo de cómo las personas necesitan trabajar. Al igual que los caminos de los deseos en un parque, Shadow AI expone dónde los empleados buscan formas más rápidas e inteligentes de completar las tareas cotidianas.
Si este comportamiento fuera raro, podría ser manejable. Los números sugieren lo contrario.
Las encuestas indican que casi cuatro de cada cinco personas que utilizan la IA en el trabajo traen sus propias herramientas en lugar de depender de los sistemas proporcionados por su empleador. Muchos interactúan con estas herramientas a través de cuentas personales en lugar de plataformas empresariales diseñadas para proteger datos confidenciales.
Las consecuencias están empezando a salir a la superficie. Los estudios sugieren que más de la mitad de los empleados admiten haber ingresado información confidencial en los sistemas de inteligencia artificial. Las organizaciones que experimentan un uso generalizado de Shadow AI informan mayores costos de infracción y una mayor exposición al riesgo regulatorio.
En otras palabras, la inteligencia artificial ya se está extendiendo a escala en los lugares de trabajo. Los marcos de gobernanza, capacitación y seguridad llegarán más tarde.
Esta brecha crea riesgos reales. También revela algo sobre cómo se desarrolla realmente el cambio tecnológico dentro de las organizaciones.
La IA en la sombra como señal organizacional
Hay otra forma de interpretar Shadow AI.
Cuando los empleados adoptan nuevas herramientas fuera de los canales oficiales, no sólo están eludiendo las estructuras de gobierno. También revelan dónde les están fallando los flujos de trabajo existentes.
En muchas organizaciones, la IA generativa aparece primero en los márgenes del trabajo diario. Los empleados experimentan redactando correos electrónicos más rápido, resumiendo documentos, analizando hojas de cálculo, preparando presentaciones o explorando ideas. Estos experimentos se llevan a cabo silenciosamente porque los sistemas oficiales disponibles aún no admiten estas capacidades.
Por lo tanto, lo que los equipos de seguridad ven como un uso no autorizado puede funcionar como una forma de diagnóstico organizacional. Shadow AI revela dónde las personas intentan moverse más rápido de lo que permiten los sistemas que las rodean.
Los pensadores urbanos han observado durante mucho tiempo un patrón similar en las ciudades. Jane Jacobs argumentó que las ciudades deberían diseñarse en función de cómo las personas realmente se mueven a través de ellas, no de cómo los planificadores imaginan que deberían hacerlo. Los caminos informales que atraviesan parques y campus proporcionan un mapa del comportamiento real.
Es posible que las organizaciones que se enfrentan al auge de la IA en la sombra deban adoptar la misma mentalidad.
En lugar de ver la IA en la sombra sólo como una falla de gobernanza, los líderes pueden tratarla como una señal temprana de dónde la inteligencia artificial podría ofrecer el mayor valor. Los experimentos informales que aparecen entre los equipos a menudo apuntan a flujos de trabajo donde la automatización, el aumento o un mejor acceso a la información podrían aumentar significativamente la productividad.
Cuando las organizaciones abordan estos patrones con curiosidad en lugar de miedo, los experimentos dispersos comienzan a revelar algo valioso. Destacan las tareas repetitivas que los empleados ya están tratando de acelerar y exponen procesos donde mejores herramientas podrían desbloquear ganancias significativas de eficiencia.
Lo que al principio parece caótico a menudo apunta a oportunidades de consolidación. En lugar de docenas de experimentos fragmentados entre departamentos, las organizaciones pueden identificar necesidades comunes y crear soluciones gobernadas y escalables en torno a ellas.
Si se maneja bien, este cambio hace más que reducir el riesgo. Proporciona a los empleados herramientas seguras que respaldan la forma en que ya trabajan, convirtiendo la inteligencia artificial de algo que requiere supervisión constante en un multiplicador de creatividad e innovación. Ignorar Shadow AI significa perder estas señales. Permite que experimentos costosos y descoordinados continúen en la sombra mientras las organizaciones pasan por alto conocimientos que podrían guiar una adopción más inteligente.
Aprendiendo de los caminos de la IA
Las organizaciones que quieran gobernar la inteligencia artificial de manera eficaz deben primero comprender cómo se utiliza ya.
La IA en la sombra no debería investigarse únicamente como un problema de cumplimiento. Debe examinarse como una señal de dónde los empleados intentan moverse más rápido de lo que permiten los sistemas que los rodean. El primer paso es la visibilidad. Los líderes deben comprender qué herramientas ya están utilizando los empleados y por qué. Las encuestas a los empleados, las auditorías técnicas y los debates abiertos entre departamentos a menudo revelan dónde se realiza primero la experimentación. Los equipos de marketing, ventas, finanzas, recursos humanos y productos frecuentemente emergen como los primeros en adoptar.
Una vez que estos patrones se vuelven visibles, el desafío pasa de la supresión a la estructura. Las organizaciones deben definir qué herramientas son apropiadas, establecer políticas de gobernanza alineadas con la sensibilidad y la regulación de los datos, y diseñar procesos que reflejen cómo se realiza realmente el trabajo dentro de la organización.
La cultura importa tanto como la política. Los empleados deben sentirse seguros al hablar de cómo están experimentando con la inteligencia artificial en lugar de ocultarla. Cuando la gente teme el castigo o la carga de trabajo adicional por adoptar nuevas herramientas, la experimentación no desaparece. Simplemente se adentra más en las sombras.
Por lo tanto, una gobernanza eficaz requiere más que reglas. Requiere un entorno donde se fomente y oriente la experimentación responsable. La capacitación, el acceso a herramientas aprobadas y barreras de seguridad claras permiten a las organizaciones transformar experimentos dispersos en progreso coordinado.
Comprender lo que ya existe en las sombras es a menudo el primer paso hacia la construcción de una estrategia de IA inteligente y resiliente.
Un pensamiento final
En la práctica, la Shadow AI rara vez es el resultado de la malicia. Más a menudo refleja desalineación y falta de comunicación dentro de la organización. Cuando los empleados se sienten inseguros al compartir sus experimentos, cuando la curiosidad se enfrenta principalmente con una corrección, el resultado predecible es el silencio.
La gente no deja de experimentar. Simplemente dejan de compartir.
Si las organizaciones quieren gobernar la IA de manera eficaz, deben comenzar por crear entornos donde sea posible una exploración reflexiva. La formación, los ejemplos prácticos y las barreras claras hacen que la experimentación responsable sea visible en lugar de oculta.
Pero la cultura es lo más importante. Cuando la curiosidad reemplaza a la sospecha, la experimentación sale de las sombras y sale a la luz.
El primer paso para gobernar la IA en la sombra es simple: comprender por dónde camina la gente.
Acerca de Aleksandra Osipova
Aleksandra Osipova es la fundadora de Apricity Lab, donde trabaja con líderes y organizaciones que navegan por la transición hacia sistemas habilitados para IA.
Escribe sobre inteligencia artificial, pensamiento sistémico y el futuro del trabajo. Puede encontrar más de su trabajo y sus conocimientos en su LinkedIn.