Por qué las prohibiciones no protegerán a los niños

Los políticos se apresuran a bloquear el acceso de los menores de 16 años a las plataformas sociales, pero el peligro es mucho más profundo que el tiempo frente a la pantalla o el desplazamiento de los adolescentes, advierte Vendan Ananda Kumararajah. La verdadera amenaza reside en los sistemas creados con fines de lucro, no para la infancia, y sólo un rediseño de las propias plataformas hará que el mundo en línea sea realmente seguro para los jóvenes.

Las nuevas restricciones a las redes sociales para menores de 16 años en Australia entraron en vigor esta semana, y una nueva investigación del Reino Unido muestra que más de la mitad de los adultos británicos apoyarían una prohibición similar. El instinto es comprensible. Los padres se sienten superados por las plataformas opacas que moldean la vida de sus hijos, mientras que la confianza en las empresas tecnológicas se está erosionando rápidamente. Sólo el 13% de los adultos del Reino Unido dicen que confían en las plataformas de redes sociales con datos biométricos, una cifra sorprendentemente baja en una era en la que la tecnología de estimación de la edad se está volviendo fundamental para las leyes de seguridad en línea.

Pero detrás de los titulares se esconde un dilema sistémico más profundo. Los niños necesitan cada vez más estar en línea para aprender, socializar y participar en la cultura digital. Al mismo tiempo, los padres perciben que los entornos que habitan han sido diseñados para la optimización comercial más que para el bienestar del desarrollo. Ésta no es una contradicción que pueda resolverse únicamente mediante prohibiciones. Es un síntoma de una arquitectura de gobernanza que no ha logrado evolucionar.

La plataforma social moderna es una máquina optimizada para la atención, el crecimiento y la extracción de datos. Esto no es una falla moral de empresas individuales; es una característica estructural del sistema en el que operan. Los incentivos que impulsan el comportamiento de la plataforma no se alinean naturalmente con la seguridad, la dignidad o la integridad del desarrollo de los usuarios jóvenes.

Esta es la razón por la que incluso las regulaciones bien intencionadas a menudo se quedan cortas. Los requisitos de verificación de edad se están expandiendo a nivel mundial, pero la confianza del público sigue siendo baja. La mayoría de los adultos apoyan en principio los controles de edad, pero sólo cuando los mecanismos preservan la privacidad y son transparentes. Sin tales garantías, la garantía de la edad se convierte en otro punto de ansiedad en un debate ya polarizado.

Lo que los padres expresan, a menudo sin el vocabulario necesario, es un profundo malestar con los sistemas que carecen de responsabilidad ética. Quieren más que filtros de contenido o controles parentales. Quieren saber que la maquinaria más profunda del mundo digital reconoce la infancia como algo que vale la pena proteger.

Si la sociedad llega al punto en que prohibir a los menores de 16 años el uso de las redes sociales parece ser la opción más viable, revela algo importante: a saber, que, en primer lugar, no hemos construido entornos digitales adecuados para los niños. Una prohibición puede crear un respiro, pero evita la pregunta más difícil de qué se necesitaría para que los espacios en línea fueran intrínsecamente seguros para los jóvenes en lugar de selectivamente restrictivos. Las correcciones superficiales, como la moderación de contenido, las herramientas de generación de informes o incluso las comprobaciones biométricas de edad, operan en la periferia del sistema. Los verdaderos problemas son estructurales, y los problemas estructurales requieren soluciones arquitectónicas.

Las aplicaciones sociales dominan las pantallas que los niños usan todos los días, incluso cuando los gobiernos se apresuran a controlarlas. Crédito: Pixabay

Para ir más allá de las prohibiciones y las intervenciones superficiales, las plataformas sociales deben adoptar una arquitectura de gobernanza que examine cómo se toman las decisiones, cómo los incentivos moldean el comportamiento y cómo se integran las restricciones éticas en todo el sistema. Esto requiere tres capas entrelazadas.

Viabilidad ética: garantizar que los sistemas permanezcan alineados con el bienestar infantil.
Antes de su implementación, se debe exigir que las plataformas demuestren viabilidad ética: si el diseño, los algoritmos y los flujos de datos del sistema respaldan o socavan las necesidades de desarrollo de los niños. Esto implica evaluar cómo los sistemas de recomendación manejan la vulnerabilidad, identificar vías algorítmicas que empujan a los menores hacia contenido dañino y probar si el diseño de la plataforma fomenta la agencia o la dependencia. Este no es un llamamiento moral; es una expectativa de gobernanza. Así como los sistemas de aviación deben demostrar su seguridad antes del vuelo, las plataformas digitales deben demostrar su idoneidad ética antes de su uso. Seguimiento de distorsión: seguimiento de la deriva algorítmica en tiempo real.
Incluso los sistemas bien diseñados se degradan cuando los incentivos distorsionan su comportamiento. Por lo tanto, una arquitectura de gobernanza debe rastrear continuamente la deriva sistémica, observando cuándo los algoritmos cambian hacia patrones de participación adictivos, cuando los ecosistemas de contenido se polarizan o sensacionalizan, cuando las presiones comerciales comienzan a anular las limitaciones de seguridad y cuando surgen formas sutiles de explotación a través de ciclos de retroalimentación. El problema hoy es que las plataformas tienden a intervenir sólo después de la protesta pública. La gobernanza arquitectónica exige que la distorsión se detecte y corrija antes de que el daño aumente. Agencia legítima: permitir la participación apropiada para la edad.
La capa final se centra en crear formas para que los usuarios jóvenes participen de forma segura y significativa, con límites que se alineen con su etapa de desarrollo. Esto incluye diseñar ecosistemas digitales seleccionados para usuarios más jóvenes, desarrollar una estimación de la edad en el dispositivo transparente y que dé prioridad a la privacidad, proporcionar mecanismos que brinden claridad a los tutores sin invadir la autonomía, establecer rutas de rendición de cuentas que los reguladores puedan auditar y crear vías que se expandan a medida que los niños maduran. La agencia no es exposición; es la capacidad de navegar en entornos construidos teniendo en mente la integridad del desarrollo.

Este modelo arquitectónico traslada la seguridad de la reacción al diseño. En lugar de depender de prohibiciones, moderación después del daño, soluciones impulsadas por las relaciones públicas o respuesta a las crisis, las plataformas operarían según principios de diseño ético, corrección de derivas en tiempo real, gobernanza transparente y ejecutable y entornos configurados en torno a cómo crecen los niños. Este enfoque operacionaliza la seguridad infantil en el nivel donde se origina el daño: en el comportamiento del sistema, no en el comportamiento del usuario.

El modelo disuelve la contradicción central entre la necesidad de proteger a los niños y la necesidad de que estén en línea para aprender y desarrollarse. Con viabilidad ética, seguimiento de distorsiones y agencia legítima, los niños pueden participar sin ser empujados a entornos de nivel adulto. Las plataformas pueden verificar la edad sin recopilar datos biométricos. Los reguladores ganan en responsabilidad sin demandas de datos invasivos. Los padres recuperan la confianza porque el propio sistema impone límites. Las plataformas continúan innovando y creciendo a través de ecosistemas diferenciados y seguros. La conversación pasa del control a la capacidad: de excluir a los niños a diseñar un mundo digital digno de ellos.

Una nueva investigación muestra que el apoyo del público a la estimación de la edad facial se triplica cuando las imágenes nunca salen del dispositivo. Esto revela algo esencial: el público no rechaza la garantía de edad; Rechazan los sistemas que tratan la seguridad como sinónimo de vigilancia. La gobernanza arquitectónica hace que la garantía de edad que preserva la privacidad sea parte de un sistema ético más amplio en lugar de una herramienta aislada o un eslogan político.

El debate sobre las prohibiciones a menores de 16 años refleja una búsqueda pública de certeza en sistemas que actualmente ofrecen muy poca de ella. La verdadera oportunidad reside en rediseñar las arquitecturas de las plataformas y la gobernanza para que la seguridad sea estructural, se respete la privacidad, se fomente la agencia, la confianza sea posible y la infancia no sea un daño colateral en la carrera por el compromiso. La pregunta no es si los niños deberían estar en línea. Ya lo son y lo serán. La pregunta es si podemos construir sistemas digitales dignos de su presencia.

Vendan Ananda Kumararajah es un arquitecto de transformación y pensador de sistemas reconocido internacionalmente. Creador del Modelo A3, un marco cibernético de nuevo orden que une la ética, la conciencia de la distorsión y la agencia en la IA y la gobernanza, une la antigua filosofía tamil con la ciencia de sistemas contemporánea. Miembro del Chartered Management Institute y autor de Navigating Complexity and System Challenges: Foundations for the A3 Model (2025), Vendan está redefiniendo cómo la inteligencia, la gobernanza y la ética se interconectan en una era de tecnologías autónomas.

LEER MÁS: ‘El fallo sobre anuncios de empleo de Facebook abre una nueva era de responsabilidad para la inteligencia artificial’. El organismo de control de la igualdad de Francia dictaminó que el algoritmo de publicidad laboral de Facebook incurrió en discriminación indirecta de género, un hallazgo que por primera vez trata el sesgo en el código como una violación de la ley de igualdad. Aquí, Vendan Kumararajah examina un precedente que extiende la responsabilidad de los tomadores de decisiones humanos a los sistemas mecánicos: un cambio con importantes implicaciones para la contratación, la atención médica y las finanzas, donde los algoritmos ahora dan forma al acceso al trabajo, al crédito y a la atención.

¿Tiene noticias para compartir o experiencia para contribuir? El europeo acoge con agrado las opiniones de líderes empresariales y especialistas del sector. Póngase en contacto con nuestro equipo editorial para obtener más información.

Imagen principal: Producción Kampus/Pexels