NIÑEZ, ADOLESCENCIA Y REDES SOCIALES
“Prohibir o no prohibir”: esa no es la (única) cuestión
Opinión de María Capurro Robles, coordinadora de proyectos de OBSERVACOM.
Hace algunas semanas el presidente del gobierno español anunció, entre otras medidas, que se establecerían límites para el acceso de adolescentes menores de 16 años a las aplicaciones de redes sociales de las más grandes empresas tecnológicas. De esta manera, España sigue el camino de otros países como Australia, Francia, Reino Unido y Dinamarca, que ya han implementado este tipo de medidas, o evalúan hacerlo en forma inminente.
El contexto de estas decisiones es un escenario de riesgos y daños constatados cada vez más urgente: acoso en línea, victimización sexual de niños y niñas, exposición a contenidos perjudiciales para su desarrollo como el acceso a la pornografía, e impactos negativos en la salud mental, para mencionar los aspectos más graves. Son problemas diferentes y requieren respuestas específicas, pero comparten una raíz común: las plataformas digitales -tal como funcionan actualmente- no son espacios seguros para el bienestar de las infancias.
Además de las situaciones documentadas por investigaciones en distintos países, actualmente se realizan, por ejemplo, en Estados Unidos, juicios contra las grandes tecnológicas. Estas empresas, acusadas de generar adicción en niñas, niños y adolescentes a través del diseño de sus plataformas de redes sociales, pretenden ampararse en la denominada Sección 230 de la Ley de Decencia de las Comunicaciones que las eximiría de responsabilidad por las publicaciones de sus usuarios.
Pero la discusión no son las publicaciones de terceros. Lo que está en juego es la responsabilidad de estas empresas globales por el diseño de sus plataformas y el funcionamiento de los algoritmos implementados con objetivos comerciales. Las plataformas no son meras autopistas para la circulación de información sino formas discursivas en sí mismas y por eso debe investigarse y juzgarse su responsabilidad.
La medida regulatoria de prohibición o retraso de acceso a redes para adolescentes menores de 15 o 16 años (según los distintos proyectos), irrumpe con fuerza en el debate global a partir de su entrada en vigor en Australia el 10 de diciembre de 2025, y de los anuncios de decisiones similares en otros países.
¿Existen en otros ámbitos de la vida de niños, niñas y adolescentes límites de acceso a ámbitos, contenidos o servicios basados en la edad? Sí. La Convención sobre los Derechos del Niño y otros estándares internacionales e interamericanos así lo prevén y existen consensos sostenidos en particular en el ámbito de la información y el entretenimiento, de acuerdo con los cuales el material pornográfico, por ejemplo, sólo debiera ser accesible a partir de los 18 años. Del mismo modo, todas las medidas de clasificación por edad de contenidos audiovisuales, videojuegos, cine y programación televisiva (y, por tanto, la restricción para que accedan a ellos) se basan precisamente en el imperativo de proteger a las infancias y adolescencias según su edad y grado de madurez: a medida que incorporan capacidades de interpretar e interactuar con esos contenidos y entornos, la protección va cediendo.
En el entorno digital, los contenidos pornográficos y los juegos de azar también deberían estar vedados para menores de 18 años…, aunque así lo indican las leyes, la ludopatía digital juvenil y el acceso temprano a material de contenido sexual en Internet y plataformas, están poniendo en jaque la salud mental y los vínculos sexoafectivos presentes y futuros de miles de niños y niñas.
Ahora bien, ¿no tienen ya las plataformas de redes sociales límites de edad para el acceso? ¿Qué diferencia estas políticas corporativas de las prohibiciones de las que hablamos ahora? En realidad, lo que hoy identificamos como límite de acceso —en Estados Unidos situado legalmente en los 13 años— se refiere a la edad de consentimiento parental para procesar los datos de niñas, niños y adolescentes, pero no exige la verificación fehaciente. Por este motivo, es un “límite” muy fácil de transgredir.
El “corazón” del problema
La urgencia es entendible: las familias, las escuelas y la sociedad en general demanda respuestas a problemas que parecen desbordar todas las capacidades individuales, sociales e institucionales. La prohibición de uso de redes sociales busca mostrar decisión política, pero genera un golpe de efecto: atrapados en un debate maniqueo (¿si o no?) perdemos el foco del problema real.
Limitar el acceso en función de la edad no ataca el “corazón” del problema que es el modelo de negocios de las big techs basado en la extracción y monetización de los datos de todas las personas, incluidos niños, niñas y adolescentes. Contactos, preferencias e intereses de todo tipo nutren en tiempo real los algoritmos que orientan la publicidad hipersegmentada y los contenidos. A mayor tiempo de pantalla, más posibilidad de extraer los datos en base a los cuales moldear comportamientos, ideas y emociones.
Las plataformas están diseñadas con este objetivo y en base a un público genérico y adulto. Por eso, los niños, niñas y adolescentes están interactuando en un mundo que no está diseñado para atender sus necesidades y mucho menos garantizar sus derechos. Todo lo contrario, tal como funcionan actualmente, las plataformas exprimen su experiencia digital y hace de ella una fuente de ganancias inconmensurable.
Por supuesto que muchos niños, niñas y adolescentes utilizan también estos espacios para interacciones provechosas, para expresar y compartir ideas, para estar en contacto, para movilizarse en torno a demandas que consideran justas. En realidad, con este tipo de objetivos funcionaron en sus inicios las redes sociales hasta que fueron absorbidas por la economía de escala de los datos.
En definitiva, sin medidas que impacten en este modelo, no habrá protección efectiva de las infancias y adolescencias.
Sobre la verificación de edad y sus riesgos
La prohibición en tanto medida de protección recibe cuestionamientos desde distintas perspectivas.
Una es la que comentábamos en el apartado anterior: es insuficiente y desvía la discusión sobre atención del problema principal que, además, nos afecta a todas las personas por igual. También se advierte sobre efectos negativos en el acceso a la información, la desconexión de niños y niñas que están en zonas rurales, en condiciones de vulnerabilidad o que utilizan el entorno digital para reforzar su identidad, recibir apoyo de pares o de servicios de acompañamiento en situaciones de riesgo.
Del mismo modo, se alega que la prohibición puede movilizar a niños y niñas a conectarse por vías y en espacios digitales aun menos seguros, y que quedan al menos inicialmente fuera del alcance estas normas, aplicaciones de mensajería, juegos en línea e incluso chatbots de inteligencia artificial en los que se plantean interacciones de riesgo ¿Qué evidencia respalda el límite de 16 años? ¿Por qué Francia propone 15? Son otros interrogantes de un debate que es interdisciplinario por definición.
Algunas de estas legítimas advertencias pueden responderse con regulaciones que limiten el poder de las plataformas —las comentaremos en el próximo epígrafe—, con políticas eficientes de alfabetización digital, con el fortalecimiento de espacios digitales y plataformas no basadas en lógicas algorítmicas (BeReal, Cosmoy o Perfectly Imperfect, para mencionar algunas) y con medidas que refuercen la seguridad de niños, niñas y adolescentes en Internet en todos los espacios.
Sin embargo, mucho más difíciles de responder son los cuestionamientos legítimos sobre la implementación de los sistemas de verificación de edad de usuarios y usuarias. Puesta en manos de las plataformas y sin supervisión oportuna, adecuada y eficiente, la verificación de edad puede potenciar la extracción de datos personales y vulnerar (aún más) la privacidad de todas las personas que utilizan las plataformas y de los propios niños, niñas y adolescentes que se busca proteger.
Las tecnologías de verificación debieran aplicarse (como ya ocurre por ejemplo en Australia) al momento de crear la cuenta y también en el proceso de acreditación de edad de quienes son titulares de cuentas existentes. Ese proceso demanda una mayor recopilación de datos personales y la utilización de métodos de estimación o inferencia de edad que ponen en manos de las empresas la posibilidad de analizar (aun con más detalle) interacciones, patrones de actividad, fotos, videos, audios y todo material que pueda dar indicios sobre la edad del titular de la cuenta para confirmarla, eliminarla o desactivarla ¿Qué acreditaciones de seguridad y protección de privacidad demanda la implementación de sistemas de este tipo? ¿Cómo funcionaría esto a nivel global?
Los problemas en torno a la verificación de edad actualizan la trampa del capitalismo de plataformas: para la protección de niños y niñas, y la garantía de privacidad y seguridad de todas las personas, dependemos de la infraestructura digital que controlan estas empresas.
Decisiones de este tipo demandan, por tanto, además de una regulación democrática y robusta, una institucionalidad pública sofisticada, con competencias para controlar de manera eficaz y oportuna el cumplimiento de la normativa y actuar para hacerla cumplir. Son pocos los países que puedan ostentar una institucionalidad de estas características.
El cuestionamiento a los sistemas de verificación no es un obstáculo insalvable para la aplicación de medidas de prohibición y en distintos contextos se han propuesto y evaluado sistemas y tecnologías que permiten verificar la edad y a la vez proteger la privacidad de los usuarios y usuarias.
En Brasil, la ley 15.211/2025 conocida como ECA Digital (Estatuto da Criança e do Adolescente) exige la adopción de mecanismos de verificación de edad para el acceso a plataformas de menores de 16 años, efectivos, fiables y proporcionales, técnicamente seguros y auditables, un desafío regulatorio clave para esta norma que entra en vigor en marzo de 2026.
El tema es el centro de la preocupación a nivel global también por sus impactos en relación con la garantía del anonimato en Internet que habilita la libertad de expresión de miles de personas que son perseguidas por sus opiniones, sus creencias o su forma de vivir.
“Desde la raíz”: las demandas de seguridad por diseño y otras políticas imprescindibles
En este escenario, y en particular pensando en los países de América Latina y el Caribe en su mayoría rezagados en la discusión de estos temas, urge identificar bases sólidas para el debate y para la decisión política.
Por un lado, es clave recordar que el Comité de los Derechos del Niño adoptó en 2021 la Observación General 25 relativa a los derechos del niño en su relación con el entorno digital que es el estándar universal en esta materia.
Además de la responsabilización de las empresas y de la obligación estatal de regular, esta Observación General incluye una pauta específica de protección que sí apunta al “corazón del problema”. Dispone el Comité que los Estados deben prohibir por ley estrategias de publicidad, prospección comercial o mercadotecnia basadas en el tratamiento automatizado o semiautomatizado de datos personales cuando la persona destinataria del servicio sea o pueda ser con seguridad razonable, un niño, niña o adolescente. Esta es una medida busca proteger la salud mental y la privacidad al restringir el uso de sus datos para segmentación comercial, y por tanto impacta en el funcionamiento de los algoritmos de recomendación.
En Brasil, la ley ECA Digital -además de tener previsiones de restricción en función de la edad- prohíbe el perfilamiento de datos con fines comerciales y la publicidad dirigida a menores de 18 años mediante técnicas como el reconocimiento emocional o la realidad virtual y aumentada (entre otras, según el artículo 22).
La evaluación, prevención y mitigación de riesgos sistémicos y efectos perjudiciales de los servicios y plataformas en niños, niñas y adolescentes es otra obligación que incluyen distintas normativas, en particular la europea, pero también la de Brasil en nuestra región. Las funcionalidades que se identifiquen como de riesgo alto deberían modificarse para adecuar los productos a la seguridad de niños, niñas y adolescentes. Esta es una perspectiva sistémica e integral sobre el deber de cuidado.
Y es aquí donde las propuestas avanzan un poco más para situarnos en la demanda de “seguridad y bienestar por diseño” que sí apunta al problema de fondo obligando a las empresas a que los productos digitales sean diseñados para ser apropiados a la edad, de calidad y adecuados desde el inicio. Por ejemplo, a través de la eliminación de los mecanismos de “enganche” (engagement), como el scroll sin límite y la reproducción automática e ininterrumpida, dirigidas a mantener la atención en la plataforma por el mayor tiempo posible. Del mismo modo, la implementación de límites de tiempo que se adviertan a través de notificaciones específicas, y la desactivación por defecto de las notificaciones innecesarias. La transparencia algorítmica ya mencionada que permita a los usuarios y usuarias saber por qué se les recomienda un contenido y también ajustar o limitar esas preferencias según intereses personales genuinos. Otra obligación que normativas de este tipo pueden establecer es la protección de datos desde el diseño evitando patrones de manipulación y priorizando el bienestar sobre la maximización del engagement.
En el Reino Unido, organizaciones como el Molly Rose Foundation, que cuestionan los modelos de prohibición, reclaman al gobierno la adopción de medidas estructurales de este tipo como condición para que las empresas cuyos servicios alcancen a niños, niñas y adolescentes operen en el territorio. Prohibir los diseños adictivos y, en caso de que usen algoritmos, obligar a las empresas a que estos recomienden contenidos de calidad, apropiado para la edad y diversas fuentes implican una política regulatoria más audaz, exigente y garantista que solo exigir que se reduzcan los daños de diseños adictivos y que sesgan el acceso a la información de todas las personas, pero en particular de quienes más necesitan cuidado, diversidad y calidad.
En Estados Unidos, la Kids Codes Coalicion impulsa en todo el país políticas que responsabilicen a las empresas tecnológicas de priorizar la seguridad y el bienestar de los jóvenes en cada etapa del diseño del producto.
Como en otras esferas de la gobernanza democrática de las plataformas, la demanda de mayor transparencia también se incluye como parte de una protección integral de niñas y niños. Las empresas tecnológicas, en particular aquellas de mayor tamaño y relevancia, deben tener obligaciones legales de producir y divulgar de manera proactiva y oportuna información sobre el funcionamiento de sus sistemas, sobre las evaluaciones de riesgo y sobre las medidas adoptadas para revertirlos —desde una perspectiva que busque la garantía efectiva de derechos, la sola obligación de mitigar resulta insuficiente, tibia y evidentemente ineficaz para lograr ecosistemas digitales seguros para las infancias y adolescencias—.
Las empresas también tienen la responsabilidad de poner a disposición de las personas adultas a cargo de niños y niñas, mecanismos de acompañamiento y mediación parental restrictiva (lo que hemos llamado habitualmente “control parental”) que estén accesibles y cumplan con estándares basados en información y en las mejores prácticas a nivel internacional. Estos mecanismos, que son claves para la cotidianidad de muchas familias no pueden estar privatizados, es decir, definidos y diseñados de manera unilateral y exclusiva por las empresas.
Además, los Estados deben garantizar políticas sostenidas de acompañamiento y alfabetización digital para niños y niñas desde edad temprana, pero también para las personas adultas, para las familias y quienes tienen tareas de cuidado o educación.
Todas las personas estamos atravesadas por los dilemas y desafíos de la convivencia en el entorno digital y no contamos con la información y la sensibilidad adecuada para entender la envergadura del desafío. La clave no es que enseñen a usar las tecnologías tal cual existen y de manera irreflexiva, sino que aporten las herramientas para usarlas con sentido crítico y ético. Entender cómo funcionan los algoritmos, distinguir el marketing personalizado de contenidos y, dentro de ellos, cómo se generan las “burbujas” y “cámaras de eco”. Aprender a gestionar la “alimentación” algorítmica para preservar la salud mental, ampliar el acceso a la información y utilizar de manera provechosa lo que las plataformas pueden aportar. Generar habilidades para construir un entorno digital seguro y una vincularidad sana y responsable en el entorno digital.
Estas capacidades y habilidades deben estar pensadas con vocación de trascender las tecnologías y las aplicaciones específicas (deben poder pensarse para las plataformas, pero también para los recursos de la inteligencia artificial desde una perspectiva integral de la experiencia digital).
Estas políticas, así como las campañas públicas de información y sensibilización sobre estos temas o las políticas de investigación aplicada que sirvan como insumo para regulaciones u otras medidas, no requieren marcos normativos que las fundamenten. Dependen del compromiso y la voluntad política de los Estados en todos sus niveles. Pueden comenzar a realizarse ya mismo.
A modo de cierre
La protección de niños, niñas y adolescentes en el entorno digital se nos representa como un desafío inabordable. El “avance” tecnológico movilizado por el capitalismo del mercado y la vigilancia, hace parecer inútiles todos los pasos dados. En el contexto de América Latina y el Caribe los escenarios regulatorios y la institucionalidad vigente son débiles, en contraposición al poder del lobby de las empresas tecnológicas que pretende ganar todas las batallas.
En este contexto, es imprescindible pensar estratégicamente qué medidas regulatorias de protección de los derechos de las infancias debemos impulsar y cómo construir los consensos sociales, las alianzas y el conocimiento técnico necesarios para legitimarlas.
Una regulación sólida y bien enfocada es no solamente una obligación jurídica de los Estados sino también el único mecanismo con el que cuentan las democracias para transformar la lógica que nos ha traído hasta aquí. La autorregulación y los compromisos éticos y de buenas prácticas de las empresas se han mostrado ineficaces no solamente en relación con la protección de niños y niñas sino también en relación con otras problemáticas como la desinformación, porque no alteran en un ápice el modus operandi de sus negocios.
Las medidas de restricción de edad pueden ser un componente de una regulación integral que apunte al modelo de negocios de las empresas tecnológicas y a sus impactos en la vulneración de derechos de niños, niñas y adolescentes, pero siempre que existan garantías —de las que hoy carecemos— de que la verificación de edad no terminará violentando otros derechos y consolidando la vigilancia y una mayor extracción de datos por parte de las plataformas. Es preciso que los gobiernos den respuesta a problemas que crecen, voraces, afectando la vida de miles de niños, niñas y adolescentes. La desigualdad estructural de nuestro contexto regional torna este panorama aún más complejo y urgente.
Las oportunidades políticas para dar estos debates no son muchas. Por eso urge construir respuestas integrales y evitar debates maniqueos que nos hagan caer en la trampa de eludir los problemas de fondo y dejar de exigir al poder las decisiones que debe tomar.