Observacom
Actualidad - Costa RicaAnálisisMaría Capurro Robles

Luces y sombras del proyecto de Costa Rica sobre acceso y uso de plataformas por parte de niños, niñas y adolescentes

Por María Capurro Robles, coordinadora de proyectos de OBSERVACOM.

El proyecto de ley de Costa Rica combina una prohibición de acceso por edad con obligaciones de protección por diseño para las plataformas digitales. Si bien incorpora medidas relevantes frente a los riesgos que enfrentan niños, niñas y adolescentes en Internet, también abre debates sobre privacidad, libertad de expresión y distribución de responsabilidades entre Estado, empresas y familias.
Foto: Pexels

América Latina y el Caribe avanzan. Existen actualmente distintas iniciativas regulatorias que involucran los derechos de las infancias y adolescencias en el entorno digital. El enfoque de la prohibición ha sido asumido por algunos proyectos, en línea con lo que está ocurriendo con distintas legislaciones del mundo. Uno de ellos es el de Costa Rica que incluye, además de disposiciones restrictivas, algunas exigencias de protección por diseño dirigidas a las empresas.

El proyecto, basado según sus fundamentos en la preocupación por “…los efectos negativos del uso desmedido y a la libre de plataformas digitales en personas menores de edad”, se identifica con el número 25.336 y con el nombre Ley para regular el acceso y uso de plataformas digitales por parte de menores de edad. Cuenta ya con dictamen favorable de la Comisión de Juventud, Niñez y Adolescencia de la Asamblea Legislativa y ha pasado a debate en el plenario. 

En lo que sigue vamos a repasar las disposiciones que prevé para un (estricto, en nuestra opinión) control de acceso y para imponer obligaciones a las plataformas.

 

Prohibiciones: exigencias y riesgos

El proyecto establece un sistema de restricción de acceso distinguiendo entre dos tramos de edad: de 0 a 14 años y de 14 a 18. 

Para el primer tramo, “queda prohibida la creación y uso de cuentas en plataformas con interacción social para personas menores de 14 años de edad. El acceso para personas menores de 14 años se limitará exclusivamente a servicios o versiones infantiles certificadas y explícitamente diseñadas para menores de edad, con control parental activo y sin funcionalidades adictivas por defecto. Además, se prohíbe absolutamente la publicidad personalizada basada en datos de menores de edad” (artículo 4). Es decir, YouTube Kids sí, por ejemplo, pero no otras versiones de esa plataforma. 

Aquí ya se pueden identificar dos disposiciones vinculadas al diseño, establecidas para las versiones a las que sí se habilita el acceso: la prohibición de funcionalidades adictivas y de publicidad targetizada. 

El artículo 5 regula las cuentas de adolescentes entre 14 y 18 años disponiendo que para la apertura, acceso, uso, registro o creación de cuentas “las plataformas podrán implementar medidas robustas y proporcionales para determinar si un usuario es menor de edad, ofreciendo múltiples alternativas, incluida la verificación por terceros acreditados, credenciales digitales o la estimación etaria”.

Un requisito mínimo e indispensable, además de la edad y siempre que sean cuentas personales, es “aportar la Tarjeta de Identidad de Menores, con verificación de edad obligatoria”. Si tenemos en cuenta que un estándar de protección de derechos en los entornos digitales es la minimización de datos y que una de las cuestiones más complejas y debatidas en torno a la prohibición, es la verificación de edad puesta en manos de las empresas como ocurre en este caso (o de empresas tercerizadas por estas), la exigencia de un documento de este tipo justifica dejar señalada la preocupación en relación a este punto. 

Pero quizás la disposición más controversial de este esquema venga a reglón siguiente, donde la ley obliga a la autorización de personas adultas en los siguientes términos: “para los efectos del presente artículo [NdeR: es decir, para abrir cuentas entre los 14 y los 18 años] será obligatorio contar con la autorización expresa y verificable de los padres, madres o encargados legales, conforme a estándares internacionales que establecen el consentimiento parental como requisito esencial para garantizar la protección integral de la niñez y adolescencia en entornos digitales”. 

Además de su dudosa viabilidad, esta cláusula representa una restricción irrazonable al derecho a la libertad de expresión de chicos y chicas en distintas dimensiones. 

En efecto, la disposición condiciona al asentimiento parental, tanto su posibilidad de expresarse, movilizarse por causas que los convoquen y contactarse en redes, como la de acceder a la información y a opiniones diversas. Los estándares internacionales, en particular la Observación General 25/2021 del Comité de los Derechos del Niño, son claros sobre la necesidad de proteger la libertad de expresión en dos sentidos aplicables al requisito del consentimiento. 

Por un lado, establecen que la evolución de facultades, es decir, la adquisición progresiva de mayores competencias y autonomía con la edad, “reviste especial importancia en el entorno digital en el que los niños pueden participar con mayor independencia respecto de la supervisión de sus padres y cuidadores” (párrafo 19). Si la participación queda supeditada a la autorización parental, este principio se encuentra interpelado. 

Por otra parte, respecto al ejercicio de la libertad de expresión, el Comité dispone: “Cualquier restricción del derecho a la libertad de expresión de los niños en el entorno digital, como los filtros, incluidas las medidas de seguridad, debe ser legal, necesaria y proporcionada” (párrafo 59). Si tenemos en cuenta que a los 18 años se puede votar en Costa Rica, es decir, ejercer un derecho central de la democracia que requiere acceso pleno a información diversa y la posibilidad de participar en la discusión pública, también en el ámbito digital, resulta desproporcionado que las y los jóvenes requieran hasta entonces el consentimiento parental expreso y verificable para tener una cuenta en redes sociales. La exigencia de consentimiento parental también puede implicar, por ejemplo, limitantes a la libre expresión de la identidad de género, o de las ideas políticas por ser contrarias a las de sus padres, para mencionar solo dos escenarios hipotéticos, pero no alejados de la realidad en muchos contextos.

 

De obligaciones y responsabilidades

Es importante comentar que el proyecto de ley incluye un artículo que lleva por título “Sujetos Obligados” en el que establece: “Los sujetos obligados en el marco de esta ley serán personas facilitadoras de plataformas digitales, padres, madres, encargados legales y tutores de menores de edad, el Ministerio de Ciencia, Innovación, Tecnología y Telecomunicaciones y la SUTEL” (art. 6). 

En este artículo confluyen asignaciones de responsabilidad que no son equiparables y su aplicación se avizora problemática.

Las responsabilidades estatales, en cabeza del ministerio y la SUTEL tienen un carácter; las de las empresas otro; y el rol de las familias (padres, madres, tutores) es distinto. Equipararlas en esta formulación es riesgoso. La corresponsabilidad en la garantía de derechos de niños, niñas y adolescentes, no implica que las responsabilidades de los distintos actores sean similares. Tampoco que empresas que hacen millonarios negocios en el entorno digital, o los Estados que son remisos a controlarlas, puedan desligarse de sus obligaciones porque la familia no cuida adecuadamente a niños y niñas en el entorno digital —por desconocimiento, por falta de conocimiento, de recursos o por las razones que sea—. 

Es claro que las familias y las personas adultas cuidadoras tienen un rol clave, pero, así formulado, el proyecto de ley corre el riesgo de hacerle el juego a quienes se escudan en ese rol para evitar asumir sus propias obligaciones. 

Este riesgo se refuerza si tenemos en cuenta que el artículo 7.2 tiene el siguiente título: “Los padres, madres, encargados legales y tutores de menores de edad deberán”. A continuación, se detalla una serie de obligaciones para las familias, que incluyen, velar porque los menores de 14 años no accedan ni utilicen redes e instalar controles parentales. También, “supervisar activamente el uso que sus hijos menores hacen de la tecnología, especialmente en las etapas más tempranas de su desarrollo. Esto implica estar al tanto de las actividades en entornos digitales, revisar los sitios web y aplicaciones que utilizan, y monitorear sus interacciones en las redes sociales y otros espacios digitales” de acuerdo con el inciso c del artículo; y colaborar con la institucionalidad pública. 

Este alcance es peligroso: ¿podría una empresa, para eludir su responsabilidad, alegar que una madre no instaló adecuadamente un control parental o que no supervisó como debía las redes de su hijo?

 

La protección por diseño y las obligaciones impuestas a las empresas

Como señalamos al comienzo de esta nota, el proyecto tiene virtuosas disposiciones dirigidas a las empresas tecnológicas. 

Si nos detenemos en aquellas disposiciones que apuntan a los impactos negativos del diseño algorítmico, corresponde destacar las que obligan, en las cuentas de menores de 18 años —no en todas—, a desactivar por defecto mecanismos adictivos como (scroll infinito, autoplay, pull-to-refresh compulsivo, patrones oscuros que incentiven el uso compulsivo); a limitar la exposición a contenido nocivo; a ofrecer herramientas de descanso y límites de tiempo; a implementar detección proactiva de grooming y contenido sexual/violento dirigido a menores; a facilitar paneles de supervisión parental y otras herramientas de bloqueo y supervisión, incluido el “modo escuela” para el horario escolar.

Y luego se incluyen entre las obligaciones todas las referidas al control del acceso basadas en las prohibiciones que detallamos más arriba. En este marco, queda en manos de las empresas todo lo referido a la verificación de edad —sin referencias al estándar de minimización en la recolección de datos de niños, niñas y adolescentes— y la obligación de eliminar cuentas, perfiles, páginas o comunidades que “no cumplan con la ley”. 

En ese mismo artículo 7, además, existen otras disposiciones controversiales como, por ejemplo, la obligación de “detectar y bloquear proactivamente […] contenido sexual […] dirigido a menores de edad”, entre otros. La norma no refiere a contenido pornográfico sino sexual. Cabe preguntarse entonces ¿qué pasará, por ejemplo, con contenido de educación sexual adecuado para adolescentes que forme parte de una campaña pública sobre la prevención del embarazo adolescente o de enfermedades de transmisión sexual?

Por último, vale destacar previsiones que se dirigen a videojuegos e inteligencia artificial (también en el art. 7 analizado). Respecto a los primeros el foco está en aquellos con chat y funcionalidades sociales, deberán desactivar por defecto el chat de voz en cuentas de menores; tener filtrado estricto de texto y bloqueo de intercambio de archivos o imágenes. Sobre aplicaciones o servicios basados en IA, con interacciones conversacionales o emocionales, de acuerdo con el texto del artículo, “requieren de verificación de identidad, control parental y avisos claros de que se trata de una IA y no una persona real. Además, se prohíbe absolutamente el contenido sexual, erótico, romántico, de autolesiones, trastornos alimentarios, odio y manipulación emocional en interacciones con cuentas de menores”.

 

Comentarios finales

Es muy importante que la región avance en la regulación del entorno digital, y en particular de las empresas que en él operan, para garantizar los derechos de niños y niñas. Pero para ello, es clave tener presentes los estándares que existen en este tema, en particular los del Comité de los Derechos del Niño, y la perspectiva centrada en modificar realmente las condiciones estructurales que son el origen de los riesgos y daños que experimentan hoy las infancias y adolescencias en este espacio que, al mismo tiempo, les ofrece tantas posibilidades. 

Las consideraciones que volcamos en esta nota tienen por objeto contribuir en ese proceso, celebrando la iniciativa de Costa Rica pero también aportando algunas herramientas para pensar crítica y constructivamente las soluciones más adecuadas, efectivas y acordes a estándares internacionales.

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)