Por Maria José Guembe, investigadora asociada de OBSERVACOM.
El Observatorio Audiovisual Europeo publicó un informe detallado que evalúa cómo los Estados miembros y las plataformas cumplen las obligaciones de protección de los niños, niñas y adolescentes, establecidas por la Directiva revisada de Servicios de Medios Audiovisuales (DSCAV), en especial sobre acceso a contenidos perjudiciales, verificación de edad y controles parentales
La Directiva revisada de Servicios de Medios Audiovisuales (DSCAV) tiene como objetivo evitar que los niños, niñas y adolescentes (NNA) accedan a programas, videos generados por usuarios y comunicaciones comerciales audiovisuales que puedan perjudicar su desarrollo físico, mental o moral.
De acuerdo con la norma, los contenidos potencialmente perjudiciales deben estar disponibles en las plataformas de manera que los NNA normalmente no tengan acceso a ellos. La verificación de edad y los controles parentales son las medidas fundamentales requeridas a los denominados servicios de intercambio de vídeos a través de plataformas o VSPs.
El informe analiza cómo los estados traspusieron las obligaciones de la Directiva a sus legislaciones y de qué manera los VSPs presentes en cada uno de los países, incluyendo aquellas exclusivas para adultos, implementan las medidas de protección. También recoge experiencias relacionadas con las normas aplicadas a los influencers. Entre las plataformas analizadas se encuentran YouTube, Twitch, Dailymotion, X (Twitter), Facebook, Snapchat, Instagram, TikTok, Vimeo, BitChute y OnlyFans.
La DSCAV obliga a los Estados miembros a implementar los estándares mínimos que establece, otorgándoles la libertad de elevarlos si lo desean. Los Estados son responsables de definir las edades y establecer qué se considera perjudicial en cada etapa del desarrollo. Además, evalúan los posibles niveles de daño de acuerdo con los marcos legales vigentes de protección de la niñez. Por su parte, las plataformas deben determinar qué mecanismos de verificación de edad y control parental implementar para evitar el acceso a los contenidos perjudiciales.
El informe identifica una variación significativa en cómo se ha implementado la DSCAV. Una de estas diferencias es la edad a la que los niños, niñas y adolescentes pueden usar estos servicios de manera independiente y sin la necesidad de aprobación de adultos. En los distintos Estados esta edad varía entre los 14 y los 16 años, lo que resulta en diferentes niveles de protección para los servicios dentro del ámbito de la Directiva.
Otra diferencia es si las clasificaciones de contenido por edad están establecidas por normas públicas, o si se deja a los proveedores de servicios determinarlas. La mayoría de los países tienen clasificaciones reguladas por ley o por reglamentación de organismos públicos independientes. Otros, como el Reino Unido, permiten que los VSPs opten por la clasificación para cine o desarrollen sus propios códigos. Sin embargo, todos los países tienen sistemas de clasificación que pueden ser utilizados para el contenido de los servicios de intercambio de video.
La investigación demuestra que los países han tomado medidas para especificar sus expectativas sobre la verificación de edad y en muchos casos han superado los estándares mínimos de la Directiva, especialmente respecto de los contenidos exclusivos para adultos.
Algunos, como Francia y el Reino Unido, establecen que la autodeclaración de la persona no es suficiente para cumplir con el estándar de la Directiva, mientras que otros exigen verificaciones más sofisticadas. Alemania, por ejemplo, requiere dos tipos de verificaciones, una de identidad y edad al registrarse y otra al autenticarse para cada uso, para evitar la transferencia de acceso entre personas.
La Comisión Europea está elaborando estándares sobre mecanismos de verificación, incluyendo sistemas automatizados y también existen iniciativas interestatales.
El informe revela que, en general, los servicios de intercambio de video utilizan la autodeclaración de la fecha de nacimiento del usuario proporcionada durante el registro como único mecanismo de control de edad, incumpliendo con los estándares mínimos.
Sin embargo, cuando las exigencias legales aumentan se identifica la utilización de métodos de verificación de edad más precisos y sofisticados, como el uso de documentos de identificación oficiales, selfie, estimación de la edad facial basada en selfie de video, validación social y uso de otros documentos como la tarjeta de identificación de la escuela. También se están implementando otras medidas, como el uso de la IA para encontrar y eliminar cuentas de menores de edad, el uso de datos de terceros y la señalización por parte de los revisores de contenido.
A pesar de la disponibilidad de este tipo de herramientas, el estudio identificó una evidente falta de iniciativa por parte de la mayoría de los proveedores de contenido para adultos en la implementación de medidas que impidan que los niños accedan a sus servicios y estén expuestos a su contenido. Las medidas insuficientes no solo exponen a los NNA a contenido pornográfico, sino que aumentan el riesgo de explotación sexual infantil, ya que estos VSPs permiten que los usuarios sean creadores de contenido. Estas plataformas tampoco recurren al consentimiento parental para el acceso de menores de 18 años.
Desafortunadamente, el informe no analiza detalladamente la situación de los sistemas de control parental. Concluye que sólo la mitad de los principales VSPs examinados proporciona medidas de control parental, que varían en robustez, alcance y grado de personalización. Se destaca que varios países están llevando a cabo iniciativas para promover la concientización sobre las medidas de protección, algunas de las cuales son lideradas por autoridades reguladoras nacionales e incluyen la promoción, prueba y certificación de sistemas, así como el apoyo a la industria para su adopción.
Respecto de los influencers -usuarios que crean contenido y utilizan VSPs para compartirlo- el estudio no encontró evidencia en las legislaciones nacionales de obligaciones específicas de verificación de edad o control parental, solo ciertas reglas relacionadas con comunicaciones comerciales perjudiciales. Once países europeos consideran a los influencers como proveedores de servicios audiovisuales a la carta y los regulan bajo las condiciones de la DSCAV.
ENLACES RELACIONADOS:
Directiva Europea de Servicios de Comunicación Audiovisual
Regulación de la Unión Europea sobre servicios digitales, (Digital Services Act)
Nueva legislación del Reino Unido sobre seguridad en internet (Online Safety Act)