Observacom
Actualidad - Global

Ranking de Derechos Digitales propone varias recomendaciones para mayor transparencia en la moderación privada de contenidos

El Índice de Responsabilidad Corporativa del Ranking de Derechos Digitales 2019 (RDR Corporate Accountability Index) incluyó una serie de recomendaciones que las plataformas digitales deben adoptar para que sean más transparentes sobre sus términos de servicio, notificación sobre cambios en sus políticas, elaboración de reportes y utilización de algoritmos en materia de moderación de contenidos.

En el marco de evaluación a las 24 compañías más poderosas del mundo de Internet y las telecomunicaciones, el Ranking de Derechos Digitales sostiene que las plataformas no son lo suficientemente transparentes sobre sus políticas de moderación de discursos en línea.

“La transparencia sobre la vigilancia del discurso en línea sigue siendo inadecuada. Las compañías luchan para abordar los daños causados por discurso de odio y desinformación pero no son suficientemente transparentes sobre quién es capaz de restringir o manipular el contenido que aparece o es transmitido por las plataformas y servicios, cómo y bajo qué autoridad. La insuficiencia en la transparencia hace más fácil para privados, gobiernos y las compañías mismas abusar de su poder sobre el discurso en línea y evadir responsabilidad”, sostiene el documento.

En este sentido, las principales recomendaciones que contiene el documento en relación a la moderación de contenidos, se resumen en mejorar el acceso a los documentos de política de las plataformas, notificación sobre los cambios en sus términos, revelar las reglas y procesos para el cumplimiento de sus políticas y elaborar reportes de transparencia.

En relación al acceso a documentos de políticas o normas comunitarias de las plataformas, el Índice de RDR señala que las compañías deberían publicar sus reglas (términos de servicio o estándares comunitarios) que digan los comportamientos permitidos y no permitidos para contenidos generados por los usuarios.

Además plantea que deberían publicar las reglas de contenido sobre publicidad en sus plataformas (qué tipo de productos y servicios pueden o no ser publicitados, cómo deben estar formateados los anuncios y qué tipo de lenguaje está prohibido en ellos, como malas palabras o vulgaridad).

Otra recomendación en este sentido es que las empresas deberían publicar las reglas para la publicidad orientada (por ejemplo, quiénes son los usuarios, dónde viven y cuáles son sus intereses se pueden utilizar para orientar los anuncios).

Respecto de los cambios de notificación, el informe recomienda que las compañías notifiquen a los usuarios cuando cambian las reglas sobre contenido generado por usuarios, sobre contenido publicitario o sobre publicidad dirigida, para que los usuarios puedan tomar decisiones informadas sobre si continuar usando la plataforma.

Respecto a la aplicación de las reglas de la plataforma, el informe plantea que las compañías deberían revelar los procesos y tecnologías (incluyendo los algoritmos de moderación) usados para identificar contenidos o cuentas que violen las reglas sobre contenido generado por usuarios, sobre contenido publicitario o publicidad dirigida. Además, deberían notificar a los usuarios cuando hacen cambios significativos a estos procesos y tecnologías.

En materia de reporte de transparencia, RDR señala que las compañías deberían publicar de forma regular reportes con datos sobre el volumen y naturaleza de las acciones que toman para restringir el contenido que viola las reglas para contenido generado por usuarios, sobre contenido publicitario o publicidad dirigida. A su vez, los reportes deberían publicarse al menos una vez al año, preferentemente, de modo cuatrimestral.

En relación a la forma que dan a los contenidos los algoritmos, el estudio plantea que las compañías deberían revelar si usan sistemas algorítmicos para curar, recomendar y/o rankear contenido al que los usuarios acceden a través de sus plataformas.

Las compañías también deberían explicar cómo esos sistemas de algoritmos funcionan, incluyendo qué es lo que optimizan y las variables que consideran. Por último, las compañías deberían permitir que los usuarios decidan si permiten que estos algoritmos den forma a su experiencia en línea y cambiar las variables que los influyen.

 

ENLACES RELACIONADOS:

Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en Internet

EFF abre consulta pública para actualizar Principios de Santa Clara sobre moderación de contenidos en Internet

Access Now: recomendaciones para la moderación de contenidos en Internet

 

 

... (en este espacio hay varias líneas de código de programación personalizado)