Actualidad - Global

Access Now: recomendaciones para la moderación de contenidos en Internet

La organización internacional Access Now publicó un documento con “26 recomendaciones sobre gobernanza de contenidos”, una guía basada en los estándares de derechos humanos dirigida a legisladores, reguladores y encargados de política en las empresas para la moderación de contenidos en plataformas de Internet.

El informe define tres tipos principales de estructura de gobernanza: regulación estatal, auto-regulación y co-regulación, y ofrece recomendaciones para abordar los riesgos a los derechos humanos en cada caso.

El documento contiene 13 recomendaciones para la elaboración de regulación estatal; 10 para la implementación de mecanismos de autorregulación de las plataformas, y tres recomendaciones para la co-regulación.

Recomendaciones para la regulación por parte de los Estados

  1. Respetar los principios democráticos

“Cualquier forma de regulación estatal debe basarse en una marco legal formal adoptado a través de un proceso transparente, inclusivo y democrático. La regulación debe tener un alcance definido que sea previsible y accesible para todos los actores, incluyendo a los usuarios. Debe establecer un balance en las definiciones de procedimiento individuales y altos estándares de transparencia. Debe contener una clara distinción entre las obligaciones para los estados y las responsabilidades para actores privados para proteger los derechos humanos de los usuarios”, dice el documento de Access Now.

2. Establecer puertos seguros y excepción de obligaciones

El informe señala que los regímenes de responsabilidad de intermediarios son fundamentales para la regulación estatal de contenidos.

“Apoyamos las cláusulas de puerto seguro que permiten la moderación de contenidos de modo que respete los derechos humanos. Tales cláusulas se deben establecer a través de reglas claras en un marco legal formal… Bajo ninguna circunstancia se debe permitir la delegación de las funciones gubernamentales a favor de la autorregulación en una sociedad democrática”, dice el informe.

“Se debe proteger a los intermediarios de responsabilidad por contenidos de terceras partes a través de un régimen de puerto seguro. Sin embargo, nos oponemos a la total inmunidad de los intermediarios porque los exime de tener cualquier tipo de responsabilidad, dejando a las víctimas de las infracciones sin apoyo, acceso a la justicia o mecanismos de apelación”, sostiene Access Now.

Para fortalecer el principio de certidumbre legal y predictibilidad para los intermediarios, así como para los usuarios online, reglas que protegen a los intermediarios deben ser claras y precisas y al mismo tiempo habilitar formas para abordar contenido ilegal cuando es manifiestamente ilegal o cuando el intermediarios recibe la notificación de que es ilegal.

3. No imponer una obligación general de monitoreo

“No se deben imponer obligaciones generales o específicas de monitoreo por parte de los estados sobre los actores privados. Cualquier uso de tecnologías de reconocimiento de contenidos que resulten en el ejercicio indirecto de monitoreo general no deben ser establecidas ni permitidas por ley. Ninguna disposición legal debería ordenar, incentivar o dar a las plataformas ningún tipo de indicación para filtrar de manera proactiva”, señala el informe.

4. Definir mecanismos de respuesta adecuados

“Para garantizar respuestas adecuadas que se adapten de acuerdo con la categoría específica de contenido generado por el usuario, un marco legal formal debe establecer procedimientos específicos para los mecanismos de notificación…Para que los mecanismos de notificación sean más efectivos, deben ser fáciles de usar y maximizar la información que se proporciona a los usuarios. Por lo tanto, las plataformas deben proporcionar una lista de razones para enviar la notificación”, dice Access Now.

5. Establecer normas claras de cuándo caen las excepciones de responsabilidad

Sobre este punto, la organización plantea que si bien son las cortes o agencias administrativas independientes e imparciales las que pueden determinar la ilegalidad de un contenido, se admite una notificación privada solo en casos de contenido manifiestamente ilegal siguiendo una serie de criterios. A saber, que “el contenido sea manifiestamente ilegal; que dicho contenido manifiestamente ilegal pueda ser reconocido e identificado por la mayoría de intermediarios; que el tipo de contenido esté claramente definido por ley y la notificación sobre su presencia en la plataforma no conduzca a ningún tipo de obligación de monitoreo proactivo. Sin embargo, bajo ninguna circunstancia los intermediarios pueden ser obligados o incentivados a buscar activamente contenido manifiestamente ilegal”, explica el documento.

6. Evaluar contenido manifiestamente ilegal, cuidadosamente y en una forma limitada

“Las fallas en remover adecuadamente contenido manifiestamente ilegal definido luego de una notificación privada por una tercera parte debería ser la única situación en la que las plataformas pudieran ser responsables por no remover contenido sin una orden de un juez independiente… El abuso de notificaciones privadas debe ser desalentado en la regulación estableciendo sanciones apropiadas y proporcionadas contra los usuarios o flaggers confiables involucrados”, expresa el documento.

7. Elaborar procedimientos respetuosos de derechos humanos para la notificación y acción claramente definidos por ley

De acuerdo con Access Now, los siguientes procedimientos de notificación y acción deberían ser considerados adecuados, determinados según el tipo de infracción en juego así como la categoría de contenido: notificación y notificación; el mecanismo de notificación, espera y bajada que permite a los proveedores de contenidos hacer un contra-reclamo; notificación y retirada judicial, donde las cortes revisan la legitimidad de la remoción de contenidos debe siempre estar disponible para todos los usuarios sin importar el tipo de contenido; notificación privada y retirada solo debe ser usada en casos limitados de contenido que es definido como manifiestamente ilegal.

“Los Estados deben abstenerse de adoptar mecanismos de notificación y baja de contenidos que establezcan la obligación de evitar que ese contenido vuelva a estar disponible en el futuro, generalmente a través de medidas automáticas que implican el monitoreo”, dice el documento.

Según Access Now, los requisitos mínimos para que la notificación sea válida consisten en incluir el motivo del reclamo, la ubicación del contenido; evidencia para el reclamo; consideración de limitaciones, excepciones y defensa disponible para el proveedor de contenido; declaración de buena fe.

8. Limitar las medidas temporarias e incluir salvaguardas

Siguiendo las Recomendaciones del consejo de Europa sobre los roles y responsabilidades de los intermediarios de Internet, Access Now plantea que debería especificarse en la ley: el límite de tiempo para reenviar la notificación al proveedor de contenido; el límite de tiempo para remitir una contra-notificación por parte del proveedor de contenido; el límite de tiempo para la toma de decisión sobre la remoción de contenido o su mantenimiento en la plataforma; el plazo de tiempo exacto para entregar las decisiones a todas las partes involucradas; el período de tiempo para empezar la revisión judicial de una decisión de un intermediario.

9. Que las sanciones por incumplimiento sean proporcionadas

“Cualquier sanción impuesta a los intermediarios por incumplimiento con un pedido de remoción debe ser proporcionada. Tienen que estar directamente correlacionadas con su falla para cumplir con la remoción de contenido u orden de restricción”, dice el documento.

10. El uso de medidas automáticas en casos limitados.

Cualquier uso de herramientas automatizadas debe estar basado en políticas transparentes que incluyan mecanismos de transparencia para la evaluación independiente de su creación, funcionamiento y evaluación. El uso debe ser para un propósito legítimo determinado por una autoridad judicial independiente u otro cuerpo administrativo independiente cuya decisión esté sujeta a revisión judicial.

11. Salvaguardas legislativas para el debido proceso

Esto implica proveer notificación a los proveedores de contenidos y establecer el proceso de contra-notificación para que puedan objetar reclamos individuales sobre sus contenidos.

12. Crear obligaciones de transparencia y responsabilidad a través de la presentación de reportes públicos tanto por parte de los estados como de las plataformas. De acuerdo con Access Now, los gobiernos deben garantizar que esté públicamente disponible información sobre el número y naturaleza de las restricciones a los contenidos y las categorías de información personal que solicitan a los intermediarios; las bases legales en las que se asienta el pedido; los pasos que fueron tomados como resultado de sus pedidos.

En el caso de los intermediarios, sus reportes de transparencia deberían contener información como el número de las notificaciones recibidas, el tipo de entidad que las solicitó; las razones para determinar la legalidad del contenido o cómo infringe sus términos de servicio; tiempos concretos de notificación al proveedor de contenido antes de tomar acciones; la cantidad de apelaciones recibidas.

13. Garantizar el derecho de los usuarios a apelar y de remedio efectivo

Access Now distingue entre dos mecanismos: solución de controversias provistas directamente por las plataformas y recurso judicial garantizado por los Estados.

“Los mecanismos de apelación provistos por los intermediarios de la comunicación deben ser accesibles, asequibles y transparentes. Sin embargo, nunca pueden reemplazar un remedio judicial garantizado por las cortes”, dice el documento.

Además plantea que, en el caso del recurso judicial, “siempre debe estar disponible para los usuarios online, especialmente cuando las soluciones de controversias en el nivel de los intermediarios es considerada insuficiente por las partes afectadas. Aún cuando el recurso judicial es siempre una opción en teoría, es de gran importancia que esta opción esté garantizada por ley”.

Recomendaciones de auto-regulación

En relación a las recomendaciones para plataformas para la implementación de mecanismos de auto-regulación, Access Now propone lo siguiente:

14. Evitar lesionar los derechos humanos

Entre otras acciones, se sugiere que las plataformas deben hacer que cualquier nueva política y servicio esté alineada con las protecciones a los derechos humanos y consultar con expertos en derechos humanos y organizaciones de la sociedad civil antes de lanzar nuevos productos o servicios.

15. Realizar evaluaciones de impacto de forma periódica y pública

Las plataformas deberían compartir información con investigadores y sociedad civil para que puedan evaluar de forma independiente el impacto en los derechos humanos de la moderación de contenidos y decisiones de curación.

16. Ser transparentes

Las plataformas deberían obtener consentimiento de sus usuarios sobre las reglas, criterios, sanciones y excepciones que se aplicarán a sus actividades en el servicio. A su vez las plataformas deben garantizar que dicho consentimiento pueda ser revocado de modo fácil; incluir guías para explicar los procesos internos de la compañía para interpretar y aplicar reglas de moderación; notificar a los usuarios de los cambios en las reglas; entre otros aspectos.

17. Aplicar el principio de proporcionalidad y necesidad para establecer sanciones

“La sanción que las plataformas imponen a los usuarios por violar las reglas de moderación deben ser proporcionales al daño referido y tomar en consideración la efectividad y el impacto en los derechos de los usuarios (necesidad)”, dice Access Now.

18. Considerar el contexto para la moderación de contenidos

Para hacerlo, las plataformas deberían desarrollar y revisar las reglas de moderación y curación con el aporte permanente de organizaciones de sociedad civil local, académicos y usuarios; invertir en recursos humanos y en el desarrollo de la necesaria expertise social y cultural para las decisiones sobre moderación de contenidos; prestar especial atención a los casos vinculados a zonas de conflicto y situaciones que pueden impactar en poblaciones vulnerables; y evaluar el contexto individual al juzgar el comportamiento de usuarios particulares.

19. No tomar decisiones arbitrarias o discriminatorias

Para evitar las arbitrariedades, Access Now plantea que las decisiones deben ser coherentes, sistemáticas y predecibles.

20. Fomentar procesos de toma de decisión con intervención humana, no solo automatizada.

De acuerdo con la organización, las plataformas no pueden confiar solamente en procesos de toma de decisiones automatizadas para la moderación de contenidos. Pero si la necesidades de escala o volumen de información generada por los usuarios hace de las decisiones automatizadas una necesidad, las plataformas deberían informar a los usuarios sobre el uso de esta tecnología; limitar su uso a aquellos contenidos que requieren menos interpretación sobre la violación de los términos de uso, entre otros aspectos.

21. Crear mecanismos de notificación y revisión sobre las decisiones de las plataformas en torno a la moderación de contenidos.

LAs notificaciones deberían contener información adecuada sobre qué motivó la decisión; el regla específica que se infringió; cómo las guías de moderación de contenidos fueron interpretadas: la acción que será tomada; instrucciones claras para remitir una apelación.

22. Proveer remedios adecuados para los usuarios.

Algunos de los remedios propuestos por Access Now son: la restauración del contenido eliminado en caso de que haya sido una remoción ilegítima o errónea; proveer el derecho de respuesta, con el mismo alcance del contenido que originó la queja; ofrecer explicaciones de las medidas; hacer que la información no esté disponible en forma temporal; proveedor notificación a terceras partes; proveer compensación económica.

23. Crear mecanismos de participación en la gobernanza de sus aplicaciones y servicios.

Especialmente las plataformas dominantes deberían crear mecanismos de participación de sus usuarios y otras partes interesadas en la gobernanza de sus aplicaciones y servicios para evaluar correctamente los riesgos para los derechos humanos.

Recomendaciones para la co-regulación

Por último, el documento de Access Now alude a una serie de recomendaciones para la implementación de mecanismos de co-regulación. Estas son:

24. Adopción de marcos legales participativos, claros y transparentes

“Todos los enfoques de corregulación deben cumplir con los derechos humanos internacionales, los requisitos de transparencia apropiados y el principio de participación significativa”, sostiene Access Now.

25. Las iniciativas de co-regulación no pueden reemplazar los deberes o responsabilidades de actores individuales involucrados

Los gobiernos deben cesar de fomentar que actores privados decidan sobre la legalidad de los contenidos generados por los usuarios.

26. Evitar abusos.

“Los Estados deben evitar cualquier acción que pueda conducir al abuso de medidas de corregulación, como el monitoreo general del contenido, el incumplimiento excesivo de los intermediarios y la eliminación excesiva del contenido generado por el usuario”, concluye el informe.

El informe completo se puede consultar aquí.

ENLACES RELACIONADOS:

Regulación sobre moderación de contenidos en las agendas de varios países desarrollados

Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en Internet

... (en este espacio hay varias líneas de código de programación personalizado)