Observacom

Demandan a las plataformas la aplicación de estándares de derechos humanos para la moderación de contenidos en Internet

¿Cómo responder a la «Infodemia» y el caos de la información? ¿Cómo implementar mecanismos de moderación de contenido en plataformas que respeten los estándares de derechos humanos? Fueron algunas de las preguntas que guiaron el panel de RightsCon 2020 sobre el Grupo de Trabajo de “Infodemia” del Foro Información y Democracia (Foro I&D).

Este Grupo fue creado por el Foro I&D –una iniciativa de Reporteros Sin Fronteras (RSF) del cual OBSERVACOM forma parte-, con el objetivo elaborar recomendaciones sobre moderación de contenidos en Internet que cumplan con los estándares internacionales.

Durante el encuentro de RightsCon, el Embajador de Asuntos Digitales de Francia, Henri Verdier, planteó la necesidad de adoptar una aproximación “agnóstica” sobre el contenido y “abrir discusiones sobre la curación de algoritmos e incluso la regulación de las plataformas… No se puede dejar que las plataformas decidan solas sobre el espacio público digital”.

Desde su perspectiva el Grupo de Trabajo Infodemia debe abordar tres aspectos: “educación para generar conciencia en la población, promover buena información e independencia para el crecimiento de la democracia, y detectar y prevenir la desinformación”.

Verdier planteó que “los gobiernos tienen que proteger ciertos principios, no podemos dejar el tema en manos de la auto-regulación de las plataformas”.

“La mejor solución (para abordar el tema de la desinformación) es promover un diálogo múltiple en el que cada actor tenga un rol (Estados, empresas, sociedad civil), se miren y monitoreen entre todos”, dijo. Pero consideró que iniciativas como las del Oversight Board de Facebook no son suficiente porque sus miembros son elegidos por la propia compañía. “No pueden decidir solos, en algún momento tienen que enfrentarse y rendir cuentas a la sociedad”, sentenció.

Por su parte, João Brant, investigador asociado de OBSERVACOM, coincidió sobre la necesidad de promover una discusión colectiva sobre el tema porque lo que está en juego es la privatización de las decisiones sobre lo que es o no verdadero.

Explicó que no siempre las regulaciones estatales son apropiadas para abordar el problema de la desinformación y señaló que “el problema es que parte de la arquitectura de las plataformas genera incentivos para la desinformación, el engaño y discursos enardecedores”.

“Las regulaciones no deben promover el monitoreo de contenidos por parte de las plataformas, ni establecer sanciones penales por la no remoción de contenidos… Las sanciones penales a usuarios individuales puede crear un efecto inhibitorio. Sin embargo, esas sanciones pueden servir para frenar el financiamiento de desinformación en las redes”, indicó.

Enfatizó en la distinción sobre los principios a proteger en ambientes privados y en ambientes públicos digitales. Mientras que en los primeros es central discutir la privacidad y la anonimidad, en el espacio público es fundamental promover la transparencia y la rendición de cuentas. “Hay que dar un debate sobre cómo definir más claramente entre comunicaciones interpersonales y masivas e implementar estándares diferentes para los tipos de mensajes”, sentenció.

En este sentido comentó que OBSERVACOM junto a 10 organizaciones de la sociedad civil elaboraron un documento sobre regulación de grandes plataformas para la moderación de contenidos en Internet, desde una perspectiva latinoamericana, en línea con los estándares internacionales de derechos humanos.

El documento plantea la idea de co–regulación, con definiciones sobre algunos estándares básicos para que las plataformas deberían cumplir. “Tenemos que preocuparnos más por los comportamientos generales de las plataformas que por piezas específicas de contenidos”, dijo.

“Las plataformas están definiendo leyes privadas que no van en sintonía con las regulaciones nacionales. Tenemos que discutir los términos de servicio de las plataformas para exigirles que se adecúen a los principios internacionales de derechos humanos”, señaló.

La propuesta aborda aspectos como transparencia, accountability, debido proceso y mecanismos de apelación pero destacó que uno de sus aspectos distintivos es la discusión sobre los términos de servicio. El documento postula que “las intervenciones sobre los contenidos de terceros deben ser proporcionales a los daños. La moderación de discursos tiene que ser abordada con herramientas más inteligentes que la remoción de contenidos. Por ejemplo, diferentes sistemas de flaggeo que alerten a los ciudadanos sobre cierto tipo de contenidos”.

En este sentido, explicó que es importante la aplicación de regulación asimétrica a las plataformas no solo en términos de su tamaño sino en relación al impacto sobre el debate público que generan.

Se puede ver el video completo de la sesión aquí.

 

ENLACES RELACIONADOS:

Foro Información y Democracia (RSF, OBSERVACOM y otros) crea Grupo de Trabajo sobre “Infodemia” con participación de Relatores de ONU y CIDH

Una solución estructural contra el desorden informativo: once organizaciones crean el Foro sobre Información y Democracia

... (en este espacio hay varias líneas de código de programación personalizado)