Observacom
Actualidad - Regional Observacom

Crece el consenso para establecer obligaciones a las grandes plataformas en la moderación de discursos en Internet

“Cuáles son las condiciones para la moderación de contenidos en grandes plataformas” y “qué caminos se pueden adoptar en América Latina para generar garantías para la libertad de expresión” fueron los interrogantes que guiaron el tercer y último encuentro del ciclo de conferencias “Trump vs Twitter ¿Redes sociales vs debate público? Lecciones para el debate regulatorio en América Latina”.

Paulina Gutiérrez (Artículo 19), Flávia Lefèvre (Intervozes), Gustavo Gómez (OBSERVACOM) y Javier Pallero (Access Now) plantearon una serie de coincidencias sobre los riesgos, pero también la necesidad, de regular a las grandes plataformas planteando una mirada regional que recupere principios consagrados internacionalmente como los de inmunidad de contenidos de terceros, garantías de transparencia, rendición de cuentas, debido proceso y aplicación de remedios ante las decisiones empresariales que, al mismo tiempo, contemple la participación de órganos multisectoriales para la elaboración de reglas.

El Director Ejecutivo de OBSERVACOM, Gustavo Gómez, señaló que “estemos o no de acuerdo con poner límites a las plataformas, el tema está en debate en todos lados… Nos toca impedir proyectos de ley que buscan regular discursos de usuarios de redes sociales (pero también) tenemos la necesidad de avanzar proactivamente para proponer alternativas que logren garantizar libertad de expresión de usuarios frente a empresas y gobiernos”.

“Tenemos que proponer una alternativa latinoamericana con fundamentos propios… creemos que hay que mantener la no responsabilidad objetiva  de los intermediarios de Internet por contenidos de terceros que establece la CDA 230 de Estados Unidos en Latinoamérica. Pero eso no significa otorgarles impunidad total. Proteger la libertad de expresión en redes sociales necesita un planteo equilibrado que incluya límites y garantías para las plataformas: garantías para que los intermediarios actúen y al mismo tiempo protegerlos de presiones indebidas de gobiernos”, indicó.

Gómez explicó que hay que pensar en “formas de regulación democráticas e inteligentes que contengan mecanismos razonables para limitar el poder de las grandes plataformas como la transparencia, la rendición de cuentas y el debido proceso”.

Además, dijo que hay que “la regulación estatal no es la única ni la principal solución a los problemas. También es bienvenida la autorregulación (a través de los consejos de supervisión) y la co -regulación… (pero es imprescindible) establecer lineamientos para que los términos de servicio de las plataformas sean compatibles con los estándares de derechos humanos… y de buscar mecanismos para empoderar a los usuarios de las redes sociales”.

Paulina Gutiérrez, Oficial del Programa Legal & Policy de Artículo 19 consideró que “no podemos importar la Sección 230 de la DCA como algo inmediatamente aplicable a América Latina. Sin embargo hay dos elementos que esa normativa que sirvieron para la creación de estándares internacionales: la inmunidad de las plataformas por contenidos de terceros y la remoción de contenidos por orden judicial”.

Planteó, además, que “determinar la legalidad de un contenido no puede ser derivada a las plataformas. Deben ser las cortes y/o los gobiernos”.

«Desde Artículo 19 se propone descentralización de servicio de moderación de contenidos para atender el problema de la concentración en Internet… Que no sea un servicio que proveen únicamente las plataformas. Los usuarios deben poder decidir qué servicio usar. Eso requiere regulación ex ante, que se obligue a las plataformas a que haya otros jugadores y así se fomente la innovación, la pluralidad y la diversidad”, explicó.

Por su parte, Flávia Lefèvre, integrante del Consejo Directivo de Intervozes de Brasil, explicó que cuando se creó la Sección 230 de la DCA en 1996 en Estados Unidos no existían ni Google ni Facebook. “En 1996 tenía lógica que un proveedor de servicio informativo actúe como editor de información de plataforma. Sin embargo el escenario hoy es muy diferente tanto en Estados Unidos como en América Latina… Los sistemas algorítmicos de estas plataformas no tenían la misma sofisticación que tienen hoy y no trabajaban sobre la extracción masiva de datos como hoy”, dijo.

“Ningún proveedor o usuario debe considerarse como editor de la información. (Pero) hay que diferenciar la no responsabilidad de plataformas por contenidos de terceros de la responsabilidad que tienen por sus propios actos a través de términos de servicio”, indicó. Pero las grandes compañías «han tomado medidas de eliminación de contenidos en sus términos de servicios que configuran un control inaceptable sobre el flujo de información, porque son empresas privadas, sin control social ni transparencia”, aseguró.

Lefèvre destacó la propuesta elaborada por OBSERVACOM en conjunto con otras organizaciones que establece medidas de co-regulación para limitar poder de plataformas a Internet. “Intervozes entiende que es importante que exista una ley con directrices que orienten el funcionamiento de organismos multisectoriales para co -regular junto con plataformas los términos de servicios sobre moderación de contenidos”, explicó.

«Los mejores ejemplos de regulación para la gobernanza de Internet incluyen órganos con participación multisectorial, como el Comité Gestor de Internet que tenemos en Brasil”, aseguró.

Javier Pallero, líder de política públicas de Internet para América Latina en Access Now, aseguró que “tenemos que pelear contra concentraciones… la moderación privada de contenidos no tiene garantías de transparencia, debido proceso, ni remediación de daños… (pero) no debemos descuidar lo que logramos hasta ahora sobre los estándares que consideramos aceptables en la regulación de intermediarios en Internet”.

“No creo que debieran revertirse las protecciones que ya existen, por ejemplo, la regla de no responsabilidad  de intermediarios por contenidos de terceros… Hay que encontrar maneras de legislar hasta qué punto pueden las plataformas hacer lo que quieran y dar un marco que sirva de guía a tener en cuenta para la moderación de contenidos legales”, señaló.

Explicó que “el desafío que tenemos es que cuando encaramos regulación de plataformas hay que tener en cuenta que funciona en universo muy amplio de los derechos humanos, que incluye el derecho a la libertad de expresión, a la privacidad, el acceso a la justicia, que en Latinoamérica sigue siendo un gran problema”.

Desde su perspectiva, la transparencia, el debido proceso y la posibilidad de acceso a la Justicia de los usuarios en búsqueda de remedios frente a la censura de discursos legítimos en redes sociales son principios centrales para pensar una regulación sobre moderación de contenidos en Internet.

Pallero también planteó que deben pensarse un esquema de regulación asimétrica, que tenga en cuenta el tamaño de la plataforma y que también establezca una distinción en función del tipo de contenido.

Podés ver el video completo del encuentro aquí.

 

ENLACES RELACIONADOS:

¿Regular las plataformas? Coinciden en exigir transparencia, rendición de cuentas y apelaciones pero advierten de riesgos por gobiernos autoritarios

Expertos advirtieron riesgos en la libertad de expresión y derechos de los usuarios por concentración y reglas privadas de plataformas de Internet

Trump, Twitter y la libertad de expresión en Internet: es tiempo de América Latina

... (en este espacio hay varias líneas de código de programación personalizado)