Observacom
Observacom

Responsabilidad de las plataformas digitales en debate en América Latina

Representantes de organizaciones de derechos digitales y expertos/as debatieron en un conversatorio organizado por OBSERVACOM, sobre nuevas excepciones al principio de no responsabilidad de intermediarios sobre contenidos de terceros y su responsabilidad por acciones propias
Plataformas de Internet.

La inclusión de nuevas excepciones sobre el principio de no responsabilidad de intermediarios sobre contenido de terceros, y la discusión sobre qué tipo de acciones se deberían configurar como un acto propio por el cual las plataformas sean responsables, está en debate en varias partes del mundo -particularmente en Brasil y EEUU-. Por ese motivo, OBSERVACOM organizó un conversatorio para intercambiar posiciones y análisis sobre el tema.

Durante el evento se plantearon qué nuevas excepciones sobre el criterio de no responsabilidad se podrían implementar -y qué riesgos conlleva-, además de cuáles acciones de moderación de contenido -como por ejemplo las recomendaciones, jerarquizaciones y monetizaciones- deberían ser catalogadas como actos propios por el cual las plataformas deberían hacerse responsables.

Gustavo Gómez, director ejecutivo de OBSERVACOM y moderador de la actividad, aseguró que en esta temática compleja también está la cuestión sobre “de qué son responsables las plataformas cuando actúan por decisión propia” y que configura “un acto propio”.

João Brant, secretario de Políticas Digitales de la Secretaría de Comunicación (SECOM) de Brasil, abrió el debate afirmando que el hecho de que las plataformas no sean responsables por los contenidos de terceros, tuvo efectos positivos y negativos. “En parte se protegió más la libertad de expresión individual, pero con muchos impactos negativos en otros derechos de la dimensión social o colectiva de la libertad de expresión y acceso a la información”.

Brant agregó que en varias partes del mundo -inclusive en Brasil en este momento- se está discutiendo nuevas formas de afrontar esta temática, donde se establezcan “algunos compromisos de las plataformas, algún tipo de responsabilidad” -además de las excepciones establecidas-.

La investigadora independiente y activista en la Coalizão Direitos na Redes (CDR), Bruna Martins dos Santos, afirmó que desde la coalición que integra existe una preocupación por la delegación de poder hacia las grandes plataformas sobre la idea de “deber de cuidado” que propuso el gobierno brasileño, ya que se les estaría entregando más poder a las plataformas, para que analicen qué contenidos son ilegales o cuáles violan la ley brasileña.

Por otro lado, Bia Barbosa, miembro del Comité Gestor de Internet (CGI.br) en Brasil, destacó que en su país, las plataformas se apoyan en el régimen de responsabilidad “para justificar todo” y no realizar ningún tipo de moderación. No obstante, aseguró que “el problema es del modelo de negocios de las plataformas y no del régimen de responsabilidad que está previsto en la legislación brasileña”.

El director de la Red en Defensa de los Derechos Digitales (R3D) de México, Luis Fernando García, aseguró que una regulación en varios países distintos “no es práctico ni viable”. “Creo que en América Latina deberíamos explorar y discutir la posibilidad de generar reglas institucionales regionales que nos permitan construir instituciones que aborden estas temáticas”, sostuvo García.

En la misma línea, Catalina Moreno, coordinadora de la Línea de Inclusión Social de la Fundación Karisma, aseguró que hay evidencia de que la solución no puede ser algo local y además denunció que “hay un desbalance de poder que existe de cara a sociedad civil para que pueda exigir una cierta moderación de contenidos”.

Flávia Lefèvre, abogada brasileña e integrante de la CDR, manifestó que las plataformas digitales deben responder y asumir una responsabilidad siempre que exista una práctica comercial que influya sobre los contenidos y/o cuentas de terceros -remoción, reducción o impulso-.

¿Nuevas obligaciones sobre los procesos o sobre los contenidos?

El coordinador de incidencia del Centro de Estudios en Libertad de Expresión y Acceso a la Información (CELE), Javier Pallero, manifestó que es más relevante ir a “los criterios técnicos que las plataformas utilizan para recomendar contenidos” en tanto es más importante “su responsabilidad sobre el impacto en alcance” de los contenidos que los contenidos en sí. “Me parece que es un poco más seguro en términos de libertad de expresión”, agregó.

Joan Barata, Senior Legal Fellow del programa “Future of Free Speech” en el think tank danés Justitia, dijo que “hay que trabajar en obligaciones sobre los procedimientos, porque si obligamos por resultados vamos a fracasar”. Esa es la dirección que está tomando, por ejemplo, la Ley de Servicios Digitales (DSA) en Europa, dijo Barata y sostuvo que en esa línea, se deberían establecer obligaciones de transparencia a las plataformas, exigir reglas claras y reclamar que den explicaciones a los usuarios.

Por último, Carlos Affonso Souza, director del Instituto de Tecnología y Sociedad de la Universidad Estatal de Río de Janeiro, expresó preocupación por la situación brasileña, advirtiendo que respuestas “inmediatistas” en términos de regulación, puede traer más problemas que soluciones. En otro sentido, también destacó que actualmente existen contenidos en Twitter que son claramente ilícitos y contrarios a las reglas de la propia plataforma, sin embargo, no actúa de ninguna manera sobre ellos.

Podés ver el conversatorio completo aquí.

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)