Observacom
Actualidad - Regional

Organizaciones sociales, plataformas y comunidad técnica debaten sobre moderación de contenidos y libertad de expresión en México

Organizaciones de derechos digitales, plataformas de Internet y comunidad técnica se reunieron en México para dialogar y debatir sobre el rol de los grandes intermediarios de Internet en la moderación de contenidos y sus efectos sobre la libertad de expresión, en un encuentro organizado por OBSERVACOM, Artículo 19 de México y R3D.

João Brant de OBSERVACOM presentó el documento “Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en Internet”, que se encuentra abierto a consulta pública hasta el 15 de noviembre.

Brant planteó que, en la actualidad, las redes sociales son centrales en la esfera pública. Por eso, desde su perspectiva es necesario concretar los principios de derechos humanos en regulaciones públicas ya que la ausencia de propuestas adecuadas deja mayor espacio para el desarrollo de malas prácticas.

“La cuestión central para nosotros no es si las decisiones son o no automatizadas, sino cuáles son los valores que estamos buscando proteger”, aseguró. Dijo que el desafío es cómo garantizar la protección de los derechos humanos de los usuarios en un contexto en el que las grandes plataformas de Internet controlan las reglas de circulación de los discursos en la red.

Por su parte, Vladimir Cortés de la Oficina de Artículo 19 para México y Centroamérica presentó la propuesta de la organización de creación de Consejos de Redes Sociales externos a las plataformas para supervisar la moderación de contenidos en línea.

La propuesta -que está abierta a consulta pública hasta el 30 de noviembre-, plantea que los Consejos de Redes Sociales sean un mecanismo integrado por múltiples partes interesadas y de adhesión voluntaria para las plataformas (sin crear obligaciones legales) en una iniciativa de rendición de cuentas para la moderación de contenido en las redes sociales.

Por parte de las plataformas de Internet, participaron del encuentro representantes del área de política pública de las distintas compañías: Hugo Rodríguez, de Twitter; María Cristina Capelo, de Facebook; Manuel Haces Aviña, de Google; y Sissi de la Peña, de la Asociación Latinoamericana de Internet (ALAI). También estuvo representada en el debate la comunidad técnica a través de Israel Rosas, Outreach Manager de Internet Society (ISOC) para América Latina y el Caribe.

María Cristina Capelo de Facebook admitió que es necesario pensar en un sistema de co-regulación para la moderación de contenidos. “Ya sabemos que la autorregulación no es suficiente. Necesitamos ir evolucionando hacia un sistema de co-regulación. Pero no estamos satisfechos con ningún sistema que ya existe”, aseguró.

Contó que en los últimos dos años, la compañía realizó un proceso para poner la cuestión de los derechos humanos en el centro del debate. “Hoy tenemos un área específica de derechos humanos cuyo trabajo es involucrarse en todas las discusiones sobre los cambios en las políticas”, explicó.

“Las normas no son estáticas y van evolucionando. Cambia porque el comportamiento de las personas cambia. Un foro interno se reúne a cada dos semanas para revisar las normas, y lo resultado de estas reuniones genera minutas públicas”, dijo.

Capelo planteó que el mayor desafío de la compañía es entender mejor los matices para la moderación de contenidos y ver cómo introducir los matices en los algoritmos para identificar terrorismo, discurso de odio, entre otros.

Por su parte, Manuel Haces Aviña de Google señaló las tensiones entre las distintas partes interesadas respecto de la moderación de contenidos. “hay organizaciones que quieren más moderación, otras menos y los Estados quieren controlar”, dijo. Desde su perspectiva hay una tendencia hacia la fragmentación de Internet. “Tenemos que discutir cómo vamos hacer para mantener la Internet como una red única”, concluyó.

Hugo Rodríguez, del equipo de políticas públicas de Twitter explicó que no están en desacuerdo con la remoción de contenido a través de decisiones algorítmicas, siempre y cuando haya mecanismos de apelación adecuados y criterios transparentes. Aseguró que el diálogo con las organizaciones de la sociedad civil es absolutamente necesario para identificar contenido abusivo y que el 65% de los usuarios que han sido sancionados por su contenido no han vuelto a realizar violaciones a las normas comunitarias de la plataforma.

 

ENLACES RELACIONADOS:

Relator de ONU pide regulación de las compañías tecnológicas para garantizar aplicación de normas internacionales de derechos humanos

David Kaye: gobierno y plataformas deben adoptar normas internacionales de derechos humanos para combatir los discursos de odio

 

... (en este espacio hay varias líneas de código de programación personalizado)