Actualidad - Regional Observacom

Debaten en RightsCon “hoja de ruta” para enfrentar el impacto de la remoción de contenidos en Internet sobre la libertad de expresión en el contexto latinoamericano

Expertos y organizaciones de derechos digitales abordaron los desafíos de la moderación de contenidos en Internet en RightsCon 2020 (en particular el impacto de las remociones de contenidos de usuarios por parte de las plataformas o por acciones de terceros) y coincidieron en la necesidad de plantear una hoja de ruta con una perspectiva latinoamericana.

La región enfrenta dos desafíos simultáneos, que se han agravado en el marco de la pandemia del COVID-19: el impulso de legislaciones que regulan contenidos en Internet y que pueden afectar derechos fundamentales, y la creciente intervención de grandes corporaciones de Internet en la deliberación pública en redes sociales.

En efecto, en la sesión Content removal in Latin America: censorship practices on the Internet and regulatory approaches for the region, que tuvo lugar el martes 28 de julio en el marco de este evento virtual, el Director Ejecutivo de OBSERVACOM, Gustavo Gómez, explicó que en el contexto actual “en todos los países de la región hay iniciativas de regulación que nos marcan la necesidad de tomar acciones desde la sociedad civil; a su vez, la pandemia ha generado un exceso de filtrado automático y es una práctica que vino para quedarse; por último, América Latina está viendo a discusión global (sobre la moderación de contenidos en Internet) sin tener una voz propia”.

“América Latina debe tener una propuesta propia, que no siga ni la autorregulación corporativa ni las regulaciones estatales abusivas que afectan a la Internet libre y abierta”, afirmó. “La hoja de ruta que debemos plantearnos en los próximos años no puede obviar la necesidad de desarrollar estrategias defensivas” ante los numerosos proyectos de ley que podrían significar retrocesos en derechos fundamentales. Pero ”necesitamos también una estrategia proactiva y seguir promoviendo estudios sobre el tema y campañas de información para los usuarios sobre cómo afecta la remoción de contenidos a la libertad de expresión. Más investigación, más monitoreo, y también más denuncia sobre estas situaciones”, dijo Gómez.

Destacó que la propuesta de regulación de grandes plataformas para la moderación de contenidos de OBSERVACOM junto a otras 10 organizaciones de la sociedad civil plantea “una regulación mínima que combina mecanismos de regulación pública, mejorar la auto-regulación privada e incluye un enfoque de co-regulación” que se debería incorporar en la propuesta latinoamericana sobre el tema.

Por último, invitó a que a pesar de los riesgos, podamos “discutir entre todos para encontrar acuerdos mínimos para poder avanzar en una regulación democrática, rechazando la regulación abusiva y poniendo límites a la autorregulación privada”.

Marcos Urupá, Coordinador del Colectivo Intervozes de Brasil -que participó de la elaboración de la propuesta-, presentó los aspectos sustanciales de la iniciativa. Urupá explicó que el documento “trae normas para regulación democrática a partir de una mirada latinoamericana, compatible con los estándares de derechos humanos… (porque) creemos que es necesario proteger la libertad de expresión y garantizar una Internet libre y abierta”.

“La propuesta permite que se cumplan obligaciones democráticas para garantizar los derechos de los usuarios, por ejemplo, por el derecho de apelación (ante la remoción de contenidos). Si los mecanismos internos de apelación no son suficientes, los usuarios deben poder apelar en sus países y no en el país sede de las plataformas”, indicó.

Además planteó que “la transparencia es el punto fundamental del documento”: “las plataformas tienen que hacer informes de transparencia sobre las medidas adoptadas para la moderación de contenidos. Los algoritmos también deben ser transparentes. Las plataformas deben informar a los usuarios cómo usan sus algoritmos para la circulación de información. A su vez, el tratamiento de la publicidad también debe ser transparente y los términos de servicio deben ser accesibles y compatibles con los derechos humanos. Transparentes, de fácil acceso y escritos en forma accesible, incluso para niños y adolescentes”, explicó.

El Relator de Libertad de Expresión de la Comisión Interamericana de Derechos Humanos (CIDH), Edison Lanza, manifestó acuerdos con la propuesta. “Básicamente estoy de acuerdo con lo que menciona OBSERVACOM (junto a otras 10 organizaciones) en su propuesta”, aseguró.

“Todos coincidimos con los principios de transparencia, debido proceso, participación en diseño de políticas, privacidad, engagement local…”. Pero advirtió: “el gran problema en el mundo en el que estamos hoy es cómo lo hacemos…”. Actualmente “estamos ante una novedad histórica: el debate público en la era digital está mediado fuertemente por el sector privado… Al mismo tiempo, si damos bandera libre a los Congresos (que en algunos países están planteando regulaciones abusivas) puede ser una complicación mayor… Por eso hay que seguir trabajando en el tema y ver cómo hacemos para garantizar los principios mencionados”.

Guilherme Canela, de UNESCO, coincidió con Lanza sobre la importancia de seguir trabajando sobre cómo abordar la moderación de contenidos por parte de las plataformas. “Estos problemas son problemas reales que afectan la vida de la gente”, aseguró.

En este sentido hizo un llamado a profundizar y ser más concretos en el debate. “Necesitamos ser más específicos en el debate tanto en términos temáticos como de acciones sobre lo que estamos hablando cuando nos referimos a moderación de contenidos… Porque se mezclan derechos electorales, con discurso de odio, desinformación, etc… (que) son cosas distintas y requieren regulaciones y políticas distintas”, aseguró.

“Hay que saltar de una discusión de principios amplios al detalle: ¿qué quiere decir transparencia y accountability? ¿cuáles son los mecanismos posibles?”, se preguntó Canela.

En este sentido, Veridiana Alimonti, analista de política pública para América Latina de Electronic Frontiers Foundation (EFF), señaló que un punto de partida para pensar garantías de transparencia y debido proceso son los principios de Santa Clara.

“Los principios de Santa Clara hacen ese ejercicio de detallar qué es la transparencia, apelación, cómo debería ser una notificación en el campo de la auto regulación”, dijo y recordó que, actualmente, hay una consulta pública abierta para actualizar dichos principios.

En un momento de su intervención, Canela enfatizó en la dificultad de elaborar políticas ante la opacidad de los datos. “Faltan datos. No se pueden construir políticas si no podemos tener evidencia”, concluyó. En este sentido tanto Artículo 19 de México y Centroamérica como Fundación Karisma de Colombia han venido recopilando distintas experiencias, principalmente, sobre las remociones vinculadas a derechos de autor.

“La remoción de contenidos tiene un efecto desproporcionado para las personas que utilizan el espacio cívico digital y tiene un efecto diferenciado en periodistas y artistas… Ya tenemos mucha documentación de cómo a los periodistas les han bajado contenido en base a derechos de autor”, dijo Martha Tudon de Artículo 19 de México y CA.

A su vez, Tudón manifestó su enorme preocupación sobre el crecimiento de iniciativas legislativas por parte de los gobiernos que buscan restringir la libertad de expresión en línea. “Estas legislaciones restrictivas se están ensanchando”, aseguró.

“En México hay varias iniciativas del grupo mayoritario en el Congreso que abordan cuestiones sobre impuestos digitales, candados digitales, entre otras. Estas iniciativas muestran que cualquier restricción sobre los contenidos tiene efecto desproporcionado para libertad de expresión. Hacen más pequeño espacio cívico… No podemos permitir que el espacio cívico digital se siga achicando. Si queremos pedir regulación estatal hay que discutir cómo”, concluyó.

Por su parte, Carolina Botero, Directora de Fundación Karisma de Colombia, contó que la organización analiza desde 2016 la remoción de contenidos por derechos de autor y dio ejemplos de cómo la aplicación de una norma de Estados Unidos (Digital Millenium Copyright Act -DMCA) por parte de las plataformas globales afecta a los usuarios de distintas jurisdicciones.

“En Colombia hubo problemas derivados de un canal que compró los derechos de la Liga nacional de fútbol. Este canal era el único que podía hacer comunicación de esos partidos. Pero en redes sociales, los usuarios publicaban screenshots o videos cortos. Esto generó una ola de denuncias. Fotos o segundos de un partido publicados por usuarios en redes sociales eran bajados de las plataformas por derechos de autor, incluso, cuentas suspendidas”, ejemplificó.

Este ejemplo “muestra cómo la aplicación de una norma norteamericana es implementada por las plataformas globales y termina afectándonos a todos cuando no se considera el debido proceso… La DMCA sigue siendo exportada a nivel global por la vía de tratados de libre comercio. México es un ejemplo de eso”, explicó.

En este sentido, planteó la “necesidad de tener una discusión regional sobre la remoción de contenidos por derechos de autor… este es un mecanismo inhibitorio porque amarra a una jurisdicción específica… Hay ausencia de rendición de cuentas local, de transparencia -si bien las plataformas dan información, le falta granularidad-, ausencia de de debido, no hay mecanismos de seguimiento sobre el proceso de apelación a nivel local”.

 

ENLACES RELACIONADOS:

Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en Internet

Relatora sobre racismo y discriminación de ONU: Es un error confiar en que las compañías de Internet se auto-regulen

Crece el consenso para establecer obligaciones a las grandes plataformas en la moderación de discursos en Internet

¿Regular las plataformas? Coinciden en exigir transparencia, rendición de cuentas y apelaciones pero advierten de riesgos por gobiernos autoritarios

... (en este espacio hay varias líneas de código de programación personalizado)