Observacom
Actualidad - Global

Censura algorítmica: COVID19 expone una vez más las limitaciones para la libertad de expresión en las plataformas de Internet

Frente a la crisis sanitaria global por el Coronavirus, el uso de inteligencia artificial (IA) por parte de las redes sociales está mostrando, una vez más, sus limitaciones para la libertad de expresión: ya hay una gran cantidad de casos la remoción errónea de contenidos por supuestas violaciones a sus políticas.

Las medidas adoptadas por distintos gobiernos para que los ciudadanos se queden en sus casas con el fin de evitar la propagación del virus incluyen a los empleados de las plataformas encargados de la moderación de contenidos.

De este modo, las plataformas recurren a filtros de algoritmos en forma automatizada que han demostrado errores. Por ejemplo, Facebook marcó como spam información verdadera sobre el coronavirus.

Desde Twitter distintos usuarios de diversas partes del mundo están alertando sobre la remoción de contenidos relacionados con el COVID-19 por considerar que viola los estándares comunitarios de las distintas redes.

La utilización de IA y la falta de transparencia en los criterios no es novedosa, pero en estos momentos excepcionales sus efectos se tornan más visibles y sistemáticos.

“Se llama censura. No errores. Y no alcanza con transparencia. Hay que poner límite a la moderación privada de contenidos en Internet. Ya”, dijo el Director Ejecutivo de OBSERVACOM, Gustavo Gómez, a través de su cuenta de Twitter.

Este tema de salud pública pone sobre la mesa que la autorregulación de plataformas no es suficiente y plantea la urgencia y necesidad de elaborar mecanismos de regulación estatal y/o corregulación de plataformas y su rol en la moderación de contenidos en línea con los estándares de derechos humanos.

En este sentido, OBSERVACOM en conjunto con otras siete organizaciones de América Latina proponen una perspectiva latinoamericana sobre la gobernanza de Internet que garantice procesos de moderación privada de contenidos compatibles con los estándares internacionales de derechos humanos. La propuesta postula un modelo de co-regulación para el establecimiento de criterios de regulación asimétrica y progresiva que tome en cuenta el poder de mercado significativo de las plataformas.

La iniciativa completa se puede leer aquí.

ENLACES RELACIONADOS:

Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en Internet

La «infodemia» y los peligros de la desinformación en tiempos de pandemia

Reglas de moderación de contenido de TikTok: censuran a usuarios “poco atractivos” y opiniones políticas

... (en este espacio hay varias líneas de código de programación personalizado)