Frente a la crisis sanitaria global por el Coronavirus, el uso de inteligencia artificial (IA) por parte de las redes sociales está mostrando, una vez más, sus limitaciones para la libertad de expresión: ya hay una gran cantidad de casos la remoción errónea de contenidos por supuestas violaciones a sus políticas.
Las medidas adoptadas por distintos gobiernos para que los ciudadanos se queden en sus casas con el fin de evitar la propagación del virus incluyen a los empleados de las plataformas encargados de la moderación de contenidos.
De este modo, las plataformas recurren a filtros de algoritmos en forma automatizada que han demostrado errores. Por ejemplo, Facebook marcó como spam información verdadera sobre el coronavirus.
Desde Twitter distintos usuarios de diversas partes del mundo están alertando sobre la remoción de contenidos relacionados con el COVID-19 por considerar que viola los estándares comunitarios de las distintas redes.
La utilización de IA y la falta de transparencia en los criterios no es novedosa, pero en estos momentos excepcionales sus efectos se tornan más visibles y sistemáticos.
“Se llama censura. No errores. Y no alcanza con transparencia. Hay que poner límite a la moderación privada de contenidos en Internet. Ya”, dijo el Director Ejecutivo de OBSERVACOM, Gustavo Gómez, a través de su cuenta de Twitter.
Este tema de salud pública pone sobre la mesa que la autorregulación de plataformas no es suficiente y plantea la urgencia y necesidad de elaborar mecanismos de regulación estatal y/o corregulación de plataformas y su rol en la moderación de contenidos en línea con los estándares de derechos humanos.
En este sentido, OBSERVACOM en conjunto con otras siete organizaciones de América Latina proponen una perspectiva latinoamericana sobre la gobernanza de Internet que garantice procesos de moderación privada de contenidos compatibles con los estándares internacionales de derechos humanos. La propuesta postula un modelo de co-regulación para el establecimiento de criterios de regulación asimétrica y progresiva que tome en cuenta el poder de mercado significativo de las plataformas.
La iniciativa completa se puede leer aquí.
ENLACES RELACIONADOS:
La «infodemia» y los peligros de la desinformación en tiempos de pandemia