Este estudio de Ana Laura Pérez aborda las políticas de moderación implementadas por Facebook, Twitter y YouTube en relación a contenidos considerados “discurso de odio” a partir de la llegada de la pandemia de COVID-19 y analiza el alcance, efectos, motivos y posibles consecuencias del aumento del uso de herramientas de inteligencia artificial de las principales plataformas durante ese periodo.
-
2020: un “tsunami de odio y xenofobia”. Surge de los propios informes de transparencia un importante aumento de intervenciones sobre estos contenidos
-
¿Aumentó la creación y publicación de mensajes de odio a moderar o el cambio en los sistemas de detección automatizados provocaron mayores remociones?