El comunicador uruguayo Diego González hizo público este lunes 14 de febrero de 2022 que recibió una notificación de Facebook en la que le informan que fue restringido el alcance de un posteo suyo de 2019. El posteo, así como gran parte de los contenidos que González pública en sus redes sociales, es una sátira humorística sobre el Día de San Valentín.
“La Iglesia Católica impuso San Valentín para combatir una festividad pagana vinculada al sexo y el sacrificio de animales. Malditos católicos, hoy sería una fiesta donde se come asado y se tiene sexo, la mejor fiesta del mundo. Pero no, ahí andamos con la bobada de las flores”, escribió González en 2019.
Este lunes, el comunicador recibió una notificación de la plataforma en la que se le informa que su publicación “infringe” las Normas Comunitarias “sobre lenguaje que incita al odio e inferioridad” y le informa que “nadie más puede ver” su publicación a partir de la decisión. Este tipo de sanción se conoce como shadowban y es una estrategia de censura que no elimina de raíz el perfil o cuenta de usuario, pero le resta relevancia disminuyendo su alcance casi a cero. Esto significa que quien sube contenido sigue viéndolo en su red social pero incluso en algunos casos ignora por completo que probablemente sea el único que puede hacerlo.
La advertencia añade que la decisión (que no se aclara si moderadores humanos o algorítmicos, ni si fue a partir de detección de Facebook o de denuncia de un tercero) se tomó por entender que el texto, que claramente es humorístico, entra dentro de la categoría establecida como “discurso de odio” que tiene la intención de “proteger a determinados grupos de personas a las que se describe como inferiores con respecto a otras”.
Se advierte al usuario que la infracción reiterada de las Normas Comunitarias “puede provocar más restricciones en la cuenta” y se le ofrece la posibilidad de “apelar” la decisión si no está de acuerdo. Algo que González hizo.
En los últimos años, a partir de la pandemia de COVID 19, plataformas como Facebook han aumentado la automatización de sus sistemas de moderación de contenido y con ello el número de errores en la detección. También han aumentado de forma significativa su proactividad en la cantidad de posteos eliminados por la categoría “discurso de odio”.
Según el Community Standards Enforcement Report (CSER) publicado en febrero de 2021 la cantidad de piezas de contenido sobre las que Facebook tomó acciones pasó de 20.700.000 en 2019 a 81.000.000, lo que significa un aumento de casi 300% en la cantidad de contenido categorizado como de discurso de odio entre un año y el siguiente. El último informe de transparencia incluye datos de abril a junio de 2021 en los que se informa que fueron accionadas 31.500.000 de publicaciones por violaciones a normas de discurso de odio. De esos, entre 2% y 5% proviene de denuncias de terceros, mientras que todas las publicaciones restantes son “detectadas” por los sistemas humanos y artificiales de Facebook.
De ese número, solamente entre 1.000.000 y 1.500.000 de las decisiones son apeladas por los usuarios, no está claro si porque no tienen argumentos o porque no tienen claro que pueden apelar ni cómo hacerlo.
Menos de medio millón de publicaciones son restauradas cada semestre entre aquellas que son apeladas y aquellas que el propio Facebook entiende como errores.