Observacom
Actualidad - Global

Facebook aumenta su capacidad de filtrado automático y previo para remover contenidos en aplicación de sus estándares comunitarios sobre discursos de odio y violencia

Recientemente, Facebook publicó su segundo Reporte de Transparencia (abril –septiembre 2018), en el que explica cómo aplica sus estándares comunitarios y enfatiza en sus avances en la detección y actuación sobre discursos de odio a través de soluciones algorítmicas, antes de que sean denunciados.

“Estamos mejorando proactivamente en la identificación de contenido violatorio antes de que alguien lo reporte, específicamente para discursos de odio y violencia y contenido gráfico”, sostiene la compañía. Indica que la detección de discursos de odio por parte de la plataforma (por soluciones algorítmicas y/o supervisión humana), antes de ser reportado por usuarios, pasó del 24% al 52%, mientras que la identificación de violencia y contenido gráfico pasó del 72% al 97%.

Analistas han llamado la atención sobre la aplicación de estas políticas cuando se trata de expresiones violentas en relación inmigrantes y minorías.

“La tecnología no captó más de 100 instancias en los últimos meses en los que usuarios de Facebook abogaron por disparar o matar a otros… Cerca de tres cuartos de los post examinados por The Daily Beast hacían referencia a caravanas de migrantes que fueron demonizados por los medios de derecha y el Presidente Donald Trump”, según una investigación de The Daily Beast.

Este medio de prensa aseguró que a pesar de que, en varias oportunidades, ellos reportaron contenido supuestamente violatorio a Facebook, la empresa no adoptó ninguna de las medidas contempladas por violaciones a discursos de odio en sus términos de servicio, que van desde llamados de atención a la prohibición permanente de los contenidos posteados.

En los casos reportados, Facebook se negó a remover posteos argumentando que no violaban sus términos porque abogaron por políticas particulares de los gobiernos sobre seguridad nacional o porque no atacaban a alguien por sus características.

En su primer reporte de transparencia donde da cuenta de los contenidos removidos por decisiones propias, Facebook había declarado que sólo en los primeros tres meses de 2019 había eliminado 2,5 millones de publicaciones con “discurso de odio”. Allí enfatizaba sobre el rol de los algoritmos en la detección de las violaciones a sus términos y condiciones como modo de afirmarse como “carreteras técnicas”, como mero transporte y no como editor de contenidos.

ENLACES RELACIONADOS:

De Ministerio de la Verdad a Protectores de la Decencia en Internet: Facebook censurará contenidos de terceros simplemente por hablar de sexo

Organizaciones de derechos digitales exigen que Facebook tenga mayor transparencia, rinda cuentas e implemente mecanismos de apelación cuando remueve contenidos

Notas relacionadas

OFCOM: Las prácticas de “zero rating” restringen el ejercicio de derechos de los usuarios

Observacom

Regulador norteamericano flexibiliza reglas de programación de contenido infantil en TV abierta

Observacom

España libera nuevo dividendo digital para desarrollar 5G. Canales de TV deberán trasladarse

Observacom
... (en este espacio hay varias líneas de código de programación personalizado)