Amnistía alerta por rol de X en amplificar odio y desinformación

Un informe de Amnistía Internacional advierte que las decisiones algorítmicas y de diseño adoptadas por X contribuyeron a amplificar contenidos falsos y discursos de odio tras el asesinato de tres niñas en Southport, Reino Unido, alimentando un clima de violencia contra comunidades musulmanas e inmigrantes.

La red social X jugó un rol central en la propagación de desinformación y discursos de odio tras el asesinato de tres niñas en la localidad de Southport, el 29 de julio de 2024, según revela un informe técnico publicado por Amnistía Internacional. El estudio asegura que las decisiones de política y diseño algorítmico de la plataforma contribuyeron al aumento del riesgo de violencia contra personas musulmanas e inmigrantes, en un contexto de tensión social extrema.

En las horas posteriores al ataque comenzaron a circular afirmaciones falsas sobre la identidad, religión y estatus migratorio del agresor. Etiquetas como #Stabbing (Apuñalamiento) y #EnoughisEnough (Ya basta) se utilizaron para difundir publicaciones islamófobas, mientras que cuentas conocidas por promover odio hacia inmigrantes y contenido islamófobo, como “Europe Invasion”, registraron millones de visualizaciones.

“El análisis del código abierto de X -que fue publicado en marzo de 2023– demuestra que el sistema de recomendación prioriza contenidos diseñados para generar indignación, discusión y participación acalorada, sin evaluar el potencial de daño antes de su amplificación”, según el informe. La página “Para ti”, organizada por el algoritmo heavy ranker, “promueve publicaciones que generan interacción, sin distinguir entre información verificada y contenido nocivo”, indican.

El informe señala que las decisiones de diseño de X facilitaron la viralización de estas narrativas, especialmente entre cuentas Premium, cuyos contenidos reciben prioridad algorítmica por sobre los de usuarios comunes, que no pagan. En total, se estima que en solo 24 horas las publicaciones que especulaban con que el atacante era musulmán, refugiado o extranjero alcanzaron 27 millones de impresiones.

Además, destacan que la tragedia ocurrió en un contexto de cambios profundos en la política interna de X desde que Elon Musk asumió el control de la empresa en 2022. Bajo su dirección, se desmantelaron equipos de moderación de contenidos, se cerraron mecanismos de seguridad y se rehabilitaron cuentas previamente suspendidas por incitación al odio, entre ellas la del activista de ultraderecha Tommy Robinson.

Las publicaciones incendiarias de Robinson tras el ataque —como “el islam es una enfermedad mental”— tuvieron más de 580 millones de visualizaciones en las dos semanas siguientes. Elon Musk también contribuyó a amplificar mensajes violentos, como cuando comentó “la guerra civil es inevitable” sobre un video viralizado en ese contexto. Incluso respondió al llamado del primer ministro Keir Starmer a proteger a las comunidades musulmanas con un mensaje que relativizaba la situación: “¿No deberían preocuparle los ataques contra todas las comunidades?”

Esta falta de salvaguardas efectivas y la promoción sistemática de contenido incendiario representan una amenaza grave a los derechos humanos de comunidades históricamente marginadas. Amnistía Internacional informó que, a pesar de haber contactado a la empresa para solicitar explicaciones, no obtuvo respuesta.

El informe también destaca que, aunque marcos regulatorios como la Ley de Servicios Digitales de la UE o la Ley de Seguridad Digital británica establecen obligaciones de mitigación de riesgos sistémicos, “su aplicación efectiva es clave para que tengan impacto”. “Sin una supervisión adecuada, las plataformas pueden seguir tomando decisiones que aumentan el alcance del odio y la desinformación, sin asumir responsabilidad por los daños causados”, sostienen.

Amnistía Internacional instó a que se refuercen las medidas de rendición de cuentas y se reformen las deficiencias del régimen de seguridad digital del Reino Unido para que plataformas como X no queden impunes. También recordó que algunos usuarios que difundieron contenidos racistas tras el ataque fueron arrestados y condenados por incitación a la violencia, y que el Parlamento británico, a través de un informe publicado en julio de este año, ya ha reconocido que los modelos de negocio de las redes sociales incentivan la desinformación.


ENLACES RELACIONADOS:

Reino Unido: Las decisiones sobre diseño y política de X abonaron el terreno a narrativas incendiarias y racistas contra personas musulmanas y migrantes tras el ataque de Southport

Twitter’s Recommendation Algorithm

Cambios en el algoritmo de X para favorecer la campaña presidencial de Trump

Entró en vigor la Ley de Servicios Digitales (DSA) para las grandes plataformas

Related posts

TikTok multada en Reino Unido por falta de transparencia y retrasos en información sobre su función de control parental

En Reino Unido investigan a Google y Apple por posible duopolio en navegadores, tiendas de aplicaciones y sistemas operativos móviles

Editores de sitios web británicos denuncian a Google por abusar de su posición dominante en el mercado de publicidad digital