A pesar que la red social de Meta tiene la capacidad filtrar automáticamente el contenido electoral no confiable, a menudo Facebook elige no hacerlo, según parece confirmarlo una investigación de la Universidad de Massachusetts Amherst de Estados Unidos
En 2023, la revista Science había publicado una investigación, financiada por Meta, en la que se aseguraba que los algoritmos de Facebook habían filtrado con éxito las publicaciones no confiables sobre las elecciones de 2020 en Estados Unidos y que “no fueron impulsores importantes de la desinformación”. Sin embargo, un reciente trabajo de un equipo interdisciplinario de investigadores de la Universidad de Massachusetts Amherst (UMass Amherst), publicado en la misma revista en septiembre de 2024, muestra que la investigación financiada por Meta se llevó a cabo durante un breve período en el que la compañía introdujo temporalmente un nuevo algoritmo de noticias más riguroso en lugar del estándar.
Según los investigadores de UMass Amherst, el algoritmo había logrado reducir las visualizaciones de información errónea por parte de los usuarios en al menos un 24%. Sin embargo, los cambios fueron temporales y el algoritmo de noticias volvió a su práctica anterior de promover una fracción mayor de noticias no confiables en marzo de 2021.
En concreto, en noviembre de 2020, Meta había introducido 63 cambios de tipo “break glass” en el servicio de noticias de Facebook, diseñados expresamente para disminuir la visibilidad de noticias no confiables en torno a las elecciones presidenciales estadounidenses de ese año. Este cambio resultó exitoso pues, efectivamente, logró controlar el filtrado de contenido no confiable en un contexto electoral.
El concepto “break glass” (que proviene de la acción de romper el vidrio en un caso de emergencia) se refiere a que fueron cambios o medidas de emergencia que se implementaron en el feed de noticias de Facebook en una situación considerada crítica o urgente. En ese momento, la situación “temporal o excepcional”, según Facebook, era la necesidad de controlar o mitigar la difusión de desinformación durante las elecciones de 2020. “Este fue un cambio temporal que hicimos para ayudar a limitar la propagación de afirmaciones inexactas sobre las elecciones”, afirmó Joe Osborne, un vocero de Facebook, al New York Times.
En la investigación financiada por Meta, los investigadores no tuvieron en cuenta este cambio algorítmico, ya que el período atendido fue entre el 24 de septiembre y el 23 de diciembre, lo que contribuyó a crear la percepción de que las noticias publicadas en Facebook e Instagram son siempre fuentes fiables.
Los investigadores de la Universidad de Massachusetts Amherst aseguran que sus resultados muestran que las empresas de redes sociales pueden mitigar la propagación de información errónea modificando sus algoritmos. Pero, entonces, ¿por qué deciden no hacerlo?
ENLACES RELACIONADOS:
How do social media feed algorithms affect attitudes and behavior in an election campaign?