Observacom
Actualidad - EEUU

Inteligencia artificial para identificar discursos de odio en Twitter amplifica el sesgo racial contra negros

Dos estudios realizados por investigadores de universidades norteamericanas brindan evidencia empírica y cuantitativa sobre cómo los sistemas de inteligencia artificial utilizados por plataformas como Twitter amplifican el sesgo racial contra la población afro-americana en Estados Unidos.

The Risk of Racial Bias in Hate Speech Detection” [El riesgo de sesgo racial en la detección de discursos de odio], elaborado por investigadores de la Universidad de Washington y de Pittsburg, plantea que “los tuits AAE [de inglés afroamericano, usualmente, el que hablan los negros en Estados Unidos] tienen el doble de probabilidades de ser etiquetados como ofensivos en comparación con otros”.

En dos sets de datos, el trabajo encontró “una fuerte asociación entre dialecto Inglés Afro-Americano y varias categorías de discurso de odio”, específicamente en las etiquetas “ofensivo” y “abusivo”, lo que “provee evidencia que el sesgo basado en el dialecto está presente en el corpus” (compuesto por 25 mil tuits en un caso y 100 mil, en el otro).

“Nuestro trabajo muestra cómo la insensibilidad al dialecto puede conducir a la discriminación contra las minorías, incluso sin menciones explícitas de identidad”, señala el estudio, que propone que “el dialecto y la evaluación del impacto racial en las actitudes son formas de reducir el sesgo en los comentarios, al mostrar que, cuando los comentadores toman conciencia explícitamente del dialecto afroamericano en los tweets es significativamente menos probable que se etiquete a estos tweets como ofensivos”.

Por su parte, el estudio de los investigadores de la Universidad de Cornell, “Racial Bias in Hate Speech and Abusive Language Detection Datasets [Sesgo racial en discurso de odio y detección de lenguaje abusivo en un conjunto de datos] sostiene que, dependiendo de la clasificación utilizada, los modelos de inteligencia artificial para el procesamiento de discursos de odio son entre 1,5 y 1,7 veces más proclives a marcar los tuits como sexistas cuando son posteados por afroamericanos en relación a aquellos escritos por blancos. La proporción es de 1,4 veces respecto de la clasificación de acoso y 2,7 veces puntualmente sobre discursos de odio.

“Nuestro resultados demuestran sesgo racial consistente, sistemático y sustancial en los clasificadores entrenados en los cinco datasets. Casi en todos los casos, los tweets alineados con negros son clasificados como sexismo, discurso de odio, hostigamiento y abuso en los rangos más altos en relación a los tweets alineados con blancos”, señala el trabajo.

 

ENLACES RELACIONADOS:

Grupos de activistas negros acusan a Facebook de censurar expresiones contra el racismo

Relator de Libertad de Expresión de ONU pregunta: ¿cómo definir el discurso de odio en Internet y quién lo debe regular?

Imagen destacada: https://www.vox.com

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)