Observacom
Actualidad - EEUU

“I don’t know” Las plataformas no supieron responder al Congreso de EEUU cuántas personas moderan contenidos en idiomas distintos al inglés

Por Carolina Martínez Elebi

Foto: TechCrunch.

Hace unas semanas, se llevó a cabo una reunión del Comité de Asuntos Gubernamentales y Seguridad Nacional del Senado de los Estados Unidos sobre el impacto de las redes sociales en la seguridad nacional. Uno de los ejes centrales que guió la conversación de la reunión fue la moderación de contenidos ejercida por las redes sociales.

El presidente del Comité, el senador Gary Peters, dio inicio a la reunión explicando que el objetivo era comprender “cuál es el rol de las redes sociales en la amplificación del contenido extremista nacional y cómo ese contenido se puede traducir en violencia del mundo real”. Para responder las preguntas, estuvieron Chris Cox, Director de Productos de Meta y líder de su familia de aplicaciones (Facebook, Instagram, WhatsApp y Messenger); Jay Sullivan, Gerente General de Productos para el Consumidor de Twitter; Vanessa Pappas, Directora de Operaciones de TikTok; y Neal Mohan, Director de Productos de YouTube.

Una de las preguntas centrales fue hecha por el senador por California, Alex Padilla, quien quiso saber cuál era la proporción de personas que se enfocan en contenido en un idioma que no es inglés, y cuántas de esas personas se enfocan en usuarios que no son de Estados Unidos.

Cox (Meta) dijo que no está seguro de cuántos moderadores no hablan inglés del total de 40 mil moderadores de Facebook. Sullivan respondió que, de las 2200 personas que trabajan en la moderación de contenidos de Twitter no está seguro de la proporción entre aquellos que hablan y no hablan inglés. Pappas, de TikTok, y Mohan, de YouTube, tampoco saben cuál es esa proporción.

La pregunta por el idioma en el que se realiza la moderación de contenidos no es arbitraria ni caprichosa. Tanto los informantes como diversos miembros de la industria han alertado en más de una oportunidad sobre la moderación inadecuada del contenido en otros idiomas. Sin embargo, este problema recibe poca atención debido a un sesgo hacia las preocupaciones del idioma inglés.

En el caso de Facebook, Frances Haugen ha denunciado más de una vez este problema. La información que compartió Haugen en sus testimonios fue que la empresa dedica el 87% de su presupuesto sobre desinformación para la moderación de contenidos publicados en inglés, aunque según indicó, sólo el 9% de los usuarios de la red social hablan inglés.

Es sabido que una parte importante de la moderación de contenidos se hace a través de técnicas de Procesamiento de Lenguaje Natural (PLN) que realiza análisis léxico, sintáctico y semántico, entre otros, para “leer” los textos. Así es como el sistema puede tomar una decisión con respecto a una publicación luego de interpretar si ese contenido cumple o no con las normas comunitarias y con los términos y condiciones.

Sin embargo, en 2020 el Instituto Allen de Inteligencia Artificial (IA) destacó en un artículo -premiado por su excelencia- que aunque lo parezca, las máquinas no entienden realmente lo que escriben ni lo que leen.

¿Qué significa ésto para países y regiones de habla no inglesa? ¿Qué impacto puede tener en América Latina el hecho de que ni la Inteligencia Artificial ni los moderadores humanos de contenidos tengan una real comprensión del idioma? Un primer análisis es que sin una verdadera comprensión del idioma y del lenguaje, tanto los sistemas como los moderadores son más propensos a equivocarse.

En la actualidad, las redes sociales ejercen la moderación de diversos tipos de contenidos, como por ejemplo para impedir la publicación de aquellos que son violencia, pornografía, y actividades delictivas. Pero el mayor desafío lo tienen ante otro tipo de publicaciones cuya categoría es más difusa, más gris y difícil de determinar. Los llamados discursos de odio y la desinformación son precisamente el motivo por el que representantes de Facebook, TikTok, Twitter y YouTube fueron citados ante el Senado estadounidense a mediados de septiembre.

La importancia de que la moderación de contenidos se haga comprendiendo el idioma sobre el cual está operando es fundamental. Esto se hace evidente en casos en los que se eliminan contenidos o se bloquean cuentas de usuarios cuyos textos contienen ironía, parodia o sátira, algo frecuente en redes sociales como Twitter, por ejemplo. Esto último es algo que ya sucede en la actualidad. ¿Es producto de la aplicación arbitraria de las normas comunitarias? ¿Es debido a una falta de comprensión de sistemas automatizados? ¿Cómo se lleva adelante la moderación de contenidos en las redes sociales?

En las más de cuatro horas que duró la reunión en el Senado, el presidente del Comité, senador Gary Peters, se mostró frustrado por no haber obtenido una respuesta concreta ante varias de las preguntas que se hicieron sobre cómo las compañías realizan la moderación de sus contenidos, sobre todo teniendo en cuenta que las preguntas habían sido enviadas antes de la reunión para que tuvieran tiempo de relevar y organizar la información.

El hecho de que las propias compañías no conozcan, o no informen, la proporción de personas que realizan la moderación de contenidos en inglés y cuál en otros idiomas impide saber al menos un dato sobre cómo están llevando adelante una tarea central de esas plataformas que tiene impacto sobre la libertad de expresión de sus usuarios.


ENLACES RELACIONADOS:

Unión Europea exige la transparencia de los algoritmos de las redes sociales

Google redujo información del impacto ambiental de vuelos para no afectar la industria de la aviación

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)