Observacom
Actualidad - Global

Con 200 empleados en condiciones precarias y en 50 segundos, así decide Facebook en África qué contenidos deben ser eliminados de su plataforma

Unos 200 jóvenes de distintas partes de África trabajan en una oficina mirando asesinatos, violaciones, suicidios, abusos sexuales a niños y cobran sueldos bajísimos mientras sufren de estrés post traumático. Así decide Facebook, a través de una empresa de nombre Sama, cuales de los contenidos publicados desde África deben ser eliminados y qué usuarios bloqueados o suspendidos.

Según una extensa investigación publicada por la revista Time, los moderadores, que muchas veces son contratados a partir de avisos que piden “empleados para call center”, no reciben ningún tipo de preparación ni formación específica para ser quienes deciden qué contenidos deben ser eliminados y que usuarios bloqueados de la plataforma por contravenir las Normas Comunitarias. Moderan contenidos publicados en unas 11 lenguas africanas y desde varios países desde US$ 1,50 la hora y sin derecho a sindicalizarse.

No importa cual es el nivel de violencia de las imágenes que tienen delante, ni el tipo de contenido que visualicen, los moderadores deben tomar una decisión en 50 segundos. Diez segundos menos de un minuto, ese es el Tiempo Promedio de Manejo (AHT, por su sigla en inglés) que deben mantener. No importa tampoco si lo que tienen delante es un video de dos horas o una decisión que requiere pensar con detenimiento y analizar el contexto.

Todas las semanas, explica el artículo de Time realizado a partir de decenas de entrevistas con empleados actuales y antiguos de Sama, el tiempo promedio de cada empleado es medido contra esos 50 segundos. Si el tiempo requerido es muy superior a esa cifra, los empleados son advertidos por el líder de su equipo. Si el problema persiste, son removidos de sus funciones de moderadores y enviados a otro equipo de Sama para recibir capacitación interna.

Según el manual de Facebook, los moderadores de contenido deben ver solamente los primeros 15 segundos de un video antes de definir si puede permanecer en la plataforma y avanzar hacia otro contenido. Siempre y cuando el título, la transcripción, los comentarios destacados y el thumbnail del video parezcan normales, así como ningún usuario o sistemas de inteligencia artificial de Facebook hayan marcado algún momento específico del video.

Facebook ha asegurado que gastó más de 5 mil millones de dólares en medidas de seguridad durante 2021. Meta cuenta con unos 15 mil personas en todo el mundo que se dedican específicamente a la moderación de contenido, la mayoría empleados de compañías tercerizadas. La revista Time consultó a Meta acerca de las condiciones en Sama y cómo esto afecta la calidad de los procesos de moderación. “Nos tomamos muy en serio la responsabilidad de revisar contenido dentro de Meta y exigimos que nuestros proveedores paguen sueldos más altos del mercado, den beneficios y apoyo. Además, incentivamos a que los revisores de contenido nos hagan llegar sus preocupaciones de forma regular, así como llevamos adelante auditorías independientes para asegurar que nuestros proveedores mantengan los altos estándares que pretendemos de ellos”, respondieron.

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)