Derechos
Separador
¿Qué es la “moderación de contenidos” en redes sociales?
Las empresas dueñas de redes sociales han establecido reglas privadas que regulan, entre otras cosas, lo que se puede publicar y lo que no. Y también sobre cuáles contenidos se verán primero, y cuáles no.
Estas decisiones impactan en la forma que otras personas usuarias acceden a lo que publicamos y, a su vez, condiciona nuestro acceso a lo que publican los demás.
Los intermediarios que administran una red social han adoptado términos de servicio y normas comunitarias que les habilitan a sancionar a quienes, en su opinión, los infringieron.
Es por eso que los contenidos que creamos, subimos o compartimos pueden ser marcados, ocultados e, incluso, eliminados. También las cuentas que creamos (nuestro “medio de comunicación” en ese espacio) pueden ser suspendidas temporalmente o bloqueadas de manera definitiva.
Las plataformas sociales no son espacios neutrales donde publicamos sin intervención alguna lo que queremos. Por el contrario, existen reglas privadas de “moderación de contenidos” que tienen un impacto enorme: definen qué vemos y qué no vemos en Internet. Y por eso es que las debemos conocer.
Separador
¿Y cuáles son esas reglas?

Cada plataforma tiene sus propias normas y condiciones de servicio, con diferencias en lo consideran apropiado o no para ser publicado. Y también sobre las sanciones que se aplicarán.

Todas las plataformas deberían hacer públicas sus reglas de funcionamiento y advertir a las personas usuarias cuando realizan modificaciones o actualizaciones.

Sin embargo, muchas veces puede resultar difícil acceder a ellas o terminar de leerlas porque son interminables. Incluso en algunos casos no todos los textos están escritos en español o en el idioma del usuario.

Separador
¿Qué son los términos de servicio?
Es un acuerdo legal entre quien provee un servicio y la persona que quiere usarlo. La persona debe aceptar regirse por los términos de servicio para poder utilizarlo. Los términos de servicio pueden ser meramente un aviso legal o disclaimer, sobre todo cuando se trata de páginas web.
Separador
¿Qué son las normas comunitarias?
Las plataformas establecen normas en las que fijan reglas y guías acerca de qué es o no es aceptable publicar en sus redes. Deriva del término legal anglosajón community standards que surgió en Estados Unidos a partir de una prueba para determinar si un material es obsceno o no. En la decisión de la Corte Suprema de 1957 acerca del caso Roth vs. EEUU se sostiene que el material obsceno dependía de "si para la persona promedio, aplicando los estándares comunitarios contemporáneos, el material es lascivo”.
Separador
Separador
Principales acciones de moderación privada
Priorización de contenidos
Lo que vemos en el newsfeed de Facebook o timeline de Twitter no está ordenado de cualquier manera. Por defecto, las plataformas nos muestran contenidos “destacados” primero. Muestran lo que nos gusta, dicen.
Las redes priorizan los contenidos y cuentas que vemos a partir de algoritmos de recomendación que aprenden a partir de nuestros comportamientos (a quién comentamos, damos me gusta, reposteamos o retuiteamos) y nuestras decisiones (si silenciamos contactos, si bloqueamos palabras determinadas, si bloqueamos, si pedimos “ver menos” de algunos de ellos ).
Flagging (marcar contenidos)
Las redes lo usan para identificar contenidos de dudosa procedencia o veracidad. Por ejemplo, Facebook trabaja con periodistas o fact-checkers que analizan contenidos de interés público.
Si consideran que es falsa, la plataforma la “marca” y/o la vincula con la información que la contrasta. El posteo no será eliminado, pero aparecerá una leyenda en la que se indica que total o parcialmente ha sido calificado como falso.
Reducción de alcance
En algunos casos como penalización por infringir las normas comunitarias, las plataformas no eliminan un contenido pero reducen al mínimo la cantidad de contactos que pueden verlo. No se elimina el contenido en Internet, pero el impacto es parecido: está ahí, pero muy pocos lo ven.
Shadowban (invisibilización)
Invisibilización, shadowban o ghostban es el bloqueo de un usuario en una plataforma sin que este perciba que está siendo bloqueado. Una de las técnicas más usadas es no mostrar sus publicaciones en la lista de posteos de un hashtag que haya utilizado y solo mostrarlo a quienes son seguidores. Esto les impide ser parte de una conversación global sobre un tema determinado, así como sumar nuevos seguidores.
Remoción de contenidos
Es una de las sanciones más extremas de las plataformas e implica la eliminación unilateral (en general sin aviso o posibilidad de defensa previa) de uno o más contenidos publicados por una persona usuaria. La remoción puede ser definitiva o temporal, decisión sujeta a modificaciones en el contenido originalmente publicado .
Filtro de carga
El filtro de carga es una medida, muy utilizada por plataformas de video, para escanear automáticamente el contenido y evitar su publicación. Es usado en especial para identificar eventuales violaciones a las leyes de derechos de autor. Las plataformas lo aplican a nivel mundial a partir de la aplicación de una ley de EEUU o por decisión propia. Esta política puede ser considerada una forma de censura previa que infringe acuerdos internacionales de libertad de expresión porque no aplica el principio de responsabilidad ulterior.
Suspensión de cuentas
Cuando una plataforma considera que un usuario/a ha infringido las normas comunitarias más allá de un contenido puntual , las plataformas pueden aplicar una suspensión temporal de acceso a una cuenta, y con ello a todos sus contenidos. En algunos casos la suspensión temporal se levanta una vez que el usuario realiza una serie de ajustes que la plataforma solicita.
Eliminación de cuentas
Si las plataformas entienden que las infracciones a las normas fueron de una importante gravedad o se trata de una cuenta reincidente, pueden determinar de forma definitiva la eliminación de una cuenta, así como eliminar de forma unilateral todos los contenidos generados por esa cuenta durante el tiempo que haya estado activa.
Separador
¿Quiénes revisan los contenidos?
Las plataformas tienen equipos humanos que revisan cientos de contenidos diarios para definir si cumplen con las reglas internas.

Pero han ido incorporando el uso de Inteligencia Artificial y algoritmos. Es que resulta imposible revisar todo el contenido que se sube a diario y se deja a “robots” esa tarea.
Con la pandemia mundial COVID-19, gran parte de los equipos humanos de moderación dejaron de actuar y las plataformas aumentaron exponencialmente el uso de moderación automática.
No siempre es claro qué contenido puede violar las normas comunitarias de la plataforma. Y analizar el contexto debería ser fundamental.

La ausencia de humanos en esa revisión aumenta los riesgos de remociones ilegítimas.
Separador