Observacom
Actualidad - EEUU

EFF advierte sobre la moderación automática de contenidos en Internet durante el COVID19 y teme se extienda luego de la crisis

En el escenario de la pandemia de COVID19, Electronic Frontiers Foundation (EFF) advierte sobre los problemas de moderación de contenidos por parte de las plataformas por el uso de filtrado automático, así como alerta sobre los riesgos de que se extienda dichas práctica post pandemia.

“Los desafíos por la moderación de contenidos por redes sociales no ha desaparecido -y en algunos casos se ha visto exacerbada por la pandemia. En semanas anteriores, Youtube, Twitter y Facebook lanzaron comunicados públicos sobre sus estrategias de moderación en esta época… todos tienen un elemento clave en común: el creciente uso de herramientas automatizadas”, señala EFF.

“La tecnología automatizada no trabaja a escala; no puede leer matices en los discursos en la forma que lo hacen los humanos; y para algunos idiomas no funciona en absoluto. A lo largo de los años hemos visto el resultado del uso de automatización en numerosas bajadas de contenido erróneas. En síntesis: la automatización no es un sustituto suficiente de los humanos”, explica.

La organización reconoce que, en sus anuncios, YouTube, Twitter y Facebook han tenido en cuentan las deficiencias de la inteligencia artificial y lo contemplan en las medidas adoptados. Así, por ejemplo, según explica EFF YouTube no emitirá advertencias sobre el contenido de video, excepto en los casos en que tengan «alta convicción» de que viola sus reglas, y Twitter solo emitirá suspensiones temporarias- no bloqueos permanente- en este tiempo. Por su parte, Facebook reconoció que dependerá de los empleados a tiempo completo para moderar ciertos tipos de contenido, como el terrorismo.

“Estas medidas temporales ayudarán a mitigar la inevitable sobre censura que genera el uso de herramientas automatizadas. Pero la historia sugiere que los protocolos adoptados en tiempos de crisis generalmente persisten cuando las crisis terminan. Las redes sociales deberían comprometerse públicamente ahora, a que se restablezca y expanda la revisión humana tan pronto como la crisis disminuya”, sostiene EFF.

La organización destaca la importancia de que las plataformas adopten los principios de Santa Clara en lo relativo a procesos de transparencia, notificación y apelación en estos tiempos. Sin embargo, considera que es necesario profundizar y expandir dichos principios. Por lo que propone realizar una serie de consultas en los próximos meses entre distintos actores para ampliarlos.

“Los principios de transparencia, notificación y procesos de apelación robustos de los Principios de Santa Clara serán más importantes que nunca. Estos principios proveen un estándar al cual las compañías deberían adherir. Pero a medida que las empresas recurren a la automatización, pueden no ser suficientes. Por eso, en los próximos meses, nos comprometeremos con la sociedad civil y el público en una serie de consultas para ampliar y adaptar estos principios”, concluye EFF.

ENLACES RELACIONADOS:

Organizaciones sociales llaman a plataformas a adoptar los Principios de Santa Clara” sobre transparencia y rendición de cuentas en la remoción y censura contenidos de sus usuarios

OBSERVACOM alerta sobre el impacto para la libertad de expresión de la censura algorítmica de plataformas en tiempos de COVID-19

... (en este espacio hay varias líneas de código de programación personalizado)