Observacom
Actualidad - Global Regulación

Organizaciones sociales llaman a plataformas a adoptar los “Principios de Santa Clara” sobre transparencia y rendición de cuentas en la remoción y censura contenidos de sus usuarios

Un grupo conformado por organizaciones de la sociedad civil y académicos norteamericanos, presentaron los “Principios de Santa Clara”, un conjunto de estándares mínimos que Google, Facebook y otras empresas de Internet deberían adoptar para ser más transparentes y mejorar la rendición de cuentas sobre sus “opacas” prácticas de “censura privada”.

El documento se basa en tres principios: datos (números), notificación y apelación. En primer lugar, las organizaciones instan a las plataformas a que publiquen en un reporte cuatrimestral el número de publicaciones removidas y cuentas suspendidas de forma temporal o permanente debido a violaciones a sus términos de condiciones. El reporte debería contener el número total de publicaciones y cuentas reportadas; el total de publicaciones removidas y cuentas suspendidas. A su vez, en ambos casos, se debe discriminar la cantidad de acuerdo al tipo de norma violada, al formato del contenido (audio, imagen, video, etc.), por fuente de reporte (gobierno, usuarios, distintos tipos de detección automática, reportadores confiables), así como por ubicación del reportador y los usuarios impactados.

El segundo principio alude al proceso de notificación. Se urge a las compañías a notificar a todos los usuarios sobre las razones por las cuales su contenido fue removido o su cuenta suspendida. Como mínimo, se espera que las plataformas incluyan la URL, el extracto del contenido y cualquier otra información relevante para poder identificar el contenido removido; la cláusula específica de sus códigos donde se explicita la cláusula que fue violada; cómo se detectó y removió el contenido; y explicar el procedimiento de apelación de la medida que tiene a disposición el usuario.

Precisamente, el mecanismo de apelación es el tercer principio. Se establece que las compañías deben proveer una revisión humana del contenido removido, por alguien que no haya estado involucrado en la decisión inicial, así como también que se dé al usuario la oportunidad de presentar información adicional para que sea considerada en la revisión. Por último, se indica que, a largo plazo, sería importante incorporar un proceso de revisión externo independiente.

“Los usuarios merecen más transparencia y mayor rendición de cuentas por parte de las plataformas que juegan un papel desmesurado para decidir qué puede decirse en Internet”, señaló Jillian C. York, Director de Libertad de Expresión Internacional de Electronic Frontier Foundation (EFF).

Por su parte, Nate Cardozo, abogado senior de EFF planteó que, si bien celebra los recientes pasos que han dado Facebook y Google al incorporar nuevos mecanismos para apelar sus decisiones, no son suficientes desde su perspectiva. “Esperamos que las compañías adopten los Principios de Santa Clara y eleven más su barrera de transparencia y rendición de cuentas”, afirmó.

El documento fue elaborado por ACLU Foundation of Northern California; Center for Democracy & Technology; Electronic Frontier Foundation y New America’s Open Technology Institute en conjunto con los académicos Irana Raicu (Markkula Center for Applied Ethics, Santa Clara University), Nicolas Suzor (Queensland University of Technology), Sarah T. Roberts (Department of Information Studies, School of Education & Information Studies, UCLA) y Sarah Myers West (USC Annenberg School for Communications and Journalism).

ENLACES RELACIONADOS:

Falta transparencia de las empresas de Internet sobre el monitoreo y la censura que realizan sobre contenidos de sus usuarios, revela estudio internacional

Gigantes tecnológicos deberán adecuar términos y condiciones para ajustarse a la legislación europea de protección de derechos de usuarios

Notas relacionadas

Gigantes de Internet evitan avalar regulación estatal sobre origen de la publicidad como tienen las TV en EEUU

Observacom

En sólo 3 meses de 2018 Facebook eliminó 21 millones de publicaciones de “desnudos”, 2,5 millones con “discurso del odio” y eliminó o advirtió sobre 3,5 millones de “contenidos violentos”

Observacom

UNESCO presentó segundo borrador de Indicadores de Universalización de Internet elaborado en base a aportes de múltiples actores

Observacom