Observacom
Actualidad - Global Regulación

Facebook no es transparente sobre sus decisiones de remoción de contenidos y suspensión de cuentas, según estudio de Electronic Frontiers Foundation

Facebook, y su subsidiaria Instagram, no brindan transparencia a los usuarios sobre mecanismos de notificación y proceso de apelación por la remoción de contenidos y suspensión de cuentas, ni brindan información sobre sus políticas privadas al respecto, así como tampoco sobre los pedidos legales de los gobiernos en este sentido. Así lo revela el estudio Who Has Your Back? Censorship Edition 2018, de la organización Electronic Frontiers Foundation (EFF).

“Dado que Facebok es el sitio de algunos de las decisiones más controvertidas sobre moderación de contenidos y tiene la mayor cantidad de usuarios entre las plataformas de su tipo, la decisión de negar a sus usuarios el acceso a mecanismos comprehensivos de notificación y apelación es particularmente preocupante”, sostiene el documento.

El estudio de EFF se centra en el análisis de las políticas de las principales compañías tecnológicas en materia de pedidos de censura de contenidos por parte de los gobiernos. Las empresas analizadas son: Apple (App Store); Facebook (Facebook e Instagram); Alphabet (Google, Google Play, Youtube), LinkedIn (de Microsoft); Médium; Pinterest; Rediit; Snap; Tumbrl; Twitter; Vimeo; y WordPress.

EFF utiliza cinco criterios para el análisis. Los primeros dos refieren a la transparencia sobre los pedidos legales de remoción de contenidos por parte de los gobierno, así como sobre las políticas de las plataformas para bajada de contenidos por decisión propia. Desde la perspectiva de EFF deberían incluir información sobre la cantidad de pedidos recibidos, el país en el que se originaron y la cantidad de pedidos sobre los que se tomaron acciones.

El tercer criterio apunta a los procedimientos de notificación a los usuarios sobre contenido removido o suspensión de cuentas, tanto a pedido de los gobiernos, como debido a violaciones a la política privada de las plataformas. En ambos casos, en esta categoría se debería incluir la identificación del contenido específico que supuestamente viola las normas e informar al usuario que se trató de un pedido legal de remoción o bien detallar el elemento específico de la política del proveedor que se está infringiendo.

El cuarto criterio refiere al compromiso público a respetar el debido proceso proveyendo al usuario de mecanismos de apelación. El quinto y último criterio es la limitación sobre la restricción del contenido a la jurisdicción donde el proveedor considera de buena fe que se requiere legalmente restringir el contenido.

Entre los principales hallazgos del estudio, además de los ya comentados sobre Facebook e Instagram, se destacan que tanto las tiendas de Apple (App Store) como de Google (Google Play Stores) y Youtube cumplen con todos los criterios de transparencia. En tanto, Medium, Reddit y WordPress cumplen con la mayor parte de criterios, excepto por la categoría de notificación.

ENLACES RELACIONADOS:

Relatoría de ONU: Regulación privada de contenidos en Internet debe basarse en principios de derechos humanos. Recomienda “smart regulation” para asegurar que las plataformas adopten mecanismos de transparencia y rendición de cuentas

Public Knowledge propone que las plataformas estén sujetas al principio de debido proceso como garantía de trato justo para los usuarios

Notas relacionadas

Australia: presentan informe con 23 recomendaciones para la regulación de plataformas digitales

Observacom

Iniciativas de verificación en Argentina y Bolivia se suman a una región donde crece el enfrentamiento a la desinformación con más periodismo

Observacom

Relator de Libertad de Expresión de ONU pregunta: ¿cómo definir el discurso de odio en Internet y quién lo debe regular?

Observacom
... (en este espacio hay varias líneas de código de programación personalizado)