Observacom
BlogGlobalOpinión

Cómo regular a las grandes plataformas y proteger a los usuarios. Una propuesta de la sociedad civil latinoamericana

Análisis de Ana Bizberge (*)

La definición de términos y condiciones de servicio, la transparencia y el derecho a defensa son tres de los aspectos donde se definen algunas de las condiciones necesarias para proteger a los usuarios ante el poder de las grandes plataformas de Internet.

El documento con Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en Internet, elaborado por OBSERVACOM junto con Intervozes e IDEC de Brasil, y Desarrollo Digital de Argentina, ofrece claves para el desarrollo de marcos normativos respetuosos de la libertad de expresión y los derechos de los usuarios, en sintonía con los estándares internacionales.

A continuación compartimos el artículo completo de Ana Bizberge, publicado en la revista digital de ASIET de setiembre de 2019.

Moderación de contenidos en Internet: una propuesta latinoamericana para proteger a los usuarios ante las grandes plataformas

Las grandes plataformas de Internet representan en la actualidad una nueva esfera pública, un espacio de discusión clave para la deliberación democrática y el ejercicio de derechos fundamentales.

Allí, la creciente intervención de esos intermediarios en los contenidos en línea mediante la adopción de términos de servicio y la aplicación de políticas empresariales de moderación, tiene repercusiones directas en el ejercicio de derechos de sus usuarios, entre ellos, la libertad de expresión.

En este escenario, OBSERVACOM junto con Intervozes e IDEC de Brasil, Desarrollo Digital de Argentina y expertos nacionales e internacionales, elaboramos un documento con Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresion en Internet.

La iniciativa plantea una perspectiva latinoamericana sobre la gobernanza de Internet que garantice procesos de moderación privada de contenidos compatibles con los estándares internacionales de derechos humanos.

La propuesta postula un modelo de co-regulación para el establecimiento de criterios de regulación asimétrica y progresiva que tome en cuenta el poder de mercado significativo de las plataformas.

Desde el punto de vista de los derechos de los usuarios hay tres aspectos que queremos destacar en esta iniciativa: los referidos a los términos y condiciones de servicio; la transparencia; y el derecho a defensa.

En relación con los términos y condiciones de servicio, postulamos que éstos deberían ser claros, precisos, accesibles y estar alineados con los estándares y principios internacionales de derechos humanos. Además, no deberían conceder poder ilimitado y discrecional a las plataformas para determinar la idoneidad del contenido generado por el usuario.

En este sentido, las plataformas no deberían implementar filtros automáticos que eliminen contenidos publicados por sus usuarios, excepto en aquellos casos que se trate de contenidos manifiestamente ilegales que, al mismo tiempo, sean reconocidos como limitaciones legítimas a la libertad de expresión en las declaraciones o tratados internacionales de derechos humanos.

Otra excepción para la remoción de contenidos puede ser cuando se trata de contenidos que -aún cuando no sean reconocidos como ilegales-, causen daños serios, inminentes e irreparables o de difícil reparación a otras personas, o cuando se trata de contenidos que podrían afectar a públicos específicos como niñas, niños y adolescentes. En cualquier caso, la restricción de contenidos se realizaría como medida cautelar, no definitiva, sujeta a revisión.

Es así que la toma de decisiones sobre contenidos por parte de las plataformas debería respetar el principio de progresividad y proporcionalidad, garantizando el respeto al debido proceso y adoptando medidas menos onerosas que la remoción, optando por mecanismos de aviso o notificación u otras.

En materia de transparencia, la propuesta regulatoria postula que cuando el contenido es restringido, el intermediario debería exhibir un aviso claro explicando qué contenido se eliminó y por qué. En el caso de contenido comercial, patrocinado o político, debería ser claramente identificado, y las plataformas deberían informar a sus usuarios, de forma clara, explícita y accesible sobre el tipo de contenido prohibido, criterios de curaduría y moderación.

Es importante que las plataformas cuenten con mecanismos para permitir un efectivo derecho a defensa y reparación de sus usuarios. En este sentido, todas las plataformas de contenido deberían notificar a los usuarios y ofrecer una justificación clara en casos de remoción o restricción de contenidos, así como poner a disposición información sobre cómo recurrir la decisión. Para eso es central que los usuarios puedan acceder a recursos legales en su país para responder a las decisiones y contar con mecanismos de reparación frente a la eventual violación de sus derechos.

La propuesta “Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en Internet”, se puede consultar en español, inglés y portugués en el sitio web de OBSERVACOM.

Actualmente, el documento está abierto a comentarios hasta el 15 de octubre. También se reciben firmas de organizaciones que actúen sobre el tema en América Latina. Se pueden realizar comentarios y adhesiones por mail a contacto@observacom.org

(*) Editora de contenidos de OBSERVACOM.

Nota publicada en la edición de setiembre de la revista digital de ASIET: ‘Telecomunicaciones de América Latina», la cual aborda temas como la ciberseguridad, la inclusión, derechos de los usuarios, o privacidad y tratamiento de datos personales. Puede leerse aquí: https://asiet.lat/newsletter/Septiembre2019/Newsletter.html

 

Imagen destacada: «Terms & Conditions for my rented tux…» por Andrew Currie con licencia CC BY-SA 2.0

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)