Observacom
Actualidad - Argentina Observacom

OBSERVACOM presentó propuesta de Estándares para la Regulación de las Grandes Plataformas de Internet ante el Congreso de Argentina

OBSERVACOM presentó el documento “Estándares para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en línea y una Internet libre y abierta”, en la reunión organizada por la Comisión de Comunicaciones e Informática de la Cámara de Diputados de Argentina, presidida por el diputado Pablo Carro.

El encuentro, que tuvo lugar el viernes 4 de septiembre bajo el título “Regulación, co-regulación y responsabilidades de plataformas para una Internet libre y abierta”, permitió generar un debate entre académicos y representantes de organizaciones como Access Now, el Centro de Estudios en Libertad de Expresión y Acceso a la Información (CELE) y la Cámara Argentina de Internet (CABASE) sobre las distintas perspectivas para la regulación de Intermediarios de Internet en Argentina.

«Estamos ante la necesidad de establecer algún tipo de pauta de regulación pública frente a empresas privadas que tienen un poder como nunca nadie en la humanidad ha tenido respecto a la deliberación pública”, aseguró Gustavo Gómez, Director Ejecutivo de OBSERVACOM quien presentó los principales aspectos del documento para regular la moderación de contenidos por parte de las grandes plataformas de Internet, elaborado junto a otras sociedad civil de América Latina como Intervozes e IDEC de Brasil, CAinfo de Uruguay, TEDIC de Paraguay, PROLEDI de Costa Rica, Usuarios Digitales de Ecuador, IPANDETEC de Panamá, Datos Protegidos de Chile y Desarrollo Digital de Argentina.

Gómez recordó que los Relatores de Libertad de Expresión señalaron en su declaración conjunta que uno de los desafíos para Internet es el poder concentrado en pocas empresas.

Explicó que la propuesta, que pasó por un proceso de consulta pública de casi un año y recogió distintos aportes de múltiples partes interesadas, busca “poner límites a los dueños de las plataformas, no a los usuarios” estableciendo “reglas progresivas, razonables y democráticas para que la moderación de contenidos esté en línea con los derechos humanos”.

La iniciativa plantea la coexistencia de mecanismos de co-regulación, regulación estatal y auto-regulación y propone una “regulación asimétrica” con “mayores exigencias para las plataformas con posición dominante”, puntualizó.

El documento de OBSERVACOM y otras organizaciones latinoamericanas plantea obligaciones de transparencia y rendición de cuentas. Reconoció que “si bien las plataformas mejoraron mucho, no creemos que sea suficiente”, por eso la necesidad de exigirles que cumplan con estos principios, en especial, siendo transparentes sobre los algoritmos que utilizan para la curación y priorización de contenidos de terceros.

La propuesta también enfatiza en la regulación sobre los términos de uso que establecen las plataformas a sus usuarios. “Creemos que las empresas privadas pueden definir sus propios términos de uso pero éstos no pueden ser incompatibles con estándares de derechos humanos”.

Además, se exige el respeto al “principio de proporcionalidad” sobre las medidas que adoptan respecto de los contenidos y otorgar garantías de debido proceso ante la aplicación de las normas comunitarias a sus usuarios.

En este sentido, Gómez señaló que las «medidas unilaterales de remoción solo se justifican si hay un daño grave” y que, si bien las plataformas pueden moderar contenidos, “no deben filtrar antes de que se publiquen, respetando el principio de evitar censura previa”.

Otro de los aspectos que destacó es que las plataformas deben permitir el derecho a defensa de sus usuarios frente a sus decisiones. “No siempre hay mecanismos de apelación frente a decisiones de plataformas. Por volumen y la rapidez de la información no podemos aspirar solo al estándar judicial como única medida. Hay que buscar mecanismos pre judiciales para resolver controversias”, dijo.

Además sostuvo la importancia de garantizar el acceso a la Justicia en el país donde vive el usuario, ya que los contratos de las empresas establecen que la resolución de disputas se realice en Estados Unidos.

Por su parte, Gaspar Pisanu, analista de políticas públicas Access Now, planteó que “el proceso que usan plataformas para auto-regularse ha sido peligrosamente opaco”. Indicó que “resulta urgente actuar sobre los discurso de odio y radicalización pero esto no puede servir de excusa para restringir la expresión de usuarios”. En este sentido aseguró que “los enfoques y herramientas para resolver conflictos deben respetar estándares de derechos humanos, asegurando que los derechos y libertades de los usuarios ocupen el centro”.

Señaló que, desde la perspectiva de Access Now “los intermediarios deben estar protegidos por contenidos de terceros a través de puertos seguros siempre y cuando cumplan con deberes concretos. Esos deberes tienen que estar establecidos legalmente, de forma clara y precisa”.

Asimismo, indicó que obligar a las plataformas a monitorear contenido implica violación a la privacidad y explicó que la regulación debe permitir lidiar con contenidos ilegales.

“Consideramos que hay distintos procedimientos que las plataformas pueden implementar según el daño: notificación y notificación (plataforma recibe denuncia y se la transmite a quien puede verse afectado); notificación de espera a respuesta y bloqueo hasta que se resuelva la contienda”, explicó.

Otra de las recomendaciones de Access Now es que los bloqueos de contenidos solo se deberían admitir en casos en los que haya una ilegalidad manifiesta (por ejemplo, explotación infantil en Internet). “En el caso de contenido ilegal es suficiente con una notificación privada para bloquearlo. Para el resto de los casos  se debe basar en notificación de un tribunal o de un organismo con potestad para ello, que sea imparcial e independiente”, sintetizó.

Por último señaló que las regulaciones deben exigir informes de transparencia por parte de las plataformas e incorporar mecanismos de apelación efectivos.

Desde CABASE, Esteban Lescano, sostuvo que “Todo el ecosistema de intermediarios requiere reglas claras, la regulación de intermediarios es clave (pero( los intermediarios no son solo grandes empresas. Hay actores grandes, medianos y pequeños…”.

También destacó la importancia de establecer que los intermediarios no sean responsables por contenidos de terceros y no obligarlos por Ley a ejercer monitoreo de contenidos tal como han intentado varios gobiernos de la región.

Señaló que el Marco Civil de Internet contiene principios que pueden orientar los debates en Argentina como por ejemplo el de responsabilidad subjetiva. «La limitación no significa inmunidad, sino que la plataforma tienen responsabilidad cuando, habiendo sido notificada, no actúe diligentemente”, explicó. También rescató de la normativa brasileña el estándar judicial para la retirada de contenidos. “La orden de bajada, bloqueo o inhabilitación debe ser por orden judicial, no puede ser privada, para garantizar debido proceso”, señaló, aunque indicó que existe una excepción al principio de notificación judicial para la desnudez no consentida.

Por último destacó que se deben garantizar “puertos seguros” para proteger derechos de usuarios y promover el desarrollo de los servicios de internet.

Agustina del Campo, Directora del CELE de la Universidad de Palermo, señaló que producto de las presiones estatales y no estatales, los intermediarios de Internet complejizaron sus reglas de autorregulación.

Explicó que en América Latina, excepto en Brasil, no hay una base normativa clara sobre la responsabilidad de intermediarios. En este sentido aseguró que el principio general que debería aplicarse es el de no responsabilidad de Intermediarios por los contenidos de terceros.

Indicó que algunas de las mejores prácticas para orientar los debates son: definir con claridad el alcance de las regulaciones; que las mismas estén basadas en evidencia; establecer como principio general la inmunidad de intermediarios por contenidos de terceros y luego trabajar sobre las excepciones; no establecer obligaciones de monitoreo para las plataformas; encarar las normativas desde una perspectiva de derechos humanos y atender a las particularidades de nuestro propio marco regional que cuenta con prohibición expresa de censura previa y de restricciones indirectas.

Por último, Mariela Baladrón, investigadora del Instituto de estudios de América Latina y el Caribe (IEALC) de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires, señaló que la moderación de contenidos por parte de las plataformas no solo responde a presiones estatales y no estatales sino que es constitutiva de su modelos de negocio. “Hay una decisión estratégica de moderar contenidos”, afirmó.

En coincidencia con los expositores dijo que la regulación de intermediarios debe basarse en la perspectiva de derechos humanos  y enfatizó en “profundizar en el diagnóstico de cómo trabajan estos intermediarios, porque vamos a regular prácticas que acontecen en la vida real”.

En este sentido explicó que los intermediarios de Internet asisten a un fuerte proceso de concentración en pocas empresas globales, que son poco transparentes respecto de su funcionamiento y ejercen mecanismos de censura privada.

El video completo del evento se puede ver aquí.

El documento completo de OBSERVACOM se puede consultar aquí.

ENLACES RELACIONADOS:

Especialistas debaten sobre responsabilidad de intermediarios en Internet a partir del caso CFK vs Google

Parlamentarios y académicos de Brasil coinciden en avanzar en la de “co-regulación” de plataformas de Internet para la moderación de discursos

... (en este espacio hay varias líneas de código de programación personalizado)