Se presentaron los 25 estándares para una Internet más transparente en Colombia

En un esfuerzo por lograr una gobernanza democrática del espacio público digital, numerosas organizaciones sociales colombianas impulsan una iniciativa de estándares para exigir una mayor transparencia y rendición de cuentas de las grandes plataformas digitales. Esta propuesta busca garantizar el derecho fundamental a la libertad de expresión, contrarrestar la desinformación y promover una Internet más inclusiva y abierta.

La falta de transparencia y rendición de cuentas en los procesos de moderación de contenidos de las grandes plataformas digitales continúa siendo una preocupación global, con impactos directos en el ejercicio de derechos fundamentales como la libertad de expresión. En Colombia, este desafío impulsó a una alianza de organizaciones colombianas a trabajar en la construcción de estándares para fortalecer la gobernanza de las grandes plataformas digitales, el carácter inclusivo del espacio público digital y recuperar una Internet más libre y abierta.

Este esfuerzo se realiza en el marco de una creciente concentración de poder en unas pocas corporaciones transnacionales que operan como guardianes del acceso a la información en línea, afectando de manera desproporcionada a grupos vulnerables como mujeres, pueblos indígenas, personas afrodescendientes y la comunidad LGBTI. Además, limita la labor de periodistas, medios independientes y defensores de derechos humanos, quienes dependen de un entorno digital abierto para desarrollar su trabajo.

La propuesta, cuyo documento inicial fue elaborado por OBSERVACOM y El Veinte, implicó un trabajo de construcción de acuerdos progresivos en torno a esos estándares de transparencia, a través de una serie de consultas, reuniones virtuales y talleres presenciales que involucraron a organizaciones y entidades que participaron del proyecto Social Media 4 Peace -SM4P- en Colombia. 

La elaboración de esta serie de estándares, basados en principios de la UNESCO y la Relatoría para la Libertad de Expresión de la CIDH, tiene como objetivo marcar una referencia para avanzar hacia una regulación democrática que exija mayor transparencia a las grandes plataformas. Con un enfoque adecuado al contexto colombiano, los estándares propuestos buscan empoderar a los usuarios, lograr el pleno ejercicio de derechos fundamentales en línea -entre otros, el de la libertad de expresión-, contrarrestar el impacto de la desinformación y los discursos de odio, y promover una Internet más libre, equitativa y accesible para todas las personas.

 
Los principales estándares de la propuesta:

Transparencia en las reglas de juego: Las plataformas de contenidos deben garantizar que sus términos de servicio y normas comunitarias estén redactados de manera clara, precisa y accesible en el idioma nacional, para asegurar su comprensión por parte de los usuarios. Asimismo, es fundamental que se detallen, de forma visible y centralizada, los tipos de contenido y actividades prohibidas que podrían derivar en sanciones como la eliminación de contenido, restricciones de alcance o la suspensión de cuentas. Finalmente, dentro de este ítem se exige que las plataformas informen sobre los moderadores humanos encargados de abordar temas locales, especificando su ubicación, experiencia en el contexto nacional y formación en derechos humanos, asegurando así procesos de moderación cultural y lingüísticamente adecuados.

Transparencia algorítmica: Las plataformas digitales deben garantizar transparencia en el uso de algoritmos para la moderación y curación de contenidos, explicando los criterios que impactan su visibilidad, diferenciando aquellos controlables por los usuarios. Además, deben identificar claramente contenidos promocionados, patrocinados o políticos, señalando a los responsables y proporcionando información sobre los metadatos. En cuanto a datos personales, deben informar cómo se recolectan, utilizan y procesan para decisiones algorítmicas, especificando el manejo de datos sensibles. Por último, deben facilitar el acceso a datos no personales y seudónimos para universidades y personas investigadoras, promoviendo un análisis detallado del impacto de sus sistemas automatizados en procesos como ranking, targeting y recomendación, junto con el grado de supervisión humana involucrado.

Empoderamiento de las personas usuarias: Las plataformas deben notificar oportunamente a los usuarios cuando sus contenidos sean eliminados, sus cuentas suspendidas o se adopten medidas que afecten su participación, explicando claramente los motivos. Asimismo, deben proporcionar información accesible y en el idioma del usuario sobre los procesos de apelación disponibles, incluyendo detalles del procedimiento, tiempos estimados y cómo se evalúan dichas apelaciones. Estas garantías deben permitir a los usuarios ejercer su derecho a la defensa, asegurando una interacción más justa y transparente con las decisiones de las plataformas.

Transparencia de la propaganda electoral: Durante los periodos electorales, las plataformas deben garantizar la transparencia de los anuncios políticos mediante la publicación de información clave: el importe, el autor, los financistas y el alcance pautado de dichos anuncios. Esta información debe mantenerse en una biblioteca pública en línea, accesible para cualquier usuario, y ser claramente visible para los receptores del mensaje. Además, las plataformas deben informar sobre el uso de datos personales para la segmentación de la publicidad y etiquetar adecuadamente los contenidos sintéticos relacionados, asegurando un impacto positivo en el espacio cívico y reduciendo riesgos de desinformación o discursos de odio.

Rendición de cuentas de sus acciones: Las plataformas deben rendir cuentas mediante la publicación de reportes periódicos con información detallada y desagregada sobre las restricciones de contenido aplicadas en el país. Estos informes deben incluir datos sobre remociones, reducción de alcance, suspensiones y bloqueos de cuentas, especificando si estas acciones se tomaron en respuesta a solicitudes estatales, decisiones judiciales, requerimientos privados o las propias políticas de la plataforma. También deben incluir información sobre las solicitudes realizadas por agentes estatales, como organismos gubernamentales y reguladores, señalando los motivos esgrimidos, las decisiones tomadas y los resultados obtenidos. Asimismo, es fundamental detallar el impacto de la moderación automatizada y humana, así como los reclamos y apelaciones realizadas por los usuarios y sus desenlaces.

Transparencia estatal: Los Estados tienen la responsabilidad de ser transparentes sobre su participación en las decisiones de moderación de contenidos, informando sobre las solicitudes o demandas realizadas a las plataformas, incluyendo la base legal de cada caso. Además, deben garantizar que no se impida a las empresas publicar información detallada sobre estas solicitudes, salvo que exista una base legal clara y que la restricción sea estrictamente necesaria y proporcionada para alcanzar un objetivo legítimo. Estas medidas buscan asegurar que los Estados no obstruyan la transparencia de las plataformas, sino que fomenten una rendición de cuentas adecuada sobre su rol en la gobernanza del entorno digital.

El documento completo puede consultarse AQUÍ.


ENLACES RELACIONADOS:

Organizaciones colombianas forman alianza para proteger el espacio público digital

 

Related posts

CRC de Colombia sanciona a canal de TV abierta por incumplir cuota de pantalla de cine nacional

Presentan proyecto de ley en Colombia para regular a influencers

Pluralismo e imparcialidad informativa en la TV colombiana: CRC inicia consulta pública para evaluar su situación