La ex Relatora Especial para la Libertad de Expresión de la CIDH y ex Copresidenta del Oversight Board de META propuso que los Estados regulen los mecanismos de amplificación de las plataformas con obligaciones de transparencia significativa, rendición de cuentas, evaluación de riesgos, límites a la microsegmentación electoral y garantías de debido proceso. Lo hizo en el Simposio sobre libertad de expresión y combate a la desinformación donde además advirtió que el optimismo inicial sobre el rol democratizador de internet dio paso a un escenario de desinformación a gran escala.
Botero recordó que hace una década predominaba la idea de que bastaba con aplicar al entorno digital las reglas de la libertad de expresión vigentes fuera de línea. Internet era percibida como un espacio abierto, descentralizado y sin censura, que ampliaba el acceso a la palabra y fortalecía la conversación pública. Ese “optimismo digital” se apoyaba en ejemplos como la Primavera Árabe y la posibilidad de que cualquier persona pudiera expresarse en igualdad de condiciones.
Sin embargo, señaló que una serie de hechos modificaron ese panorama: el escándalo de Cambridge Analytica y su influencia en el referéndum del Brexit; el uso de redes sociales para incitar a la violencia contra la minoría rohinyá en Myanmar; la campaña de desinformación durante el plebiscito por la paz en Colombia; las narrativas falsas sobre la invasión rusa a Ucrania y la masiva difusión de desinformación en salud pública. Estos casos, dijo, mostraron cómo las plataformas pueden ser utilizadas para influir estratégicamente en procesos políticos y sociales, afectando incluso la estabilidad democrática.
Botero explicó que la desinformación a gran escala combina varios elementos: producción y difusión de contenidos falsos o engañosos con herramientas de inteligencia artificial; uso masivo de datos personales para microsegmentar mensajes; redes de cuentas falsas y granjas de troles para amplificar narrativas; y algoritmos de recomendación que refuerzan sesgos, crean cámaras de eco y priorizan la permanencia de los usuarios.
Uno de los problemas centrales, advirtió, es la falta de acceso a datos duros para investigar el impacto real de estos fenómenos. “Las plataformas tienen una cantidad de información que nos permitiría hacer ciertas investigaciones. No las podemos hacer porque no tenemos los datos. Por lo tanto, no podemos demostrar con datos duros cómo la desinformación llevó a retrocesos democráticos importantes en ciertos países”, afirmó.
Frente a este escenario, sostuvo que la regulación no debe centrarse en definir la veracidad de los contenidos, sino en establecer obligaciones sobre los mecanismos y procesos que permiten su difusión masiva. Entre las medidas propuestas destacó:
- Transparencia significativa: entrega de información útil y verificable sobre funcionamiento de algoritmos, criterios de moderación, volumen y tiempos de respuesta, número y cobertura lingüística de moderadores, parámetros de amplificación, segmentación publicitaria y uso de IA en generación y distribución de contenidos.
- Rendición de cuentas: que asuman responsabilidad ante la sociedad y las autoridades cuando sus decisiones afecten derechos fundamentales.
- Evaluación y mitigación de riesgos sistémicos: informes periódicos sobre impactos en elecciones, salud pública y seguridad, con metodologías auditables y medidas correctivas verificables.
- Etiquetado de contenidos generados o modificados con IA: especialmente en contextos de alto riesgo.
- Restricciones a la microsegmentación electoral: para evitar la personalización extrema de mensajes políticos que impide su escrutinio público.
- Debido proceso robusto para los usuarios: mecanismos efectivos de apelación, explicación clara de las decisiones de moderación, revisión por instancias independientes y restitución de contenidos cuando corresponda. En casos de alto riesgo, como la desinformación sobre vacunación infantil, propuso que el contenido pueda ser retirado preventivamente y restituido tras la revisión.
Catalina Botero advirtió que, si bien las plataformas han tenido un papel democratizador en contextos donde los Estados ejercen censura o bloquean redes, la concentración de poder privado y los incentivos comerciales actuales requieren supervisión externa con capacidad sancionatoria.
La ex relatora consideró que la experiencia europea demuestra que es posible establecer reglas claras que equilibren la protección de la libertad de expresión con la necesidad de mitigar los riesgos sistémicos de la desinformación. Sostuvo que América Latina debe avanzar en esa dirección, con regulaciones que fortalezcan la transparencia, garanticen el debido proceso y cuenten con mecanismos de rendición de cuentas efectivos para que las plataformas digitales respondan ante la sociedad y las autoridades por el impacto de sus decisiones.