El más importante fact-checker ecuatoriano enfrenta una serie de restricciones acumulativas en TikTok —incluyendo shadow banning, eliminación de contenidos y bloqueo de funciones— aplicadas con criterios poco claros y sin vías efectivas de revisión, lo que limita la distribución de información de interés público.
Aunque TikTok notificó algunas de estas medidas, la información proporcionada fue insuficiente, ambigua o contradictoria, impidiendo comprender por qué se aplicaron y cómo revertirlas. La plataforma aplicó medidas que coinciden con los patrones descritos por OBSERVACOM para los casos de shadow banning: reducción del alcance, bloqueos de funciones, ausencia de criterios claros, imposibilidad de apelar y decisiones que permanecen sin explicación durante meses.
El caso resulta especialmente preocupante porque las sanciones recaen sobre contenidos educativos y verificaciones en contextos electorales o de crisis internacional, es decir, información producida por periodistas que buscan combatir la desinformación realizando fact-checking, y cuyos resultados son castigados por la plataforma.
Las medidas aplicadas incluyen:
- Eliminación o limitación de videos explicativos sobre deepfakes durante campaña electoral en Ecuador;
- Remoción o limitación de una verificación sobre un rumor viral sobre la supuesta muerte de Nicolás Maduro, catalogada como “información falsa”, con una apelación que permanece sin resolución después de varios meses;
- Eliminación o limitación de contenido explicativo sobre desinformación vinculada al terremoto en Rusia (sin acceso a mecanismos de apelación);
- Caída sostenida y acumulativa del alcance orgánico y pérdida de “descubribilidad”, reportada también por la audiencia;
- Suspensión de la posibilidad de pautar hasta 2035, declarada “no apelable” por la propia compañía.
Algunas de estas situaciones combinan notificaciones formales con justificaciones insuficientes, inconsistentes o aplicadas incorrectamente, lo que impide conocer la razón real de la sanción y deja al medio sin herramientas para corregir o prevenir futuras restricciones.
En algunos casos, las restricciones operan como una forma de censura encubierta que mantiene técnicamente disponible el contenido, pero reduce drásticamente su circulación. Incluso cuando TikTok habilita apelaciones, como en el caso del rumor sobre Maduro, la falta de respuesta o de argumentos verificables vuelve la revisión un proceso meramente nominal, sin efectos reales.
Las restricciones aplicadas a Lupa Media, como es el caso de la reducción de alcance sostenida, no fueron repentinas sino acumulativas, lo que afectó directamente su visibilidad en esa red social y también afectó el derecho a recibir información de su audiencia. Además, la suspensión de los servicios de pauta hasta 2035 constituye una sanción desproporcionada y carente de debido proceso. Esa medida priva al medio de herramientas esenciales para sostener campañas informativas en momentos críticos.
Ante la falta de respuestas y la persistencia de las restricciones, Lupa Media decidió abrir una cuenta secundaria para garantizar su continuidad, aun cuando esto implica empezar de cero tras años de trabajo y dedicación invertidos en la cuenta original.
El caso vuelve a mostrar cómo la moderación opaca en plataformas digitales afecta el pluralismo informativo y restringe la circulación de contenidos de interés público sin ofrecer garantías básicas a los usuarios.
ENLACES RELACIONADOS:
El shadow banning: la censura sutil y oculta de las grandes plataformas digitales