Menos moderación, más desinformación: el impacto de las nuevas políticas de Meta en las elecciones de Ecuador

Foto: Pexels.

Por OBSERVACOM.

Ecuador fue el primer país de América Latina en celebrar elecciones presidenciales tras el giro anunciado por Meta en enero de 2025, que incluyó el abandono de los programas de verificación independientes y una reducción de la moderación sobre contenidos políticos. Organizaciones locales advierten que estas nuevas políticas ya tienen efectos concretos: menos etiquetado de desinformación chequeada, más circulación de contenidos manipulados con IA y una mínima interlocución con actores clave, en un contexto de creciente opacidad de sus acciones y polarización dentro de sus redes.

En enero de este año Meta había anunciado cambios importantes en sus políticas que, entre varios puntos, incluían la supresión de la verificación de datos por terceros -delegando esa responsabilidad en las “notas de la comunidad”-, la reducción de la moderación sobre los “contenidos políticos” (incluyendo temas sensibles como la inmigración y género), y el traslado de los equipos de moderación de California a Texas. La primera de ellas aplicó inmediatamente a Estados Unidos, pero la empresa anunció que no aplicaría para el resto del mundo.

Este análisis de OBSERVACOM trata de identificar cuáles de estas decisiones se aplicaron en nuestra región (¿cayó la verificación sólo en EEUU, como anunció la empresa, o también se extendió en América Latina? ¿mantuvieron los acuerdos con fact-checkers en la región? ¿cuál fue el impacto de la flexibilización de sus reglas de moderación de contenidos?) Además, se analiza el nivel de transparencia que adoptaron Meta y otras plataformas sobre la publicidad política -o la falta de ella- en sus redes sociales. 

Para ello, observamos las recientes elecciones presidenciales en Ecuador, el primer proceso electoral en América Latina posterior al giro en las políticas de Meta, a partir de relevamiento propio y de entrevistas con organizaciones locales que realizaron tareas de verificación de contenidos. 

En el contexto actual, plataformas como Facebook e Instagram -entre otras- no solo han facilitado la circulación de información de interés público, sino que también se han vuelto canales clave para la difusión de desinformación, así como han facilitado prácticas poco transparentes en materia de anuncios políticos por parte de partidos y candidatos. 

Las elecciones presidenciales, que culminaron el 13 de abril con la reelección de Daniel Noboa, se desarrollaron en un escenario marcado por denuncias sobre la inacción de las plataformas frente a la desinformación electoral,  según emerge de lo conversado con las personas entrevistadas. A esto se suma un escenario cada vez más complejo, donde la inteligencia artificial y los discursos polarizados potencian la desinformación en redes.

Tanto la organización de verificación Lupa Media como Fundamedios han alertado sobre la falta de respuesta de las grandes plataformas, la escasa transparencia en la información sobre anuncios políticos y la ausencia de mecanismos efectivos de moderación de contenidos. 

Fact-checking 

Carolina Bazante, directora de Lupa Media, sostuvo que aunque Meta todavía mantiene acuerdos con verificadores independientes de la región –a diferencia de Estados Unidos, donde la empresa abandonó definitivamente el uso de fact-checkers independientes-, la eficacia de estos mecanismos ha disminuido notoriamente en los últimos años. “Antes, las plataformas etiquetaban el contenido falso, pero ahora ya no lo hacen, incluso cuando lo denunciamos”, afirmó.

Una evaluación similar fue realizada por César Ricaurte, director de Fundamedios, organización que gestiona el portal Ecuador Chequea y aún forma parte del programa de verificadores independientes de Meta. Según Ricaurte, “las plataformas han sido mucho menos activas” durante las últimas elecciones, en comparación con procesos anteriores. 

Este retroceso, en el caso de Meta, se alinea con las nuevas políticas anunciadas en enero de 2025, que implican el abandono del programa de verificación con terceros independientes en Estados Unidos y una transición hacia un modelo más laxo en la moderación de contenidos. Aunque en América Latina contratos con las organizaciones de fact-checking aún permanecen formalmente activos, el hecho de que las etiquetas hayan dejado de usarse en Ecuador sugiere que el cambio institucional ya tiene efectos tangibles fuera del país de origen.

Moderación de contenidos

Esta desprotección puede estar relacionada con dos aspectos centrales de las nuevas políticas de Meta. Por un lado, la empresa anunció que solo intervendría en casos de “infracciones ilegales y de alta gravedad”, aunque no detalló qué temas abarcarían estas nuevas normas. Por otro lado, también relajó deliberadamente su intervención sobre “contenidos políticos”, en línea con un enfoque que prioriza la libertad de expresión en temas considerados sensibles. Bajo ese marco, los contenidos electorales manipulados por IA podrían no haber sido moderados, no por error u omisión, sino debido al cumplimiento de su nueva política.

Por su parte, Ricaurte remarcó que, entre 2021 y 2023, sí existió cierto grado de interlocución entre las plataformas, las autoridades electorales y las organizaciones de la sociedad civil. En ese período, tanto Meta como TikTok expresaron interés en apoyar los esfuerzos contra la desinformación. Sin embargo, en la campaña de 2024 esa voluntad de diálogo desapareció. “Meta, que antes era de las más activas, ahora ha sido muy distante. Es muy difícil interactuar con ellos, incluso cuando se bajan contenidos periodísticos”, explicó Ricaurte. También indicó que no hubo ningún acercamiento con TikTok ni con X, a la que definió como la plataforma más inaccesible para el diálogo institucional en la actualidad.

En cuanto a la actitud de Meta, particularmente, la pérdida de interlocución con los actores locales no es un efecto colateral, sino una consecuencia previsible de su nuevo modelo: menos presencia humana, más automatización y una redefinición de prioridades que deja a regiones como América Latina fuera del radar de atención directa.

Ricaurte señaló, además, que la elección de 2023 ya había estado marcada por altos niveles de violencia -incluido el asesinato del candidato presidencial Fernando Villavicencio- y por una fuerte presencia de TikTok en la estrategia de los principales candidatos. En este contexto, de cada vez mayor polarización, la falta de interlocución con las plataformas para monitorear y mitigar la desinformación es particularmente preocupante.

Transparencia

Por otro lado, ambos entrevistados coincidieron en señalar que, aunque la biblioteca de anuncios políticos de Meta ofrece cierta transparencia, sigue siendo insuficiente. Bazante destacó que se puede rastrear la creación de páginas que crean y difunden desinformación, pero no se puede saber quiénes son sus administradores ni cuánto han gastado en publicidad. Además, Noboa, el actual presidente de Ecuador habría gastado más de un millón de dólares en publicidad en Meta sin que ese gasto sea contabilizado oficialmente como gasto electoral, destaca la directora de Lupa Media. Ricaurte añadió que los anuncios pagados por terceros escapan al registro oficial y que es difícil identificar las estrategias detrás de estos contenidos camuflados como opinión.

El caso de Google presenta un problema adicional: no es posible rastrear las campañas pautadas desde el exterior para influir en la audiencia ecuatoriana por decisiones de la propia empresa. “Esto dificulta el seguimiento de la publicidad política y la identificación de los responsables de las campañas de desinformación”, señaló Bazante.

Inteligencia artificial

Del reciente proceso electoral ecuatoriano, ambas organizaciones entrevistadas destacaron especialmente el impacto de la inteligencia artificial en la expansión de contenidos engañosos. Deepfakes, imágenes generadas por IA y narrativas automatizadas. “Este doble movimiento, de menos control por parte de las plataformas y más producción de desinformación mediante IA, crea una situación explosiva”, advirtió Bazante.

Es importante destacar que en los reportes preliminares de las Misiones de Observación Electoral (MOE) también se hicieron observaciones sobre el uso de IA en la desinformación en el contexto electoral. Por parte de la MOE de la Organización de los Estados Americanos (OEA), en Ecuador se “observó durante la primera vuelta que el proceso electoral estuvo marcado por la polarización política, la suplantación de identidad para difusión de contenidos falsos, la circulación de desinformación ya verificada y un aumento del uso de la inteligencia artificial con el propósito de manipular contenido”. En el caso de la MOE de la Unión Europea, aseguraron que en Ecuador se “detectó una amplia difusión de campañas de desinformación en todas las plataformas digitales monitoreadas, cuyo alcance fue amplificado con frecuencia mediante anuncios de pago y granjas de bots”.

Conclusiones

A raíz de lo anterior, existe una preocupación compartida por Bazante y Ricaurte: en Ecuador, las plataformas digitales no están cumpliendo con su responsabilidad de garantizar un entorno informativo sano durante los procesos electorales. La falta de transparencia y de diálogo, la debilidad de los sistemas de apelación y la creciente sofisticación de las campañas de desinformación, plantean un desafío fundamental para la democracia. Como subrayó Ricaurte, “ha sido una campaña muy polarizada, con mucha desinformación y con mucho anuncio político camuflado”, sin la mínima rendición de cuentas de las plataformas que sostienen este sistema.

Aunque Meta no anunció formalmente la aplicación de su nuevo esquema fuera de Estados Unidos, las prácticas observadas durante el ciclo electoral ecuatoriano reflejan los efectos del cambio de rumbo. Una moderación más laxa (menor etiquetado en contenido denunciado como “desinformación” y mayor circulación de contenido manipulado con IA), y menor diálogo y espacio para los verificadores independientes (los socios locales siguen existiendo, pero sin las herramientas ni canales que antes les permitían escalar casos).

En síntesis, la transición de Meta hacia “menos intervención y más libertad de expresión” derivó, en el caso ecuatoriano, en una menor capacidad de frenar la desinformación en periodos electorales y una mayor opacidad de las acciones de la plataforma y la propaganda política en sus redes, justo cuando la extensión de uso de la IA multiplicó los riesgos. Las nuevas políticas ya impactan negativamente en la calidad del debate democrático y la democracia en América Latina.


ENLACES RELACIONADOS: 

Expertos y expertas de América Latina evaluaron las decisiones políticas de Meta y su impacto en la región

Misión de Observación Electoral de la Unión Europea Ecuador

Meta se deshace de los fact-checkers para el segundo mandato de Trump

Related posts

OBSERVACOM planteó propuestas para enfrentar la desinformación electoral en conferencia internacional en Quito

Suspenden canal comunitario indígena “TV MICC” en Ecuador y movimiento indígena denuncia censura

Ecuador da marcha atrás en concurso público de frecuencias de radio y televisión que habilitó en pleno año electoral