Observacom
Actualidad - Global

Las plataformas se enfocan más en el etiquetado y menos en la moderación de contenidos sintéticos en redes sociales

Las principales plataformas digitales están priorizando el etiquetado de contenidos generados por Inteligencias Artificiales Generativas y menos en su moderación, según un estudio de DesinfoLab. Esta tendencia “no aborda adecuadamente los riesgos de desinformación” y pone la responsabilidad en los usuarios para identificar contenido sintético
Foto: Pexels

Durante el primer semestre de 2024, las principales plataformas digitales (Meta, YouTube, TikTok y X) actualizaron sus políticas para lidiar con los riesgos de las Inteligencias Artificiales Generativas y su capacidad de generar “contenidos sintéticos”, según un estudio de la organización europea DisinfoLab. En el documento titulado Políticas de las plataformas sobre desinformación generada o manipulada por IA identificaron que la mayoría de esas medidas se centran más en pedirles a los creadores que realicen el etiquetado de los contenidos sintéticos que publiquen y menos en la moderación que ellos pueden hacer de los mismos.

Ante un contenido que dificulte a los usuarios poder discernir si lo que están viendo es cierto o no, algo que incide en forma perjudicial sobre las democracias, las plataformas cargan con el peso de la responsabilidad a los usuarios para que sean ellos quienes etiqueten si el contenido que publican es contenido sintético, adulterado o manipulado. En el caso particular de Meta, en el informe se destaca que la empresa “mostró reticencia a eliminar contenidos generados por IA”. En este sentido, desde DisinfoLab aseguran que “este movimiento puede ser considerado incluso un paso hacia atrás”. 

Meta realizó varios cambios en sus políticas con respecto a este tema entre febrero y julio de 2024. Mientras que en febrero la propia plataforma colocaba etiquetas a las publicaciones con imágenes que identificaba como generadas a partir de IA, en abril daba cuenta de que daría más contexto sobre el contenido pero que habría “menos eliminación de contenido generado por IA”. Hasta septiembre de 2023, la justificación de Facebook para eliminar contenido generado o manipulado por IA era que el contenido tuviera “alto potencial para engañar (y volverse viral rápidamente) además de otras políticas de desinformación que se refieren al riesgo de daño físico o interferencia con los procesos políticos”, según el informe de DisinfoLab. En 2024, se eliminó la justificación de que el contenido tuviera “alto potencial para engañar (y volverse viral rápidamente)”.

Además, hasta mayo Meta era quien etiquetaba las imágenes como “Imaginadas con IA” utilizando su propia función Meta AI. Sin embargo, a partir de ese mes comenzaron a utilizar la etiqueta “Hecho con IA” para el contenido que tuviera “indicadores de imagen de IA estándar de la industria” o que hubiera sido identificado como “contenido de IA” por su creador.

En la actualización más reciente, Meta anunció que “a partir de julio, no eliminará contenido generado o manipulado por IA basándose únicamente en su política de videos manipulados, a menos que viole otras políticas (como interferencia de votantes, acoso, hostigamiento, violencia, incitación u otros problemas de las Normas comunitarias)”. 

Las políticas de YouTube y TikTok se centran en el etiquetado. Sin embargo, YouTube tiene excepciones: no requerirá que los creadores revelen contenido que sea claramente irreal, animado, incluya efectos especiales o haya usado IA generativa para ayudar en la producción. Así, dicen, “se basa en un ‘sistema de honor’ basado en la buena voluntad de los creadores de contenido”. Por su parte, en mayo TikTok anunció un enfoque más proactivo para el etiquetado. X mantiene sin cambios su política de medios sintéticos y manipulados desde 2023.

El uso de la IAG para la desinformación

La Inteligencia Artificial Generativa (IAG) es un eje central de la discusión sobre desinformación en plataformas digitales, por las posibilidades que brinda esta tecnología para generar contenido nuevo -como imágenes, sonido o texto- a través del uso de algoritmos y modelos de aprendizaje automático, lo que habilita la duda sobre qué es real y qué no.

Una imagen del Papa usando una campera de moda, una fotografía del jugador de basket estadounidense LeBron James vestido de rosa en el estreno de la película Barbie o una del ex presidente de los Estados Unidos, Donald Trump, siendo arrestado en marzo del 2023, son algunos ejemplos de esto. A este contenido se lo llama contenido sintético, adulterado o manipulado y lo que genera preocupación es su uso para generar -y viralizar- desinformación en las plataformas digitales.

Las plataformas necesitan moderar el contenido, de acuerdo con DisinfoLab, como hicieron durante el COVID-19 a partir de “una aproximación proactiva en relación con la nueva tecnología similar a la realizada durante la pandemia para contener la desinformación sobre salud”.


ENLACES RELACIONADOS:

Platforms’ AI policy updates in 2024: labelling as the silver bullet?

Platforms’ Policies On Ai-Manipulated And Generated Misinformation

Nuevo informe del Foro I&D: más de 200 recomendaciones para garantizar el control democrático de la IA

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)