Unión Europea exige la transparencia de los algoritmos de las redes sociales

Foto: Banderas europeas en la Comisión Europea.

Por Carolina Martínez Elebi

Foto: Banderas europeas en la Comisión Europea.

A comienzos de julio, la Comisión Europea aprobó la Ley de Servicios Digitales y la Ley de Mercados Digitales (DSA y DMA, por sus siglas en inglés) dos normativas que prometen transformar el mercado europeo al establecer nuevas normas para regular el mercado digital. El principal objetivo de la DSA, que entrará en vigor el 1 de enero de 2024, es el de proteger los derechos fundamentales de todos los ciudadanos de la Unión Europea en el espacio digital, y pone como eje la privacidad de sus usuarios, la protección de los menores y la transparencia de los algoritmos de las redes sociales.

Con este último punto la DSA hace explícita la necesidad de que los Estados puedan acceder a las «cajas negras» de las grandes redes sociales. ¿Por qué es esto relevante? Porque es a través de esos algoritmos que estas empresas inciden en la circulación de información o desinformación, lo que trae consecuencias en el propio sistema democrático, pero también en aspectos más personales de los usuarios como sus gustos, preferencias y vínculos. Es decir, que un punto central de la nueva normativa es que los algoritmos de las grandes empresas tecnológicas tendrán que ser abiertos para que la Comisión Europea pueda conocer cómo funcionan y, así, controlar que cumplan con las medidas que regulan internet en la Unión Europea.

¿Cómo pretende la Unión Europea implementar la «transparencia» de los algoritmos y qué pueden aprender los gobiernos de América Latina para aplicar en la región?

En principio, la normativa indica que las empresas deberán publicar en sus condiciones de servicio, esto es «información sobre cualquier restricción que impongan en relación con el uso de su servicio», que va desde sus políticas hasta las medidas y herramientas que tengan fines de moderación de los contenidos de sus usuarios, «incluidas las decisiones algorítmicas y la revisión humana».

Es importante destacar que cuando las plataformas utilicen algún medio automatizado para tomar decisiones deben notificar ese uso. Las personas usuarias deben saber si la decisión es producto de proceso algorítmico o de una intervención humana. No solo eso sino que, además, deben notificar el motivo por el que se llegó a esa decisión.

Sobran los casos en los que tanto usuarios individuales como medios de comunicación o diversos tipos de instituciones ven que algunas publicaciones de sus perfiles son eliminadas, sus cuentas suspendidas o algunos contenidos resultan invisibilizados y no solo no saben el motivo sino que en algunos casos ni siquiera reciben una notificación por parte de las compañías proveedoras del servicio. Particularmente en el último caso, es probable que se enteren debido a que otros usuarios les avisan que ya no encuentran tan fácil sus publicaciones o que el nombre de su cuenta no se autocompleta al buscarlo en la lupa de la aplicación y solo la encuentran si escriben el usuario completo.

Explicar a cada usuario el motivo por el que se elimina o invisibiliza un contenido suyo, por ejemplo, e informar acerca de si esa decisión fue resultado de un proceso automatizado es central en lo que refiere a la transparencia de los algoritmos. En este sentido, la DSA busca que se respondan aquellas preguntas que cada vez aparecen con mayor frecuencia: ¿Por qué mi contenido está recibiendo menor cantidad de vistas? ¿Por qué me suspendieron la cuenta? ¿Qué infracción cometí con esa publicación? ¿Por qué se muestran diversos resultados ante la búsqueda de las mismas palabras?

De hecho, uno de los temas en los que se hace foco cuando se habla de la transparencia algorítmica es el de la información y la desinformación. ¿Por qué me recomiendan información en un sentido y no en otro? ¿Por qué a otro usuario le recomiendan a la inversa?

A pesar de que la acción de acceder y recibir información o desinformación forma parte de procesos complejos que no pueden explicarse únicamente en el entorno de las plataformas digitales de contenidos y redes sociales, se reconoce el rol activo de estas empresas en lo que tiene que ver con guiar y polarizar la conversación, marcar la agenda pública, y potenciar la circulación de contenidos de dudosas fuentes. La complejidad de estos procesos radica, en algunos casos, en el papel que juegan también los grandes medios de comunicación en la circulación de desinformación al replicar parte de esos contenidos.

Pero la necesidad de transparencia algorítmica no es exclusiva de la problemática de la desinformación, sino que es central en lo que se refiere a la elaboración de perfiles y los sistemas de recomendación en general. En este sentido, la DSA establece que las grandes plataformas deben hacer que en sus condiciones estén redactados de manera clara, accesible y fácil de comprender “los parámetros principales utilizados en sus sistemas de recomendación”, así como cualquier opción para que los usuarios puedan modificar o influir en dichos parámetros, y debe incluirse “al menos una opción que no se base en la elaboración de perfiles”.

La normativa impone, además, la obligación de publicar, al menos una vez al año, informes sobre sus actividades de moderación con el objetivo de hacer que esta información, accesible, pueda ser comprendida por cualquier persona. Y, siguiendo con medidas de transparencia, los investigadores autorizados deberán tener acceso a los datos de las redes sociales para llevar a cabo investigaciones que sirvan de apoyo a las tareas de control de la Comisión Europea.

Finalmente, un tema no menor es el poder que tendrá la Unión Europea para hacer cumplir la normativa por parte de las compañías tecnológicas. Algo que muchas veces se presenta como un desafío para países de nuestra región cuando se plantea la posibilidad de avanzar en el diseño de normativas nacionales.

¿Qué pasa con quienes cometen infracciones? La DSA establece multas que alcanzan hasta el 6 por ciento de los ingresos globales de la compañía infractora e incluso la prohibición de operar, en los casos en que hubiera reiteración en la infracción. Por otro lado, la Comisión Europea podría aplicar tasas de supervisión a las big tech, para cubrir esos costos.

Como dijo la presidenta de la Comisión Europea, Ursula von der Leyen: “Con la DSA se concreta el principio de que aquello que es ilegal cuando no está en línea, debe ser ilegal también cuando esté en línea. Cuanto mayor sea su tamaño, mayor serán las responsabilidades de las plataformas en línea”.

Related posts

¿Qué pasó con la ley australiana para que las plataformas paguen a los medios?

Más de 30 medios europeos denuncian a Google por monopolio en el mercado de publicidad digital

Regulación de influencers en España plantea obligación de registro, de transparencia y límites a la publicidad