Uruguay, Chile y México obligan a las plataformas de transporte a transparentar sus algoritmos

Tres países latinoamericanos ya exigen que las plataformas digitales de transporte expliquen cómo funcionan sus algoritmos. Las normas avanzan en transparencia, obligaciones claras y supervisión estatal, y ofrecen un antecedente relevante para el debate sobre la regulación de otros intermediarios digitales que también toman decisiones automatizadas con impacto en derechos.

Las últimas reformas laborales en Uruguay, Chile y México muestran que la transparencia algorítmica no es una utopía ni es algo que solo puede ser discutido y llevado a cabo por la Unión Europea. En estos tres países latinoamericanos ya existen leyes que exigen a las plataformas digitales de transporte y reparto explicar cómo funcionan sus sistemas de asignación de viajes, monitoreo de desempeño y toma de decisiones automatizadas. 

En Chile, la Ley 21.431 de 2022 modificó el Código del Trabajo para regular “el contrato de los trabajadores de empresas de plataformas digitales de servicios”. Además de reconocer la relación laboral con quienes prestan servicios de transporte o reparto, la norma obliga a las plataformas a incluir en el contrato de trabajo información detallada sobre el tratamiento de los datos personales del trabajador, los criterios utilizados para coordinar el contacto entre trabajadores y usuarios y el método de cálculo de la remuneración.

La ley incorpora un capítulo específico sobre transparencia y derecho a la información en el que se establece que las personas trabajadoras pueden solicitar acceso a los datos vinculados con su calificación y desempeño, conocer cómo impactan esas métricas en la asignación de tareas y exigir que estos criterios sean objetivos y no discriminatorios. La Dirección del Trabajo, como autoridad de aplicación de la ley, puede requerir información sobre los algoritmos para verificar el cumplimiento de la norma y aplicar sanciones en caso de incumplimiento.

México avanzó en la misma dirección con la reforma a la Ley Federal del Trabajo, de 2024, que creó el Capítulo IX Bis sobre “Trabajo en plataformas digitales”. Allí se define qué se entiende por plataforma digital y por persona trabajadora de plataformas, y se obliga a las empresas a firmar contratos -que pueden ser firmados de manera digital- que detallen las condiciones de trabajo.

El artículo 291-J introduce de forma explícita la transparencia algorítmica: las plataformas deben explicar las reglas para la asignación de tareas “a través de algoritmos o mecanismos análogos” y elaborar un “documento de política de gestión algorítmica del trabajo”. Ese documento, que forma parte del contrato y debe ser autorizado y registrado por el Centro Federal de Conciliación y Registro Laboral, tiene que describir las consecuencias del cumplimiento o incumplimiento de las órdenes, el impacto de las calificaciones de los usuarios, los incentivos y penalizaciones, y otros criterios que inciden en la intensidad, frecuencia y ritmo del trabajo. La ley también prohíbe expresamente que el algoritmo se utilice como factor de discriminación y prevé multas significativas cuando las empresas no registran sus modelos de contrato o incumplen las obligaciones de transparencia.

Uruguay dio un paso todavía más detallado con la Ley 20.396 de 2025, que establece “niveles mínimos de protección para trabajadores que prestan servicios a través de plataformas digitales”. El artículo 4 se centra en la “transparencia de los algoritmos y sistemas de monitoreo” y obliga a las empresas a informar a cada trabajador sobre la existencia de sistemas automatizados de seguimiento, control y evaluación, así como sobre los sistemas de toma de decisiones automáticas que afectan sus condiciones laborales: acceso a tareas, ingresos, tiempos de trabajo, salud y seguridad.

La ley exige que la información sobre la lógica, los criterios y los parámetros utilizados por los algoritmos sea comprensible y que respete los principios de igualdad y no discriminación. Los artículos 6 y 7 refuerzan esta obligación con dos derechos clave: acceso a la información en un soporte duradero (incluidos registros electrónicos) y derecho a explicación de las decisiones significativas, junto con la posibilidad de contactar a una persona humana para discutir y aclarar la situación. El Ministerio de Trabajo y Seguridad Social, a través de la Inspección General del Trabajo, está facultado para requerir esa información y sancionar los incumplimientos.

Más allá de las diferencias de diseño normativo, las tres leyes comparten algunos elementos en común. Uno de ellos, central para la exigencia de transparencia, es que transforman la “caja negra” de los algoritmos en un objeto regulable: obligan a las empresas a documentar cómo funcionan esos sistemas, informar a las personas afectadas y entregar información a las autoridades locales —en este caso, autoridades laborales—. En este sentido, queda claro que, en ninguno de estos procesos, la transparencia algorítmica fue descartada por un conflicto insalvable con el secreto comercial. 

Las leyes no exigen a las empresas publicar el código fuente ni revelar fórmulas comerciales sensibles al público en general, pero sí las obligan a explicar, en términos comprensibles, qué variables se tienen en cuenta, cómo se combinan y cuáles son las consecuencias para las personas trabajadoras. También habilitan a las autoridades reguladoras a acceder a esa información en el marco de sus competencias de control. Es decir, estos países encontraron un equilibrio entre la protección de ciertos intereses empresariales —que suele emerger como argumento para impedir la exigencia de transparencia— y la garantía de derechos laborales, sin aceptar la opacidad algorítmica como un hecho inevitable.

Los mencionados son ejemplos concretos que demuestran la capacidad que pueden tener los Estados de países de la región para exigir reglas claras a las big tech, incluso de países pequeños. Se trata de países latinoamericanos, con distintas escalas económicas y políticas, que enfrentan asimetrías de poder significativas frente a las grandes plataformas globales. Sin embargo, diseñaron marcos normativos específicos, identificaron a las autoridades de aplicación y establecieron sanciones concretas para los incumplimientos. 

Lejos de ser meras declaraciones de principios, estas leyes demuestran que incluso estados de menor tamaño pueden intervenir sobre la forma en que las big tech gestionan sus algoritmos cuando estos afectan derechos fundamentales.

Estas regulaciones demuestran que la transparencia algorítmica puede ser una obligación exigible y fiscalizable, aún frente a gigantes tecnológicos. Ese precedente abre una discusión ineludible para otras plataformas cuyo impacto ya no se limita al ámbito laboral, sino que afecta directamente el derecho a la información y la libertad de expresión.


ENLACES RELACIONADOS: 

Ley 21431 – Modifica el código del trabajo regulando el contrato de trabajadores de empresas de plataformas digitales de servicios

Ley Federal del Trabajo

Ley N° 20396

Related posts

Culmina exitoso curso sobre regulación audiovisual en entornos digitales dirigido a reguladores de la región

SIP reclama transparencia algorítmica de las plataformas para combatir la desinformación

ExRelatora Catalina Botero propone regular las plataformas digitales para impedir la amplificación de la desinformación a escala