El gobierno de Luis Ignacio “Lula” Da Silva trabaja en una nueva propuesta de regulación de plataformas digitales que incluye obligaciones de “deber de precaución” para que eliminen contenidos que violen las leyes existentes, combatir el discurso de odio, la desinformación masiva y aumentar la transparencia respecto a su moderación de contenidos.
Las conversaciones sobre esta iniciativa comenzaron en las últimas semanas, a raíz de la crisis sobre Pix -un sistema de pago electrónico de Brasil sobre el que recientemente hubo una campaña de desinformación que indicaba que la herramienta iba a ser gravada- y de la decisión de Meta de eliminar o relajar los controles de contenido en sus plataformas, como Facebook e Instagram.
Las obligaciones de la plataforma, según publica el medio Folha, serían la transparencia, el deber de “precaución y prevención” y la “reducción de riesgos sistémicos”. En cuanto al primer punto, el proyecto dice que las empresas deberían brindar transparencia en los términos de uso, sus políticas, cómo funcionan los algoritmos de recomendación de contenidos, en sus informes de moderación y auditorías externas.
En cuanto al “deber de precaución”, el proyecto introduce un concepto similar a la responsabilidad de “duty of care” de la legislación europea, que obligaría a las plataformas a eliminar contenido considerado ilegal según las normas de Brasil, sin necesidad de una orden judicial previa.
La propuesta determina que el control individual de contenidos -es decir, la evaluación de las publicaciones- lo realicen las propias plataformas, con base en las reglas definidas por la ley. Esta acción de autorregulación sería supervisada por el Estado, a través de un comité que crearía con la función de monitorear el comportamiento general de cada plataforma y determinar si están siguiendo los criterios establecidos.
Además de la autorregulación, el texto indica otros dos niveles de responsabilidad. Por un lado, las empresas tendrían el deber de actuar cuando reciban “notificaciones extrajudiciales” sobre publicaciones que contengan “desinformación sobre políticas públicas”. Finalmente, las plataformas sólo deben actuar en caso de decisión judicial sobre cuestiones relativas a contenidos periodísticos, protección de la reputación y situaciones de ofensa al honor de funcionarios públicos.
Además, prevé que adopten medidas frente a “riesgos sistémicos” como los generados por la propia programación algorítmica que permite y facilita la amplificación masiva de desinformación, discurso de odio y contenidos extremistas. En ese marco, la definición de la palabra “desinformación” es un punto crítico en las discusiones sobre la regulación.
Otro eje central del debate es la creación de la autoridad reguladora (pensado como un comité estatal de supervisión), encargado de monitorear el cumplimiento de las plataformas y aplicar sanciones en caso de incumplimiento. Sin embargo, aún no se ha definido qué organismos formarían parte de este comité, aunque se barajan opciones como la Agencia Nacional de Telecomunicaciones (Anatel), la Autoridad Nacional de Protección de Datos (ANPD) y el Consejo Administrativo de Defensa Económica (CADE).
Además, la iniciativa plantea normas específicas para periodos electorales, estableciendo procedimientos acelerados de moderación de contenido durante campañas, lo que ha sido un tema polémico en Brasil tras las elecciones de 2022.
El proyecto todavía enfrenta divergencias dentro del gobierno y deberá definirse si será enviado al Congreso como una iniciativa propia o si se incorporará en otro proyecto legislativo en trámite. Asimismo, su viabilidad dependerá de la decisión del Supremo Tribunal Federal sobre el Marco Civil de Internet, que podría modificar la responsabilidad de las plataformas sobre publicaciones de terceros.
ENLACES RELACIONADOS:
Governo Lula discute novo projeto para redes com regras de remoção de conteúdo
La falsa narrativa de censura: Meta y su resistencia a la regulación democrática