Brasil discute un nuevo proyecto de ley para la regulación de plataformas digitales

El gobierno de Luis Ignacio “Lula” Da Silva trabaja en una nueva propuesta de regulación de plataformas digitales que incluye obligaciones de “deber de precaución” para que eliminen contenidos que violen las leyes existentes, combatir el discurso de odio, la desinformación masiva y aumentar la transparencia respecto a su moderación de contenidos.

El gobierno de Brasil ha iniciado la discusión de un nuevo proyecto de ley para regular las plataformas digitales y definir la responsabilidad de las empresas sobre los contenidos publicados en sus redes sociales. La propuesta, impulsada por el Ministerio de Justicia y en debate dentro del Ejecutivo, busca establecer cuáles deberían ser las obligaciones de estas empresas para la eliminación de publicaciones ilícitas y enfrentar la desinformación masiva y los discursos de odio que ellas mismas amplifican, además de imponerles obligaciones de transparencia algorítmica y de sus políticas de moderación de contenidos. El texto del proyecto no es público ni está terminado aún, pero ya está generando importantes intercambios entre diferentes organismos estatales.

Las conversaciones sobre esta iniciativa comenzaron en las últimas semanas, a raíz de la crisis sobre Pix -un sistema de pago electrónico de Brasil sobre el que recientemente hubo una campaña de desinformación que indicaba que la herramienta iba a ser gravada- y de la decisión de Meta de eliminar o relajar los controles de contenido en sus plataformas, como Facebook e Instagram.

Las obligaciones de la plataforma, según publica el medio Folha, serían la transparencia, el deber de “precaución y prevención” y la “reducción de riesgos sistémicos”. En cuanto al primer punto, el proyecto dice que las empresas deberían brindar transparencia en los términos de uso, sus políticas, cómo funcionan los algoritmos de recomendación de contenidos, en sus informes de moderación y auditorías externas.

En cuanto al “deber de precaución”, el proyecto introduce un concepto similar a la responsabilidad de “duty of care” de la legislación europea, que obligaría a las plataformas a eliminar contenido considerado ilegal según las normas de Brasil, sin necesidad de una orden judicial previa. 

La propuesta determina que el control individual de contenidos -es decir, la evaluación de las publicaciones- lo realicen las propias plataformas, con base en las reglas definidas por la ley. Esta acción de autorregulación sería supervisada por el Estado, a través de un comité que crearía con la función de monitorear el comportamiento general de cada plataforma y determinar si están siguiendo los criterios establecidos.

Además de la autorregulación, el texto indica otros dos niveles de responsabilidad. Por un lado, las empresas tendrían el deber de actuar cuando reciban “notificaciones extrajudiciales” sobre publicaciones que contengan “desinformación sobre políticas públicas”. Finalmente, las plataformas sólo deben actuar en caso de decisión judicial sobre cuestiones relativas a contenidos periodísticos, protección de la reputación y situaciones de ofensa al honor de funcionarios públicos.

Además, prevé que adopten medidas frente a “riesgos sistémicos” como los generados por la propia programación algorítmica que permite y facilita la amplificación masiva de desinformación, discurso de odio y contenidos extremistas. En ese marco, la definición de la palabra “desinformación” es un punto crítico en las discusiones sobre la regulación.

Otro eje central del debate es la creación de la autoridad reguladora (pensado como un comité estatal de supervisión), encargado de monitorear el cumplimiento de las plataformas y aplicar sanciones en caso de incumplimiento. Sin embargo, aún no se ha definido qué organismos formarían parte de este comité, aunque se barajan opciones como la Agencia Nacional de Telecomunicaciones (Anatel), la Autoridad Nacional de Protección de Datos (ANPD) y el Consejo Administrativo de Defensa Económica (CADE).

Además, la iniciativa plantea normas específicas para periodos electorales, estableciendo procedimientos acelerados de moderación de contenido durante campañas, lo que ha sido un tema polémico en Brasil tras las elecciones de 2022.

El proyecto todavía enfrenta divergencias dentro del gobierno y deberá definirse si será enviado al Congreso como una iniciativa propia o si se incorporará en otro proyecto legislativo en trámite. Asimismo, su viabilidad dependerá de la decisión del Supremo Tribunal Federal sobre el Marco Civil de Internet, que podría modificar la responsabilidad de las plataformas sobre publicaciones de terceros.


ENLACES RELACIONADOS: 

Governo Lula discute novo projeto para redes com regras de remoção de conteúdo

La falsa narrativa de censura: Meta y su resistencia a la regulación democrática

Brasil aprueba una ley de Inteligencia Artificial a pesar del fuerte lobby empresarial: hay avances y retrocesos

Justicia de Brasil debate la responsabilidad legal de las plataformas digitales por contenidos de terceros

Related posts

Protección de la niñez en Internet: Brasil lidera la región con una norma basada en estándares internacionales

Cámara de Diputados de Brasil aprueba proyecto de ley para la protección de la niñez en Internet

CGI.br propone 10 principios para la regulación de redes sociales en Brasil