Justicia de Brasil redefine las excepciones al principio de no responsabilidad de las plataformas digitales

Foto: Fellipe Sampaio / Supremo Tribunal Federal de Brasil

El Supremo Tribunal Federal de Brasil declaró parcialmente inconstitucional el artículo 19 del Marco Civil de Internet (MCI) y amplió las excepciones al principio de no responsabilidad de las plataformas por contenidos de terceros. Aunque las plataformas ya moderan activamente (incluyendo la eliminación de millones de publicaciones) bajo sus propias reglas, la decisión incorpora criterios estatales —además de lo ya establecido por el artículo 21 del MCI— que hacen responsables a estas empresas si no actúan frente a contenidos ilícitos, aún con notificaciones extrajudiciales o por acción propia cuándo deben hacerlo, lo que representa un giro respecto a los actuales paradigmas regulatorios en la región.
Foto: Fellipe Sampaio / Supremo Tribunal Federal de Brasil

En un fallo considerado como histórico, el Supremo Tribunal Federal (STF) resolvió por 8 votos contra 3 ampliar las excepciones al principio de no responsabilidad establecido en el artículo 19 del Marco Civil de Internet (MCI), estableciendo que las plataformas digitales puedan ser responsabilizadas civilmente por contenidos ilícitos publicados por sus usuarios.

Votaron a favor de declarar parcialmente inconstitucional el artículo 19 los ministros Dias Toffoli, Luiz Fux, Cristiano Zanin, Luís Roberto Barroso, Flávio Dino, Gilmar Mendes, Alexandre de Moraes y Cármen Lúcia. En contra se pronunciaron André Mendonça, Edson Fachin y Nunes Marques, quienes defendieron la validez del artículo en su forma original.

Hasta ahora, el MCI limitaba la responsabilidad de las empresas sobre contenidos de terceros en dos circunstancias: cuando no acataran una orden judicial expresa para remover una determinada publicación en sus redes (art. 19) o cuando -sin necesidad de orden judicial previa- siempre “que no promueva diligentemente, dentro del alcance y los límites técnicos de su servicio, la indisponibilidad” (remoción obloqueo) de publicaciones no consentidas de material íntimo, definidas como “la violación de la privacidad derivada de la divulgación, sin autorización de sus participantes, de imágenes, videos u otros materiales que contengan escenas de desnudez o actos sexuales de carácter privado” (art. 21) .

A partir del fallo del STF, ese criterio se amplía: mientras no se promulgue una nueva legislación, también tendrán responsabilidad civil ante la inacción frente a denuncias (notificaciones extrajudiciales) de casos de delitos o actos ilícitos en general, salvo los delitos contra el honor y la reputación —como calumnia, difamación o injuria—, casos en los que seguirá siendo necesaria una orden judicial para obligar a las plataformas a actuar sin ser responsabilizadas.

En el caso de contenidos ilícitos graves, el STF estableció un deber reforzado de cuidado por parte de las propias empresas, que deberán actuar incluso sin denuncia externa. Las plataformas serán responsables si no remueven de forma inmediata estos contenidos, sin necesidad de notificación previa de una autoridad judicial, estatal o de una víctima. Los casos de “situaciones graves” refieren -de manera taxativa y ancladas a normas legales actualmente vigentes en Brasil- a los siguientes tipos de delitos: actos antidemocráticos previstos en el Código Penal; terrorismo y actos preparatorios de terrorismo; inducción, instigación o auxilio al suicidio o a la automutilación; incitación a la discriminación por motivos de raza, color, etnia, religión, procedencia nacional, orientación sexual o identidad de género; violencia contra las mujeres basada en género, incluyendo contenidos que propaguen odio o aversión; delitos sexuales contra personas vulnerables, pornografía infantil y otros crímenes graves contra niños y adolescentes; y trata de personas. En estos casos, se presume que las plataformas tienen conocimiento del contenido debido a su gravedad y notoriedad del daño.

El presidente de la Corte, Luís Roberto Barroso, propuso el modelo intermedio que fue adoptado por la mayoría: “No hay fundamento constitucional para un régimen que incentive a que las plataformas permanezcan inertes tras tomar conocimiento de claras violaciones a la ley penal”, argumentó.

Otro aspecto destacado del fallo es la presunción de responsabilidad en el caso de contenidos patrocinados o ampliamente impulsados por bots, situaciones en las que se entiende que las plataformas tienen conocimiento previo. También podrán ser responsabilizadas automáticamente si se comprueba una falla sistémica en sus mecanismos de moderación, cuando no adopten estándares técnicos eficaces para moderar contenido nocivo.

Servicios de mensajería privada como WhatsApp o el correo electrónico seguirán exigiendo orden judicial para que se configure la responsabilidad. En tanto, los marketplaces continuarán siendo regidos por el Código de Defensa del Consumidor.

Además, la sentencia impone nuevas obligaciones estructurales: las plataformas deben contar con sede o representación legal en Brasil, ofrecer canales accesibles de denuncia y publicar reportes periódicos de transparencia. También se establece el deber de implementar mecanismos de autorregulación que incluyan sistemas de notificación, debidos procesos y reportes anuales sobre anuncios y contenidos impulsados.

Con respecto a esta redefinición legal, João Brant, secretario de Políticas Digitales de Brasil, consideró que este es un modelo equilibrado que marca un nuevo paradigma regulatorio. A su juicio, se trata de un régimen moderno, “en parte alineado con la Unión Europea y el Reino Unido, en parte más cauteloso y en parte más protector de derechos”, lo que lo vuelve “bastante adecuado a la realidad brasileña”.

El nuevo criterio se aplicará únicamente a casos futuros, preservando los procesos iniciados antes del 26 de junio de 2025. La decisión del STF no inaugura la moderación de contenidos, pero establece por primera vez un marco jurídico estatal que define con mayor precisión las responsabilidades de las plataformas frente a contenidos nocivos, consolidando un precedente relevante para el debate regulatorio en la región.

Es que si bien estas empresas ya ejercían funciones de moderación de manera activa bajo criterios propios, la decisión del STF introduce definiciones legales que delimitan en qué casos y bajo qué condiciones deben actuar, en función de que sus decisiones podrían acarrearles responsabilidades legales. Al respecto, algunos actores de la sociedad civil advierten que puede generar riesgos para la primera.


ENLACES RELACIONADOS:

Las nuevas responsabilidades de las plataformas tras fallo de la Corte de Brasil

Entenda a decisão do STF sobre responsabilização das redes sociais

STF: Redes sociais respondem por posts mesmo sem ordem judicial; veja tese

Related posts

Protección de la niñez en Internet: Brasil lidera la región con una norma basada en estándares internacionales

Cámara de Diputados de Brasil aprueba proyecto de ley para la protección de la niñez en Internet

CGI.br propone 10 principios para la regulación de redes sociales en Brasil