4. Aplicação das políticas e devido processo
4.1 Na concepção e aplicação das suas políticas comunitárias de tratamento de conteúdos, as plataformas devem procurar que qualquer restrição derivada da aplicação dos termos de serviço não restrinja de forma ilegal ou desproporcionada o direito à liberdade de expressão1, que deve respeitar os requisitos de busca de uma finalidade imperativa, bem como a necessidade, adequação e proporcionalidade da medida para atingir a finalidade pretendida2.
4.2 Os critérios para a tomada de decisões, para não afetar os direitos humanos, devem levar em conta o contexto, a ampla variação de nuanças idiomáticas e o significado e as peculiaridades linguísticas e culturais dos conteúdos sujeitos a uma possível restrição3.
4.3 Além disso, na análise das medidas de restrição de conteúdo aplicáveis em cada caso, os princípios de proporcionalidade e progressividade devem ser respeitados, ponderando a gravidade dos danos, a recorrência das violações e o impacto que tal restrição poderia ter sobre a capacidade de Internet para garantir e promover a liberdade de expressão em relação aos benefícios que a restrição traria para a proteção de outros direitos4.
4.4 Os usuários devem sempre ter o direito de que as decisões de restrição de conteúdo das próprias plataformas sejam cumpridas com respeito ao devido processo, em particular quando se trata de medidas que possam afetar seu direito à liberdade de expressão. Como princípio geral, e salvo casos excepcionais devidamente justificados, as pessoas afetadas por uma medida de restrição ou interferência por parte das plataformas e, se for caso disso, do público em geral, devem ser previamente notificadas das medidas restritivas que as afetam5.
4.5 Atendendo aos princípios de necessidade e proporcionalidade acima mencionados, em caso de possíveis violações dos TOS, as plataformas devem adoptar medidas menos onerosas do que a remoção ou outras de efeitos semelhantes, optando por mecanismos de aviso ou notificação, sinalizando, vinculando com informações contraditórias ou outras.
4.6 As medidas unilaterais mais drásticas que forem adotadas sem aviso prévio ou devido a um processo anterior, como remoção de conta ou perfil, remoção de conteúdo ou outras medidas que tenham um impacto semelhante de exclusão das possibilidades de participação na plataforma devem ser tomadas pelas grandes plataformas apenas sob as seguintes condições:
a. Quando se tratar de intervenções de gerenciamento técnico não arbitrárias ou discriminatórias (como spam, contas falsas, bots maliciosos ou similares).
b. No caso de duplicatas ou reiterações idênticas (não comentado ou editado para fins jornalísticos ou informativos ou outros fins legítimos) de outros conteúdos e expressões de ilegalidade óbvia que já estavam restritos após avaliação humana seguindo as normas acima mencionadas.
c. Quando as seguintes situações foram identificadas:
a. Os fundamentos apresentados na seção 2.7 A;
b. o cumprimento de ordens de autoridades competentes de retirada imediata e a consumação de crimes comuns já tipificados na legislação nacional;
c. danos sérios, iminentes e irreparáveis ou de difícil reparação aos direitos de outras pessoas como nos casos listados no ponto 2.7 literais B e C.
Em todos esses casos, exceto no caso de ordens de autoridades competentes, a plataforma deve proceder à imediata notificação subsequente, com a possibilidade de recurso para uma possível revisão da medida nos termos do capítulo 5 deste documento.
4.7 A filtragem e o bloqueio de uploads só são legítimos e compatíveis com os padrões internacionais de direitos humanos quando se trata de pornografia infantil6 ou nas duas primeiras situações descritas no ponto anterior. Caso contrário, deve ser considerado um ato de censura, nos termos estabelecidos pela Convenção Americana sobre Direitos Humanos.
4.8 Qualquer outra medida de restrição de conteúdos ou expressões que a plataforma pretenda adotar em caso de uma possível violação dos Termos do Serviço ou a denúncia de terceiros (por exemplo, sobre uma afetação de direitos autorais), o conteúdo questionado deve ser mantido publicado na plataforma até que uma decisão definitiva decorra de um devido processo onde, após a notificação a) promova-se a retirada voluntária do conteúdo questionado; b) garanta-se o exercício do direito de defesa do usuário permitindo uma contra-notificação com contrarrazões antes de tomar uma decisão.
4.9 Nenhuma plataforma de conteúdo deve ter responsabilidade legal pelo conteúdo gerado por terceiros, desde que não intervenha modificando ou editando esses conteúdos, nem se recusem a executar ordens judiciais ou de autoridades oficiais competentes e independentes que cumpram com garantias adequadas correspondentes do devido processo.
4.10 Plataformas de conteúdo só podem ser consideradas responsáveis em função de suas ações ou negligência na priorização ou promoção ativa de expressões que possam afetar os direitos de terceiros se afastarem-se dos princípios estabelecidos no ponto 2.6. Nesses casos, a responsabilidade legal que pode corresponder às plataformas para expressões de terceiros ou atividades de curadoria não deve ser do tipo objetivo.
——————————————————
1 Liberdade de expressão e Internet, Relatoria Especial para a Liberdade de Expressão CIDH, 2013, par. 112
2 Liberdade de expressão e Internet, Relatoria Especial para a Liberdade de Expressão CIDH, 2013, par. 55
3 Extraído do Relatório de 2018 David Kaye (no original refere-se a recomendações de transparência para as plataformas)
4 Liberdade de expressão e Internet, Relatoria Especial para a Liberdade de Expressão CIDH, 2013, par. 54
5 Liberdade de expressão e Internet, Relatoria Especial para a Liberdade de Expressão CIDH, 2013, par. 115
6 Convenção Americana de Direitos Humanos, art. 13, inc. 4
Nos interesan sus sugerencias sobre el documento
Error: Formulario de contacto no encontrado.