Observacom
Actualidad - Global

David Kaye: gobierno y plataformas deben adoptar normas internacionales de derechos humanos para combatir los discursos de odio

El Relator Especial para la Libertad de Opinión y Expresión de Naciones Unidas, David Kaye, hizo un llamado a plataformas y gobiernos para que adopten medidas alineadas con los estándares internacionales de derechos humanos para combatir los discursos de odio.

En el reporte sobre regulación de discursos de odio en línea presentado ayer ante la Asamblea General de Naciones Unidas, el Relator señala que “las leyes internacionales de derechos humanos deben ser entendidas como un marco crítico para la protección y respeto de los derechos humanos para combatir los discursos nocivos, ofensivos, peligrosos o desfavorables… Es importante que los Estados y las compañías aborden los problemas de discurso de odio con la determinación de proteger a aquellos que están en riesgo de ser silenciados y promover un debate abierto y riguroso en el tema más sensible para el interés público”.

El diagnóstico que hace Kaye es muy duro respecto a cómo los gobiernos están abordando el tema, pero también las empresas: «tampoco están tomando en serio sus responsabilidades de respetar los derechos humanos» y “siguen obstinadamente comprometidas con políticas que no articulan sus acciones de acuerdo con las normas básicas de derecho de los DDHH y libertad de expresión».

«El fracaso de las compañías en reconocer su poder e impacto y valorar a sus accionistas por encima del interés público, debe terminar de inmediato», concluye el Relator.

El documento contiene recomendaciones para los Estados y las plataformas. En el caso de los Estados, se parte de la premisa que las protecciones de derechos del mundo offline se deben aplicar a los discursos en línea, así como que los gobiernos no deben exigir a los intermediarios que tomen medidas sobre los discursos de odio que el marco internacional sobre derechos humanos les prohíbe a los Estados de realizar directamente.

El Relator sostiene que los Estados deben definir en sus leyes el término “discurso de odio” y evitar criminalizar este tipo de discursos. Plantea que se deben revisar leyes existentes o desarrollar una regulación sobre “discurso de odio” que cumpla con los criterios de legalidad, necesidad y proporcionalidad, así como legitimidad y que el proceso de elaboración de dicho marco debe contar con una robusta participación pública.

Además se recomienda a los Estados que consideren y desarrollen “buenas medidas de gobernanza”, siguiendo el Plan de Acción de Rabat y la Resolución 16/18 del Consejo de Derechos Humanos. Asimismo se les pide que adopten o revisen las reglas de responsabilidad de intermediarios para adherir estrictamente a los estándares de derechos humanos.

También se postula la necesidad de establecer o fortalecer mecanismos judiciales para asegurar que los individuos tengan acceso a la justicia y a remedios frente a situaciones generadas por la propagación de discursos de odio.

Además se pide a los Estados que regulen a las plataformas, adoptando leyes que requieran que describan en detalle y en forma pública cómo definen discursos de odio y de qué modo obligan a cumplir sus reglas, así como crear bases de datos sobre las acciones que las compañías toman sobre los discursos de odio.

En relación a las compañías, el informe de Naciones Unidas señala que “las empresas han evitado por mucho tiempo utilizar como guía para sus reglas la regulación sobre derechos humanos, a pesar del gran impacto que tienen sobre los derechos humanos de sus usuarios y del público”.

En este sentido, se recomienda a las plataformas considerar cómo sus productos y servicios impactan en los derechos humanos de sus usuarios y del público en general, a través de evaluaciones de impacto periódicas y públicamente disponibles.

También se les exige adoptar políticas de contenido que vinculen sus reglas sobre discursos de odio directamente a las leyes internacionales sobre derechos humanos y definir la categoría de contenido que consideran “discurso de odio” con una explicación razonable para los usuarios y utilizando aproximaciones que sean consistentes en las diferentes jurisdicciones.

Otra de las recomendaciones tiene que ver con asegurar que cualquier implementación de reglas de discurso de odio involucren la evaluación del contexto y del daño que el contenido impone a los usuarios y público en general, incluyendo que se asegure que el uso de herramientas de automatización o inteligencia artificial involucren humanos en el circuito.

En relación al análisis contextual, el informe indica que las compañías deben garantizar la participación de las comunidades afectadas para la identificación de herramientas efectivas para abordar los daños causados en las plataformas.

Por último, se afirma que las plataformas deben desarrollar herramientas que promuevan la autonomía individual, seguridad y libertad de expresión e involucren la desamplificación, desmonetización, educación, contra discurso, elaboración de reportes y entrenamiento como alternativas ante la prohibición de cuentas y remoción de contenido.

Se puede acceder al informe completo aquí (solamente en inglés).

 

ENLACES RELACIONADOS:

Relator de Libertad de Expresión de ONU pregunta: ¿cómo definir el discurso de odio en Internet y quién lo debe regular?

 

Imagen destacada: «This is why we grow» por Itsnotsara con licencia CC BY-NC-ND 2.0

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)