Observacom
Actualidad - México

Facebook y Google explican sus mecanismos de moderación de contenidos y proponen criterios para la regulación en México

Ejecutivos regionales de Google y Facebook explicaron los criterios de moderación de contenidos de las plataformas y dieron sugerencias para el abordaje regulatorio sobre el tema durante el seminario internacional “Moderación de contenidos en Internet” que se realizó el 20 de octubre, organizado por el Instituto de Investigaciones Jurídicas de la Universidad Nacional Autónoma de México (UNAM).

Iñigo Fernández Baptista, director de Políticas Públicas de Facebook para México, Centroamérica y el Caribe, y Eleonora Rabinovich, jefa de Políticas Públicas y Asuntos Gubernamentales de Google para el Cono Sur, coincidieron en que las regulaciones estatales excesivas podrían tener un efecto negativo sobre el ejercicio del derecho a la libertad de expresión, así como obstaculizar la innovación.

“Si se designan bien los marcos normativos para regular contenido puede contribuir al éxito de Internet para articular formas claras para que gobierno, plataformas y sociedad civil compartan responsabilidades. Diseñados mal, los esfuerzos podrían tener consecuencias no deseadas como que las personas estén menos seguras en línea, que reprimamos derechos civiles y políticos, afectemos a la economía del país y acabemos con la innovación”, dijo Fernández Baptista.

En la misma línea, Rabinovich expresó que “el exceso de regulación sobre el contenido legal podría tener un efecto negativo sobre la expresión y privarnos de la próxima gran idea o descubrimiento o, simplemente, conocer otros puntos de vista”.

“Es importante que los gobiernos aporten marcos legales que brinden seguridad jurídica y claridad a las empresas y que sean flexibles para que cada plataforma pueda gestionar la moderación de contenidos en relación tipo de servicio, tamaño y tipo de contenidos que permiten que los terceros difundan”, precisó.

Los representantes de ambas empresas también estuvieron de acuerdo en que se deberían establecer lineamientos que permitan la suficiente flexibilidad a las empresas, al mismo tiempo que promuevan los principios de transparencia y rendición de cuentas.

Fernández Baptista explicó que «las reglas actuales crearon condiciones para que Internet prosperara. Sin embargo, Internet cambió y apoyamos cualquier esfuerzo para mejorar cómo interactuamos. Creemos que las mejores prácticas deberían estar establecidas por un tercero y el enfoque de estas reglas debería ser la transparencia, la rendición de cuentas y supervisión de procesos por los cuales las compañías aplican sus reglas sobre contenidos dañinos pero legales”.

Además planteó que desde Facebook consideran que se deben tener en cuenta cinco principios para abordar el contenido dañino: 1) incentivos para garantizar rendición de cuentas en sistemas de moderación de contenidos de las plataformas; 2) la naturaleza global de internet, esto es que cualquier enfoque nacional debe respetar escala global de Internet, aumentar la interoparabilidad entre reguladores y reglamentaciones; 3) libertad de expresión, las empresas deben cumplir con el artículo 19 de Pacto Internacional de Derechos Civiles y Políticos; 4) Tecnología: los reguladores deben desarrollar una comprensión de las capacidades de la tecnología en la moderación de contenidos y permitir a las empresas flexibilidad para innovar; 5) Proporcionalidad y necesidad: los reguladores deben tener en cuenta la gravedad y prevalencia del contenido dañino.

Por su parte, Rabinovich dijo que “desde Google me interesa enfocarme en tres principios que creemos que deberían orientar el abordaje del problema de la expresión en línea”. Mencionó que “se tiende a simplificar la aplicación de normas de un modo homogéneo”, lo cual no reconoce especificidad de los distintos productos y servicio en su funcionamiento y objetivos. El segundo principio al que aludió es que “los gobiernos tienen que brindar lineamientos claros sobre lo que es legal e ilegal… las leyes deben basarse en principios internacionales… Cualquier regulación tiene que ser consistente con la Convención Americana de Derechos Humanos, cumplir con el test tripartito y proteger contenidos que ofenden o perturban, estos muchas veces forman parte de los contenidos protegidos”.

En este sentido, planteó que “el monitoreo proactivo constituye un mecanismo de censura previa y puede generar efectos anticompetitivos y barreras de entrada para el ingreso al mercado”. Por el contrario, “consideramos indispensable las leyes de puerto seguro, que ponen un marco claro de responsabilidades a las plataformas frente a daños por contenidos de usuarios…este tipo de regulaciones fue central para generar innovación”, explicó.

El tercer principio que planteó fue el de flexibilidad de las empresas “para desarrollar prácticas responsables, poder actuar rápido cuando surgen nuevas amenaza. […] La posibilidad de autorregulación nos permite actuar rápido frente a ese daño (por ejemplo, noticias sobre efectos nocivos de redes 5G durante la pandemia)”.

En cuanto a las acciones que vienen desarrollando las empresas en relación a la moderación de contenidos, la jefa de Políticas Públicas y Asuntos Gubernamentales de Google para el Cono Sur, dijo que la compañía interactúa con distintos actores para la actualización de sus lineamientos y que la inversión es transparencia es central para la empresa.

“Creo que hay que actualizar los lineamientos de las plataformas, eso es vivo y dinámico, estamos en constante interacción con expertos y organizaciones de sociedad civil… dedicamos inversión en tecnología para identificar los contenidos que no respetan los lineamientos, así como también humana, para los videos…seguir invirtiendo en transparencia también es fundamental. Google fue la primera compañía en lanzar reportes de transparencia para entender cómo funcionan políticas de remoción de contenidos”, concluyó.

Por su parte, el director de Políticas Públicas de Facebook dijo que “consultamos a expertos externos de comunidades de todo el mundo para que reflejen experiencias externas, incluido el consejo asesor de seguridad (sobre el desarrollo de normas comunitarias)”.

“Cuando limitamos la expresión lo hacemos para salvaguardar otros derechos como la seguridad, dignidad, privacidad y dignidad, protegemos a usuarios de odio y discriminación y violencia. Trabajamos para empoderamiento en línea a las mujeres”, afirmó.

También aseguró que han “desarrollado herramientas para encontrar el contenido violatorio, inclusive llegando a prevenir que sea compartidos en primer lugar”.

En este sentido, se refirió a las acciones que la compañía lleva adelante en relación a la rendición de cuentas y transparencia. Mencionó la publicación de reportes trimestrales, la apertura del sistema de moderación a autoridades externas, el reporte anual de derechos humanos, el centro de transparencia donde se detallan las normas comunitarias. Además dijo que las personas usuarias pueden reportar el contenido y apelar las decisiones si creen que un contenido o perfil se removió por error.

“Construimos procesos para reflexionar cómo y dónde trazar la línea de la libertad de expresión y seguridad. Sin embargo, no creemos que sean decisiones que las compañías privadas deban tomar. Como establece Reporte anual 2019 de CIDH, existe necesidad de prácticas de moderación que respeten garantías fundamentales del Estado de derecho y una autoridad independiente y transparencia para fortalecer el debate público…. Es así que estamos impulsando la creación de estándares comunes en relación de contenidos y su operación enfocado en procesos de moderación de contenidos”, concluyó.

El video completo del evento se puede ver acá.

ENLACES RELACIONADOS:

Repercusiones de las primeras decisiones del Consejo Asesor de Facebook sobre casos de remoción de contenidos

Denuncian que Facebook tiene normas de moderación de contenidos diferentes para personalidades que para las demás personas

Oficina de Competencia de Canadá investiga a Google para determinar si abusó de su posición en la venta de anuncios publicitarios en YouTube

Estudio de autoridad antimonopolio de Australia concluyó que competencia en los servicios de tecnologías publicitarias es ineficaz, Google controla el mercado

Google pide al Tribunal General de Europa que desestime la multa millonaria por abuso de posición dominante en el mercado de búsquedas

... (en este espacio hay varias líneas de código de programación personalizado)