Observacom
Actualidad - Global

Forum I&D propone un marco regulatorio sobre regímenes de responsabilidad para las plataformas de redes sociales y sus usuarios

Por Carolina Martínez Elebi

Foto: Pexels.

En septiembre de 2022, el Forum on Information & Democracy (Forum I&D), del que OBSERVACOM es uno de los miembros fundadores (e integra su Board), publicó un marco regulatorio sobre los regímenes de responsabilidad para las redes sociales y sus usuarios. Las recomendaciones expuestas son el resultado de una convocatoria internacional de contribuciones y de un conjunto de entrevistas e investigaciones y se dirigen a los Estados, a las plataformas de redes sociales, a las organizaciones de la sociedad civil y a los usuarios y usuarias de las redes sociales.

Cada una de las recomendaciones del documento debe ser entendida “en el marco del derecho internacional de los derechos humanos -aclara el Forum I&D-, en particular de los artículos 19 de la Declaración Universal de Derechos Humanos y del Pacto Internacional de Derechos Civiles y Políticos, y ninguna recomendación debe ser interpretada como pretexto para socavar o destruir los derechos humanos y las libertades”.

En primer lugar, el documento recomienda que las plataformas deberían crear por ley un régimen general de responsabilidad para los usuarios de las redes sociales que fije los derechos, deberes y sanciones aplicables a los usuarios de las cuentas y, por otro lado, detallar qué tipo de contenidos y prácticas deberían conllevar la responsabilidad de los usuarios de las cuentas.

Actualmente, los derechos, deberes y sanciones sobre las cuentas en redes sociales no están formulados por la ley, sino únicamente por las condiciones establecidas por las propias plataformas, en su mayoría con fines comerciales y sin la debida responsabilidad sobre el impacto en los derechos humanos y la democracia.

Algunos de los contenidos sobre los que se hace mención a lo largo del documento, son: desinformación (información falsa creada intencionalmente para perjudicar), misinformación (información falsa que no fue creada con la intención de causar daño), legal pero perjudicial, rumores, y teorías de conspiración. En cuanto a los tipos de reglamentos, el documento hace referencia tanto a la normativa estatal, como a la autorregulación (las condiciones de servicio de las plataformas) y la corregulación.

Además, se recomienda a las plataformas crear procesos de apelación internos que permitan a los usuarios impugnar sanciones o cualquier medida de moderación de contenidos adoptada por la plataforma, en tanto la moderación de contenidos ejercida por las plataformas tiene un impacto directo en la libertad de expresión de los usuarios así como en la libertad de prensa de periodistas. Las plataformas deberían, también, tener derecho a remitir casos concretos al organismo regulador nacional o transnacional para que les asesore. Además, deben facilitar informes de transparencia sobre el funcionamiento de estos sistemas y las divulgaciones deben inspirarse en los Principios de Santa Clara sobre la transparencia y la responsabilidad en la moderación de contenidos que establecen el nivel mínimo de información que se espera que revelen las plataformas.

Asimismo, recomiendan a las plataformas establecer regímenes especiales para los medios de comunicación y los periodistas, los influencers, las cuentas con mucha influencia y los administradores de grupos, dado su importante papel en la configuración del debate público. Para aquellas personas y cuentas con mucha influencia y administradores de grupos, establecen crear un código de conducta para enmarcar su actividad e imponer sanciones que reflejen el nivel de influencia del usuario y su capacidad para causar daños. También sugieren crear un régimen especial para los menores de edad.

En cuanto al régimen general de responsabilidad de los Estados, estos deberían garantizar que las sanciones adoptadas por las redes sociales, tales como la limitación del alcance, la suspensión o la cancelación de una cuenta, se lleven a cabo de acuerdo con los derechos humanos. La sanción debe tener una base legal, perseguir un objetivo legítimo y ser proporcionada. Por otro lado, los Estados deberían poner en marcha un mecanismo de apelación para que los usuarios de las cuentas puedan impugnar las decisiones de las plataformas, remitiéndose a una autoridad judicial.

En cuanto a la responsabilidad de las redes sociales, se recomienda a los Estados responsabilizar a las plataformas en proporción a su influencia y al impacto de su contribución, y exigirles el respeto a la legislación nacional e internacional, el cual debe preferirse en  los casos en que sea más favorable para los usuarios. Los Estados deben imponer en las plataformas una obligación de transparencia y un requisito de notificación a los usuarios de las cuentas al aplicar las sanciones. Además, deben responsabilizar a las plataformas del cumplimiento de las decisiones de las autoridades y aplicar sanciones o restablecer las cuentas y contenidos de acuerdo con las decisiones.

Teniendo en cuenta que el documento del Forum I&D plantea la necesidad de dejar atrás los regímenes de inmunidad para pasar a los de responsabilidad, uno de los puntos centrales tiene que ver con establecer un nuevo marco de gobernabilidad nacional e internacional

En este sentido, a nivel nacional los Estados deberían crear una nueva autoridad administrativa independiente, o reforzar la actual, que sirva de apoyo a los usuarios de las redes sociales y otros servicios digitales, supervise las plataformas, sirva de grupo de investigación y asesore sobre políticas públicas y normativas a nivel nacional. Para ello, esta autoridad debe disponer de los medios y recursos necesarios, lo que podría llevarse a cabo a través del empleo de un impuesto específico sobre las grandes plataformas digitales. Finalmente, para que esta autoridad pueda ejercer su rol, recomiendan que las decisiones que tome sean vinculantes para las redes sociales y totalmente independientes del Poder Ejecutivo del gobierno y de los intereses privados.

En cuanto al ámbito internacional, el documento recomienda crear un organismo que tenga el mandato de supervisar la aplicación de los regímenes de responsabilidad por parte de los Estados y las plataformas. Debería, además, incluir un organismo de resolución de conflictos basado en los principios del arbitraje y un órgano de asistencia a la investigación encargado de reunir, consolidar y preservar la información y las pruebas de las violaciones del derecho internacional humanitario y de las violaciones y abusos de los derechos humanos.

Entre las obligaciones de las redes sociales, se encuentran: establecer un proceso de decisión justo y transparente a la hora de llevar adelante la moderación de contenidos; explicar la lógica del algoritmo y los criterios a los que responde (principio de explicabilidad); comprometerse a ser responsables de los daños causados por sus algoritmos; tener la capacidad de ofrecer una indemnización a las víctimas en los casos en que un error de moderación haya supuesto una pérdida económica para el usuario; establecer un mecanismo para que los usuarios puedan modificar las condiciones; incluir a la sociedad civil en la autorregulación; establecer una proporción transparente entre moderadores humanos y automatizados; publicar anualmente evaluaciones de impacto sobre los algoritmos; y fomentar una contratación que promueva la diversidad cultural, social y de género para cada profesión relacionada con el diseño de algoritmos.

Por otro lado, el documento enumera las siguientes obligaciones de los usuarios de las cuentas: ser personas responsables del contenido que difunden o ayudan a difundir; ser transparente en cuanto a su identidad; no pueden hacerse pasar por otras personas, grupos y organizaciones para engañar a otros (quedan exceptuadas las cuentas de parodias o fans, pero deben presentarse explícitamente como tal); no deben utilizar las redes sociales con la intención de manipular procesos electorales o democráticos ni compartir misinformación que pueda provocar daño físico ni desinformación en tiempos de crisis.

Finalmente, en cuanto a la inclusión de la sociedad civil en la autorregulación, la misma debe participar cuando la plataforma lleve a cabo evaluaciones de riesgo, diseñe medidas de mitigación de riesgos y elabore códigos de conducta. Las modalidades de participación de la sociedad civil deben respetar un procedimiento transparente, mostrar una representación de diferentes categorías (periodistas, ONG, entre otros) y tener una representación geográfica y de género equitativa.

El objetivo del Forum on Information & Democracy (Forum I&D) es crear e implementar garantías democráticas para el espacio de la información y comunicación en línea. El grupo de trabajo, que se creó en el marco de las campañas de desinformación que se desplegaron durante la pandemia por COVID-19, trabajó en la elaboración de estas recomendaciones con el objetivo de promover la confianza en la información. El documento completo puede leerse acá.


ENLACES RELACIONADOS: 

Regímenes de responsabilidad para las redes sociales y sus usuarios 

Uruguay se adhirió a otros 46 países en la Alianza para la Información y la Democracia

Foro sobre Información y Democracia: una contribución de las organizaciones civiles al avance de la transparencia de las plataformas digitales

Moderación privada de contenidos en Internet y su impacto en el periodismo

Declaración Latinoamericana sobre Transparencia de las Plataformas de Internet

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)