Ley modelo interamericana sobre violencia digital contra las mujeres: apuntes iniciales sobre su contenido e implementación en la región
Opinión de María Capurro Robles, coordinadora de proyectos de OBSERVACOM.
El 10 de diciembre de 2025 —fecha en la que se conmemora Día Internacional de los Derechos Humanos— el Mecanismo de Seguimiento de la Convención de Belém do Pará (MESECVI) finalizó el proceso de adopción de una Ley Modelo Interamericana para Prevenir, Sancionar y Erradicar la Violencia Digital. Desde entonces, los países de América Latina y el Caribe cuentan con una herramienta que se propone orientar las regulaciones y políticas nacionales para proteger y garantizar los derechos humanos de niñas, adolescentes y mujeres en el entorno digital.
La violencia digital por motivos de género es una problemática generalizada y en aumento, ya que es facilitada y amplificada por la irrupción de nuevas tecnologías como la IA y los modelos de negocios de las grandes plataformas digitales. Tiene serios impactos en la vigencia de distintos derechos humanos de niñas, adolescentes y mujeres: en su salud física y mental, su vida privada e intimidad, pero también en su derecho a la participación y a la libertad de expresión, que se ven cercenados por la autocensura y el miedo que esta modalidad de violencia impone.
La violencia digital abarca una amplia gama de conductas. Entre las más extendidas pueden mencionarse las formas de abuso sexual basado en la manipulación y/o divulgación de imágenes; el acceso, la manipulación o la distribución no autorizados de datos personales; el robo o la suplantación de identidad; actos que dañan la reputación o la credibilidad; actos que implican vigilancia y seguimiento; el acoso (sexual) en línea; el ciberacoso; las amenazas y los abusos sexuales y físicos en línea; los discursos de odio y discriminación múltiple; la incitación a la violencia por motivos de género; el hostigamiento hacia mujeres con voz pública o participación activa en el ámbito digital; la explotación sexual y la trata de personas facilitada por tecnologías.
El escenario se complejiza a diario, al compás de desarrollo tecnológico acelerado y vertiginoso. Esta diversidad de conductas demanda, al mismo tiempo, un abordaje integral de la problemática y respuestas específicas.
En este marco, el MESECVI llevó adelante desde 2022 un proceso participativo para elaborar un proyecto de “Ley Modelo”. Estados, academia, adolescentes y jóvenes, organismos nacionales y regionales, y organizaciones de la sociedad civil –entre ellas OBSERVACOM-, hicieron llegar aportes durante el proceso formal de consulta en línea y en reuniones organizadas en los países.
Antes de avanzar es importante mencionar que una ley modelo es un texto legislativo que buscar funcionar como una guía o referencia no vinculante para que los Estados incorporen, adapten y armonicen sus leyes internas. Los organismos internacionales, a través de la articulación con especialistas y del desarrollo de procesos participativos, buscan contribuir de esta manera a adecuar las legislaciones nacionales a los estándares en distintas temáticas.
La Ley Modelo sobre Violencia Digital promovida por MESECVI se propone como una herramienta para orientar la adecuación legislativa, fortalecer las capacidades institucionales y promover una respuesta integral, normativa y multiactor a este tema. Incluye orientaciones sobre prevención, protección, reparación, alfabetización digital y construcción de entornos digitales seguros.
Uno de los puntos más innovadores de esta Ley Modelo es que no solamente establece obligaciones para los Estados, sino también para las plataformas digitales e intermediarios de Internet, que deberían ser establecidas mediante leyes formales.
Este ha sido uno de los puntos sobre los cuales OBSERVACOM ha hecho más énfasis en sus aportes a la Ley Modelo durante el proceso de consulta, y continúa siendo una de sus aristas más delicadas.
Comentaremos a continuación algunas cuestiones puntuales.
Por un lado, las políticas de moderación y de curación de contenidos adoptadas por las grandes plataformas digitales deben estar acompañadas de las garantías y la supervisión adecuadas para ser compatibles con estándares de protección de derechos humanos. Sin esta regulación se corre el riesgo de legitimar y fortalecer la privatización (ya existente) de la modulación del discurso público por parte de empresas cuyos procesos actuales están íntegramente basados en sistemas algorítmicos alimentados por IA y están guiadas por una finalidad lucrativa.
A su vez, es clave que los debates nacionales trabajen en detalle las vías por las cuales se obligue a la moderación (es decir, a la remoción u ocultamiento) de contenidos frente a situaciones de violencia digital.
Al respecto, el artículo 24 de la Ley Modelo prevé: “Los intermediarios de internet deberán implementar sistemas efectivos de moderación de contenidos para prevenir y frenar la reproducción u ocultar materiales que constituyan manifestaciones de violencia digital contra las mujeres basada en género […] La moderación deberá llevarse a cabo mediante tres mecanismos principales: a) Denuncias de personas usuarias […] b) Solicitudes gubernamentales, emitidas por autoridades competentes mediante medidas precautelares de eliminación o restricción de contenido y/o mediante orden judicial […] c) Etiquetado automático, a través de algoritmos diseñados para detectar contenido que pudiera constituir violencia digital contra las mujeres basada en género…” (los destacados son propios).
Sobre el primer supuesto, es decir, las denuncias, es imprescindible establecer mecanismos que eviten que esta vía sea utilizada para cercenar la libertad de expresión o la circulación de información, en particular frente a contenidos de interés público.
Luego, la posibilidad de moderación vía solicitudes gubernamentales nos obliga a poner el foco en un tema clave que son las garantías de independencia y autonomía que debe tener la institucionalidad regulatoria involucrada en la gobernanza de las plataformas digitales según los estándares internacionales.
Por supuesto, el esquema institucional que opere en relación con el abordaje de la violencia digital involucrará a distintas instancias estatales, no obstante, es clave determinar cuál de ellas cumple los estándares internacionales para solicitar remoción de contenidos —y con qué proceso de control externo— teniendo en cuenta que se trata de decisiones que pueden tener impacto en la garantía de la libertad de expresión y otros derechos.
Finalmente, las decisiones de moderación que estén basadas en etiquetado automático corren el riesgo serio de que la moderación algorítmica identifique violencia allí donde hay humor, sátira o un contenido de educación sexual integral. Si bien el citado artículo 24 prevé que aquello que se detecte vía etiquetado automático “…deberá ser revisado por un equipo de evaluación interna imparcial y especializado en derechos humanos y violencia basada en género”, lo cierto es que el progresivo achicamiento de los recursos de las grandes plataformas para contar con equipos de personas para realizar la moderación y curación de contenidos y, en general, el deliberado y explícito desinterés por ajustar sus políticas a estándares de derechos humanos, no auguran un buen escenario en este sentido.
Estas cuestiones, entre otras, requerirán un debate amplio e inteligente en los países para evitar la adopción de normas que luego no tengan eficacia para la protección de las víctimas o que terminen afectando derechos.
Además de estas obligaciones, la Ley Modelo incluye otras como las de transparencia, las de conservación de evidencia, las de colaboración con las autoridades estatales y las de colaboración en las políticas de alfabetización digital, que son claves por la complejidad de la problemática.
Es muy importante también que la Ley Modelo haya considerado la asimetría entre los actores del entorno digital planteando obligaciones diferentes para los operadores según su tamaño y que se haya establecido la obligación de que estos actores cuenten con representantes legales en los países en los que operan (algo que sería exigible a cualquier empresa de otro rubro que tenga en los países el poder y el volumen de operación que tienen las grandes plataformas).
La Ley Modelo es una herramienta integral y compleja, a la vez que necesaria y que llega de manera oportuna. Sus 68 artículos, y su fundamentación previa, así como todo el recorrido de aportes que desde distintos sectores se hicieron en estos años son un insumo clave, de imprescindible consideración, para aquellos países que busquen avanzar en la garantía del derecho de niñas, jóvenes y mujeres a vivir una vida libre de violencias en el entorno digital.
