Observacom
Análisis - Global Blog Opinión

Derechos Digitales analiza el rol de los gigantes de Internet y el impacto en América Latina de los proyectos de reforma de la legislación en EEUU

Juan Carlos Lara (*)

Las discusiones sobre el rol de los gigantes de Internet y sus efectos para la libre circulación de ideas ha motivado distintas iniciativas de reformas regulatorias en Estados Unidos. El Director de Contenidos de la organización Derechos Digitales, Juan Carlos Lara, analiza las implicancias de los proyectos de reforma de la Communications Decency Act, su impacto para los países de la región de las iniciativas que censuran a las plataformas y criminalizan discursos, y los efectos que esto genera en términos de mayor concentración de poder de las plataformas.

A continuación compartimos el artículo completo de Juan Carlos Lara, publicado en el portal de Derechos Digitales.

La concentración del poder para censurar en Internet

La peligrosa capacidad de algunas empresas de Internet para controlar la circulación de información en la red corre el riesgo de cambiar, concentrando aún más poder en unos pocos.

En los últimos años, las discusiones sobre el rol de las plataformas de Internet en la difusión de desinformación, la censura de discursos legítimos y la amplificación de expresiones de odio y violencia han aumentado notablemente. En este contexto, aunado a una fuerte tensión política, se han hecho llamados frecuentes a modificar parte de la legislación de Estados Unidos: país que rige a esas plataformas.

Particularmente, se ha buscado cambiar el esquema fijado por la sección 230 de la Communications Decency Act. Esta disposición  sienta las bases para una regla general (aunque con excepciones) en que las plataformas de Internet no tienen responsabilidad sobre el contenido provisto por terceros, el ánimo por reformas se suma a tendencias globales por provocar que empresas como Google, Facebook o Twitter sean más activas; filtrando o removiendo contenidos nocivos, y a la vez asumiendo responsabilidad por quitar espacio a contenidos legales.

Sin embargo, independientemente de que –a menudo– hay fines loables detrás de estas iniciativas, los posibles efectos sobre la libertad expresión y de información son significativos; ya que, en el particular caso del §230 CDA, tienen consecuencias a nivel global.

En términos simples, el §230(c) CDA distingue a las plataformas de Internet de los editores de medios o proveedores de contenidos -cuando la información es provista por terceros- con el fin de eximirles de responsabilidad sobre esos contenidos. Además, les exime de responsabilidad por remover o bloquear de buena fe contenidos obscenos o violentos, aún si son legales: como ocurre con los términos y condiciones de uso. Es habitual que se considere a esta regla una de las piedras angulares (al menos desde el punto de vista normativo) del crecimiento de los gigantes de Internet en los Estados Unidos.

La más concreta propuesta de reforma provino del Senado estadounidense en junio de 2019, en un  proyecto de ley que busca quitar el “sesgo” de las grandes plataformas –en particular, redes sociales– que supuestamente afectaría a publicaciones afines a opiniones de la extrema derecha política de ese país, percepción compartida por otro troll desde la Casa Blanca. Aunque la reacción transversal negativa a la propuesta fue inmediata, las alertas sobre el riesgo que corre el §230 se encendieron de inmediato: la realidad de las malas propuestas sobre responsabilidad de intermediarios se trasladaron de manera tangible al país que alberga a las mayores empresas de tecnología.

¿Por qué esto debería importarnos, en contextos tan distintos al primer mundo? En primer lugar, por el efecto que podrían tener reglas extranjeras en nuestra propia regulación sobre lo que ocurre en Internet, considerando que la reacción a la desinformación, la violencia en línea o la polarización en época electoral son también –con matices propios– problemas en nuestros países. Las malas experiencias en países como VenezuelaHonduras muestran el rol que se pretende desde las plataformas, de manera más que dañina para la libertad de expresión, mientras que otras iniciativas de regulación han terminado excluidas.

En segundo lugar, porque la ley sí tiene impacto sobre las reglas propias de las plataformas. Las normas impuestas por los gigantes de Internet para sus usuarias, incluyendo aquellas que alteran la circulación de información y expresión, varían a su vez en razón de las normas a las que se sujetan esas plataformas en los países donde se erigen, o bien donde deciden domiciliarse para reducir su riesgo de responsabilidad. Si con el fin de cuidar sus ganancias cambian sus términos y condiciones de uso, ese impacto será también sufrido en otras latitudes; ya que el poder de las grandes plataformas es tal, que las condiciones de interacción varían a nivel global a partir de las decisiones que resulten lucrativas para reducidos grupos de personas en Silicon Valley.

La implementación de reglas que reflejen principios de justicia en el manejo de contenidos, incluyendo a su vez condiciones de transparencia y rendición de cuentas sobre el retiro -muy especialmente cuando median mecanismos automatizados de detección o bloqueo- son algunas medidas mínimas que deben adoptar esas plataformas. Pero quizás más importante, las reglas mismas requieren una revisión concienzuda, incluyendo la participación de actores de la sociedad civil global.

Es urgente terminar las malas iniciativas de criminalización excesiva de discurso y la radicación de la censura en plataformas. A nivel local es necesario poner al día nuestros anquilosados sistemas jurídicos y generar condiciones normativas para el discurso libre, donde se esclarezcan tanto las condiciones de exención de responsabilidad como los mecanismos y requisitos para forzar el retiro, el bloqueo, o la reposición de información. Más allá de aclarar cómo deberían ser las cosas en escenarios hipotéticos de las plataformas actuales, estas medidas permitirían fijar cómo pueden crecer las plataformas del futuro. Las normativas no deben plantearse para reaccionar a empresas específicas, respecto de las cuales persisten problemas más profundos y amplios que los relativos al contenido; ya que si bien quizás Facebook, Google o Twitter no son escenarios ideales para la discusión política o social que necesitamos, son espacios de intercambio vigente que evidencian la necesidad de establecer condiciones normativas para organizar nuestras propias alternativas.

(*) Director de Contenidos de Derechos Digitales

 

Imagen destacada: CC: BY (Dmitry Ratushny)-SA

Notas relacionadas

Los mecanismos de co-regulación serían los más idóneos para enfrentar los desafíos de la desinformación en línea en procesos electorales, dice experto británico

Observacom

OBSERVACOM presentó propuesta de regulación de plataformas de Internet en Uruguay

Observacom

ANCINE de Brasil propone un marco regulatorio específico para servicios VoD

Observacom
... (en este espacio hay varias líneas de código de programación personalizado)