Dos fallos judiciales en EEUU atribuyen responsabilidad a Meta por el diseño adictivo de sus plataformas y sus efectos en niños

Un jurado en Los Ángeles y otro en Nuevo México concluyeron que Meta —y en uno de los casos, también Google— diseñaron deliberadamente funcionalidades adictivas y con efectos dañinos sobre usuarios menores de edad. Y que ocultaron o engañaron a sus usuarios respecto a la seguridad de sus redes. Las decisiones, que incluyen indemnizaciones millonarias, marcan un precedente y refuerzan un cambio de enfoque: de la responsabilidad de las plataformas sobre los contenidos de terceros a la responsabilidad por actos propios.
Foto: “Mark Zuckerberg F8 2018 Keynote” por Anthony Quintano, CC BY 2.0

Dos fallos recientes en Estados Unidos colocaron en el centro del debate la responsabilidad de las plataformas digitales por el diseño de sus productos y sus efectos sobre niños, niñas y adolescentes. En menos de 48 horas, un jurado en Los Ángeles y otro en Nuevo México concluyeron que Meta —y en el caso de Los Ángeles también YouTube, de Google— deben responder por daños asociados al funcionamiento de sus servicios.

En ambos procesos, el eje del debate y de la decisión no estuvo puesto en contenidos específicos de determinados usuarios, sino en la arquitectura o el diseño de las plataformas: sus sistemas de recomendación, mecanismos de interacción y estrategias para “enganchar” niños y adolescentes y maximizar el tiempo de uso. Los jurados consideraron que estas decisiones de diseño no solo contribuyeron a generar daños, sino que las empresas conocían —o debían conocer— sus efectos, y los ocultaron a sus usuarios

Sin embargo, los casos presentan diferencias relevantes. Mientras que el juicio en Los Ángeles se centró en el impacto del diseño adictivo sobre la salud mental de una usuaria menor de edad, el caso en Nuevo México abordó la responsabilidad de Meta por no prevenir riesgos vinculados a la seguridad de usuarios, incluyendo situaciones de explotación sexual infantil.

El caso de Los Ángeles: diseño adictivo y conocimiento de sus efectos

Un jurado en Los Ángeles determinó que Meta y YouTube son responsables por los daños sufridos por una joven usuaria, al considerar que ambas compañías diseñaron sus plataformas de manera “adictiva” y sin advertir adecuadamente sobre sus riesgos. La decisión del caso —identificado como K.G.M. v. Meta et al—, adoptada tras cinco semanas de juicio y días de deliberación, establece que las empresas actuaron con “negligencia” y que el diseño de sus productos fue un factor sustancial en el deterioro de la salud mental de la demandante.

El jurado otorgó una indemnización de 6 millones de dólares, distribuyendo el 70% a cargo de Meta y el resto a YouTube. Más allá del monto, el elemento central del fallo es la atribución de responsabilidad por las decisiones de diseño adoptadas por las empresas y por el conocimiento que tenían sobre sus efectos. 

Uno de los aspectos más relevantes del juicio fue la discusión sobre si las plataformas fueron diseñadas deliberadamente para generar comportamientos compulsivos. En ese sentido, la representación legal de la demandante sostuvo que las empresas habían diseñado una “ingeniería de la adicción” a través de sus productos.

“¿Cómo hacés para que un niño nunca deje el teléfono? Eso se llama ingeniería de la adicción”, afirmó Mark Lanier, abogado de la demandante durante los alegatos finales, en una de las frases que sintetizó el enfoque del caso. La demandante relató haber comenzado a utilizar YouTube a los seis años e Instagram a los nueve, desarrollando con el tiempo un uso intensivo que —según su testimonio— derivó en “depresión, ansiedad y trastornos vinculados a la imagen corporal”.

El jurado consideró probado no solo el impacto de estas plataformas en su vida, sino también que las empresas sabían —o debían saber— que el diseño de sus productos implicaba riesgos para usuarios menores. Documentos internos presentados durante el juicio reforzaron esta línea argumental. Según se expuso, empleados de las propias empresas reconocían efectos negativos asociados al uso intensivo de las plataformas, al tiempo que se diseñaban mecanismos para aumentar la retención de usuarios, incluidos adolescentes. Más que una omisión o “negligencia”, el caso expuso decisiones de diseño adoptadas con conocimiento de sus efectos sobre usuarios, incluidos menores de edad.

Uno de los elementos jurídicos más significativos del caso es el desplazamiento del foco desde los contenidos hacia el diseño de las plataformas. Históricamente, las empresas tecnológicas han invocado la Sección 230 de la Ley de Decencia en las Comunicaciones para evitar responsabilidades legales, argumentando que no pueden ser consideradas responsables por los contenidos generados por sus usuarios.

Sin embargo, en este caso, la demanda no se centró en el contenido específico al que estuvo expuesta la joven, sino en la arquitectura misma de las plataformas: sus sistemas de recomendación, sus mecanismos de interacción y sus estrategias de captación de atención. Entre las funcionalidades señaladas se encuentran los sistemas de recompensa variable —como los “me gusta” o las notificaciones—, los filtros de belleza y los contenidos personalizados, todos ellos diseñados para reforzar patrones de uso intensivo y recurrente.

Este cambio resultó clave para que el caso avanzara. En particular, la distinción entre “diseño de plataforma” y “curación de contenido” fue central para limitar el alcance de las protecciones de la Sección 230. Las funcionalidades como el desplazamiento infinito, las notificaciones constantes o la reproducción automática fueron tratadas como decisiones de ingeniería, no como expresiones protegidas. Este enfoque permitió sortear, al menos parcialmente, las defensas basadas en la Primera Enmienda y evidenció los límites de la inmunidad que históricamente ha protegido a las plataformas.

El caso de Nuevo México: responsabilidad por fallas en la seguridad de la plataforma

El fallo en Los Ángeles se produjo apenas un día después de otra decisión judicial relevante. En Nuevo México, un jurado ordenó a Meta pagar 375 millones de dólares tras considerar que la empresa había violado leyes de protección al consumidor y facilitado situaciones de daño, incluyendo casos de explotación sexual infantil.

A diferencia del caso de Los Ángeles, centrado en la adicción y la salud mental, este proceso puso el foco en la capacidad —y la responsabilidad— de la empresa para prevenir riesgos dentro de sus propias plataformas.

La demanda se originó a partir de una investigación encubierta (crearon perfiles falsos para probar su seguridad) realizada por la fiscalía estatal, que identificó fallas en los sistemas de protección de usuarios menores y la exposición a situaciones de riesgo a través de las aplicaciones de la empresa.

El jurado concluyó que Meta no solo no había implementado medidas suficientes para prevenir estos daños, sino que había generado una percepción errónea sobre la seguridad de sus plataformas.

Aunque los hechos analizados son distintos, ambos casos comparten un elemento estructural: la evaluación de las decisiones de diseño y de las prácticas empresariales en relación con los riesgos que implican para los usuarios, especialmente para los más jóvenes.

Implicancias de un precedente en construcción

Aunque en el caso de Los Ángeles las empresas ya anunciaron que apelarán el fallo, ambas decisiones introducen un elemento de presión sobre la industria tecnológica. 

Por un lado, refuerzan la idea de que las plataformas pueden ser responsabilizadas por el diseño de sus productos y no solo por los contenidos que alojan. Por otro, consolidan una línea de litigio que pone en cuestión la arquitectura misma de estos servicios y los incentivos que estructuran su funcionamiento.

En este sentido, ambos casos sugieren un posible punto de inflexión: el inicio de una etapa en la que el diseño de las plataformas digitales comienza a ser objeto de escrutinio judicial (y, por tanto, su responsabilidad por actos propios) y no los posteos individuales de sus usuarios.

Related posts

TikTok acusada de censura algorítmica en EEUU tras pasar a manos estadounidenses

“Sabían el daño que hacían”: demandan a Meta, TikTok, YouTube y Snapchat por ocultar daños a niños y adolescentes

Sesgo de la IA de Google: no responde sobre la salud mental de Trump, pero sí sobre Biden u Obama