Observacom
Actualidad - EEUU

“Sabían el daño que hacían”: demandan a Meta, TikTok, YouTube y Snapchat por ocultar daños a niños y adolescentes

Documentos judiciales recientemente desclasificados en Estados Unidos muestran que Meta, TikTok, YouTube y Snapchat habrían ocultado evidencia interna sobre riesgos de adicción, afectaciones a la salud mental y prácticas que desatendieron la seguridad de niños, niñas y adolescentes para favorecer su crecimiento empresarial, en un caso que vuelve a poner en debate la responsabilidad y la transparencia de las plataformas digitales.

Documentos judiciales recientemente desclasificados en Estados Unidos profundizaron las acusaciones contra Meta, TikTok, YouTube y Snapchat por supuestamente priorizar el crecimiento empresarial y la captación de usuarios jóvenes por encima de la seguridad y el bienestar de niños, niñas y adolescentes. Las cuatro compañías enfrentan una demanda masiva presentada por cientos de distritos escolares, fiscales generales y familias, que las acusan de contribuir a una crisis de salud mental juvenil y de ocultar evidencia interna sobre los riesgos de sus plataformas.

El expediente —publicado el 21 de noviembre de 2025 en el Tribunal del Distrito Norte de California— contiene miles de páginas de correos, estudios internos, mensajes corporativos y declaraciones bajo juramento que describen prácticas orientadas a maximizar la participación adolescente, incluso cuando equipos técnicos habían advertido impactos negativos asociados al modelo de negocio basado en la atención y la permanencia en línea.

Los documentos citan comentarios internos que reconocen explícitamente el potencial adictivo de las plataformas. Investigadores de Meta habrían afirmado que “Instagram es una droga”; ejecutivos de Snapchat admitieron que para algunos usuarios “la adicción a la app domina su vida”; reportes internos de TikTok señalaban que los menores “no tienen capacidad ejecutiva para controlar su tiempo de pantalla”; y personal de YouTube expresó que impulsar la frecuencia de uso era incompatible con promover el bienestar digital. Según los demandantes, estas decisiones no fueron aisladas: respondían a una estrategia diseñada para aumentar el tiempo de conexión y, con ello, los ingresos por publicidad.

Los distritos escolares alegan que estas prácticas han agravado situaciones de ansiedad, aislamiento, autolesiones y trastornos alimentarios en jóvenes, aumentando la presión sobre los sistemas educativos que deben responder a sus consecuencias.

El modelo de negocio por sobre la seguridad infantil

El expediente sostiene que Meta habría discontinuado o evitado difundir investigaciones internas sobre efectos negativos del uso intensivo de sus plataformas. Entre ellas, un estudio conocido como “Project Mercury”, realizado en 2020 con apoyo de la firma Nielsen, que analizó cómo se sentían los usuarios que dejaban de usar Facebook e Instagram por una semana. Los resultados preliminares mostraban una disminución en síntomas de ansiedad, depresión y comparación social. Tras estos hallazgos, la empresa habría detenido el proyecto. En mensajes internos, empleados expresaron preocupación por la posibilidad de replicar el comportamiento histórico de la industria tabacalera al ocultar evidencia adversa.

La demanda también expone decisiones empresariales que habrían desatendido la seguridad infantil. Según la declaración bajo juramento de Vaishnavi Jayakumar —exdirectora de seguridad y bienestar de Instagram—, Meta habría aplicado durante años una política que permitía que una cuenta vinculada a trata sexual acumulara hasta 16 infracciones antes de ser suspendida. La ejecutiva calificó este umbral como “excepcionalmente alto” en comparación con estándares de la industria.

Los documentos afirman que, pese a contar con reportes internos sobre la circulación de material de abuso sexual infantil y el contacto de adultos desconocidos con menores, la empresa decidió no avanzar durante años con un mecanismo específico para denunciar este tipo de contenido, aun cuando sí existían canales accesibles para reportar faltas menores como spam o infracciones de propiedad intelectual.

Captación de usuarios jóvenes

La demanda sostiene que las cuatro plataformas habrían desplegado estrategias explícitas para atraer y retener usuarios menores de edad, incluidos pre-adolescentes. Documentos internos citados en el expediente indican que Meta sabía desde hace años que millones de niños menores de 13 utilizaban Instagram, a pesar de que su política lo prohíbe. El archivo también señala que la empresa habría analizado comportamientos digitales de niños de entre 5 y 10 años para evaluar posibles productos dirigidos a ese segmento, y que algunos empleados compararon estas prácticas con la estrategia histórica de la industria tabacalera de captar usuarios jóvenes.

Los demandantes sostienen que las plataformas promovieron herramientas de seguridad cuya efectividad era limitada y que, según documentos internos, las propias empresas sabían que eran insuficientes. En TikTok, empleados habrían señalado que la función Family Pairing era “prácticamente inútil” porque los adolescentes podían desactivarla. Propuestas internas para limitar estrictamente el tiempo de uso habrían sido descartadas porque implicaban una reducción en la exhibición de anuncios.

En el caso de YouTube, la demanda afirma que la empresa avanzó con su producto Shorts pese a advertencias internas sobre la posibilidad de fomentar un “ciclo de adicción” basado en videos breves. Snapchat, por su parte, argumentó que la demanda representa incorrectamente el funcionamiento de su plataforma y que sus productos fueron diseñados para evitar la exposición a métricas públicas de popularidad.

El caso avanza hacia una instancia clave en enero, cuando el Tribunal del Distrito Norte de California celebrará una audiencia sobre las mociones de juicio sumario presentadas por las plataformas, un paso procesal que definirá cómo continúa el litigio hacia un eventual juicio por jurado. Para los demandantes, los documentos revelados demuestran que las empresas conocían los riesgos que implican sus productos para adolescentes y optaron por mantener diseños que potencian la permanencia, aun cuando implica exponer a los menores a daños previsibles.

A medida que surgen más detalles del proceso, el caso podría convertirse en un antecedente clave en el debate global sobre responsabilidad, transparencia y obligaciones regulatorias para las plataformas digitales en torno a la protección de niños, niñas y adolescentes. Meta, TikTok, Snapchat y Google rechazaron las imputaciones u optaron por no comentar, argumentando que sus productos incluyen múltiples capas de protección y que trabajan con organizaciones especializadas en protección de niños, niñas y adolescentes.


ENLACES RELACIONADOS: 

Lawsuit alleges social media giants buried their own research on teen mental health harms

Social media adolescent addiction/personal injury products liability litigation

Meta had a 17-strike policy for sex trafficking, former safety leader claims

Meta buried ‘causal’ evidence of social media harm, US court filings allege

Revelan que Meta sabía que adultos contactaban a menores en sus plataformas y lo permitieron: “Significaba mayores beneficios”

Court Filings Allege Meta Downplayed Risks to Children and Misled the Public

Ir al contenido ... (en este espacio hay varias líneas de código de programación personalizado)