
Un jurado del Tribunal Superior de Los Ángeles ha dado un golpe sin precedentes a las grandes tecnológicas al considerar que Meta y YouTube son responsables de dañar la salud mental de una joven a través del diseño adictivo de sus plataformas. El caso, seguido con lupa por despachos de abogados, legisladores y asociaciones de familias, se ha convertido en un auténtico banco de pruebas sobre hasta dónde llega la responsabilidad de las redes sociales cuando los usuarios son menores.
La demandante, identificada en la documentación judicial por las siglas K.G.M. o Kaley, tiene hoy 20 años y sostiene que el uso intensivo de Instagram y YouTube desde la infancia le generó una dependencia que derivó en ansiedad, depresión, pensamientos suicidas y dismorfia corporal. Para el jurado, funciones como el desplazamiento o scroll infinito, la reproducción automática y los algoritmos que recomiendan contenido sin fin fueron un factor clave en el deterioro de su bienestar psicológico.
Un veredicto histórico: negligencia y diseño adictivo
Tras un juicio de varias semanas y nueve días de deliberaciones, el jurado concluyó que Meta y YouTube actuaron con negligencia en el diseño y la operación de sus servicios. Los integrantes del panel, siete mujeres y cinco hombres, consideraron probado que estas empresas construyeron productos ideados para maximizar el tiempo de uso, sin tener suficientemente en cuenta el impacto en los usuarios más jóvenes.
La acusación habló abiertamente de «máquinas de adicción» diseñadas para enganchar a los menores, comparando las dinámicas de uso de las redes con las del tabaco, los casinos o las apuestas. Entre las características señaladas destacan el scroll infinito, las notificaciones constantes y las recomendaciones automáticas, que empujan al usuario a consumir contenido sin apenas pausas, favoreciendo hábitos compulsivos.
Durante el proceso, declararon figuras de primer nivel como Mark Zuckerberg, máximo responsable de Meta, y Adam Mosseri, jefe de Instagram. Ambos negaron que sus plataformas sean adictivas y defendieron que cuentan con herramientas de control parental y políticas de edad mínima, insistiendo en que la salud mental adolescente es un fenómeno complejo que no se puede atribuir a una sola aplicación.
El jurado, sin embargo, dio más peso a los informes internos y testimonios de expertos presentados por la acusación, que mostraban cómo distintos equipos dentro de Meta y YouTube habían alertado de aumentos de ansiedad, depresión y problemas de autoestima entre jóvenes usuarios, mientras la prioridad corporativa seguía siendo el crecimiento y el tiempo de permanencia.
Indemnización millonaria y posible lluvia de demandas
La resolución fija inicialmente una indemnización de 3 millones de dólares (algo más de 2,5 millones de euros) a favor de la joven, una cantidad destinada a compensar daños morales, sufrimiento psicológico y otros perjuicios económicos. El reparto de la responsabilidad económica también ha quedado claramente delimitado: Meta asumirá el 70% del importe y YouTube, propiedad de Google, el 30% restante.
El panel de jurados mantiene abierta, además, la posibilidad de imponer daños punitivos adicionales, una figura del derecho estadounidense que busca castigar conductas especialmente graves y disuadir a otras empresas de repetirlas. En este contexto, los expertos no descartan que la cifra final pueda incrementarse de forma notable si el tribunal considera que hubo malicia, opresión o fraude en la manera en que se diseñaron y gestionaron las plataformas.
Más allá del importe concreto, lo que verdaderamente inquieta a Silicon Valley es que este caso se considera un precedente para cientos o incluso miles de demandas similares que se están tramitando en Estados Unidos. Organizaciones de padres, distritos escolares y fiscales generales de varios estados han presentado acciones legales contra Meta, YouTube, TikTok y Snap por daños a la salud mental de menores y fallos en la protección frente a contenidos dañinos.
La propia defensa de la joven resaltó que se trata de la primera vez que un jurado examina a fondo testimonios de ejecutivos y documentos internos de estas compañías sobre el impacto de sus productos en niños y adolescentes. A partir de ahora, otros jueces podrían remitirse a este fallo para fundamentar decisiones futuras, lo que convierte al caso en un verdadero punto de inflexión legal para la industria.
Una batalla que recuerda a las grandes demandas contra las tabacaleras
Varios analistas legales han trazado un paralelismo claro entre este litigio y los históricos juicios contra las compañías tabacaleras de finales de los 90, cuando se demostró que las empresas sabían desde hacía años los efectos perjudiciales del tabaco, pero minimizaron o ocultaron esa información al público.
En aquella ocasión, gigantes como Philip Morris o R.J. Reynolds terminaron firmando acuerdos multimillonarios con decenas de estados, que desembocaron en compensaciones por más de 200.000 millones de dólares e importantes restricciones en la publicidad y venta de cigarrillos. Ahora, algunas voces creen que las redes sociales podrían estar entrando en una fase similar de escrutinio y responsabilidad, especialmente en lo referente a menores y contenido sensible.
El discurso de las autoridades que han impulsado estas acciones se mueve en esa misma línea. El fiscal general de Nuevo México, Raúl Torrez, celebró recientemente otra condena contra Meta, en este caso por facilitar la explotación sexual infantil en sus plataformas y poner en riesgo la seguridad de millones de usuarios. En esa causa, un jurado ordenó a la compañía pagar 375 millones de dólares, lo que refuerza la percepción de que los tribunales estadounidenses están endureciendo el tono.
Torrez llegó a afirmar que el fallo supone «una victoria histórica para cada niño y familia» que ha sufrido las consecuencias de las decisiones de Meta, asegurando que la empresa ignoró advertencias internas y engañó al público sobre los riesgos reales. Estas acusaciones, muy contundentes, están conectadas con la figura de Frances Haugen, la ex empleada que en 2021 filtró documentos mostrando que la compañía conocía el impacto negativo de sus productos en adolescentes, especialmente chicas, pero priorizó el crecimiento.
El ecosistema legal, en definitiva, comienza a configurarse de forma similar al que se vivió con el tabaco: investigaciones internas filtradas, demandas coordinadas, grandes sentencias y presión regulatoria creciente. Para las empresas de redes sociales, este escenario supone revisar a fondo sus estrategias, ya no solo por reputación, sino por riesgo jurídico y económico.
Cómo afectó el uso de Instagram y YouTube a la vida de la joven
El relato de la demandante ha sido uno de los elementos que más ha llamado la atención durante el proceso. Según su testimonio, comenzó a usar YouTube con apenas 6 años e Instagram alrededor de los 9, sin que encontrara barreras técnicas reales que frenaran su acceso pese a los límites de edad oficiales.
Con el paso del tiempo, su consumo de contenido se fue disparando hasta el punto de que dejó de relacionarse con su familia y su entorno para pasar casi todo el día conectada. Explicó que, ya con 10 años, empezó a experimentar síntomas de ansiedad y depresión que más adelante serían diagnosticados por profesionales de salud mental.
Una parte central del caso giró en torno a la obsesión con la apariencia física y la comparación social. La joven contó que, casi desde el inicio, usaba filters de Instagram que modificaban su rostro —nariz más pequeña, ojos más grandes, piel sin imperfecciones— y que eso fue alterando la manera en que se veía a sí misma. Con los años, recibió el diagnóstico de dismorfia corporal, un trastorno en el que la persona se preocupa de forma excesiva por defectos percibidos en su aspecto.
Los abogados de la demandante vincularon esa evolución con las dinámicas de validación propias de las redes sociales: likes, comentarios, seguidores y comparaciones constantes con otros perfiles. Según sostuvieron, los algoritmos tienden a mostrar contenido que refuerza inseguridades y fomenta estándares de belleza inalcanzables, algo especialmente delicado cuando el usuario es una niña o adolescente.
También se puso sobre la mesa el tiempo de exposición. En el juicio salieron a relucir sesiones de hasta 16 horas en un solo día de uso de Instagram. Cuando se preguntó por ello a Adam Mosseri, el directivo admitió que puede ser «problemático» que un menor pase la mayor parte del día en la aplicación, aunque negó que eso, por sí solo, demuestre una adicción. El jurado, no obstante, entendió que ese patrón encaja con una conducta claramente adictiva.
Reacción de Meta, YouTube y el resto de la industria
Ante el impacto mediático del veredicto, Meta y Google (propietaria de YouTube) han salido al paso con mensajes muy medidos. Ambas compañías han subrayado que «no están de acuerdo» con la decisión del jurado y han avanzado que están estudiando posibles recursos y apelaciones, confiando en que instancias superiores revisen el caso.
Meta insiste en que la salud mental adolescente no se puede atribuir a una sola plataforma y recuerda que, sobre el papel, sus servicios no permiten cuentas de menores de 13 años. Mark Zuckerberg declaró que siempre hubiera querido avanzar más rápido en los sistemas para detectar y bloquear a usuarios demasiado jóvenes, pero defendió que la compañía ha ido incorporando controles parentales, límites de tiempo y herramientas de bienestar digital.
Desde Google, un portavoz ha sostenido que YouTube es una plataforma de vídeo construida de manera responsable, más cercana al modelo de streaming que al de una red social clásica, y que la empresa ha desarrollado versiones específicas para niños y múltiples opciones de supervisión familiar. Pese a ello, el jurado consideró que el diseño global del servicio contribuyó a la problemática de la joven.
En paralelo, TikTok y Snap (matriz de Snapchat), que también estaban inicialmente demandadas en el mismo procedimiento, optaron por una vía distinta: acuerdos extrajudiciales confidenciales con la demandante, que les permitieron evitar el juicio. Esa estrategia ha sido interpretada como un intento de reducir exposición pública y mantener el control sobre posibles compensaciones económicas.
El sector tecnológico en su conjunto observa el caso con preocupación. Para analistas y consultoras especializadas, el fallo de Los Ángeles actúa como un «caso piloto» o bellwether: si se mantiene en apelación, podría acelerar cambios en los algoritmos, en las funcionalidades para menores y en los avisos sobre riesgos, además de animar a que más familias den el paso de acudir a los tribunales.
Impacto regulatorio y repercusiones en Europa y España
Aunque el juicio se ha celebrado en California, los ecos de este caso llegan mucho más allá de Estados Unidos. En un momento en que la Unión Europea está desplegando normas como la Ley de Servicios Digitales (DSA), que obliga a las grandes plataformas a evaluar y mitigar riesgos para menores, un veredicto como este refuerza la sensación de que el tiempo de la autorregulación está tocando a su fin.
En Europa, y también en España, las autoridades de protección de datos y los reguladores digitales vienen advirtiendo de los efectos del diseño persuasivo en niños y adolescentes: notificaciones que interrumpen constantemente, sistemas de recompensas, vídeos encadenados y mecanismos para dificultar que el usuario cierre la app. El fallo de Los Ángeles puede servir de argumento adicional para endurecer las exigencias a Meta, Google y otras plataformas que operan en territorio europeo.
Algunos países ya han comenzado a mover ficha, como Indonesia y Australia. Australia ha puesto en marcha restricciones de uso de redes sociales para menores y Reino Unido prueba proyectos piloto para estudiar una posible prohibición del acceso por debajo de los 16 años. En este contexto, no sería extraño que iniciativas similares ganen tracción en otros estados de la UE si se consolida la idea de que el diseño de las plataformas puede suponer un riesgo estructural para la salud mental juvenil.
Para España, donde el uso de redes en la adolescencia es muy elevado y el debate sobre el primer móvil y el acceso a redes sociales está cada vez más presente en familias y centros educativos, este tipo de sentencias ofrece un espejo en el que mirarse. Asociaciones de padres, psicólogos infantiles y expertos en seguridad digital llevan tiempo reclamando límites de edad más claros, verificación más estricta y menos incentivos adictivos en las aplicaciones.
Si los tribunales estadounidenses continúan en esta línea y las grandes tecnológicas se ven forzadas a modificar el diseño de sus productos para evitar litigios, esos cambios podrían trasladarse de forma global, afectando también a usuarios europeos y españoles. Del mismo modo, los resultados de estos procesos podrían inspirar nuevas demandas o reclamaciones en la UE, aprovechando marcos normativos ya existentes en materia de consumo, protección de menores y privacidad.
Todo apunta a que el caso de Kaley no será un episodio aislado, sino el inicio de una etapa en la que los modelos de negocio basados en captar y retener la atención de los menores serán examinados con lupa por jueces y reguladores. Para Meta, YouTube y el resto de la industria, el mensaje que sale de Los Ángeles es claro: la forma en que se diseñan las plataformas puede generar responsabilidades legales tan relevantes como los contenidos que alojan.