Un jurado en Los Ángeles determinó responsabilidad directa de Meta y Google por el diseño de plataformas digitales que generaron adicción en una menor y afectaron su salud mental. El fallo concede 6 millones de dólares en daños a una joven de 20 años y marca un precedente que puede impactar cientos de litigios similares en Estados Unidos.
El veredicto no se limita a una compensación económica: establece que ambas compañías operaron con “malicia, opresión o fraude”, al mantener dinámicas de uso que fomentan la permanencia prolongada en sus servicios. La resolución se suma a otro fallo reciente en Nuevo México que también responsabilizó a Meta por exponer a menores a riesgos como contenido sexual explícito y contacto con depredadores.
Hechos clave del caso
El proceso judicial se desarrolló durante cinco semanas y giró en torno a la experiencia de la demandante, identificada como Kaley. Los elementos centrales que sustentaron la decisión del jurado incluyen:
- Uso de plataformas desde edades tempranas: comenzó con YouTube a los seis años e Instagram a los nueve.
- Ausencia de controles efectivos de edad: no enfrentó bloqueos pese a ser menor de 13 años.
- Diagnósticos de salud mental: ansiedad, depresión y dismorfia corporal vinculadas a su uso.
- Uso intensivo: llegó a registrar sesiones de hasta 16 horas en Instagram.
- Diseño de funciones específicas: herramientas como el scroll infinito fueron señaladas como mecanismos adictivos.
- Estrategias de crecimiento: se argumentó que las plataformas buscaban atraer usuarios jóvenes por su alta retención.
El jurado asignó la carga económica de la indemnización de forma diferenciada: Meta deberá cubrir el 70% y Google el 30%.
A quién afecta y cómo cambia el entorno digital
El fallo impacta directamente en tres niveles:
Primero, en las empresas tecnológicas, que enfrentan un aumento de litigios relacionados con el diseño de sus productos. Existen cientos de casos en curso que podrían apoyarse en este precedente, lo que eleva el riesgo legal y financiero.
Segundo, en reguladores y gobiernos. El caso coincide con iniciativas para restringir el acceso de menores a redes sociales. Australia ya implementa limitaciones y Reino Unido analiza una posible prohibición para menores de 16 años.
Tercero, en usuarios y familias. La resolución refuerza la idea de que el diseño de plataformas no es neutral y puede tener efectos medibles en la salud mental, especialmente en menores de edad.
Qué cambia en la práctica
El impacto inmediato no implica modificaciones técnicas automáticas en las plataformas, pero sí redefine el marco de responsabilidad. A partir de este caso:
- Se refuerza la exigencia de controles de edad efectivos.
- Se cuestiona el uso de funciones diseñadas para maximizar tiempo de uso.
- Se incrementa la presión para rediseñar experiencias digitales con criterios de seguridad.
- Se abre la puerta a sanciones económicas más altas en casos similares.
- Se legitima el uso de evidencia interna de empresas en litigios futuros.
Meta expresó su desacuerdo con el veredicto y confirmó su intención de apelar, argumentando que la salud mental adolescente no puede atribuirse a una sola aplicación. Google también rechazó la decisión, señalando que YouTube es una plataforma de streaming y no una red social.
Qué sigue
El caso no cierra el debate; lo amplifica. Ya está previsto un nuevo juicio contra Meta y otras plataformas en junio en un tribunal federal de California, lo que podría consolidar o matizar este precedente.
En paralelo, el entorno regulatorio se endurece. Líderes políticos han advertido que el modelo actual es insuficiente y anticipan cambios en las reglas de operación de las plataformas digitales, especialmente en lo relacionado con menores.
El fallo también intensifica la presión pública. Grupos de padres y activistas lo consideran un punto de inflexión tras años de preocupación acumulada por los efectos de las redes sociales en jóvenes.
La discusión ya no se limita al contenido que circula en estas plataformas, sino al diseño mismo de los sistemas que determinan cómo se consume. Ese cambio de enfoque redefine el debate tecnológico: de moderación de contenidos a responsabilidad estructural.




