Mark Zuckerberg se sentó por primera vez ante un juez en Los Ángeles para defender a Meta en un pleito que intenta abrir una grieta legal muy concreta: no va tanto del contenido que circula por Instagram o YouTube, sino de si el diseño del producto —autoplay, scroll infinito, filtros, algoritmos que "sirven" estímulos a medida— puede considerarse un factor dañino en sí mismo. El caso, protagonizado por una joven identificada como K.G.M. (Kaley), funciona como juicio "piloto" dentro de una oleada de demandas similares: una especie de termómetro que medirá hasta dónde llega la responsabilidad de las plataformas cuando quien se engancha es menor.
La línea de defensa de Zuckerberg se apoyó en un argumento incómodo por simple: la edad mínima es 13 años y, si una niña entra antes, "es" porque miente al registrarse. El CEO admitió la dificultad de verificar la edad con precisión, y llegó a desplazar parte del peso hacia los fabricantes y sistemas operativos. Los abogados de la demandante, con Mark Lanier al frente, lo presionaron con documentos internos y presentaciones que describían a menores y adolescentes como un público estratégico, además de correos antiguos que fijaban metas de crecimiento del tiempo de uso. En paralelo, fuera del juzgado se repitió una imagen que ya es parte del relato: familias y padres de víctimas reclamando justicia en la puerta.
Producto, no contenido: la clave del pleito
Este choque entre "política escrita" y "realidad de producto" es, de hecho, el corazón del juicio. Reuters y AP recogieron que, en sala, la acusación insistió en que Meta sabía que había menores usando Instagram y que aun así mantuvo o potenció mecánicas que favorecen el enganche. Y aquí aparece el matiz que convierte el caso en un precedente: si el jurado compra que el daño viene de la arquitectura de la app (no de un post concreto), se erosiona el parapeto clásico con el que las tecnológicas suelen blindarse.
La ciencia lleva años advirtiendo sobre esto. Un gran meta-análisis en JAMA Pediatrics (más de un millón de adolescentes, cientos de tamaños de efecto) concluye que existe una asociación positiva, aunque pequeña, entre uso de redes (tiempo y, sobre todo, engagement) y síntomas internalizantes como ansiedad o depresión; y remarca algo crucial para este tipo de litigios: faltan más estudios centrados en poblaciones clínicas, justo donde el riesgo puede ser mayor.
Salud mental, "adicción" y responsabilidad
También está el debate sobre la palabra "adicción". En el estrado, Adam Mosseri —máximo responsable de Instagram— prefirió hablar de "uso problemático" y rechazó equipararlo a una adicción clínica, una cautela que tiene respaldo parcial: la psiquiatría no reconoce "adicción a redes" como diagnóstico formal único y cerrado, pero la investigación sí describe patrones compatibles con pérdida de control, interferencia con la vida diaria y malestar al cortar el acceso. De hecho, un meta-análisis sobre "problematic social media use" encuentra relaciones significativas con depresión y ansiedad en jóvenes, y el propio Surgeon General de EE. UU. y la APA han pedido tratar el asunto como un riesgo de salud pública que requiere cambios de diseño, alfabetización digital y protecciones por edad más robustas.
El juicio intenta fijar un punto de fricción: si una chica puede pasar 16 horas seguidas en una app, si los filtros y la recomendación automática empujan a ciertos perfiles hacia contenidos que empeoran la autoestima, o si el producto prioriza "más tiempo dentro" como métrica reina, la pregunta deja de ser moral ("que los padres vigilen") y pasa a ser a nivel empresarial ("qué está optimizado y con qué salvaguardas"). Incluso la jueza tuvo que intervenir por un detalle revelador del momento: ordenó que si alguno de los asistentes llevaba gafas inteligentes con cámara, se las quitara para proteger la identidad del jurado.