Pedro Sánchez ha colocado sobre la mesa una medida de alto voltaje regulatorio: prohibir el acceso a redes sociales a menores de 16 años y obligar a las plataformas a levantar “barreras reales” de verificación de edad, no simples casillas de “tengo más de 16”. El anuncio llega acompañado de otras piezas del paquete —responsabilidad de directivos por contenidos ilegales y el foco en la manipulación algorítmica—, pero el punto que lo cambia todo es el cómo se comprueba la edad sin convertir internet en un control de identidad permanente.
La primera pista está en lo que España ya venía probando fuera del terreno “redes”: Cartera Digital Beta, una app pensada inicialmente para acreditar mayoría de edad ante webs de adultos mediante credenciales, con mecanismos de autenticación para reducir el préstamo del móvil a menores. Es relevante porque sugiere el enfoque: no tanto “sube tu DNI a la red social” sin más, sino “demuestra tu edad” (idealmente con mínima información) y que el sistema pueda escalar a más servicios si el legislador lo decide.
Cómo se está haciendo en otro países
En Europa, el camino técnico que más se está empujando es el de la “age assurance” con diseño de privacidad, apoyado en estándares y en una infraestructura compatible con las futuras carteras de identidad digital. La Comisión Europea ya ha publicado un enfoque y un “blueprint” de verificación de edad —pensado primero para mayores de 18 en contenidos restringidos, pero extensible a otros umbrales— que pretende permitir probar “soy lo bastante mayor” sin revelar más datos de la cuenta. Si España prohíbe redes a menores de 16, lo lógico es que el control acabe orbitando alrededor de ese tipo de soluciones (o equivalentes) para evitar choques con el marco del Digital Services Act y con la protección de datos.
Australia es el caso más citado: su modelo traslada el peso a las plataformas, que pueden ser sancionadas si no dan “pasos razonables” para impedir cuentas de menores, y el regulador (eSafety) ha explicado públicamente que no se persigue ni a chavales ni a familias, sino a servicios que no cumplan. Francia, por su parte, ha avanzado hacia vetos y controles para menores (con un debate intenso sobre verificación y compatibilidad UE), asumiendo que, si se obliga a comprobar la edad, el roce alcanzará también a adultos y a cuentas ya existentes.
Saltándose la verificación con selfies de videojuegos
Donde sí hay un control mucho más claro es en páginas con contenido para adultos. La guía británica habla de “age assurance” altamente efectiva (no un clic), y el Gobierno y Ofcom citan métodos como documento con selfie/foto, estimación de edad facial, y verificaciones indirectas (por ejemplo, tarjetas u otros mecanismos equivalentes) siempre con el objetivo de que el contenido restringido quede detrás de una “puerta” real. Aunque los controles que llevó a cabo Reino Unidos han fallado ya que los usuarios subían capturas de personajes adultos de videojuegos para sortear este control por selfies.
El efecto colateral para adultos y el choque con el anonimato
La gran derivada para adultos es precisamente esa: si hay verificación robusta, es difícil que solo “toque” a menores. En la práctica, muchas fórmulas implican que todo el mundo tenga que pasar alguna vez por una comprobación (al crear cuenta, al recuperar una cuenta, o periódicamente), porque la plataforma no puede “ver” quién es menor sin pedir pruebas. Eso puede traducirse en más fricción de acceso, menos anonimato efectivo y una nueva superficie de riesgo (filtraciones, suplantaciones) si el diseño no separa bien identidad y edad; por eso los esquemas de “doble anonimato” y terceros verificadores están ganando peso en el debate europeo.
Una prohibición a los 16 años, si llega a ley, empujaría a España a una decisión práctica: o se apuesta por verificación “ligera y privada” que minimice datos, o se normaliza un internet “con DNI” y fuera anonimato, con consecuencias inevitables para adultos y para la arquitectura de acceso en apps, tiendas y servicios.















