El Ministerio de Juventud e Infancia ha pedido formalmente a la Fiscalía General del Estado que investigue Grok, el asistente de IA integrado en X (Twitter), propiedad de Elon Musk, tras la publicación de informaciones que apuntan a la generación y difusión de contenido de violencia sexual contra menores. La ministra Sira Rego ha solicitado un análisis “urgente” y medidas para evitar que se repitan hechos que el departamento considera de máxima gravedad por su impacto directo en los derechos de la infancia.
El planteamiento del Gobierno parte de una idea muy concreta: si una herramienta puede producir ese tipo de material a petición de usuarios, el problema deja de ser una “mala práctica” aislada y pasa a ser un asunto con encaje penal y obligaciones de diligencia. En la documentación y las declaraciones recogidas estos días, el ministerio sitúa el foco en delitos como los previstos en el artículo 189 del Código Penal y en los relativos a la integridad moral, precisamente porque la barrera que se vulnera no es solo tecnológica, sino de protección básica, según informa Europa Press.
Del aviso político a la investigación
Para reforzar el argumento, Rego se apoya en un precedente reciente de violencia digital con IA: el caso de Badajoz, donde un juzgado de menores consideró responsables a varios menores por manipular y difundir imágenes de otras menores, tipificando los hechos como delitos vinculados a pornografía infantil y contra la integridad moral. No es una comparación retórica: funciona como aviso de que, cuando hay menores en el centro, la “manipulación” no se trata como travesura ni como meme, sino como daño con consecuencias jurídicas.
El movimiento del Ministerio también encaja con su agenda legislativa: la Ley Orgánica para la protección de las personas menores de edad en los entornos digitales está en tramitación parlamentaria y pretende ampliar el paraguas legal frente a nuevas vulneraciones ligadas a plataformas, datos y herramientas automatizadas. En los documentos que circulan en el Congreso se ve una intención clara de actualizar el marco para que la protección no dependa de que “la tecnología vaya por delante”, sino de que haya mecanismos concretos para actuar cuando se cruza la línea.
Europa entra en la ecuación
Además, España no está sola en el enfoque de “llevarlo a Fiscalía”. A principios de enero, ministros franceses también trasladaron a la justicia y a su regulador audiovisual preocupaciones sobre contenido sexual generado por Grok, invocando incluso el encaje con el Digital Services Act europeo. Ese contexto europeo importa porque sugiere que el debate ya no va solo de moderación interna, sino de responsabilidad de plataforma y de cómo se auditan fallos de seguridad cuando el daño potencial afecta a menores.
Ahora la pelota queda en el tejado del Ministerio Público: si abre diligencias, qué información requiere a X y a los responsables del sistema, y qué medidas considera proporcionadas para frenar la circulación de material ilícito.















