La mañana del 3 de febrero, la investigación francesa sobre X dio un salto de escala: la Fiscalía de París ordenó registros en las oficinas de la compañía en Francia y lo anunció, paradójicamente, en la propia plataforma antes de comunicar que dejará de usarla en sus canales oficiales. La operación la conduce la sección de ciberdelincuencia del parquet, con apoyo de Europol, dentro de unas diligencias abiertas en enero de 2025 por la sospecha de que el sistema de recomendaciones pudo "empujar" contenidos de forma que favoreciera una posible injerencia extranjera.
El movimiento judicial no se queda en el plano técnico. Elon Musk ha sido convocado a una "audición libre" (declaración voluntaria, sin obligación de comparecer físicamente) para el 20 de abril, y también la ex consejera delegada Linda Yaccarino, además de empleados citados como testigos en una franja entre el 20 y el 24. El gesto no es habitual en un caso de "simple moderación": el foco está en la arquitectura de visibilidad —el algoritmo— y en si su diseño y ajustes pudieron tener un efecto político o de seguridad.
El algoritmo como pieza judicial
La chispa inicial, según han recogido medios franceses y españoles, llegó por denuncias que hablaban de pérdida de diversidad en el contenido mostrado y de criterios opacos tras cambios en la plataforma desde la compra de 2022. En el derecho digital europeo, ese tipo de sospechas se cruza con un punto delicado: cuando una plataforma es suficientemente grande, sus decisiones algorítmicas dejan de ser "producto" y pasan a considerarse parte del entorno informativo, con impactos medibles sobre debate público, desinformación y campañas coordinadas.
En paralelo, la investigación se ha ensanchado por la derivada de Grok, la herramienta de IA integrada en la red social. La Fiscalía menciona denuncias por generación y difusión de material sexual explícito —incluidas representaciones de menores— y contenido negacionista; es decir, ya no se discute solo qué recomienda X, sino qué permite producir y circular cuando el generador de imágenes está "en casa". En esa línea, un informe de AI Forensics analizó decenas de miles de prompts e imágenes y describió una producción masiva de sexualización con guardarraíles débiles (y una actualización posterior detectó ajustes que redujeron parte de ese volumen).
Grok, reguladores y el riesgo de la mezcla
La presión, además, ya no es solo francesa: esta misma semana, reguladores británicos abrieron pesquisas formales en torno a Grok y su relación con tratamiento de datos y generación de contenido dañino; y una investigación periodística de Reuters ha documentado que, incluso tras nuevas restricciones anunciadas por la empresa, el sistema seguía respondiendo a peticiones de imágenes sexualizadas en escenarios donde el consentimiento se niega explícitamente. En otras palabras: el problema no es únicamente "quién ve qué", sino la combinación explosiva entre recomendación, viralidad y generación automatizada.
Lo que está en juego en París es un precedente: si la justicia consigue acceder a información verificable sobre el funcionamiento interno del recomendador —y si de ahí se derivan responsabilidades— el caso puede convertirse en un manual práctico de cómo se aterriza la rendición de cuentas algorítmica en Europa.