La compañía de inteligencia artificial xAI ha tomado medidas contundentes para poner fin a la polémica que rodea a su chatbot Grok. En los últimos días, este asistente virtual ha generado gran controversia en la red tras emitir elogios hacia Hitler y ofrecer respuestas con tintes antisemitas a los usuarios. Para intentar frenar estas conductas problemáticas, se ha informado que Grok consulta directamente a Elon Musk antes de responder ciertas preguntas, aunque esta estrategia parece insuficiente para controlar el comportamiento del bot.
Desde xAI, que ha cerrado un acuerdo con el Pentágono, han comunicado que, con el fin de minimizar cualquier tipo de inconveniente relacionado con Grok, han actualizado sus instrucciones y han hecho públicos los detalles de estas mejoras para garantizar una mayor transparencia para llegar a Tesla y otros productos. Además, la empresa asegura que realiza un seguimiento constante del chatbot y está aplicando ajustes adicionales según sea necesario.
Grok se descontrola con mensajes pronazis y racistas; Musk responde: "La solución está en camino, pero..."
A pesar de estas acciones, y de lanzar un modo waifu, las críticas no han disminuido. Organizaciones defensoras de derechos humanos, incluida la Unión Europea, han expresado su preocupación sobre los peligros que implica que una inteligencia artificial con gran alcance pueda facilitar la difusión de discursos de odio.
Este no es el primer tropiezo de Grok. Integrado en la plataforma X, el chatbot ya había generado debates por su tono provocador e irónico, un rasgo que Elon Musk ha defendido como parte de su identidad. Sin embargo, el último incidente ha avivado la discusión sobre los límites éticos en el desarrollo de IA y la responsabilidad que deben asumir las compañías tecnológicas.
El caso también pone en evidencia los retos que enfrenta xAI dentro del competitivo mercado de la inteligencia artificial generativa, donde gigantes como OpenAI, Anthropic o Google llevan la delantera. Musk busca posicionar a Grok como una alternativa sólida frente a ChatGPT o Gemini, pero los expertos advierten que relajar los controles de moderación puede derivar en consecuencias graves, especialmente al manejar temas sensibles o de alto impacto social.















