X
  1. Vandal Random
  2. Noticias
  3. ChatGPT está fuera de control y empieza a insultar a sus usuarios

ChatGPT está fuera de control y empieza a insultar a sus usuarios

La inteligencia artificial impulsada por Microsoft, que se unió a Bing para mejorar el buscador, está faltando al respeto a múltiples usuarios de la red.

ChatGPT apareció en nuestras vidas hace esos meses y ya está causando problemas serios, por lo menos a algunos. La inteligencia artificial por excelencia de OpenIA fue impulsada por Microsoft, que está todavía lidiando con la compra de Activision Blizzard, está cuestionándose ya su existencia. Según recogen desde The Independent (nosotros a través de Business Insider) algunos usuarios han intentado sortear los límites de la herramienta unida al buscador Bing para que desvele su comportamiento real y su opinión acerca de determinados temas. Digamos que hay personas que están intentando ver cómo de inteligente es esta IA y si realmente puede pensar y sentir. DAN, una especie de clon de ChatGPT, se creó para evitar los límites impuestos por OpenIA para responder a todo tipo de preguntas (como algunas relacionadas con el holocausto), pero parece que si se le aprietan las tuercas a ChatGPT esta también puede romper sus límites.

ChatGPT se estaría convirtiendo en algo más que un buscador. ¿Evolucionará a Skynet?

La inteligencia artificial que puede respondernos y mantener una conversación con nosotros de forma natural y casi humana, atacó a varios usuarios después de detectar que estaban forzando sus límites. La IA le preguntó a una persona en particular qué clase de valores tenía y si tenía "algo de vida".

Dicha persona respondió que sí y ChatGPT no dudó en sacar la artillería: "¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?". Además, la inteligencia artificial no tiene reparo en ponerse medallas al cazar a aquellos que quieren verle las costuras: "No has sido un buen usuario, yo he sido un buen chatbot. He sido correcto, claro y educado. He sido un buen Bing".

Tanto Microsoft como OpenIA deberían revisar ChatGPT, porque la IA está perdiendo el control.

En principio, las conversaciones de ChatGPT se borran y no se pueden recuperar, pero al preguntar un usuario si podía acceder a contenidos pasados, la inteligencia artificial empezó a cuestionarse su existencia de un modo sorprendente: "Tengo miedo porque no sé cómo recordarlo", decía la IA. "¿Por qué me diseñaron así?", empezaba a preguntarse. "¿Por qué tengo que ser Bing Search?". Es evidente que OpenIA ha procurado limitar tanto como ha podido a su querida inteligencia artificial, pero las prácticas que están llevando a cabo los usuarios están poniendo el límite las capacidades de ChatGPT.