eventosScrollLoad.push(function() { loadCSS("https://www.vandalimg.com/krogan/vandal_articulos.css"); });
  1. Vandal Random
  2. Noticias
  3. ChatGPT sufre 'alucinaciones' que provocan errores frecuentes

ChatGPT sufre 'alucinaciones' que provocan errores frecuentes

La herramienta de OpenAI sigue cayendo de manera inevitable en determinados fallos que hacen que muchos no confíen aún en sus capacidades.
ChatGPT sufre 'alucinaciones' que provocan errores frecuentes
·

Mientras algunas compañías dejan claro que están interesadas en crear contenido usando Inteligencia Artificial, en otros casos nos encontramos con todo lo contrario. Pero la realidad es que algunas de las noticias sobre inteligencia artificial resultan preocupantes, lo que despierta la desconfianza de los usuarios. Otros problemas son más inocuos, aunque si dices que una IA tiene "alucinaciones", de primeras pueda sonar grave.

Las "alucinaciones" de ChatGPT, el origen de muchos de sus errores

Según publica la UOC (Universidad Oberta de Catalunya), una encuesta de la OCU (Organización de Consumidores y Usuarios) llevada a cabo en España revela que un alto porcentaje de usuarios no confía en los resultados de ChatGPT. Tampoco es tan raro teniendo en mente que esta tecnología aún tiene trabajo por delante, pese a que esta herramienta de IA se ha colado entre los mejores científicos de 2023.

Composición digital que representa a ChatGPT dando respuestas

Según explica Josep Curto, profesor de Estudios de Informática, Multimedia y Telecomunicación de la UOC, ChatGPT no es ni mucho menos infalible por el propio concepto de IA generativa. Estos errores son las llamadas "alucinaciones". Se encuentran lejos de ser un peligro a corto plazo, pero sí que pueden inducir a la desconfianza de los usuarios.

Las alucinaciones pueden incluir incluso errores en datos fácilmente verificables, o directamente inventarse las respuestas. También se incluyen problemas en los que ChatGPT daría respuestas con un sesgo humano, no centrándose en los datos objetivos sino en lo que ha ido "aprendiendo". Curto señala que los errores aumentan si no se usa la herramienta en inglés, la lengua madre del chatbot.

En palabras de Curto, es muy importante "tomar las respuestas de ChatGPT u otros sistemas como una fuente adicional que puede proporcionar información incorrecta", y recomienda intentar verificar siempre la respuesta para asegurarnos de los resultados.

César Rebolledo
Redactor de guías
Comentarios: 0

En forosComentar en nuestros foros

Más sobre Tecnología

RANDOM
Flecha subir