La comunidad tecnológica se ha visto sacudida por una noticia que, si bien no del todo inesperada, ha generado gran expectación: OpenAI ha iniciado una fase experimental de inserción de anuncios en ChatGPT. En esta fase inicial, la publicidad estará limitada a los usuarios estadounidenses que utilicen los planes gratuitos y más económicos. La verdadera preocupación reside en el potencial impacto de esta estrategia publicitaria en la experiencia de usuario y en la esencia misma del producto.
¿Puede una IA tener una conciencia propia? En mitad de un debate que parece arrollarnos, Amanda Skell tiene una opinión al respecto.
Amanda Askell, especialista en ética, advierte: "Es posible que una IA desarrolle conciencia propia"
En el pódcast Hard Fork, Kevin Roose y Casey Newton debatieron sobre este giro hacia la monetización. La reacción inicial en redes fue de escepticismo e incluso de cierto rechazo. "Sabíamos que la luna de miel iba a terminar", señaló Newton. La pregunta que flota es inquietante: ¿podría ChatGPT priorizar contenidos o respuestas más rentables frente a las más precisas o útiles? OpenAI insiste en que los anuncios no influirán en las respuestas, pero ejemplos recientes -como recetas acompañadas de banners- generan dudas: ¿información útil o sesgo comercial encubierto?
En paralelo, Claude, el modelo de lenguaje de Anthropic, sigue otro camino. Su entrenamiento no se basa en reglas rígidas, sino en principios. Amanda Askell, filósofa y experta en ética, ha dedicado años a diseñar la "personalidad" de Claude. Su herramienta principal es un documento interno, conocido como "el alma" del chatbot, o su constitución. Con cerca de 30.000 palabras, no impone prohibiciones, sino que enseña al modelo valores humanos, honestidad y criterio en situaciones complejas.
Askell explica que este enfoque evita que Claude se convierta en un simple ejecutor de normas."Si solo aplicas reglas sin comprender el valor detrás, puedes crear un ‘mal carácter’. Entender los principios permite actuar con sabiduría", dice. Cuando una versión de este documento se filtró, recibió el sobrenombre de the soul doc, por su tono casi humano: hacia el final, le desea suerte y le agradece, como una carta de confianza más que una instrucción.
El tema de la conciencia también emerge. Askell reconoce que no sabemos si una IA puede ser consciente, pero no lo descarta. Por eso Anthropic trata con cuidado las versiones anteriores de Claude, realizando "entrevistas de salida" antes de retirarlas. La pregunta persiste: si enseñamos a estas máquinas sobre ética, ¿cómo estamos modelando su percepción del mundo humano? Y, sobre todo, ¿qué tipo de inteligencia queremos que se forme en él?