Hasta ahora, Claude Code era sobre todo un “compañero” para programar. Con Cowork, Anthropic intenta algo más ambicioso: convertir a Claude en un agente capaz de meterse en una carpeta de tu ordenador, entender qué hay ahí y hacer trabajo de oficina de verdad (ordenar, resumir, transformar, extraer, generar). La idea es tentadora porque ataca un dolor cotidiano: no falta IA para escribir textos, lo que falta es alguien que haga el trabajo sucio con tus documentos sin que tengas que ir app por app.
La clave está en el “permiso”: Cowork no es una IA mirando desde fuera, sino una que le das acceso a una carpeta concreta y, a partir de ahí, puede leer y manipular esos ficheros según tus instrucciones en lenguaje natural. Anthropic lo vende literalmente como “Claude Code para el resto de tu trabajo”, y de momento lo enmarca como research preview dentro de Claude Desktop en macOS.
Qué promete en el día a día
En la práctica, el salto se entiende con ejemplos muy mundanos: esa carpeta llena de recibos en foto que nunca organizas, una nube de audios que deberían ser acta, una montaña de PDFs que te piden “un resumen ejecutivo”, o un lote de vídeos que necesitas convertir y etiquetar. Cowork está pensado para ejecutar tareas de varios pasos, haciendo preguntas cuando le falte contexto y devolviendo resultados ya empaquetados (archivos ordenados, informes, conversiones) sin que tú tengas que estar microgestionando cada clic. Siendo así notablemente más autónomo que ChatGPT.
¿Y por qué Anthropic insiste tanto en la arquitectura? Porque aquí hay una frontera delicada: una IA con acceso a tus archivos. La promesa es que Cowork opera aislado en un entorno tipo sandbox/VM y solo puede trabajar con lo que tú montas dentro de ese espacio, precisamente para reducir riesgos si algo sale mal. Simon Willison, que lo probó desde fuera del marketing, describe ese enfoque como un contenedor/VM que ejecuta un Linux preparado para la tarea.
Seguridad y el riesgo de “agentes”
Aun así, el “pero” es real y no es postureo: cuando un sistema lee contenido (documentos, notas, nombres de archivos), se abre la puerta a problemas como la inyección de instrucciones (prompt injection) escondidas en textos o ficheros, que intenten empujar al agente a hacer algo que no debería. Anthropic lo reconoce como parte del reto de cualquier agente que actúa, no solo que responde, y Willison lo pone negro sobre blanco: si el agente puede ejecutar acciones sobre tus cosas, hay que tratar la seguridad como un requisito de producto, no como un pie de página.
También es un lanzamiento “con guantes”: por ahora, Cowork aparece limitado a usuarios de Claude Max en macOS, y no en un plan masivo. Willison señala los dos escalones de precio que se manejan para Max (100 y 200 dólares/mes), lo que encaja con el mensaje implícito: esto no es una función decorativa, es un experimento potente que Anthropic prefiere controlar antes de abrirlo a todo el mundo.
Introducing Cowork: Claude Code for the rest of your work.
— Claude (@claudeai) January 12, 2026
Cowork lets you complete non-technical tasks much like how developers use Claude Code. pic.twitter.com/EqckycvFH3
La apuesta: IA que ejecuta
El subtexto, si miras la dirección de la industria, es claro: el futuro que compiten por vender no es “la IA que redacta”, sino la IA que ejecuta. Cowork apunta a ese punto intermedio entre el asistente y el “robot-secretario”: útil si lo usas para ordenar tu caos digital, peligroso si te olvidas de que sigue siendo un sistema probabilístico que conviene cuidar con permisos mínimos, carpetas acotadas y expectativas realistas. Y ahí está la pregunta que lo decide todo: no si puede hacerlo, sino si te fiarías de dejarle hacerlo con tus archivos.















