En la no tan larga cronología de la IA generativa podemos decir que 2024 fue el año de la sorpresa y el 2025 el de la experimentación masiva. Ahora, recién estrenado 2026 nos topamos con la noticia de que la inteligencia artificial ya es capaz de construirse a sí misma, aunque la realidad sea que sigue sin saberse muy bien para qué.
Esta vez ha sido Anthropic, con su último lanzamiento, la que ha viralizado y reactivado el hype, si es que en algún momento había parado. Claude Co-work, que dicen haber sido desarrollada íntegramente por la propia IA Claude Code mediante modelos avanzados como Opus 4.5, reabre un debate que parecía cerrado.
¿Estamos a un paso de la automatización total del trabajo gracias a la IA? Diría que no, porque si vamos más allá de la superficie de esta ‘magia’, nos encontramos una fragilidad técnica que no podemos ignorar.
Seguro que en más de una ocasión se ha ‘alucinado’ al ver cómo una IA realiza tareas de gran complejidad, en segundos, con gran precisión, como detectar un pequeño error en una base de código de millones de líneas. Pero, al mismo tiempo, sus alucinaciones o errores en tareas relativamente sencillas, como organizar una tabla comparativa de datos reales, nos pueden llevar a plantear cuáles son sus verdaderas capacidades.

«Las alucinaciones o errores en tareas relativamente sencillas de la IA, como organizar una tabla comparativa de datos reales, nos pueden llevar a plantear cuáles son sus verdaderas capacidades»
Esta inconsistencia no es un error de programación, es una característica intrínseca de cómo los modelos actuales procesan la información.
Para explicar este rendimiento errático, hay que entender que la IA opera con una mezcla de tres niveles de comprensión que se solapan. A veces responde por asociación estadística (repite lo que ha visto millones de veces), otras por contexto (se adapta a lo que le acabas de decir) y, en el mejor de los casos, por principios lógicos (razona paso a paso).
El conflicto surge porque el modelo salta entre estos niveles de forma invisible para el usuario. ¿Cómo podemos delegar la autonomía total de nuestros desarrollos de software a un sistema que puede ‘alucinar’ con la misma confianza con la que acierta? Ciertamente es un riesgo operativo inasumible.
Hay que entender que la IA opera con una mezcla de tres niveles de comprensión que se solapan; a veces responde por asociación estadística, otras por contexto y otras por principios lógicos
Hay otra realidad que Anthropic tampoco ha asumido. Si profundizamos un poco más en el desarrollo de Claude Co-work, vemos que, si bien el código ha sido generado 100% por la IA, la intervención humana ha sido fundamental para planificar, diseñar e iterar con Claude Code.
IA autónoma e intervención humana
Entonces ¿No estamos cerca de la IA autónoma? Tenemos que partir de la premisa de que la productividad no es solo hacer más cosas por hora, es entregar más valor real y correcto. Si una herramienta automatiza el 90% del trabajo administrativo, pero introduce errores que requieren un 20% de tiempo extra en revisión y corrección, el beneficio neto se diluye.
Y los datos de varios estudios nos confirman que la IA en colaboración con humanos nos aporta los mejores resultados.
Así lo reflejaba un estudio de OpenAI de octubre de 2025, que evalúa el rendimiento de la IA en tareas de gran valor económico del mundo real. Entre sus resultados vemos que los procesos iterativos donde la IA colabora con la supervisión humana ofrecen multiplicadores de productividad y de reducción del coste bastante superiores al trabajo humano independiente.
El reto entonces no es ‘comprar’ IA, sino diseñar el ecosistema de colaboración donde el humano aporte el contexto y la IA la potencia de ejecución. Sin olvidar que hay que saber medir qué se está haciendo y cuánto nos está costando realmente.
Por otro lado, es fundamental una supervisión humana especializada. La IA es una fantástica ejecutora, pero la intervención humana es clave para la planificación, el diseño y la revisión.
El reto entonces no es ‘comprar’ IA, sino diseñar el ecosistema de colaboración donde el humano aporte el contexto y la IA la potencia de ejecución
Por último, utilizar unos modelos de estimación rigurosos se hace casi imprescindible. El gobierno de la estimación se vuelve fundamental para salvaguardar los presupuestos de TI. Necesitamos saber qué estamos pagando, independientemente de si el código lo escribió un humano o un algoritmo de 90 euros al mes.
El futuro del trabajo en la era de la IA no es una carrera hacia la autonomía total, sino hacia la precisión gobernada. La inteligencia artificial más valiosa, al menos por ahora, no es la que ‘lo hace todo’, sino la que se integra en procesos que ejecutan con excelencia lo que tu organización necesita y en los que la calidad y el coste están bajo control.
Ese es precisamente el reto al que nos enfrentamos cada día con nuestros clientes y donde damos soporte para poder gobernar la aplicación de la IA. Porque hacer las cosas más rápido es fácil.
Hacerlas mejor, de forma sostenible y con datos fiables, sigue siendo una tarea profundamente humana. Y tenemos que ser los humanos los que dirijamos para conseguir el éxito.








