#Santander39, primeros de septiembre, el verano no remite, pero el nuevo curso tecnológico da el pistoletazo de salida. En el encuentro de Ametic, tuvimos la oportunidad de entrevistar a Manuel García del Valle, CEO de Inetum. Un momento muy propicio para poder pulsar con el directivo sus sensaciones sobre el mercado y ver cómo están implantando la IA en su negocio.
Índice de temas
¿Cómo esperas el año?
El año pasado ya comenté que, después de un gran 2024, afrontábamos 2025 con cierta incertidumbre. Por eso moderé mis expectativas de crecimiento en torno al 8-9%. Sin embargo, la primera mitad del año ha sido muy positiva: hemos crecido un 13% en facturación, lo que demuestra que seguimos a doble dígito. Es cierto que, si uno mira las noticias y la situación geopolítica, vuelve esa cautela y la necesidad de contener expectativas. Pero lo bueno es que el negocio sigue fluyendo y, aunque hay incertidumbre, la actividad y la demanda continúan a buen ritmo.
Vemos áreas donde los clientes están demorando la toma de decisiones en torno a la inteligencia artificial. ¿Cuál es el impacto real?
El MIT señalaba que hasta un 95% de los proyectos de IA fracasan. Pese a ello, los analistas siguen lanzando proyecciones muy optimistas sobre el impacto económico. ¿Qué ocurre? Que un cliente que firma un contrato de cinco o siete años se enfrenta a un dilema: ¿se fía de los datos negativos de esos informes o de las expectativas positivas de los analistas? Y en esa tensión, lo que nos piden es eficiencia, tangibilidad, pruebas reales de que la tecnología funciona. Eso hace que los procesos de decisión se alarguen, porque nadie quiere dar un paso equivocado en un entorno de tanta visibilidad mediática y con tanta presión de resultados.

¿No hay excesiva euforia por parte de los proveedores y más reticencia en los clientes?
Hay que distinguir entre proveedores de infraestructuras y soluciones, y quienes como nosotros ofrecemos servicios. Desde Inetum, euforia ninguna. Somos plenamente conscientes del potencial de la IA, trabajamos activamente en él y en cómo traducirlo en soluciones concretas para nuestros clientes. Pero también vemos riesgos, y nos preocupa cómo puede afectar a nuestro activo más importante: el talento. Vemos grandes consultoras sustituyendo juniors por IA y grandes clientes diciendo que, en pocos años, el código lo generará en su mayoría la inteligencia artificial. Nosotros, como compañía intensiva en talento, vivimos en ese equilibrio: aprovechar el potencial de negocio de la IA, pero a la vez proteger y desarrollar la carrera profesional de nuestros equipos. Soy optimista: estoy convencido de que, en el balance final, se generará más empleo del que se destruya. La clave será cómo gestionemos esa transición.
¿Cómo encaja la IA en vuestros profesionales? ¿Genera ansiedad o miedos?
Hemos visto de todo: ansiedad, miedo, dudas, pero también entusiasmo y oportunidades. Lo importante es cómo se aborda. Nosotros decidimos empezar por el autodescubrimiento: les dimos herramientas y les dijimos “experimentad, probad, equivocaos si hace falta”. Eso genera confianza porque cada profesional ve mejoras en su eficiencia personal y pierde el miedo a lo desconocido. Además, lanzamos un programa interno, Do You Speak GenAI, para formar a nuestros equipos en el uso de estas herramientas. Primero se les dejó explorar, y después, cuando integramos la IA en los frameworks y herramientas habituales, ya lo veían como algo natural. Claro que hemos encontrado resistencia, pero también “champions” que lo han abrazado con entusiasmo y han mejorado drásticamente su productividad. Al final, si la empresa te mide por objetivos y no por horas, que un profesional logre sus tareas en cinco horas en vez de siete significa que trabaja un 30% mejor y vive mejor. Y eso también se traslada al cliente.
En un mercado con tantos modelos —ChatGPT, Grok, Anthropic, etc.— ¿cómo os posicionáis?
Nuestro enfoque es muy pragmático: hay que conocer y experimentar con todos. No nos casamos con un único modelo porque cada cliente tiene necesidades distintas. Tras muchas pruebas, hemos creado un broker o capa de orquestación que decide qué modelo usar según la tarea. Por ejemplo: usamos modelos on-premise para garantizar privacidad, modelos más eficientes en coste para determinadas funciones y modelos masivos cuando hace falta procesamiento intensivo. De este modo, integramos la práctica totalidad de modelos del mercado y los usamos como piezas modulares, según convenga. Como consultores, debemos adaptarnos al contexto de cada cliente y darle la solución más amplia y flexible posible.
¿Y en cuanto a seguridad y Shadow AI?
Es uno de los riesgos más serios. La gente tiende a usar licencias personales o herramientas no controladas, y eso abre fugas de información y brechas de seguridad. Nuestra política es clara: todas las herramientas deben ser corporativas, con licencias verificadas y en entornos privatizados. En tareas administrativas y de soporte apostamos por Microsoft, porque nos garantiza seguridad y homogeneidad. Pero en desarrollo damos más amplitud, siempre dentro de un marco gobernado. Para los clientes, nuestra recomendación es la misma: gobernanza clara, estrategia definida y control de costes. Mucha gente no se da cuenta de que, sin control, el consumo de tokens puede disparar la factura en miles de euros.
Gartner habla del “desierto de expectativas” en IA. ¿Cómo lo gestionáis?
Es normal: venimos del “hype” y luego llega la frustración porque muchos pilotos se han hecho mal. Algunos se lanzaron sin datos adecuados, otros sin integrar negocio y tecnología, o sin gestionar el cambio en las personas. Eso genera expectativas incumplidas. La clave está en orquestar: cuando alimentas al agente con los datos correctos, lo alineas con objetivos de negocio y cuidas el factor humano, los resultados sí son espectaculares. La frustración aparece solo cuando esas piezas no se ensamblan bien.
¿Qué opinas del futuro de los agentes IA y los “superagentes”?
He aprendido a no dar nada por ciencia ficción. La tecnología avanza a una velocidad enorme y los elementos ya están ahí. Pero no basta con que sea técnicamente posible. Si no se integra con negocio y con el factor humano, se pueden tomar decisiones que sobre el papel parecen brillantes, pero son un desastre empresarial. Un ejemplo es Duolingo: despidió a la mayoría de sus traductores para sustituirlos por IA. La tecnología funcionaba, sí, pero como estrategia de negocio fue deficiente. Creo que el futuro estará en agentes para procesos repetitivos o de soporte, pero las interacciones críticas con clientes o situaciones sensibles deben seguir en manos humanas, apoyadas —que no sustituidas— por la IA.
¿Algún ejemplo de uso responsable?
Un caso que nos enorgullece es la oficina virtual de los Mossos d’Esquadra. Los agentes, cuya función principal es proteger al ciudadano, dedicaban mucho tiempo a tareas administrativas y burocráticas. Con agentes de IA entrenados en su conocimiento y forma de relacionarse, se automatizan trámites y se libera tiempo para que el agente humano dedique el 100% de su atención a lo que realmente importa: la seguridad y la protección ciudadana. Esa es la visión: la tecnología complementa y amplifica la labor humana, no la reemplaza.








