En un momento en el que la digitalización avanza a un ritmo imparable, las organizaciones se enfrentan al reto de diseñar estrategias que les permitan aprovechar todo el potencial del cloud y, en especial, del multicloud. La combinación de diferentes proveedores y plataformas se presenta no solo como una opción, sino como una posible necesidad para responder con agilidad y seguridad a las demandas del negocio.
En este contexto, la inteligencia artificial (IA) se consolida como un motor clave de transformación. Su impacto en la automatización, la gestión del dato, el almacenamiento e incluso en el consumo energético de los centros de datos obliga a repensar las infraestructuras y modelos de gestión. Al mismo tiempo, la expansión de los entornos multicloud y de los ecosistemas híbridos plantea interrogantes sobre la seguridad, el equilibrio entre eficiencia y sostenibilidad, y las mejores prácticas para sacar partido de estas arquitecturas complejas.
Este encuentro de Computing aborda las claves y beneficios de gestionar entornos híbridos, el papel de la IA en la nube y cómo diseñar estrategias multicloud eficaces, todo ello en un entorno en el que la tecnología ya no es solo soporte, sino un factor decisivo para la competitividad.
Índice de temas
Astrazeneca, onpremise no ayuda a la innovación
En opinión de Antonio Velasco, CIO de Astrazeneca, la IA ha cambiado el panorama multicloud. “Antes teníamos unas cargas que lanzábamos a las nubes, o consumíamos on-premises, pero ahora tenemos la nueva hornada de inteligencia artificial, que es algo distinto de la inteligencia artificial que teníamos hasta el 2020”.

Estamos abocados a un proceso dinámico, las capacidades de cada uno de los terminales, para ver qué es lo que hacen mejor, quién hace mejor ese entrenamiento, quién hace mejor la inferencia, quién puede soportar mejor esas cargas de genómica que son tan importantes para nosotros
ANTONIO VELASCO, ASTRAZENECA
Velasco señaló que estas nuevas técnicas de IA suponen “cargas de computación, de almacenamiento tremendas para el entrenamiento, y capacidades distintas para la inferencia”. Esto obliga a AstraZeneca a revisar su modelo: “Estamos abocados a un proceso dinámico, las capacidades de cada uno de los terminales, para ver qué es lo que hacen mejor, quién hace mejor ese entrenamiento, quién hace mejor la inferencia, quién puede soportar mejor esas cargas de genómica que son tan importantes para nosotros, quién puede implementar mejor esas herramientas que existen en el lado de proteínas, en el lado de moléculas”.
Sobre la infraestructura on-premise, indicó: “Esto es útil para la continuidad de negocio”. Sin embargo, matizó: “el on premise no favorece la innovación, para ello recurrimos a las nubes”.
Arcelomittal: centrado en un modelo monocloud
Al hilo del on premise, intervino Juan Miguel Gil, IT Manager Holdings Spain de Arcelomittal. “El tema on-premise, en un principio, no lo estamos contemplando para nuevas instalaciones e incluso las que tenemos también siempre se evalúa el tema de cloud. Por ahora estamos más o menos concentrados en lo que es una única cloud. Todavía no estamos explorando lo que es ese entorno multicloud; estamos explorándolo, pero no lo tenemos puesto en marcha”.

Por ahora estamos más o menos concentrados en lo que es una única cloud. Todavía no estamos explorando lo que es ese entorno multicloud; estamos explorándolo, pero no lo tenemos puesto en marcha
JUAN MIGUEL GIL, ARCELOMITTAL
Añadió que los casos de uso actuales se adaptan a su filosofía de nube:
“Por ahora los casos de uso que hemos encontrado encajan con el modelo de cloud que hemos tenido. Entonces, a ver cuáles son, según vuestras experiencias, cuáles podrían ser esa navaja suiza cuando necesito yo el destornillador de estrella”.
Ford, cambio de modelo hacia la colaboración
Precisamente, Enrique Ferrer, FoS, FoP & FoP Site IT Manager de Ford, aprovechó esta analogía para su aportación: “En una empresa que hace de todo, somos la navaja suiza desde que diseñamos el coche hasta que lo vendemos. Entonces la IA, el cloud, está implementado de una manera completamente distinta dependiendo de lo que estamos hablando: la gente de I+D, de fabricación, de comercialización, marketing, ventas, concesionarios, atención al cliente…”.
Según Enrique Ferrer, la compañía partía de un modelo endogámico: “Nos lo hacíamos todo, no queríamos saber nada de colaborar con terceros. Antes de la pandemia, cloud computing era un concepto proscrito”.

No creo que nunca nuestro core, que es fabricación y diseño, salga a una nube pública. Estará todo dentro, por latencia, por protecciones, por cuál es nuestro ADN
ENRIQUE FERRER, FORD
Sin embargo, Ford se tuvo que abrir a la evidencia: “Ahora hemos cambiado, vamos a un modelo completamente distinto. Nos hemos casado con Google, no es ningún secreto corporativo, y estamos moviéndonos a un modelo as a service, pero muy poquito a poco”.
El portavoz aseguró que el core de la empresa seguirá protegido: “No creo que nunca nuestro core, que es fabricación y diseño, salga a una nube pública. Estará todo dentro, por latencia, por protecciones, por cuál es nuestro ADN. La IA la estamos intentando implementar con mucho cuidado, porque nuestra principal preocupación es la propiedad intelectual”.
Y añadió con respecto al uso de modelos de IA: “Sí tenemos entornos certificados como Gemini, como Meta, para poder trabajar sin meter datos secretos o confidenciales con esas IA, que de alguna manera nuestros expertos en ciberseguridad han certificado como seguras. Estamos intentando sacar lo mejor, teniendo siempre en cuenta la privacidad y el cuidado de tratar nuestros datos core con todo el cariño y cuidado del mundo”.
Nippon Gases, hacia una capa de virtualización
Por su lado, Ángel Montero, Head of Data Integration Europe en Nippon Gases, explicó: “Yo llevo la parte de integración de datos y, para nosotros, el cloud está abriendo un nuevo paradigma: poder desarrollar internamente, en un entorno protegido, soluciones que antes se negociaban directamente con proveedores externos, pagando por el producto”.
Esta transición al cloud ha supuesto un salto cualitativo: “Gracias a la implantación de una nueva plataforma de datos dentro de la compañía —en nuestro caso, con Microsoft—, estamos iniciando una nueva etapa en la que trabajamos con soluciones desarrolladas a medida y con productos seguros, alojados internamente.”

Lo que realmente nos está aportando valor ahora es no pensar en trasladar todas las cargas on-prem directamente al cloud o al data lake, sino construir una capa de virtualización que acelere el acceso al dato, permitiéndonos consumir información tanto de las nuevas soluciones como de los sistemas existentes
ÁNGEL MONTERO, NIPPON GASES
Montero destacó también el cambio de percepción que ha experimentado el área de datos dentro del negocio: “Ahora el negocio empieza a vernos como una pieza clave. Antes, con las soluciones on-premise, seguíamos con lo de siempre. Lo que realmente nos está aportando valor ahora es no pensar en trasladar todas las cargas on-prem directamente al cloud o al data lake, sino construir una capa de virtualización que acelere el acceso al dato, permitiéndonos consumir información tanto de las nuevas soluciones como de los sistemas existentes.”
Finalmente, subrayó la importancia de gestionar la convivencia con los sistemas legacy. “Tenemos sistemas muy antiguos que siguen activos. Es fundamental asegurar que varias compañías del mismo grupo, con sistemas distintos, puedan seguir operando mientras se despliegan las nuevas soluciones. Hay que encontrar un punto medio, avanzar todo lo posible en un entorno seguro, y ahí el cloud está siendo clave”.
Loreto Mutua, a falta de una estrategia cloud definida
Raúl Blanco, IT Manager de Loreto Mutua, explicó que la organización mantiene toda su infraestructura en local, sin uso operativo de soluciones en la nube, y aunque cuentan con muchas automatizaciones, aún no aplican inteligencia artificial de forma significativa: “Tenemos muchas automatizaciones, pero nada que podamos decir claramente que es inteligencia artificial, que nos haga ir más rápido o mejor gracias a eso”.

Tenemos muchas automatizaciones, pero nada que podamos decir claramente que es inteligencia artificial, que nos haga ir más rápido o mejor gracias a eso
RAÚL BLANCO, LORETO MUTUA
Reconoció que su participación en la mesa tenía un enfoque exploratorio: “He venido precisamente a eso, a coger ideas”. Describió a Loreto Mutua como una empresa pequeña, con pocos empleados y una operativa tradicional basada en un back office sobre AS/400. Aunque existen algunas pruebas de concepto en cloud, no hay todavía una estrategia definida: “Es algo que quiero impulsar desde que llegué. Estoy empujando para conseguir que, aunque no sea inteligencia artificial, al menos podamos tener flujos automáticos que funcionen por sí solos”.
Reflexionó sobre los distintos ritmos de adopción tecnológica en el sector: “Hay organizaciones que quieren ser pioneras y otras que esperan a que la ola les llegue. En nuestro caso, aún no hemos tomado una decisión firme, pero llegará”.
Mapfre apuesta por un entorno multicloud
Alberto Pérez, Arquitecto de Seguridad Cloud en MAPFRE, enfatizó cómo desde el área de ciberseguridad trabajan estrechamente con los equipos de cloud, sistemas y datos, en un entorno plenamente multicloud: “Estamos en Azure, en AWS, en GCP… incluso llegamos a tener presencia en Alibaba por un proyecto en China. Hemos pasado por todas las nubes que os podáis imaginar”.
Aunque reconoció que algunas son preferentes según el tipo de carga de trabajo, indicó que el negocio requiere operar en múltiples entornos: “Tenemos muchas cargas moviéndose de on-premise a la nube, proyectos en marcha, desarrollo de nuevos productos y funcionalidades”.

Estamos bastante regulados, y cuando hablamos de riesgos de terceros, la gestión pasa por la cadena contractual. Si trabajas con AWS o Azure, por ejemplo, debes saber qué terceros intervienen y que estén sujetos a las mismas condiciones que tú has firmado
ALBERTO PÉREZ, MAPFRE
En cuanto al uso de inteligencia artificial, MAPFRE cuenta con casos de uso desplegados en sus nubes. Desde el punto de vista de seguridad, Pérez aclaró que la inteligencia artificial se trata como una herramienta más: “Puede ser un chatbot o un modelo de machine learning para construir un nuevo producto desde nuestro data lake. Lo importante es que cualquier iniciativa pasa por nuestros procesos y controles”.
Añadió que, frente al uso de IA, no solo hay que aplicar medidas técnicas, sino también abordar aspectos contractuales y regulatorios: “Estamos bastante regulados, y cuando hablamos de riesgos de terceros, la gestión pasa por la cadena contractual. Si trabajas con AWS o Azure, por ejemplo, debes saber qué terceros intervienen y que estén sujetos a las mismas condiciones que tú has firmado”.
Nationale Nederlanden, el reto de gestionar varias nubes
Roberto Gutiérrez, Cloud Services Manager, afirmó con convicción que la inteligencia artificial “ha llegado para quedarse”. Su adopción debe hacerse con cautela, por los riesgos que implica, pero consideró que “vale la pena”. Explicó que en su organización, una aseguradora de ámbito nacional, trabajan principalmente en Azure, y aunque tienen todavía sistemas AS/400 en funcionamiento estos se utilizan para procesos legacy, como la gestión de riesgos. En cambio, todo lo relacionado con cliente está ya en la nube, incluyendo nuevas iniciativas en Salesforce.

Queremos avanzar en cómo la IA puede ayudarnos a escalar recursos, a mejorar la seguridad y detectar errores de forma proactiva. Si es capaz de tomar decisiones sobre el rendimiento o anticipar incidencias, eso marcará un punto clave para nosotros
ROBERTO GUTIÉRREZ, NATIONALE NEDERLANDEN
Gutiérrez mostró su admiración por los modelos multicloud: “Nosotros solo tenemos una y ya nos cuesta; tener cinco o seis me parece un reto tremendo”. Aunque han hecho pruebas con AWS, por ahora su estrategia sigue centrada en Microsoft. En cuanto a inteligencia artificial, detalló dos proyectos internos ya en marcha: uno es un buscador de productos para ayudar a la red de agentes a resolver dudas en tiempo real durante la atención al cliente; y el otro es un sistema que analiza llamadas del call center para transcribir automáticamente la información relevante, eliminando tareas repetitivas y mejorando el servicio. En última instancia, apuntó hacia el futuro de la IA aplicada a operaciones: “Queremos avanzar en cómo la IA puede ayudarnos a escalar recursos, a mejorar la seguridad y detectar errores de forma proactiva. Si es capaz de tomar decisiones sobre el rendimiento o anticipar incidencias, eso marcará un punto clave para nosotros”.
Service Management Institute, cumplir con los estándares
Carlos Manuel Fernández, vicepresidente del Service Management Institute, intervino con un tono crítico en torno a los estándares de seguridad, señaló que muchos responsables de ciberseguridad han considerado incómoda la implantación de normas como la ISO 27001, y advirtió que una nueva regulación está por llegar: “La ISO 42001 va a ser incómoda también. Afecta al entorno, a la plataforma, y está centrada en la inteligencia artificial”.

La ISO 42001 va a ser incómoda también. Afecta al entorno, a la plataforma, y está centrada en la inteligencia artificia
CARLOS MANUEL FERNÁNDEZ, SERVICE MANAGEMENT INSTITUTE
Recalcó que esta norma no está diseñada para impedir, sino para asegurar cumplimiento, y destacó la importancia de anticiparse: “Quien avisa no es traidor. Yo no soy abogado, pero tengo muchos amigos abogados, y sé que cuando uno adopta un estándar, lo que hace es demostrar que está intentando hacer las cosas bien. Y eso, a la hora de posibles sanciones, cuenta. Las multas bajan”.
A modo de reflexión, comparó la transformación tecnológica actual con sus inicios en el ámbito informático, cuando herramientas como Excel representaban una revolución en la gestión. “El Excel era la herramienta clave. Ahora va a ser la inteligencia artificial”. Cerró su intervención con una advertencia clara sobre la inminencia de este cambio: “Ya es hora de tener un catálogo de servicios de IA. Porque la IA va a ser el nuevo motor de la gestión. Quien no lo entienda, se va a quedar fuera”.
Capital Energy-Kynego trabaja con agentes IA
La IA agéntica también tuvo su hueco en la mesa. Jorge Crespo, Responsable de Operaciones IT/OT en Capital Energy-Kynergo, señaló que está trabajando con Google en proyectos de inteligencia artificial, especialmente enfocados en el desarrollo de agentes específicos para departamentos concretos: “Estamos mirando más la parte de agentes. Intentamos aplicar la IA de forma general, pero no llegamos a ninguna parte, ni por velocidad ni por capacidad. Así que hemos cambiado el enfoque: ahora vamos a nichos pequeños, hablando con cada equipo sobre lo que necesita, y desarrollando mini agentes que les den valor real”.

Estamos mirando más la parte de agentes. Intentamos aplicar la IA de forma general, pero hemos cambiado el enfoque: ahora vamos a nichos pequeños, hablando con cada equipo sobre lo que necesita, y desarrollando mini agentes que les den valor real
JORGE CRESPO, CAPITAL ENERGY-KYNEGO
Comparó esta evolución con lo vivido anteriormente en el sector con el despliegue de 5G: “Todo el mundo hablaba de 5G, pero al final, en nuestro parque no tenía sentido invertir tanto si no aportaba valor. Con la IA está pasando algo parecido: el entusiasmo inicial nos llevó a intentar grandes cosas, pero lo útil está en lo concreto”.
Crespo alertó también sobre el uso creciente e imparable de herramientas de IA generativa dentro de la organización: “Ahora mismo, cualquier persona en la compañía está usando IA de una forma u otra. Intentar bloquear su uso sería un error, salvo que haya una regulación estricta que lo exija, como en sectores bancarios o altamente regulados”. En ese sentido, defendió una postura de acompañamiento y supervisión: “Es un acelerador. Lo que antes costaba una semana, ahora se consigue en una mañana. Nuestro papel, desde seguridad, es asegurarnos de que no se comparta información sensible ni se use de forma inapropiada”.
Pasos incipientes de IA en la Universidad de Nebrija
La IA es un gran desafío para el entorno universitario. Noelia Marbán, Directora de Tecnología de la Universidad de Nebrija, admitió que, en materia de inteligencia artificial, aún están en una fase inicial: “La IA generativa está contemplada, sobre todo en el ámbito de la investigación, pero todavía nos encontramos en una etapa incipiente”. Señaló que el uso generalizado de la IA a nivel de usuario ya es un hecho -incluso entre desarrolladores-, pero que institucionalmente aún no se ha desplegado de forma completa.

La IA generativa está contemplada, sobre todo en el ámbito de la investigación, pero todavía nos encontramos en una etapa incipiente
NOELIA NARBÁN, UNIVERSIDAD DE NEBRIJA
En cuanto a cloud, Marbán explicó que cuando se incorporó a la universidad existía una dispersión tecnológica con múltiples nubes en uso, y que se intentó simplificar el ecosistema reduciéndolo principalmente a Microsoft Azure. Sin embargo, reconoció que los propios proveedores obligan a mantener una estructura multicloud: “Intentamos ser monocloud, pero productos como Blackboard o Bulletin nos exigen tener AWS. Al final, el mapa de sistemas te empuja al multicloud, y tendremos que convivir con al menos dos o tres nubes principales y aprender a gestionarlas”.

La estrategia tecnológica de la universidad es híbrida, manteniendo un 40–50% de sistemas on-premise por razones de inversión ya realizada y por los costes asociados a la nube
VENTURA MORCILLO, UNIVERSIDAD DE NEBRIJA
Ventura Morcillo, Responsable de Explotación, Soporte IT y Ciberseguridad de la Universidad de Nebrija, añadió que la estrategia tecnológica de la universidad es híbrida, manteniendo un 40–50% de sistemas on-premise por razones de inversión ya realizada y por los costes asociados a la nube.
En cuanto al uso de IA, Morcillo identificó tres ámbitos clave dentro de la universidad: el uso cotidiano por parte del personal docente y administrativo, como una herramienta más, como el Word o la calculadora; el ámbito de la investigación, donde se da apoyo tecnológico a los grupos de trabajo y estudiantes; y la docencia, donde reconoció que hay muchas dudas y mucho por hacer: “Los alumnos ya usan la IA, y tenemos que asumirlo. Esto no va de protegerse, sino de adaptarse”.
IE University, infraestructura como servicio es una commodity
Carlos Garriga, CIO de IE University, defendió una visión pragmática sobre la infraestructura tecnológica, considerando que hoy en día la infraestructura como servicio es una commodity: “Puedes tener condicionantes históricos, equipos ya amortizados o cuestiones normativas que te obliguen a mantener el control de ciertos entornos, pero si no tienes esas restricciones, mi consejo es claro: salvo que manejes volúmenes muy grandes o tengas cargas reguladas muy estrictamente, lo más eficiente es optar por la nube”.

Si tienes competencia entre proveedores y buenos contratos, los cálculos salen. El coste de mantener tu propia infraestructura es altísimo, sobre todo si le sumas la pérdida de flexibilidad
CARLOS GARRIGA, IE UNIVERSITY
En cuanto a la gestión económica del cloud, subrayó la importancia de la planificación y la negociación: “Si tienes competencia entre proveedores y buenos contratos, los cálculos salen. El coste de mantener tu propia infraestructura es altísimo, sobre todo si le sumas la pérdida de flexibilidad”.
Garriga destacó que las organizaciones ahora exigen flexibilidad, lo que refuerza el valor del cloud y del enfoque multicloud: “Es el paso evidente para mitigar riesgos”. En cuanto a inteligencia artificial, reconoció que también está provocando cambios importantes: “Para casos muy sofisticados, cuando estás avanzado, puede que empieces a plantearte ejecutar ciertos modelos de IA en local. Y eso nos puede llevar a una especie de revival del on-premise, pero solo para casos muy específicos”.

Nutanix ofrece herramientas que permiten decidir, de forma automatizada y basada en criterios como consumo, tipo de carga o necesidades de confidencialidad, dónde ejecutar cada carga de trabajo: en Azure, AWS, GCP, en un data center propio, etc., sin necesidad de desarrollos complejos ni conocimientos profundos de cada nube
JORGE VÁZQUEZ, COUNTRY MANAGER DE NUTANIX

La propuesta de Nutanix se centra en llevar al datacenter la experiencia operativa del cloud computing, facilitando la gestión de cargas complejas sin renunciar a eficiencia ni agilidad: Se trata de poder desplegar cargas de trabajo de alto consumo, como las de inteligencia artificial, con la misma naturalidad y rapidez con la que ya operamos otros entornos. La clave es no sacrificar el modelo operacional
JAVIER GEGÚNDEZ, NUTANIX