EntrevistasInfraestructuras

“El open source impulsa la innovación tecnológica”

Jim Tottom, vice president & general manager Platforms business unit at Red Hat.

Hablemos sobre la importancia que está cobrando el open source en las empresas.

J. T.: Desde que Red Hat confirmó su compromiso al 100% con la comunidad open source como una aproximación al mercado muy innovadora, lo hizo porque realmente vio una gran ventaja, puesto que el I+D que suele hacer una compañía propietaria siempre es más limitado. Tienes unos recursos en tanto en cuanto puedes ser capaz de innovar. En el open source, colaboramos todos juntos entre varias compañías, lo que significa que nuestros recursos son mucho mayores, y por tanto, la innovación es mucho más rápida. De hecho, si nos fijamos en las principales tendencias de hoy en día, como cloud computing, Big Data, virtualización, Internet de las Cosas, etc., están basadas en open source. Pienso que Linux es el corazón que empezó a impulsar el movimiento, ya que inició la historia hace 15 años para el mercado empresarial, y sembró la semilla para que las compañías se animaran a colaborar entre sí.

 Por otro lado, estamos viviendo un momento de transformación digital. La tecnología no solo es un coste para los negocios, sino un ‘must’ para mantenerse competitivos. Las expectativas son muy altas, ya que la tecnología garantiza una adecuada experiencia del cliente, por lo que las organizaciones se están dando cuenta de que lo que se venía haciendo hasta ahora ya se queda obsoleto. Necesitan adoptar nuevas tecnologías e innovación, y empiezan a ver en el open source la mejor conexión entre ambos mundos. Ahí es donde Red Hat puede entrar en juego, aportando la mayor innovación gracias a un proveedor en el que pueden confiar, porque Red Hat es mucho más que Linux.

Sin embargo, Red Hat Enterprise Linux (RHEL) es estratégico para la compañía. ¿Me puede contar las últimas novedades de la versión 7, que aún está por despuntar?

J. T.:  Unas de las cosas fantásticas de nuestra estrategia es que estamos continuamente lanzando nuevas versiones, pero facilitamos la transición entre ellas. Todavía tenemos clientes que están usando RHEL 5, pero también 6 y ya también, aunque en menor medida, la versión 7, porque ofrecemos hasta 10 años de soporte a lo largo de todo su ciclo de vida. Esto significa que RHEL 5 va a tener soporte hasta 2017, e incluso algunos clientes nos han pedido una prórroga, que ampliaremos hasta 2020. RHEL 6 también llegará a 2020, por lo que está en la mitad de su vida. La versión 7 es el gran siguiente paso, y apenas tiene dos años de vida: estamos empezando el viaje. Estamos hablando de un sistema operativo que tiene 15 años de vida, y lo que más nos importa es enseñar a los usuarios a utilizarlo y a gestionar los cambios de versión, intentando que sea lo más sencillo posible. A día de hoy, podemos decir que los dos sistemas operativos que lideran la industria son RHEL y Microsoft Windows. Como ambos son importantes, RHEL 7 tiene un montón de nuevas funcionalidades para que puedan trabajar juntos. Por ejemplo, en seguridad, un aspecto clave para todos, RHEL puede operar conjuntamente con Microsoft Active Directory. Otra de las más atractivas novedades de la versión 7 es la introducción de la tecnología de contenedores, dockers y kubernettes.

"RHEL 7 apenas tiene dos años, pero ya introduce conceptos como contenedores dockers y kubernetes"

¿Qué son los contenedores y qué le diferencia de los dockers?

J. T.: Es un mecanismo que utiliza el sistema operativo para alojar una aplicación, sus marcos y librerías, archivos binarios y demás elementos sobre los que depende, siendo factible la posibilidad de poner cientos de ellos sobre el sistema de ficheros virtual del contenedor y utiliza indirectamente el kernel del sistema operativo principal para ejecutarse. Los contenedores son una solución al problema de cómo hacer que el software se ejecute de manera confiable cuando se mueve de un entorno de cómputo a otro. Mientras que Docker es un proyecto de open source -aquí no nos referimos a la compañía- que se ocupa de automatizar el despliegue de aplicaciones dentro de esos contenedores de software, proporcionando una capa adicional de abstracción y automatización de virtualización a nivel de sistema operativo en Linux. En definitiva, se emplea una arquitectura de micro servicios, de tal manera que una aplicación se descompone en múltiples piezas o bloques, y cada una se convierte en un servicio, con el objetivo de simplificarlas, y alojarlas en los contenedores.

¿Y los kubernetes?

J. T.:  Cuando trabajas con múltiples contenedores necesitas orquestarlos y gestionarlos, y eso se hace con la tecnología Kubernetes desarrollada inicialmente por Google. Supone la gestión de aplicaciones en contenedores, un sistema de orquestación para contenedores Docker, permitiendo acciones como programar el despliegue, escalado y la monitorización de los contenedores.

¿Cómo encaja la virtualización con estas tecnologías de contenedores?

J. T.: Los contenedores son más ligeros, y utilizan menos recursos que las máquinas virtuales, porque un servidor que contiene aplicaciones alojadas en un contenedor funciona bajo un único sistema operativo, y cada contenedor comparte el kernel del sistema operativo con los otros contenedores. Por tanto, una máquina virtual utiliza un sistema operativo completo, las librerías y la aplicación, por lo que es enorme y pesado. La única abstracción de una máquina virtual es el hardware, lo cual es positivo porque te da flexibilidad para poder trabajar en varios entornos, pero las aplicaciones resultan ser muy pesadas. Con un contenedor, el nivel de abstracción es mucho mayor, ya que una aplicación no tiene el sistema operativo entero, sino solamente las librerías, y todas las aplicaciones alojadas en el contenedor comparten una única versión del sistema operativo.

¿Los contenedores acabarán reemplazando a la virtualización?

J. T.:  No, porque en realidad resuelven problemáticas distintas. En ocasiones, las máquinas virtuales pueden ser la mejor opción. Pueden ser complementarias. Pero para los desarrolladores de aplicaciones, sin duda los contenedores van a ser referentes en los dos próximos años.

¿Cómo se garantiza la seguridad en los distintos contenedores?

J. T.:  Si una aplicación tiene un problema no afecta a las demás. En Red Hat estamos muy concienciados con la seguridad de los contenedores, y nos aseguramos que el código que hay en el contenedor sea monitorizado y tenga los parches de seguridad necesarios, de tal forma que la totalidad de las aplicaciones tengan la misma calidad que se espera de ellas.

¿Cuánto tiempo puede tardar la implantación de contenedores?

J. T.: Depende de la complejidad de una compañía, pero en cualquier caso, los contenedores pueden acelerar y hacer más rápido el desarrollo de aplicaciones. Porque permite la reutilización de recursos, lo que los convierte en una opción muy interesante.

¿A qué clase de sectores les puede resultar más interesante?

J. T.: Por ejemplo, para compañías que ofrecen servicios financieros, o para el sector de manufacturas y retail. Pero también en la industria de telecomunicaciones, ya que, lo que antiguamente era hardware, hoy se está convirtiendo a aplicaciones de software, como es el caso de NFV. En definitiva, los contenedores pueden ser útiles para todo tipo de industrias.

¿Cree que será necesario contar con profesionales específicamente enfocados en contenedores?

J. T.: Las compañías suelen tener arquitectos o técnicos senior que son los profesionales más indicados para liderar este tipo de iniciativas. Pero también creemos que todos los desarrolladores deben tener conocimientos de las herramientas necesarias para consolidar los contenedores. Lo cierto es que cada vez detectamos un número creciente de personas interesadas en formarse y aumentar sus competencias en estas tecnologías emergentes.

Hablemos de la nube. ¿Cómo ve Red Hat este mercado?

J. T.:  Hay cuatro tipos de plataformas de infraestructura: servidores físicos, data centers virtuales, data centers de nube privada, y nubes públicas, todos ellos son importantes. La nube pública siempre genera debate, pero viene a aumentar la libertad de elección de los clientes sobre cómo quieren desplegar sus aplicaciones. Todo lo que hemos estado comentando hasta ahora se puede desplegar en servidores físicos, virtuales, y nubes privadas y ahora también públicas. Lo verdaderamente importante aquí es que un cliente puede empezar en un sitio y acabar en otro, y su experiencia tiene que ser la misma. Para ello debemos mantener acuerdos también con compañías propietarias, como por ejemplo Microsoft. Azure es una parte muy importante de su estrategia, y por ese motivo era inevitable conseguir un acuerdo con la compañía líder en Linux, Red Hat. Además, fue un acuerdo impulsado sobre todo por nuestros clientes, que nos pedían que trabajáramos juntos.

¿Qué evolución está teniendo OpenStack y cómo está contribuyendo Red Hat a la comunidad?

J. T.: Es increíble la innovación que hay alrededor de OpenStack. Cada seis meses hay una nueva versión. En Red Hat decidimos integrarlo con RHEL 7 para ofrecerlo como un único producto, de tal manera que el cliente no tiene que hacer nada para integrarlos. Es un producto en sí mismo con un completo soporte, porque somos conscientes de que los clientes no desean cambiar su data center cada seis meses, por lo que en el próximo lanzamiento les vamos a garantizar un soporte por tres años. Cuando estén preparados para migrar a una nueva versión, lo podrán hacer con tiempo y tranquilidad.

 Con ese ritmo tan alto de cambios de versión, ¿qué tan sencillo es migrar con Red Hat?

J. T.: Tenemos distintas herramientas para hacer upgrades de forma sencilla para que puedan moverse de versión si así lo desean para evitar que sea traumático o que suponga un apagón para el negocio.  

Computing 815