HPC, una tecnología al alcance de todos

Data Center Market, en colaboración con Dell Technologies e Intel, desvela las últimas
tendencias en supercomputación.

Publicado el 18 Nov 2021

Data Center Market, en colaboración con Dell Technologies e Intel, ha organizado un live webinar para desvelar las últimas tendencias en supercomputación.

La supercomputación ha evolucionado mucho en los últimos años, de tal forma que podemos decir que ya no estamos ante una tecnología al alcance un puñado de compañías de gran tamaño. Su uso se ha democratizado, impactando de lleno en cada uno de nosotros y tratando cuestiones más cotidianas. En sus orígenes, su empleo se limitaba a la resolución de complejos problemas matemáticos, pero en la actualidad su aplicación abarca aspectos tan diversos como el estudio genómico, la medicina especializada, la fabricación de productos, el análisis de riesgos en banca o seguros e, incluso, la predicción meteorológica. Todo aquello que requiera el procesamiento de grandes volúmenes de datos. Y, precisamente, la producción y gestión de datos y más datos es el pan nuestro de cada día.

Para profundizar sobre las principales tendencias en HPC (High Performance Computing), Data Center Market, en colaboración con Dell Technologies e Intel, organizó un live webinar al que asistieron un nutrido grupo de empresas y entidades -como universidades y centros de investigación-, tanto del sector público como privado de nuestro país.

El evento estuvo moderado por Lucía Bonilla, directora de Data Center Market, y fue inaugurado por Miguel Fajardo, director Data Center Computer España de Dell Technologies. Durante su intervención, el directivo indicó que la computación de alto rendimiento se perfila como un área de crecimiento importantísima a nivel global, convirtiéndose en un activo clave para la innovación y la competitividad nacional. De hecho, las consultoras pronostican un aumento de la inversión en todo lo relacionado con estas arquitecturas en los próximos años. Según Hyperion Research, el mercado global de HPC superará los 18,9 billones de dólares en todo el mundo para 2024. En España, moverá para esa fecha 224 millones de dólares, creciendo a una tasa compuesta anual del 5,7%.

Caso de éxito: Universidad de Cambridge

Tras la introducción de Miguel Fajardo, el Dr. Paul Calleja, director de Investigación en Computación de la Universidad de Cambridge, explicó que la HPC había cambiado mucho en estos últimos años, de manera que hoy se concibe como una herramienta básica y esencial para todos. “No se puede separar la computación a gran escala de la vida diaria de las personas”, sentenció. En su opinión, esta tecnología supone dotar de toda una serie de posibilidades y capacidades que son flexibles, bajo demanda, y permanentemente evolucionadas, para todo tipo de usuarios. Esta popularización ha rebajado el coste de esta tecnología, a la par que se han incrementado los flujos de trabajo. Se ve como una capacidad vital a nivel nacional, acaparando la atención gubernamental, y se aplica en multitud de sectores, incluso para lo que se ha dado a conocer como “computación de emergencia”, que se ha podido probar con la pandemia de la Covid-19.

El mercado global de HPC superará los 18,9 billones de dólares en todo el mundo para 2024

Asimismo, el doctor señaló que este avance es la fusión de la computación a gran escala, la inteligencia artificial y las tecnologías de análisis de datos, todo combinado con la explosión de grandes data center en todo el mundo. Sostuvo que hemos pasado de una forma monolítica de hacer computación a gran escala, hacia modelos ágiles y configurables.

Por otra parte, Calleja detalló el papel del Cambridge Research Computing Service en este progreso, y el trabajo conjunto realizado con Dell Technologies e Intel. La Universidad de Cambridge es una de las principales del mundo y posee un clúster TIC muy activo en cuanto a investigación e innovación. Su relación con la arquitectura HPC data de hace más de 70 años, desde los primeros sistemas hasta la actualidad, momento en el que disfruta de modelos de computación que incluyen la nube y que han convertido a este centro en el más importante en supercomputación del Reino Unido. La clave del éxito del Cambridge Open Exascale Lab está en el codiseño, es decir, en fomentar la participación en el diseño de usuarios, intermediarios y proveedores de servicios que trabajan juntos para crear soluciones personalizadas con estándares abiertos. Como centro de excelencia de Dell Technologies e Intel, realizan talleres, reuniones y revisiones de tecnología con empresas que puedan estar interesadas en embarcarse en el ámbito de la HPC.

Eficiencia y rendimiento, los grandes desafíos

Posteriormente, el Dr. Martin Hilgeman, director técnico de HPC para EMEA en Dell Technologies, centró su charla en cómo aprovechar las nuevas novedades tecnológicas en HPC para la configuración de los centros de supercomputación. Hilgeman hizo un repaso del historial del Dell Technologies en el negocio de HPC, una presencia que se remonta a los años 90, con el primer HPC clúster de la Universidad de Cornell y que sigue creciendo hasta nuestros días.

Esta actividad de la compañía en este entorno ha venido marcada por la búsqueda de una mayor eficiencia y rendimiento de las soluciones lanzadas al mercado. Con el reto de ser neutrales en las emisiones de carbono en 2030, la multinacional trabaja en el diseño de arquitecturas optimizadas para su uso y en las que se mejoren los subsistemas IO y de memoria, todo ello para poder construir arquitecturas a demanda más eficientes para los usuarios. Frecuencia, densidad, software y rendimiento son parámetros a tener en cuenta que se combinan para lograr responder a las necesidades cambiantes de las empresas y de las personas. Pero las leyes físicas se imponen y muchas veces no es posible hacer modificaciones a nivel de hardware para optimizar las prestaciones requeridas, algo que sí podría llevarse a cabo a nivel de software.

La propuesta de Dell Technologies en este campo es Gen-Z

El directivo analizó las principales tendencias a nivel de sistemas, nodos y redes y argumentó los beneficios de una infraestructura modular, en cuanto a incrementos de agilidad, operar de manera eficiente y aportar más valor. La propuesta de Dell Technologies en este campo es Gen-Z, una arquitectura basada en sistemas abiertos diseñada para interconectar procesadores, dispositivos de memoria y aceleradores. Esta solución permite el aprovisionamiento y el uso compartido de recursos para admitir una amplia gama de aplicaciones y aportar flexibilidad para la reconfiguración del sistema a medida que cambian las demandas de las aplicaciones para diferentes recursos. Se trata de una solución que admite una comunicación de alta velocidad con dispositivos y memoria remotos; y que se sustenta en la redundancia, la seguridad, la flexibilidad y la compatibilidad.

Comunidad HPC de Dell Technologies

Dell Technologies cuenta con una comunidad de supercomputación que comenzó a funcionar en 2016 y que ya supera los 1.000 miembros. Este ecosistema lleva a cabo sesiones periódicas y continuas sobre esta tecnología y dispone de un equipo de soporte específico y dedicado al ámbito de IA y HPC. Avalada por una amplia gama de soluciones TI de la compañía (cómputo, almacenamiento y networking), trabaja con diferentes partners del sector como Intel. Con tres clúster -Zenith, Rattler y Minerva gestionados por ingenieros de la compañía-, la comunidad también consta de varios centros de excelencia como es el caso del Cambridge Open Exascale Lab, que ocupa un lugar importante dentro de esta plataforma. El proveedor está creando una comunidad en España para responder a la demanda de soluciones de supercomputación en los próximos años.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

A
Cristina Lopez Albarrán

Artículos relacionados

Artículo 1 de 4