La nueva generación Big Data de HDS se basa en Pentaho

La serie HSP 400 ofrece una infraestructura que da soporte a la combinación de Big Data, los análisis empresariales integrados y la gestión simplificada de datos.

Publicado el 12 Feb 2016

44234_52

Hitachi Data Systems Corporation (HDS) ha presentado la nueva generación de la plataforma Hitachi Hyper Scale-Out Platform (HSP), que ahora ofrece integración nativa con la plataforma empresarial de Pentaho para proporcionar una sofisticada plataforma hiperconvergente definida por software para las implementaciones de Big Data. Al combinar capacidades de computación, almacenamiento y virtualización, la serie HSP 400 ofrece una infraestructura perfectamente cohesionada que da soporte a la combinación de Big Data, los análisis empresariales integrados y la gestión simplificada de datos.

Cada vez más, las empresas modernas necesitan obtener valor de las enormes cantidades de datos que se generan con las tecnologías de la información (TI), la tecnología operativa (TO), el Internet de las cosas (IdC) y los datos generados automáticamente en sus entornos. HSP ofrece una arquitectura definida por software para centralizar y permitir un almacenamiento y procesamiento sencillos de estos grandes conjuntos de datos con gran disponibilidad y una gestión simplificada. HSP, que se entrega como un dispositivo totalmente configurado, se instala y comienza a prestar soporte a la producción en cuestión de horas, a la vez que simplifica la creación de un conjunto de datos flexible que ayuda a los clientes a integrar con facilidad conjuntos de datos inconexos y a ejecutar cargas de trabajo de análisis avanzados.

La arquitectura de ampliación horizontal de HSP proporciona una infraestructura simplificada, escalable y preparada para el uso empresarial de Big Data. La arquitectura también incluye una interfaz de usuario centralizada y fácil de utilizar para automatizar la implementación y la gestión de entornos virtuales para marcos destacados de Big Data de código abierto, incluido Apache Hadoop, Apache Spark y paquetes comerciales de código abierto como la plataforma Hortonworks Data Platform (HDP).

“Muchas empresas no cuentan a nivel interno con conocimientos especializados para realizar análisis de Big Data a escala con fuentes de datos complejos en entornos de producción. La mayoría desea evitar los inconvenientes de experimentar con tecnologías en ciernes y buscan una vía clara para obtener valor real de sus datos sin riesgos ni complejidades”, ha comentado Nik Rouda, Analista sénior de Enterprise Strategy Group (ESG).“A los clientes empresariales les interesa beneficiarse de sistemas preconfigurados como la plataforma Hitachi Hyper Scale-Out Platform, que superan las principales barreras de la adopción en las implementaciones de Big Data al reducir el tiempo de obtención de información y valor, lo que acelera la transformación digital.”

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 4