EncuentrosAnalytics

Las empresas deben pensar en clave de datos

La inteligencia artificial y el machine learning se han convertido en los grandes aliados de las compañías.

"No es humanamente factible tratar la ingente cantidad de información que se va a generar”. Así de contundente se mostró Hugo Abreu, Spain & Portugal Cloud System Leader, en el inicio del encuentro sobre la gestión del dato que organizó Computing en colaboración Oracle, al que asistieron responsables de analítica de diversas compañías. Un ratio llamativo es que el 58% de los líderes IT tienen problema a la hora de extraer valor a esta producción, cifra que incluso Abreu considera inferior a la realidad. Por otro lado, el 85% de todas las interacciones en dos años van a estar automatizadas: habrá asistentes virtuales para relacionarse con clientes, proveedores y partners.

La pregunta que se suscita es si estarán las organizaciones preparadas para estar a la altura de este horizonte que se aproxima de forma indefectible. Esto conlleva una nueva clase de profesionales que tiene que emerger. El DBA o gestor de datos que pasa su tiempo haciendo patching va a evolucionar a un Data Profesional; ya no es esa persona que está arreglando y gestionando datos, sino la que está mejor posicionada para dar valor al negocio. Va a haber, por tanto, un impacto en los sistemas y en los profesionales, “pero como no tratemos de empezar la casa por los cimientos vamos a encontrarnos con serios problemas”, advierte el directivo. Oracle viene liderando desde hace décadas el mundo de la gestión del dato. “Hemos nacido y crecido en ese entorno y estamos en la posición idónea para entender ese desafío y por eso nuestra firma cree que las organizaciones deben tener una estrategia que contemple la plataforma de datos para poder tratarlos y extraer información de valor al negocio”.

La visión de las organizaciones

Pero, ¿cómo ven los usuarios esta problemática? Para Abel Pacheco Bernabéu, Head of Big Data & Analytics de RSI, “la gestión del dato está cambiando muchísimo”. Antes la capacidad de procesamiento de cómputo no era elevada y no había infraestructura lo suficientemente potente para ello. Si ese procesamiento se hacía sobre una cantidad de datos muy grande el problema se magnificaba. En la situación actual, con el big data y otras tecnologías de cálculo todo resulta más sencillo de abordar. Big data dispone de una serie de herramientas avanzadas para almacenar mucha información de forma escalable y procesarla en menos tiempo. “Gracias a la IA podemos construir nuevas variables que no están implícitas en los datos de partida. Son modelos estadísticos avanzados que nos permiten extraer nuevos comportamientos predictivos. La IA nos aporta una información añadida que no conocíamos antes”, argumenta Pacheco.

“En el caso de RSI, obtenemos un mejor conocimiento de los clientes del banco y poder conocer cómo se van a comportar en un futuro y ofrecerles servicios personalizados. Ahora es necesaria tener esta plataforma y ya no es estudiar el coste de tenerlo sino el coste de no tenerlo. En nuestro caso estamos sacando muchísimo conocimiento; con la posibilidad de analizar datos no estructurados o de fuentes externas a la información todavía podemos construir una sábana amplísima de datos de un cliente, como personalizar cualquier campaña o acción comercial”, describe.

Acceder al contenido completo. 

Computing 787