Desde su punto de vista, ¿Cuáles son los nuevos retos TIC a los que se tiene que enfrentar el sector financiero?
En los últimos dos años, ha cambiado el panorama en este sector desde la crisis crediticia. Se trata de nuevos cambios que las entidades deben saber afrontar para poder proteger a sus clientes y sobrevivir dada la volatilidad de los mercados. Un importante reto que estas instituciones están enfrentando es que la mayor parte de las decisiones y los proyectos TIC que se emprendieron hace 10 o 15 años hoy ya no son válidos. Hoy más que nunca hay una fuerte presión regulatoria, y una necesidad de gestionar el fraude y los riesgos, de una manera muy distinta a como se ha venido haciendo hasta ahora. Los consumidores por su parte, también han cambiado: ahora están mejor informados, y los bancos tienen que ser conscientes de ello. También hay muchísima competencia, así que la banca debe ser capaz de atender a las nuevas demandas y necesidades de los clientes, y combatir la morosidad y el fraude. Obviamente todo ello se relaciona con la información y los datos, y el problema es que esos datos se siguen manteniendo en silos, y como resultado, todavía tienen muchos problemas para hacer un adecuado análisis y mitigar los riesgos. Por todo ello, en los próximos años, el sector financiero se va a ver obligado a cambiar su infraestructura de TI para hacer las cosas correctamente.
Entonces ¿Podemos concluir que no hay una estrategia clara sobre las herramientas de TI necesarias para prevenir estos riesgos?
Desafortunadamente, es así. Porque aproximadamente el 80% de los presupuestos de TI se suelen destinar al mantenimiento de aplicaciones, y solamente el resto se destina a tecnología y proyectos innovadores que efectivamente les permitan cambiar sustancialmente sus procesos. Además, hay un enorme gap en el manejo de datos e información, que en muchos casos suele estar duplicada. Además, se suelen tener múltiples sistemas a nivel departamental, lo que fomenta aún más los posibles errores, la falta de precisión de los datos y por tanto la falta de toma de decisiones acertadas. Por eso es tan importante la figura del Chief Data Officer (CDO), una persona encargada de responsabilizarse de definir la estrategia de la información de su organización, estableciendo roles y procesos en torno a la gestión de los datos.
¿Cuáles son las principales demandas de sus clientes financieros?
En primer lugar, necesitan aumentar la velocidad de la parte analítica y de reporting, especialmente para hacer un análisis integrado. Pero también vemos que muchas organizaciones están teniendo dificultades con sus data centers, y se ven obligadas a reducir el impacto de sus arquitecturas, porque no se ven capaces de afrontar el crecimiento de ingentes cantidades de datos: la falta de espacio es un problema.
¿Cuál es la aproximación de Sybase a este mercado?
Tenemos tres frentes, en primer lugar, está la parte más tradicional asociada a las bases de datos, el core de nuestro negocio desde hace más de 20 años, pero también está la parte analítica, y en tercer lugar, la movilidad. Nuestra estrategia es ofrecer el mejor software para desarrollar aplicaciones de misión crítica, garantizando la disponibilidad 24×7. En la parte analítica, no se trata de utilizar un único sistema para múltiples requerimientos de uso, sino buscar soluciones específicas. Tenemos además un componente de tecnología en memoria, que reduce considerablemente tanto la dependencia en el almacenamiento en disco como en el volumen de disco requerido para el almacenamiento, y una solución denominada CEP, que permite procesar diferentes operaciones complejas en un tiempo récord y realizar un análisis de la información más rápido y preciso. Esta herramienta viene a cambiar la manera tradicional en la que se ha venido analizando la información, porque permite la creación de roles, identificación de riesgos y oportunidades en tiempo real.