noticias

Tableflow, el segundo lanzamiento de Confluent en el Kafka Summit



Dirección copiada

Tableflow facilita la conversión de data streaming a tablas Apache Iceberg para abastecer almacenes de datos, lagos de datos y mecanismos de análisis

Publicado el 19 mar 2024



Confluent
Kafka Summit 2024, Londres.

Tras el anuncio de Confluent Cloud para Apache Flink, la compañía ha anunciado nuevas funciones de Confluent Cloud para facilitar el streaming, la conexión, el control y el procesamiento de datos. Confluent Tableflow transforma los tópicos de Apache Kafka y los esquemas asociados en tablas de Apache Iceberg para abastecer mejor a los data lakes y las bases de datos.

Tableflow funciona junto con las capacidades existentes de la plataforma de data streaming de Confluent, incluidas las funciones de Stream Governance y el procesamiento de flujos con Apache Flink, para unificar el panorama operativo y analítico.

Todavía existen retos para la integración de datos en tiempo real a través de bases de datos operativas y mecanismos de análisis

Stewart Bond, Vicepresidente de Inteligencia de Datos y Software de Integración de IDC

El problema crítico para las empresas modernas es que los estados operativos y analíticos deben estar altamente conectados, pero a menudo se basan en conexiones point to point a través de docenas de herramientas“, ha dicho Shaun Clowes, Director de Producto de Confluent. “Las empresas se quedan con un desorden de datos que es problemático de navegar y que priva a la empresa de obtener información en tiempo real”.

“Estándares abiertos como Apache Kafka y Apache Iceberg son opciones populares para el data streaming y la gestión de datos en tablas para mecanismos de análisis”, Stewart Bond, Vicepresidente de Inteligencia de Datos y Software de Integración de IDC. “Sin embargo, todavía existen retos para la integración de datos en tiempo real a través de bases de datos operativas y mecanismos de análisis. Las empresas deben buscar una solución que unifique la división operativa y analítica y gestione la complejidad de las migraciones, los formatos de datos y los esquemas”.

Artículos relacionados

Artículo 1 de 5