Confluent annuncia la disponibilità di Confluent Platform for Apache Flink

Confluent annuncia la disponibilità di Confluent Platform for Apache Flink

Confluent Manager per Apache Flink offre un’esperienza di gestione cloud-like per gli ambienti Kubernetes on-premises

Confluent, pioniere nel data streaming, annuncia la disponibilità di Confluent Platform for Apache Flink con l’aggiunta di funzionalità di sicurezza di livello enterprise e modalità più semplici per gestire e scalare i carichi di lavoro Apache Flink on-premises. Confluent è ora l’unica azienda che offre lo streaming dei dati abbinato all’elaborazione dei flussi per i carichi di lavoro in cloud e on-premises, in modo che le aziende possano trasformare più rapidamente i loro dati in valore. Inoltre, Confluent annuncia WarpStream Orbit, soluzione pensata per facilitare la migrazione al modello di distribuzione “Bring Your Own Cloud (BYOC)” di WarpStream.

“L’elaborazione dei flussi è dove avviene “la magia”, trasformando i dati in tempo reale in esperienze e operazioni che fanno crescere le aziende moderne”, ha dichiarato Shaun Clowes, Chief Product Officer di Confluent. “Con il nostro ultimo annuncio, qualsiasi organizzazione può trarre vantaggio da Apache Flink in modo semplice, scalabile e sicuro, permettendo una innovazione senza limiti”.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

L’elaborazione dei flussi (stream processing) consente alle aziende di analizzare e reagire in tempo reale a enormi quantità di dati per prendere decisioni, rilevare frodi, personalizzare l’esperienza dei clienti e altro ancora. Apache Flink è la soluzione di stream processing de facto per le aziende, grazie alle sue incredibili prestazioni, alla solida gestione degli stati e alla flessibilità di gestire analisi complesse in tempo reale su scala. Tuttavia, i team spesso faticano ad autogestire Flink perché si richiede la configurazione, la gestione, la scalabilità e la messa in sicurezza di un complesso sistema distribuito. Per le organizzazioni con carichi di lavoro on-premises, è necessaria una soluzione che offra la flessibilità e i vantaggi delle tecnologie cloud-native all’interno di infrastrutture private.

Leggi anche:  Sangfor Technologies per SAMA SPA: un progetto completo e personalizzato

Scalare, proteggere e semplificare l’elaborazione dei flussi per i carichi di lavoro on-premises

Con la disponibilità generale di Confluent Platform for Apache Flink, le aziende possono gestire carichi di lavoro on-premises in scala con il supporto a lungo termine dei principali esperti mondiali di Apache Kafka e Flink. La distribuzione e il piano di controllo Flink di livello enterprise di Confluent Platform consentono ai team di:

  • Facilitare la gestione del ciclo di vita con implementazione e scalabilità semplificate, automazione avanzata e allocazione efficiente delle risorse.
  • Garantire un modello di sicurezza integrato con controlli di accesso unificati e criteri di sicurezza coerenti in tutti i sistemi.
  • Ridurre al minimo i rischi con il supporto consolidato di Flink e Kafka e la guida dei principali esperti del settore dello streaming dei dati.

Molte aziende a livello globale stanno già riscontrando un certo successo utilizzando Confluent Platform per Apache Flink per elaborare e analizzare i propri dati. Ad esempio, un’azienda in ambito telecomunicazioni Fortune 50 sta utilizzando la piattaforma per l’analisi in tempo reale al fine di elaborare e analizzare le prestazioni della rete, offrire esperienze coerenti e personalizzate ai clienti e fornire visibilità della rete per il rilevamento delle minacce. Sfruttando l’offerta Flink di Confluent Platform, il provider di telecomunicazioni ha risparmiato decine di milioni di dollari e ridotto in modo significativo il churn, incrementando i propri margini complessivi.

Una nuova funzionalità di Confluent Platform for Apache Flink, Confluent Manager for Apache Flink (CMF), rende l’implementazione, l’aggiornamento e la scalabilità di Flink altrettanto semplice sia on-premises che nel cloud. Confluent Manager for Apache Flink consente:

  • Gestione semplificata per ottimizzare le implementazioni di Flink su larga scala in Kubernetes, rendendo più efficienti la gestione e la scalabilità delle risorse.
  • Collaborazione potenziata che centralizza la gestione in tutto l’ecosistema Confluent. CMF promuove la coerenza e ottimizza i processi, facilitando una migliore collaborazione tra i team.
  • Sicurezza migliorata grazie a solidi meccanismi di sicurezza, che semplificano la gestione della sicurezza e garantiscono la conformità con le policy organizzative.
Leggi anche:  Strategie per la transizione verso la logistica integrata

“Le aziende devono rendere Flink più accessibile, sicuro e facile da utilizzare ovunque siano distribuiti i loro carichi di lavoro”, ha dichiarato Shari Lava, Senior Research Director, AI and Automation, IDC. “Le aziende dovrebbero cercare soluzioni che combinino una profonda esperienza in Flink con funzionalità come connettori integrati, operazioni automatizzate e un forte successo e supporto da parte dei clienti per accelerare il time-to-value e semplificare la messa in produzione delle applicazioni Flink. Le soluzioni che forniscono un piano di controllo unificato tra Flink e altri componenti come Kafka sono molto utili per consentire a un maggior numero di aziende di sfruttare i dati in tempo reale e di governarli in modo efficace”.

Accelerazione delle migrazioni a WarpStream con costi ridotti e funzionalità di disaster recovery

Il modello di distribuzione BYOC di WarpStream è un’opzione popolare per i clienti con carichi di lavoro su larga scala e requisiti di latenza meno stringenti che desiderano utilizzare il proprio cloud privato virtuale (VPC). Tradizionalmente, migrare da Kafka open source a un modello BYOC può essere un processo impegnativo e manuale, perché comporta la navigazione in diversi ambienti Kafka e la costruzione di soluzioni personalizzate che aumentano i tempi, i costi e i problemi di qualità dei dati. WarpStream Orbit rende più facile che mai spostare i carichi di lavoro esistenti da Kafka open source, o da qualsiasi servizio compatibile con Kafka, ai cluster WarpStream. I clienti possono migrare senza problemi a WarpStream, ottimizzare i cluster Kafka esistenti con storage a livelli per ridurre i costi e impostare il disaster recovery per carichi di lavoro ad alta velocità e bassa latenza.