Qlik migliora l’esperienza aziendale dei dati con una nuova offerta rivolta all’analisi dei Big Data
Qlik continua a svolgere la sua missione di fornire alle aziende soluzioni di gestione e analisi dei dati end-to-end con due nuove offerte per i Big Data: Qlik Data Catalyst, l’ultima versione del prodotto precedentemente noto come Podium Data, e la prima versione dell’Associative Big Data Index di Qlik.
Le aziende devono sbloccare l’intero valore dei dati per aiutare gli utenti ad accelerare l’azione e l’ottenimento dei risultati. Con questi ultimi rilasci, Qlik continua a guidare il percorso dei dati aziendali grezzi fino alle intuizioni ottenute dagli utenti finali.
“Qlik si impegna a rendere i dati aziendali pronti per l’analisi e la scalabilità”, ha dichiarato Mike Potter, CTO di Qlik. “Offrire una nuova release di Qlik Data Catalyst insieme alla prima versione dell’Associative Big Data Index di Qlik è un chiaro segnale per il mercato: Qlik è pronta ad aiutare i clienti a ottenere più valore da tutti i dati da parte di tutti gli utenti”.
“Trasformare i dati da input grezzi a intuizioni si sta dimostrando il vero vantaggio per le aziende”, Paul Barth, Managing Director of Enterprise Data Management di Qlik. “Districare i dati, portare ad essi più valore e renderli più facili da utilizzare sono gli obiettivi dell’offerta di Qlik Data Catalyst”.
Qlik Data Catalyst: maggiore agilità con il catalogo avanzato di Smart Data e Intelligent Rules Engine
Qlik Data Catalyst contiene molte nuove funzionalità per aiutare gli utenti a ottenere ulteriori informazioni e beneficiare del catalogo intelligente dei dati. Due aspetti chiave, il nuovo modulo di catalogo e il motore di regole intelligenti, accelerano entrambi i tempi di risposta a tutti gli utenti che fanno affidamento sui dati.
- Nuovo modulo catalogo – Il catalogo di smart data offre ora funzionalità di ricerca e drill-down avanzate. Le nuove metriche dei dati operativi, qualitativi e di popolarità all’interno del catalogo smart data offrono agli utenti un’esperienza di acquisto simile a quella di Amazon durante la ricerca, la navigazione, l’anteprima e la scelta delle informazioni dal mercato dei dati. Utilizzato in modalità standalone o integrato con Qlik, il nuovo modulo di catalogo consente ai clienti di accedere a tutti i propri dati ovunque essi risiedano, espandendo le capacità di gestione dei dati aziendali per trasformare i loro dati grezzi in risorse informative governate e attente all’analisi.
- Motore di regole intelligenti – Basato sul popolare sistema di gestione delle regole Drools open source, il motore di regole personalizzabili e senza codice di Podium analizza i dati in arrivo e adotta azioni appropriate in base ai risultati. Ad esempio, questa funzione può essere utilizzata per l’identificazione intelligente dei dati e l’azione su dati sensibili quali informazioni di identificazione personale (PII), dati PCI e dati soggetti al regolamento GDPR. Altri esempi includono la possibilità di avviare automaticamente script personalizzati o di inviare notifiche ad amministratori di dati quando vengono osservati modelli di dati insoliti.
L’importazione di file JavaScript Notation, le funzionalità avanzate dei metadati e i controlli meticolosi per l’importazione e la pubblicazione dei dati fanno parte di questa nuova versione.
Associative Big Data Index di Qlik: l’Associative Difference per la Big Data Analytics
L’Associative Big Data Index di Qlik offre l’esperienza associativa brevettata di Qlik su fonti di dati estremamente estese, consentendo agli utenti di esplorare e ricercare liberamente i repository di Big Data, incluso l’accesso completo a tutti i dettagli specifici, lasciando i dati dove risiedono. Questo motore associativo ad alte prestazioni può essere implementato all’interno di repository di Big Data, eliminando la necessità di trasferire e preparare i dati altrove prima che possano essere analizzati. Il Big Data Index di Qlik include la capacità di:
- Fornire continuamente una visione completa e aggiornata dei dati poiché l’indice si aggiorna immediatamente ogni volta che si aggiorna anche la fonte d’origine dei dati;
- Sfruttare i container Docker, consentendo alle organizzazioni di essere indipendenti dalla piattaforma e liberandoli dall’essere legati a un unico repository di Big Data e alla relativa strategia;
- Distribuire l’elaborazione in un cluster per massimizzare le prestazioni utilizzando Kubernetes per affrontare anche fonti di dati su scala più grande.