Il manager dei dati

Ho iniziato a collaborare con Data Manager nel lontano 1989, su invito del mitico – e compianto – capo redattore Gianni Caporale, che mi fa piacere ricordare in questa fausta ricorrenza. Con esperienza professionale nell’area dei sistemi informativi delle banche e della finanza è stato naturale, fin dall’inizio, curare articoli, dossier e speciali sull’IT in tale settore e, anche oggi, il mio impegno continua con soddisfazione e senza soluzione di continuità. In questo importante giro di boa, è curioso notare che alla nascita di Data Manager una delle professionalità IT maggiormente in voga era, appunto, il “data manager”, da cui la rivista ha preso nome e ispirazione.

Nella seconda metà degli anni 70 del secolo scorso, agli albori dell’informatica moderna, Data Manager aveva capito che il vero valore dell’IT non era nella “T” delle tecnologie – peraltro indispensabili – e neppure nel software e nelle architetture, ma risiedeva totalmente nella “I” delle informazioni che, per loro natura, sono technology independent. Era stato per primo il britannico James Martin, un guru dell’IT, a teorizzare la supremazia delle informazioni e aveva, appunto, definito il termine e la professionalità del “data manager”: come il manager che in una organizzazione doveva valorizzare e mettere a frutto le informazioni, viste come importante asset strategico del business. In uno dei suoi libri più famosi, Information Engineering, iniziato proprio nel 1976 con conferenze e seminari, e poi pubblicato con Savant Institute nel 1981, aveva gettato le basi della “data analysis” e del “database design”, proponendo figure professionali come il “database administrator (DBA)” e, appunto, il “data manager”: cioè la figura manageriale apicale a cui avrebbe dovuto far capo la gestione complessiva dei dati dell’azienda.

TI PIACE QUESTO ARTICOLO?

Iscriviti alla nostra newsletter per essere sempre aggiornato.

Leggi anche:  Smart city, l’alleanza tra tecnologia e sostenibilità

In quel lontano periodo, guarda caso, la mia specializzazione professionale era proprio nell’area dei database e, quindi, è stato entusiasmante collaborare con una testata che, pur avendo focalizzato la sua mission nell’IT, metteva i dati al primo posto. Molta acqua è passata sotto i ponti da allora e le innovazioni si sono succedute a ritmo frenetico. Oltre alle varie generazioni di hardware, sempre più evolute e performanti, e alle architetture sempre più articolate, si è arrivati oggi al cosiddetto CAMS (cloud, analytics, mobile, social). L’evoluzione impressionante di questi ultimi 40 anni è stata seguita fedelmente dalla rivista, guidata da direttori, capi-redattori e giornalisti, con un unico prioritario obiettivo: informare tempestivamente e con qualità il lettore. Oggi, la preminenza dei dati rimane immutata e lo sarà anche per il prossimo futuro. All’informazione si sono aggiunti i concetti di “knowledge” e, in taluni casi addirittura di “wisdom” e si è anche capito che i rapporti di investimento tra hardware, software e dati oggi sono rispettivamente di 1, 10 e 100. Sull’onda Big Data, con la disponibilità di enormi quantità di dati, ecco allora sorgere il data scientist o CDO (chief data officer). E anche il nuovo regolamento europeo GDPR (General data protection regulation) e la prossima direttiva europea NIS (Network and information security), sulla sicurezza delle reti e dei sistemi informativi, definiscono chiaramente la “nuova” figura professionale del data protection officer o DPO. Tali nuovi acronimi, in definitiva, ripropongono, ancora una volta, nella sostanza, la centralità del manager dei dati. Ecco, a mio modesto avviso, uno dei motivi del successo della testata in questi ultimi 40 anni, ma che io vedo anche come garanzia per i successi futuri.

Leggi anche:  Storie di Cybersecurity