/media/post/v8978r7/bd.png
Ferpi > News > Big Data, estrarre valore dal caos

Big Data, estrarre valore dal caos

07/04/2017

raffaele

Dal “mestiere più sexy del mondo” alla post-verità: la giornata di formazione Ferpi sui Big Data ha concentrato l’attenzione sulla moneta del futuro. Generare valore aggiunto, trovando il bandolo della matassa dei big data e sapendolo governare, tra tecnologia e innovazione: questa la missione possibile che pubblico e privato sono chiamati a svolgere. Il resoconto di Paola Assante, ospite della rubrica #AroundPA.

 

 

Big data: non grandi dati, ma dati grandi. La giornata di formazione sul tema organizzata da Ferpi il 30 marzo presso la sede di Cultura Lavoro a Roma ha dato stimoli interessanti sull’evoluzione dei big data nell’ambito delle imprese pubbliche e private, ponendo l’attenzione non banalmente alla mole di informazioni oggi a disposizione, ma a una grandezza più articolata, riferita all’enorme valore informativo che i big data, se bene utilizzati, possono fornire.

Benché argomento recente, la storia dei big data ha attraversato nel corso degli ultimi anni fasi molto diverse tra di loro. Simonetta Pattuglia, Direttore del Master in Economia e Gestione della Comunicazione e dei Media e Presidente CASP di Ferpi, ha dato via al dibattito partendo dall’illuminante articolo del 2012 sull’Harvard Business Review. In quell’occasione, Thomas Davenport & D.J.Patil definirono quello del data scientist The Sexiest Job of the 21st Century, il lavoro più sexy del ventunesimo secolo. Dal 2012 a oggi, gli over the tops hanno mostrato al mondo le funzioni rivoluzionarie degli algoritmi, perfezionandoli in maniera da renderli sempre più sofisticati.

Di raffinamento in raffinamento algoritmico si arriva a oggi, anno 2017, in cui la rivista Time parla di “morte della verità”. Eppure le informazioni a nostra diposizione sono aumentate in maniera smisurata e continueranno a crescere. Cosa sta succedendo?

La rivoluzione che rende il lavoro sui big data così attraente sta nel fatto che esso mette in campo un mix di competenze di varie intensità, che partono dalla misurazione per arrivare alla elaborazione mediante un’interpretazione e un utilizzo del pensiero critico che siano coerenti ed empatici verso il cliente. Il lavoro analitico e di ripulitura, seppur fondamentale, non basta: deve essere sostenuto da un team multiforme che tocca le corde dell’informatica, della matematica ma anche di dimensioni più creative legate all’intuito, alla creatività e alla capacità comunicativa dei dati verso i tecnici e gli amministratori.

Non si tratta di pura e semplice statistica come produzione di dati, ma di applicazione “viva” di questi ultimi alla vita di impresa. Più dati permettono di vedere meglio e permettono di vedere in modo diverso. I dati sono passati da un blocco a un flusso, da qualcosa di immobile e statico a qualcosa di fluido e dinamico che genera valore aggiunto. Il comunicatore, in quanto portavoce dei tempi che cambiano, è chiamato a porsi il problema della misurazione, senza skills analitici il suo operato è tronco.

I big data di fatto hanno provocato un riassetto del modo di fare impresa e delle professioni a esse legate. L’evoluzione teconologica, i mobile e i social stanno riscrivendo il colloquio tra gli individui e del modo in cui essi hanno accesso alle informazioni, democratizzando l’intero processo.

Un’analisi che guarda oltre, dunque, e che è generata da una community of practice, una comunità che mediante il management on the job traduce il non fisico in Valore, la quinta V che, nella visione di Walter Aglietti, Analytics Manager & Big DTA Techinical Leader di IBM Italia, si aggiunge alle quattro che tradizionalmente definiscono i big data (Volume, Velocity, Variety, Veracity). I dati sono la nuova base del vantaggio competitivo: essi rappresentano una risorsa che sta riassettando il modo di fare impresa e le professioni.

I big data e la loro codifica ci restituiscono un mondo in cui sono più veicolate e veicolabili le post verità che i dati oggettivi. La grossa mole di dati impone un’attenzione maggiore su di essa, uno sforzo interpretativo sempre più raffinato, pena la fine della verità preannunciata dal Time, del dibattito pubblico, l’alimentazione delle forme rabbiose all’interno della rete. Alla luce di ciò il data scientist ha un compito che potremmo definire eroico: evitare che il mondo venga schiacciato dall’enorme mole di informazioni e organizzare i dati in modo che essi possano costituire arricchimento, e quindi che abbiano una leva comunicativa.

Raffele Paciello, Delegato OpenGovernment Ferpi, ha posto l’attenzione su come il valore informativo dei dati è strettamente dipendente dal contesto in cui i dati si inseriscono. Date certe domande, i dati rispondono. I dati sono casseforti di risposte, è indispensabile porre le domande giuste per liberare i loro contenuti. Paciello ha delineato tre concetti chiave per l’elaborazione di un ecosistema intellegibile: innanzitutto i dati, la materia prima da trasformare in informazione; in secondo luogo gli strumenti dello storytelling, per far sì che il racconto dei dati non sia una loro banalizzazione ma un racconto pregnante; infine il design, ossia la capacità di visualizzare le informazioni in modo che siano comprensibili e immediate, alla luce anche della richiesta di semplificazione che caratterizza il nostro tempo sempre più stretto.

L’intervento di Filippo De Vita, Marketing Manager Digital Services Vodafone Italia, ha puntato l’attenzione sui big data dal punto di vista dell’impresa, spiegando come la mission aziendale consista nel restituire a un territorio il valore dei propri dati. La gestione dei dati da parte delle aziende non deve essere in tesa come Grande Fratello: il paradigma non è quello del controllo ma l’inverso, un utilizzo degli algoritmi per ottimizzare i servizi offerti all’utente.

Ernesto  Belisario, Team OGP Funzione Pubblica, si è occupato della “relazione complicata” tra big data e diritto, parlando del diritto al data portability che entrerà in vigore dal 2018: chiunque potrà trasferire i propri dati personali da un sistema di elaborazione elettronico a un altro senza che il controllore dei dati possa impedirlo. Un altro tema spinoso è la titolarità dei dati e la loro destinazione post mortem.

Belisario inoltre ha posto l’attenzione sulla pubblica amministrazione italiana, evidenziano la scarsità di progetti di digitalizzazione dei dati e incentivando la creazione di un patrimonio digitalizzato dei dati che sia collegato ai processi operativi, in modo che gli organi amministrativi possano lavorare su dati sempre consultabili e aggiornati. Per questo traguardo, il supporto delle imprese private, all’interno delle quali l’indagine sui dati è già in progress, è essenziale.

Infine l’intervento di Enrico Giovannini, Professore di Statistica Economica e di Public Management all’Università degli Studi di Roma Tor Vergata e LUISS, Co-Chair Independent Expert Advisory Group on the Data Revolution for Sustainable Development, United Nations, ha chiuso il cerchio aperto da Simonetta Pattuglia sulla gestione necessaria dei big data, agganciandosi alla relazione tra questi e la pubblica amministrazione.

Giovannini ha posto in evidenza un comportamento di negligenza del settore pubblico, che non ha ancora inteso i dati come asset. La testimonianza più chiara di questo squilibrio è che nella pubblica amministrazione manca la figura del Chief Data Officer, di qualcuno che si prende carico di raccogliere dati per poi creare valore da questi. Questa indifferenza ha un valore controproducente rispetto all’intera compagine mondiale, alimentando proprio la deriva dei big data verso la post verità. La rivoluzione dei dati è in corso, e se non è gestita dalla politica, accrescerà le disuguaglianze in modo sistematico, generando un divario tra chi sa e chi non sa utilizzare i dati. Oggi il possesso dei dati viene considerato un potere elitario che impone tesi preconfezionate quali uniche verità possibili: gli atteggiamenti populisti stanno abbattendo i riferimenti ai dati in quanto facenti parte di una strategia di dominio. Tutto ciò mina il sistema democratico.

È l’altra faccia dei big data, quella più spaventosa, quella che chiama la politica a rimboccarsi le maniche per governare e gestire in maniera sistemica i dati, mediante un investimento di tecnologia, innovazione e capacità di analisi. Senza queste operazioni i dati si prenderanno gioco del mondo, fino alla deriva preannunciata dal Guardian: la nascita di società post statistiche, una deriva già in parte in corso.
Eventi