Huawei Developer Day
Applicazioni
 

19/02/2019

Share    

Dal dato alla conoscenza

Intervista a Enrico Giovannini, Professore Ordinario di Statistica Economica presso l'Università di Tor Vergata (Roma), ed ex Presidente dell’Istat. Tra innovazione tecnologica e strategie politiche, economiche e sociali.

Enrico Giovannini

Nel 2014 si producevano 2,3 zettabyte di dati al giorno, quantità che potrebbe raggiungere i 40 entro il 2020. Una mole enorme se si considera che 2,3 zettabyte equivalgono a 2,3 per 10 alla settima bytes. Per semplificare il concetto, se paragonassimo un gigabyte a una tazza da 325 centilitri, uno zettabyte avrebbe lo stesso volume della Grande Muraglia cinese (fonte Cisco). Questa disponibilità di dati dopo la loro elaborazione dovrebbe, al di là dei rischi legati alla privacy, arricchire la conoscenza dei fenomeni sociali, ambientali ed economici che caratterizzano la nostra società e di conseguenza sostenere il miglioramento della vita dei cittadini. Ma, chi certifica questi dati e soprattutto la correttezza delle loro elaborazioni? L’indipendenza e l’autonomia dei ricercatori diventa elemento di imprescindibile garanzia a tutela delle democrazie. Ne abbiamo parlato con Enrico Giovannini, ex Presidente dell’Istat, ex Ministro del Lavoro e delle Politiche sua materia che l’ha saputa trasformare in fonte di conoscenza della realtà a portata di cittadino.


La statistica nasce come “aritmetica economica”, il cui obiettivo era quello di misurare lo “stato delle cose” . La prima facoltà di statistica nasce a Roma nel 1931, cosa è cambiato nella scienza statistica da allora ad oggi?
Intanto, dobbiamo ricordare che la parola “statistica” viene proprio da “scienza dello stato”. “Stato”, che può essere interpretato come “stato delle cose”, ma anche “Stato” con la S maiuscola. La Statistica moderna nasce con Napoleone, in quanto l’Impero aveva un problema di “fondi strutturali”, per dirla in termini moderni, ossia aveva il problema della gestione di un impero immenso, doveva capire dove erano i ricchi e dove i poveri, come era strutturata e localizzata la popolazione e così via. Ovviamente, negli anni la statistica ha attraversato cambiamenti profondissimi. Il più importante di questi mi spinse anni fa a coniare una nuova parola che, funziona molto bene in francese e meno in italiano, forse: “Societistica”. Se la Statistica è “scienza dello Stato” proprio perché lo studio dei dati è stato sviluppato per amministrare meglio lo Stato, oggi, la statistica serve a tutta la società, da cui “Societistica”. Intendo dire che le decisioni delle imprese, delle organizzazioni non governative, della società civile, ma anche di noi cittadini, sono sempre più basate su dati. Sempre più spesso si sceglie la scuola dove mandare il proprio figlio o la propria figlia in funzione dei risultati scolastici, universitari, o addirittura nel campo del lavoro, di chi ha frequentato i vari istituti nel passato. Le imprese adottano le loro decisioni, non solo di marketing ma anche di produzione o addirittura di localizzazione degli investimenti, guardando ai dati statistici. Le organizzazioni della società civile tengono giustamente sotto controllo quello che fa lo Stato, le Regioni i Comuni, perché guardano all’impatto delle loro politiche. Insomma, la statistica è ovunque e dunque è importante riconoscergli questo ruolo. Il secondo grande cambiamento che è intervenuto riguarda, ovviamente, i metodi, cioè il modo con cui i dati vengono raccolti, elaborati e diffusi. In passato, si facevano censimenti, ricordiamo il censimento all’epoca della nascita di Gesù; successivamente, si sviluppano soprattutto le indagini campionarie, in modo da ridurre il costo nella produzione delle statistiche. Negli ultimi vent’anni anni si sono affermati i cosiddetti “dati amministrativi”, ossia i dati che vengono raccolti dalle pubbliche amministrazioni in relazione a comportamenti degli individui di spostamento, di uso dei servizi sanitari, dati fiscali. Più recentemente, ma in linea con quanto appena detto, si usano sempre più i cosiddetti “big data”, cioè i dati basati sulle tracce elettroniche che noi, le imprese, le organizzazioni lasciamo con le nostre attività, senza parlare dei sensori fisici ed ambientali. L’uso di queste “tracce” che lasciamo in funzione dei nostri acquisti, delle nostre presenze sui social media, del nostro uso degli smartphone, dei nostri spostamenti determina un cambiamento epocale nel modo anche in cui si la scienza evolve, senza più necessariamente far riferimento a dei modelli definiti a priori. Si sta affermando l’idea che “i dati parlino da soli” e questa è una trasformazione che riguarda non solo i dati elaborati dagli istituti di statistica o dalle amministrazioni pubbliche, ma anche dai privati e l’esempio di Cambridge Analitica per la profilazione dei votanti e il disegno delle campagne elettorali ha reso evidente come ci possano essere anche cattivi usi dei dati.

Oggi tutti raccolgono i dati e i dati sono ovunque: questo vuol dire che la statistica deve diventare patrimonio comune?
Un cittadino deve poter capire come leggere un dato, una statistica per essere correttamente informato? Assolutamente sì. Anni fa, quando ero a l’OCSE (Organizzazione per la cooperazione e lo sviluppo economico), ancor prima di diventare presidente dell’Istat, avevo fatto una riflessione sul valore aggiunto della statistica. Avevo cioè evidenziato come gli statistici, in particolare quelli ufficiali, nel corso degli anni hanno elaborato metodologie e modelli per misurare il valore economico di tutte le attività umane, molte delle quali vengono sintetizzate nel Prodotto Interno Lordo, eccetto che il valore aggiunto della statistica. Feci allora un approfondimento su cosa avrebbe dovuto fare un istituto di statistica se avesse dovuto misurare anche questo. La prima domanda che mi posi è da dove viene il valore aggiunto della statistica. Secondo il “Sistema dei conti nazionali” produrre statistica è un servizio, il cui valore deriva dal cambiamento che la fruizione di quel servizio produce nel consumatore (il cambiamento può essere fisico, come quando si va da un medico, oppure mentale, come quando si legge un libro). Mi chiesi dunque, quale cambiamento dovrebbe indurre la fruizione della statistica: la risposta è facile ed è la “conoscenza” di un fenomeno. Da questa riflessione nacque una formula, che si trova anche nel libro “Scegliere il futuro. Conoscenza e politica ai tempi dei big data” che pubblicai nel 2014, basata su cinque elementi che determinano la trasformazione del dato in conoscenza. Il primo è la quantità di dati prodotti; il secondo è la capacità dei media di trasferire informazioni su quel dato al consumatore finale; il terzo riguarda la rilevanza che quel dato assume per un individuo; il quarto è legato alla fiducia che si ripone nel produttore di quel dato; il quinto e ultimo elemento è la capacità dell’individuo di trasformare quel dato in conoscenza (se non si ha un minimo di dimestichezza con la matematica e con i dati, come accade per tantissime persone, specialmente in Italia, non si saprà leggere quell’informazione e quindi non verrà trasformata in conoscenza). Questi cinque elementi, nella formula che proposi, non sono additivi ma ognuno moltiplica l’altro: dunque, basta che uno di questi cinque elementi sia zero e il valore aggiunto della statistica per quell’individuo è zero. Dunque, se vogliamo massimizzare la conoscenza e l’utilità della statistica i produttori dei dati hanno molto lavoro da fare. Per questo la statistica andrebbe portata nelle scuole, anche in quelle primarie, perché insegnare i rudimenti della statistica significa insegnare a trattare l’incertezza. Il problema è che, come mostrato dall’indagine PIAAC condotta dall’OCSE sulle competenze delle persone, il 30% della popolazione italiana risulta per le competenze matematiche, nella prima classe di cinque, cioè ignorante. Negli altri paesi la percentuale di popolazione in questa classe è pari al 5%, il che vuol dire che in Italia abbiamo un handicap forte.

La nota poesia di Trilussa sul pollo è spesso esempio di cosa non sia la statistica. In Italia, forse, ancora si pensa che ai numeri si possa far dire quel che si vuole. C’è modo di difendersi da questo?
Il fatto che gli italiani, col latte materno, assorbano anche la storia del pollo ormai è un fatto assolutamente assodato (ovviamente, sto scherzando). Ma attenzione a banalizzare la storiella, perché Trilussa giustamente faceva notare che accanto alle medie bisogna guardare anche alle varianze, ossia alla variabilità che è anch’esso un concetto statistico. Il momento primo è la media, ma il momento secondo è la varianza. Per potenziare il ruolo della statistica, superando gli stereotipi, dobbiamo esaminare quattro aspetti diversi: il primo è che, spesso, l’elaborazione statistica si concentra unicamente sulla media. Questo è sbagliato, soprattutto in mondo variegato come il nostro, nel quale la variabilità può essere ampia. Se le disuguaglianze aumentano e le persone hanno a disposizione i social media per evidenziare la propria situazione, diventa molto più facile per una parte significativa della popolazione dire: “il reddito medio non mi rappresenta”. Ma questo vale anche per i canali di comunicazione classici: anni fa, quando fu introdotto l’euro, ci fu la famosa storia delle zucchine, rilanciata dalla televisione. Il prezzo delle zucchine salì alle stelle e anche nei dati statistici fu così, ma poiché la comunicazione dell’Istat era tutta centrata sulla media sembrava che i dati fossero falsi perché non coglievano il dato di uno delle centinaia di prodotti che l’Istat prende in considerazione ogni mese.
La seconda considerazione in proposito riguarda le disuguaglianze che sono sempre più marcate: quindi, concentrarsi sulla media non dà il senso della complessità dei problemi, e questo avviene sia per le disuguaglianze tra gruppi sociali che tra aree territoriali.
La terza considerazione ha a che fare con la comunicazione politica: quando esce un certo dato economico, i politici di governo sottolineano i risultati positivi, magari dimenticandosi che il miglioramento riguarda solo un’area territoriale, mentre quelli di opposizione fanno l’opposto, e questo modo di discutere dei problemi dei cittadini può aumentare la distanza con le istituzioni, comprese quelle che producono i dati.
La quarta considerazione riguarda il fatto che grazie all’uso dei “big data”, si riesce ad avere una precisione molto maggiore nella descrizione della variabilità e questo può cambiare anche l’approccio degli statistici alla pubblicazione dei dati, offrendo disaggregazioni più ampie di quelle ottenibili con dati campionari, il che può aiutare i cittadini a riconoscere la loro situazione anche nell’elaborazione statistica ufficiale.

L’innovazione tecnologica diventa quindi elemento fondamentale a supporto dell’elaborazioni statistiche. Quali sono, secondo lei, gli elementi determinanti in questo campo a supporto della statistica?
La disponibilità di tecnologie per la raccolta dati, ma soprattutto l’abbattimento del costo del loro uso ha determinato una “democratizzazione” delle elaborazioni statistiche, cosicché tanti soggetti che nel passato non avevano accesso alle risorse necessarie per fare elaborazioni o indagini direttamente, oggi sono abilitati a farlo. Questo moltiplica il numero delle fonti, che non necessariamente sono della medesima qualità. La possibilità di produrre dati, a costi ragionevoli, attraverso internet, sensori, satelliti e così via, consente ai ricercatori di fare moltissime analisi che nel passato non erano possibili, ad esempio incrociando dati in modo che prima era impensabile. Naturalmente, questo determina un rischio per la privacy e sappiamo che si tratta di rischi reali, non teorici. Non a caso gli istituti di statistica stanno investendo molto per costruire dei laboratori “sicuri”, in cui i ricercatori possano avere (fisicamente o a distanza) accesso a queste enormi moli di dati, ma siano sottoposti a controlli per evitare che quel risultato sia ottenuto violando la privacy di chi ha fornito i dati stessi. Questo è un tema molto complesso, anche perché sappiamo che le grande imprese che detengono grandi masse di dati si pongono molti meno limiti nell’uso di queste informazioni per finalità di mercato. Questa riflessione porta a domandarsi chi sia il proprietario dei dati e come evitare abusi nel loro uso. Da questo punto di vista va ricordato che l’Europa è all’avanguardia e il nuovo regolamento sulla privacy rappresenta un grande passo avanti.

Parlando di dati, chi è titolato a raccoglierli, come? Ma soprattutto esiste un ente certificatore?
Solo in italiano si può fare il gioco di parole che il “dato” non è “dato”. Mentre invece la gente prende i “dati” come “dati”. Raramente ci si sofferma su come i dati citati dai media sono stati prodotti. Lo si vede con il proliferare dei sondaggi, che hanno spesso dei margini di precisione così ampi che è ridicolo discutere dello scarto dello zero virgola qualcosa da un mese all’altro. Sappiamo poi che il modo con cui i dati sono presentati orienta chiaramente il messaggio che emerge. Qui dobbiamo distinguere tre categorie di soggetti: la prima è composta dagli istituti di statistica, che da molti anni si sono dati delle regole ferree sul modo in cui viene valutata la qualità, sulla trasparenza con cui la qualità viene comunicata, sul calendario di uscita dei dati (che non può essere influenzato da decisioni politiche) e così via. È un bene che questo accada perché i dati ufficiali sono uno strumento della nostra democrazia. La seconda categoria riguarda altri soggetti pubblici, che però non sempre rispettano gli standard statistici. Questo è un processo complesso, che varia da paese a paese. In Italia, l’Istat coordina il Sistema Statistico Nazionale, per cui tutti i ministeri, gli enti pubblici e tanti altri soggetti sono obbligati a rispettare regole comuni, ma non sempre l’Istat ha la forza di rendere tale obbligo una prassi. Questo è un tema molto caldo in alcuni paesi, come ad esempio gli Stati Uniti, in cui in funzione dell’orientamento politico della presidenza, la libertà di comunicazione dei dati da parte dei diversi ministeri varia moltissimo. Non va dimenticato che uno dei primi atti del Presidente Donald Trump ha riguardato l’obbligo per l’Agenzia per l’ambiente di non rilasciare dati statistici che non fossero stati vidimati dal responsabile politico. La storia della statistica è, ahimè, disseminata di casi in cui il potere politico ha deciso se, come e quando pubblicare i dati e poiché l’importanza di questi altri produttori pubblici è crescente, l’attenzione su questi temi va tenuta altissima. Dal mese di gennaio sono il presidente del board europeo che sovraintende al funzionamento della statistica europea, lo European Statistical Governance Advisory Board (ESGAB). Negli ultimi anni abbiamo richiamato più volte l’Eurostat a rafforzare la vigilanza nei confronti di questi altri enti pubblici. Infine, c’è la terza categoria che è formata dai privati, che teoricamente non sono soggetti a obblighi, se non limitati (ad esempio, chi fa sondaggi deve indicare sul sito dell’Autorità per la Garanzia della Comunicazione pochi metadati, come la numerosità del campione). In quest’ambito si dovrebbe fare un salto in avanti, e da anni suggerisco alle organizzazioni internazionali di dare regole anche alla statistica privata. Già nel 2014, quando coordinai per il Segretario Generale dell’Onu Ban Ki-moon, il Rapporto A World that counts, il cui obiettivo era quello di definire come utilizzare la “data revolution” per indirizzare lo sviluppo sostenibile, abbiamo proposto di applicare alla statistica privata regole analoghe a quelle della statistica ufficiale. Quand’ero Presidente dell’Istat fu rivista la legge statistica italiana, che dà alla Commissione per la Garanzia sull’Informazione Statistica, ossia l’organismo che dovrebbe sovrintendere alla qualità dei dati del Sistema Statistico Nazionale, il potere di fare qualcosa anche nei confronti dei privati. Purtroppo, questa parte della legge non è stata mai attuata.

Lei è stato Presidente dall’Istat dal 2009 al 2013: cosa è oggi l’Istat?
L’Istat è in primo luogo una delle pubbliche amministrazione italiane più avanzate sul piano tecnologico e metodologico, nonché sul piano della qualità del suo personale. Lo dico avendo conosciuto anche altre pubbliche amministrazioni. Un Istituto la cui autorevolezza è riconosciuta a livello internazionale, che produce una quantità straordinaria di dati, soprattutto tenuto conto che le risorse dedicate all’Istat sono nettamente inferiori (in termini pro capite e rispetto al PIL) rispetto a quanto avviene negli altri paesi europei. L’Istat ha sempre bisogno di essere sostenuto dalla società poiché la sua indipendenza può essere messa a rischio dal clima politico del momento. È un istituto che ha bisogno di risorse per sviluppare, non solo, la produzione, ma anche l’analisi dei dati. Va ricordato, infatti, che contrariamente a quanto accade in altri paesi, l’Istat ha dei compiti aggiuntivi rispetto alla mera produzione dei dati in termini di ricerca, valutazione delle politiche, previsioni e cosi via. In un paese come l’Italia, in cui sono pochi gli istituti che svolgono questo tipo di attività, è necessario potenziare l’Istat per realizzare appieno il suo mandato.  Il primo presidente dell’Istat si dimise per l’eccessiva ingerenza dell’allora capo del governo sulla sua attività. Quanto, oggi, il nostro Istituto di Statistica è indipendente e quindi affidabile? La sua indipendenza è molto elevata, come lo è quella di quasi tutti gli Istituti di statistica europei, anche perché le regole sono state irrigidite negli ultimi anni, dopo la scoperta della scarsa indipendenza dell’istituto statistico greco, che ebbe una responsabilità enorme nel “truccare” i dati sulla finanza pubblica, e quindi nel generare la crisi dell’euro nel 2012, pagata da tutti i cittadini europei.
Detto questo, si può e si deve continuamente migliorare, aumentando la capacità dell’intero Sistema Statistico Nazionale - non solo dell’Istat - dl praticare quell’indipendenza, autonomia, qualità che i principi di legge già obbligano ad attuare. In alcuni casi è una questione di risorse, ma spesso è una questione di forma mentis dei governanti e di cultura istituzionale. Da questo punto di vista, sono molto preoccupato del fatto che un Ministro della Repubblica in carica abbia proposto di fare un censimento su base etnica analogo a quello che nel 1938 fu la base delle leggi raziali. Non è un caso infatti, che in tutta Europa sia vietato fare un censimento su base etnica, ma questo non ha impedito ad una parte dell’opinione pubblica italiana di sostenere questa idea. Ovviamente, questo nulla ha a che vedere con il necessario monitoraggio, cosa che già avviene, di chi è sul territorio nazionale italiano. Il fatto, però, che qualcuno abbia preso seriamente la proposta di un censimento etnico dimostra che i rischi ci sono sempre. L’altro elemento che mi preoccupa, è il modo con cui in generale, la politica italiana, purtroppo anche in questo periodo, tratta dati, simulazioni e previsioni basate su modelli scientifici, ancorché imperfetti. È stato il caso in passato di chi veniva chiamato “gufo rosicone” quando pubblicava dei dati o risultati non in linea con quanto il governo immaginava, o basti pensare alle critiche a cui è stato soggetto il Presidente dell’Inps Tito Boeri solo perché ha sottolineato una realtà demografica del nostro paese che impone decisioni politiche in un’ottica di lungo termine. Questo tipo di atteggiamento verso chi produce dati che “disturbano il manovratore” è un atteggiamento che non aiuta il nostro paese a prendere decisioni consapevoli. Nel libro del 2014 che ho già citato avevo segnalato non solo l’evoluzione della società, dei metodi della politica e della comunicazione di cui si parla molto oggi, ma anche i rischi altissimi che questa evoluzione comporta per la democrazia, rischi che ho ricordato anche nel libro “L’utopia sostenibile” pubblicato nel 2018. In Italia manca un Istituto pubblico chiamato a valutare in modo onnicomprensivo le politiche pubbliche. L’Istat, il nuovo Istituto Nazionale per l’Analisi delle Politiche Pubbliche, il servizio valutazione delle politiche del Senato, altri istituti svolgono analisi settoriali, ma manca la visione integrata del nostro sviluppo economico, sociale e ambientale che è assolutamente necessaria data la complessità dei fenomeni. Non si può parlare di immigrazione senza parlare di demografia, di aspetti ambientali (cambiamento climatico), sociali (disuguaglianze) o economici (lavoro). Questa carenza di cultura del dato è molto preoccupante. Ci sono però degli elementi positivi: il fatto che l’Italia sia il primo paese OCSE che per legge debba valutare le politiche economiche alla luce degli indicatori del Benessere Equo e Sostenibile (BES), che sviluppai quando ero in Istat, è un elemento estremamente positivo, che però deve essere supportato dai media e dalla società quando si organizza il dibattito pubblico.

Perché descrivono meglio il Paese di quanto non faccia il più noto indicatore del Prodotto Interno Lordo?
Quando, nel 2001, assunsi il ruolo di Chief Statistician dell’OOCSE mi dovetti immediatamente confrontare con i temi della misurazione del benessere e dello sviluppo sostenibile, e già allora molti esperti internazionali concordavano sul fatto che il PIL non fosse un buon indicatore. Per questo, nel 2004, quando organizzai a Palermo il primo Forum Mondiale dell’Ocse su questi temi, organizzammo un vero e proprio movimento mondiale che poi sfociò nei Forum degli anni successivi (2007, 2009), poi proseguiti con quelli organizzato dall’Ocse nel 2012, 2016 e 2018). Tornato in Italia nel 2009 come Presidente dell’Istat, provai ad attuare quelle idee e, insieme al CNEL (Consiglio Nazionale dell’Economia e del Lavoro), che rappresenta indubbiamente al di là dei suoi limiti, la società civile italiana, sviluppammo un insieme di circa 130 indicatori che tengono conto delle diverse dimensioni del benessere, dalla salute all’ambiente, alle condizioni di salute, al lavoro, ai rapporti interpersonali, al funzionamento delle istituzioni e via dicendo. Da allora l’Istat pubblica annualmente un rapporto sugli indicatori BES con una disaggregazione territoriale e provinciale. Quando poi, nel 2016, fu discussa la revisione della Legge di Bilancio, fu accolta dal Parlamento la proposta che avevo fatto fin dal 2010, cioè che questi indicatori potessero entrare proprio nella valutazione delle politiche. Non era ovviamente immaginabile che tutti i 130 indicatori potessero entrare in questo tipo di valutazione: per questo ne sono stati scelti dodici, che riguardano diversi aspetti della società: dall’aspettativa di vita in buona salute al reddito disponibile, dal tasso di povertà alla disuguaglianza, dal tasso di mancata partecipazione al mercato del lavoro che è un concetto più ampio di quello di disoccupazione (visto che ci sono anche gli scoraggiati che non lavorano ma che non vengono contati tra i disoccupati) al tasso di criminalità predatoria, dal tasso di abusivismo edilizio alle emissioni di anidride carbonica e gas clima-alteranti, al tasso di occupazione delle donne con figli e senza figli. Questi dodici indicatori, oggi, sono per legge obbligatoriamente considerati dal governo quando, in occasione della preparazione del Documento di economia e Finanza (DEF) e dell’approvazione della Legge di bilancio, fa le sue valutazioni prospettiche e consuntive sulla base delle politiche economiche, sociali e ambientali.

Il lavoro che lei ha svolto come Presidente dell’Istat e persegue ancora sembra essere orientato a fornire una descrizione quanto più chiara possibile della realtà sociale, economica e ambientale. Quanto, secondo lei, viene raccolto dai nostri amministratori? Quanto le strategie politiche, economiche e sociali vengono influenzate da questa conoscenza del paese reale?
Non dobbiamo pensare soltanto al governo nazionale, ma anche all’Europa che usa moltissimo questi indicatori per costruire e orientare le politiche ma anche per distribuire fondi su vari temi. Dobbiamo guardare a quello che accade nelle città: molte, infatti, utilizzano i dati per definire le politiche sociali, per i piani paesaggistici o urbanistici. I dati sono tantissimi e vengono usati da molti soggetti, compresi società civile e media, che li usano per mettere sotto pressione i decisori politici. Si potrebbe sicuramente fare molto di più e molto meglio, specialmente da parte dei media. Da Presidente dell’Istat fondai la “Scuola Nazionale di Statistica” per dare alle scuole, alla società ma soprattutto ai media gli strumenti per imparare a capire e usare i dati statistici, istituendo i corsi di data journalism. Purtroppo, il governo Renzi decise di concentrare tutte le attività nella Scuola Superiore della Pubblica Amministrazione fermando così, di fatto, quell’attività. Mi arrabbio spesso perché molti media nazionali riportano notizie che citano dati senza fare i necessari approfondimenti. Tempo fa avevo lanciato la sfida ai direttori di giornale di istituire, come fatto dal quotidiano Financial Times, il ruolo dello “Statistics Editor”, ossia un giornalista con forti competenze statistiche che aiuti la testata a usare dati di qualità scartando quelli non attendibili. Lo fece per un periodo il Corriere della Sera, ma anche quella esperienza è tramontata.

Lei è passato da essere “mister statistica”, a uomo politico, ma anche uomo fortemente impegnato nella diffusione di un’etica sociale, penso al suo ruolo di Portavoce dell’Alleanza Italiana per lo Sviluppo Sostenibile (ASviS), di cui è fondatore, ma anche al fatto che come Ministro del Lavoro e delle Politiche Sociali è stato il primo a istituire una specie di reddito di cittadinanza. Cosa la spinge verso questa dimensione?
Nel 1976 leggendo un libro che si basava sulle previsioni del Club di Roma in merito al caos che il mondo sarebbe stato intorno al 2020, mi dissi che ci sarebbe stato bisogno di una mano e decisi di fare l’economista. La mia storia professionale mi portò poi più verso i dati, ma questa tensione etica mi ha sempre accompagnato e ho avuto la grande fortuna, nella mia vita, di poterla realizzare. Il fatto che, una volta terminato l’incarico da Ministro, sia stato chiamato dal Segretario Generale dell’ONU mi ha consentito di riavvicinarmi al mio vecchio amore, contribuendo alla definizione dell’Agenda 2030 per lo sviluppo sostenibile Quando l’Agenda è stata firmata, nel settembre del 2015, mi sono chiesto cosa potessi fare per realizzarla. Per questo tra le altre attività, faccio volontariato come Portavoce dell’ASviS.

Nel suo ultimo libro “L’utopia sostenibile”, richiama all’idea della “retrotopia” di Zygmunt Bauman. Cosa possiamo fare per difenderci dai retrotopisti?
La “retrotopia” sembra essere la visione in molti soggetti, anche con responsabilità di governo, in Italia ma non solo. Si tratta dell’idea di dover “fermare il mondo” e tornare indietro ad una realtà che non è mai esistita o che comunque non potrà tornare. Questo spinge a elevare, muri, a individuare nemici, a scegliere il bilateralismo invece del multilateralismo, e così via. Credo profondamente nella possibilità di un cambiamento, ma sono anche pessimista, perché ritengo che non ci sia una sufficiente consapevolezza del fatto che le crisi che stiamo vivendo non sono un mero accidente, dovuto all’errore di qualcuno o al merito di qualcun altro, ma hanno delle cause profonde che vanno lette nell’ambito storico. Non posso far altro che essere un pessimista razionale e un volenteroso convinto. Ho dedicato il mio ultimo libro alla mia nipotina, Livia, nata un anno e mezzo fa e ora dovrò scriverne altri due per i miei due nipotini appena arrivati. Quindi, non ci resta altro da fare che provare a realizzare un’utopia sostenibile intorno all’Agenda 2030, perché è l’unica possibile. La vera utopia stupida è pensare che l’attuale modello di sviluppo e che questo tipo di politiche ci portino da qualche parte. Contro questo dobbiamo combattere, usando la saggezza che il mondo ha voluto mettere nel disegnare l’Agenda 2030 e i suoi obiettivi.

 
TAG: Big Data

TORNA INDIETRO >>