Regent 2
Applicazioni
 

24/06/2013

Share    

I ‘grandi dati’ che appassionano le aziende italiane. Appuntamento a Milano

Cronaca della tappa romana dell'evento che ha visto ha visto la presenza di oltre 260 partecipanti

 

Il Big Data Congress organizzato da Soiel International lo scorso 12 marzo a Roma (prossimo appuntamento a Milano il 3 dicembre), che ha visto la presenza di oltre 260 partecipanti, ha messo in evidenza le risposte che oggi può dare il mercato alle domande che molte aziende si fanno per capire come riuscire ad approcciare un argomento che va ben al di là della tecnologia, ma che a tutti gli effetti appare ancora come piuttosto immatura. Domande che arrivano non solo da realtà che si stanno avvicinando alla tematica per la prima volta, ma anche da coloro che hanno iniziato un percorso di sperimentazione.
È la fotografia della consapevolezza che oggi c’è in molte aziende utenti: in queste realtà ci si rende sempre più conto che per essere efficaci sul mercato non è più sufficiente analizzare i dati che arrivano dai sistemi gestionali, quali ERP, CRM e sistemi specializzati, ma diventa sempre più importante individuare le preferenze dei clienti attuali, e di quelli potenziali, attraverso i canali informali più variegati: social network, internet, sistemi di posta elettronica, informazioni raccolte via SMS e quant’altro oggi può caratterizzare la comunicazioni di un qualsiasi individuo in uno spazio ‘pubblico’ digitale.
Se i volumi dati di queste attività sono destinati a crescere in modo molto rapido nei prossimi anni, ormai sappiamo tutti che è altrettanto importante focalizzarsi anche sulle problematiche della velocità e della varietà delle fonti da cui i dati saranno generati anche in diverso formato, e che potranno differenziarsi ancora di più in futuro. È la nota legge delle 3V (volume, varietà, velocità), alla quale in molti ormai oggi aggiungono anche quella di valore. Perché i Big Data devono portare nuovo business, e quindi nuovi profitti, e non solo essere un esercizio accademico.

 

 

Uno ‘shift’ di paradigma
 

La tappa di Roma si è sviluppata attraverso il format delle conversazioni, che consente un confronto diretto tra le esigenze, gli interessi e le curiosità delle aziende utenti e i rappresentanti di aziende dell’offerta focalizzati su tematiche specifiche. È questo un modello che rende più efficace il trasferimento delle informazioni poiché le conversazioni si concentrano sulle problematiche reali e sulle risposte che a queste possono essere date, mettendo a confronto anche soluzioni e impostazioni diverse.
Il Big Data Congress ha però preso il via sulle considerazioni che Marco Pancotti, presidente della società di ricerca Mate, ha voluto condividere con la platea. Le direttrici verso cui evolve il tema della gestione dei dati vanno come già detto verso un aumento delle dimensioni, ma anche verso la crescita della complessità elaborativa e strutturale. Oggi si può ricorrere al complesso di tecnologie e di soluzioni definite come Big Data, quando i dati che interessano all’impresa, a fronte delle tre direttrici evolutive appena descritte, non possono essere catturati, gestiti ed elaborati con le logiche tradizionali. Queste, infatti, con estrema difficoltà possono assicurare dei tempi di risposta compatibili con le esigenze di business. I Big Data quindi oggi rappresentano uno ‘shift’ di paradigma rispetto all’approccio elaborativo tradizionale che ha inevitabilmente un impatto non solo tecnologico sull’IT aziendale e, naturalmente, anche sul business. Le aziende devono quindi prepararsi a fare i conti con una nuova realtà che se non raccolta, studiata e valutata per tempo può tradursi in una rincorsa infinita per recuperare il vantaggio competitivo che qualche concorrente nei prossimi tempi potrebbe invece raggiungere.
Se negli Stati Uniti molte realtà stanno per ora portando avanti dei progetti pilota, diversi dei quali si concluderanno nel corso del 2013, nel nostro Paese la consapevolezza delle potenzialità e dei benefici dell’approccio Big Data al business è in forte crescita, ma siamo solo alle fasi iniziali.

 

 

Come si possono utilizzare i Big Data
 

La prima conversazione ‘Big Data istruzioni per l’uso’ si è concentrata sui temi che è importante chiarire quando si inizia ad approcciare la tematica. La discussione ha preso vita grazie alle domande che in qualità di rappresentante degli utenti Claudio Diotallevi, direttore sistemi informativi di NTV, la società che gestisce il trasporto passeggeri sui treni Italo, ha rivolto ai rappresentanti dei vendor: Guido Pezzin, regional sales manager di HP Vertica, intervenuto in rappresentanza di BNova Consulting, Dario Buzzi managing director di GCI, Gruppo Consulenza e Innovazione, e Massimo Vulpiani, country manager di RSA.
Il punto iniziale è stato riuscire a capire come i Big Data utilizzati in abbinamento a logiche real time possono innovare i processi di un impresa che opera in un qualsiasi mercato tradizionale, sfida che può essere colta cercando di conoscere al meglio le esigenze dei propri clienti. Dare risposte puntuali in tempi molto rapidi è una delle chiavi più efficaci per l’utilizzo dei Big Data, ma per raggiungere questo importante traguardo, non si possono tralasciare dei dettagli particolari ma molto critici come: la certificazione e la qualità del dato, due processi irrinunciabili che le aziende, per assicurare i migliori tempi di risposta alle esigenze emerse dalla clientela, si devono preparare ad affrontare con una logica di tempo reale.
Da qui il problema della varietà, poiché i dati, soprattutto per le aziende abituate a esternalizzare molti processi, possono essere raccolti da una varietà di partner commerciali, fornitori e outsourcer, e quindi diventa importante capire come si riconduce a una visione unitaria la molteplicità di dati che possono arrivare tutti insieme nel proprio sistema informativo, ma che all’origine sono creati e gestiti da aziende diverse.
Diverse le questioni dibattute: per esempio, se è vero che oggi si sente molto parlare di sentiment analysis per riuscire a capire cosa le persone dicono di un particolare brand o azienda o avvenimenti legati a queste nel mondo digitale, il salto di qualità è riuscire ad applicare e valorizzare in termini di business i risultati di queste attività. Ma anche, visto che l’interazione con il cliente sarà sempre più digitale, oggi molte aziende hanno l’esigenza di qualificare e autenticare la persona che apre una sessione di dialogo con l’azienda in maniera più forte; così come diventa un aspetto particolarmente critico la protezione dalle frodi per i siti che fanno e-commerce e che trattano grandi volumi di dati.

 

 

Preparare l’infrastruttura ICT ai Big Data

 

Il progetto di una infrastruttura ICT in grado di gestire i Big Data mette in discussione i paradigmi che fino a oggi sono stati validi nella realizzazione delle architetture enterprise più tradizionali. Da questa evidenza è partita la seconda conversazione che ha visto la partecipazione quale rappresentante degli utenti di Gian Enrico Paglia, responsabile architetture IT di Telecom Italia Information Technology che ha dialogato insieme a Roberto Cherubini, senior sales consultant di Fujitsu Technology Solutions, Mauro Ballerini responsabile commerciale di Fusion-io e Alberto Prandini, regional director Italia, Grecia e Cipro di Radware.
Fatto salvo che naturalmente la tecnologia ha un ruolo fondamentale nella progettazione di una infrastruttura in grado di ospitare e gestire i Big Data, la conversazione si è inizialmente focalizzata sugli aspetti che vanno al di là del solo aspetto tecnologico. Infatti soprattutto per avere una piena operatività dell’infrastruttura una volta che questa sarà andata a regime, è importante in fase di definizione del progetto occuparsi della modelizzazione dei dati che verranno poi gestiti. Questo però tenendo ben presente che come evolve il business, e come cambiano di conseguenza i Big Data che entrano in gioco di volta in volta, è necessario che anche l’infrastruttura ICT predisposta dimostri flessibilità, apertura e capacità di rapida integrazione verso le nuove, e magari inedite, fonti dati.
In questo ambito rientra la domanda che tutte le aziende consapevoli della sempre forte crescita dei dati oggi si fanno: come si gestisce la crescita dei volumi, ed è possibile integrare nelle infrastrutture Big Data, al fine di dare supporto anche a questo fenomeno, delle piattaforme già esistenti? La salvaguardia degli investimenti, soprattutto in tempi come questi, è un argomento sempre attuale, ma non può però essere l’unico elemento che guida il progetto Big Data.
Infine il tema del cloud computing, che può essere un’opzione interessante proprio per gestire la crescita dei Big Data, ma anche per garantire maggiore sicurezza al sistema informativo. Per molte aziende infatti potrebbe essere interessanti disporre di un’architettura Big Data che tratta internamente i dati provenienti da fonti ‘sicure’ e nel cloud quelli che invece arrivano, per esempio dai social network, e procedere con un consolidamento tra questi solo in una fase successiva a quella della raccolta.

 

 

Come dare nuovo valore al business
 

Il valore di business dei Big Data è stato invece il tema della terza conversazione a cui hanno partecipato, come rappresentante degli utenti, Emanuele Schirru, responsabile ICT di Soluzioni per il Sistema Economico (società mista tra Ministero Economia e Finanza e Banca d’Italia), e Giovanni Lanaro, partner e CEO di Mind The Gap, Sergio Fiora, business development public sector di Oracle e Giacomo Lorusso, sales director di SAS.
Il confronto è partito sul tema di come si governa la varietà e la complessità delle informazioni eterogenee presenti in un ambiente Big Data. E quindi qual è il giusto compromesso tra qualità del dato ed elaborazione realtime. Trovate le risposte a questi primi temi, l’azienda può iniziare a capire come i Big Data possono portare nuovo valore aggiunto alle attività svolte con le soluzioni analytics, e quindi che ruolo possono avere le performance dei sistemi di elaborazione per ridurre i tempi di queste attività.
Ma la vera sfida in questo ambito è cercare le correlazioni tra dati transazionali e dati destrutturati e tra questi, quindi, come si riescono a riconoscere i dati rilevanti. Ma soprattutto… come si riesce a ‘non morire’ di troppe informazioni.

 
TAG: Big Data

TORNA INDIETRO >>