All Around Work
Applicazioni - Servizi
 

03/10/2012

Share    

Time to market e salvaguardia degli investimenti - Big Data Terza Parte

Terza puntata della Tavola Rotonda di Office Automation che ha coinvolto 13 vendor

 

 

 

Terza puntata della Tavola Rotonda Office Automation che ha coinvolto 13 vendor

 

 

Leggere la realtà, interpretarla e prendere decisioni, sempre di più un domani per un’azienda o per un ente pubblico significherà confrontarsi con il mondo digitale, ovvero con l’unico ambiente in grado di garantire un’ampia lettura della realtà, oggi magari non ancora completa, ma che in futuro sarà sicuramente onnicomprensiva ed esaustiva. E’ possibile leggere il mondo digitale con le infrastrutture ICT di oggi?

 

 

Salvaguardia degli investimenti e time to market: qual è la vostra opinione

in relazione a questi temi sui quali gli utenti sono più sensibili?

 

 

Gentile, Fujitsu Technology Solutions – L’impatto dei Big Data nei data center è notevole: non solo si registra un aumento consistente dei volumi in ingresso, ma una volta estratte le informazioni da diffondere queste ‘raddoppiano’ perché devono essere distribuite in ottica multi device. L’approccio giusto parte da un assessment approfondito e dalla programmazione di un piano di crescita coerente. Nello scenario Big Data l’infrastruttura IT è comunque destinata a crescere, e questo implica una grande attenzione anche al tema dell’efficienza energetica, pena un’esplosione di costi incontrollata: è quindi necessario elaborare una proiezione evolutiva del data center su un arco temporale di due/tre anni. Le soluzioni che accelerano l’analisi del dato non generano invece un impatto eccessivo sulle infrastrutture, già inserite in contesti eterogenei.

 

 

Venturati, Microsoft – Credo che lo sforzo di tutti sia quello di disegnare progetti Big Data sulla base delle infrastrutture e delle competenze già presenti nelle aziende. Per quanto ci riguarda, in tema di analisi dei Big Data, per esempio, abbiamo creato un unico layer per l’accesso ai dati di BI, dal punto di vista della programmazione dei developer BI, al fine di non creare, dove possibile, un’eccessiva discontinuità in un ambito che, in realtà, ne presenta diverse. Bisogna poi investire in sessioni educative, per spiegare al top management cosa fa la BI già presente in azienda e cosa sono i Big Data, evidenziando le opportunità che offrono, ma anche le insidie e i tranelli. Bisogna insomma essere molto chiari negli obiettivi di business che si vogliono raggiungere attraverso una strategia Big Data, e intervenire in maniera chirurgica.

 

 

Todaro, SAP – È difficile spiegare ai clienti che è arrivato il momento di voltare pagina, lasciandosi alle spalle, nello specifico, i tradizionali database relazionali, che raccolgono dati storicizzati e mantenuti con il modello delle righe e delle colonne, ma è quello che sta facendo SAP, proponendo con successo Hana, una soluzione fortemente innovativa e di rottura. Bisogna far capire ai clienti che con la tecnologia in-memory (l’elaborazione dei dati caricati nella memoria di lavoro, RAM) si cambia completamente paradigma,
introducendone uno nuovo che incrementa enormemente l’efficienza, a costi sostenibili. Se tra memoria di lavoro e memoria su disco, infatti, fino a ieri c’era un forte divario di prezzo, a discapito della prima, ora le cose stanno cambiando, visto che per la memoria di lavoro il valore è di circa 5.000 dollari per TB, un livello accettabile.

 

 

Sortino, EMC – Non si possono continuare a investire risorse per spostare i dati da un punto all’altro, soprattutto in un momento in cui l’innovazione deve andare di pari passo con l’attenzione al budget. Il nostro approccio è quello di vedere tutta l’architettura - dal server all’archivio dei dati - come una serie di layer e tier differenti, al fine di ottimizzare lo spostamento dei dati in base alle frequenze delle richieste di accesso che arrivano dalle applicazioni.
Per supportare i Big Data abbiamo quindi aggiunto architetture ‘scale out’ in cui si inseriscono in maniera lineare capacità, nodi e connettività nelle varie tecnologie a disposizione.
Grazie all’acquisizione di Greenplum (fornitore di soluzioni Hadoop), abbiamo inoltre introdotto un sistema di ‘ingestion’ dei dati molto performante a supporto dell’aspetto analytics.

 

 

Agolli, Informatica – Non basta discutere se è meglio far lavorare il database o il motore ETL, bisogna verificare quanti sono, oggi, i clienti che gestiscono il loro patrimonio informativo come un vero e proprio asset, a prescindere dalle tecnologie utilizzate, e perché molte soluzioni di BI non sono in grado di soddisfare le aspettative del top management. Il nostro approccio è quello di proporre un unico framework per fare progetti di BI efficaci e performanti. ETL, data quality, tracciabilità dei dati, analisi: con i Big Data ci sono delle sorgenti di dati in più da dover gestire, ma la filosofia resta immutata, così come gli skill richiesti. Con le nostre soluzioni uno sviluppatore Hadoop, per esempio, non deve fare interventi custom di programmazione in vari script Java, Perl o altro, utilizza sempre tecniche classiche di visualizzazione.

 

 

Bellinzona, Ecos, Dedagroup – In qualità di consulenti, per noi la tecnologia è una componente accessoria: sono sedici anni che facciamo progetti di BI, business analytics e ora advanced analytics; vediamo una continuità di fondo, in cui la salvaguardia degli investimenti pre esistenti ha un ruolo importante. Nel caso dei Big Data il fattore più critico è l’estrazione di dati consistenti dai social network. Sono già stati sottolineati i forti vincoli normativi esistenti in Italia per accedere ai dati di chi naviga nel web. Oggi attività come il crawling (analisi dei contenuti di una rete), il parsing (analisi sintattica) e l’entity extraction sono ancora sperimentali, per cui bisogna creare sinergie. Ecos, per esempio, aderisce al consorzio Semantic Valley di Trento, un centro di eccellenza riconosciuto a livello internazionale.

 

 

Guerrieri, Reply – Stiamo passando dalla teoria alla pratica. Con tre grandi brand abbiamo fatto tre giorni di raccolta, collezionando in totale un milione di tweet, vale a dire 147 caratteri per tweet, in diverse lingue. Ora stiamo cercato di capire come referenziare le lingue, un altro problema legato ai Big Data. Tenendo questa mole di dati per un mese si mette in crisi non tanto l’hardware quanto il sistema operativo. Una facilitazione nella barriere d’ingresso è il cloud, che consente di avviare questo tipo di sperimentazioni utilizzando cluster in cloud, a costi sostenibili. Con un milione di twieet devo poi capire quali sono i dati rilevanti, e quali tecnologie analitiche utilizzare (Netezza, Watson…), bisogna poi avere risorse in grado di leggere i dati, un altro aspetto critico. In questo modo, però, le prime sperimentazioni si possono avviare.

 

 

Sassi, IBM – Fermo restando l’importanza della salvaguardia degli investimenti, non ci si può illudere che con piccoli passi si possano affrontare nuove sfide. Siamo di fronte a un salto di paradigma significativo a più livelli: tecnologico, di competenze e di processo. Il nostro approccio è quello di definire con i clienti una ‘information agenda’, impostando insieme una road map che, partendo dall’as is, vada verso un obiettivo ben definito, chiaro e monetizzabile, perché in questo momento i vantaggi devono essere chiaramente quantificabili e dimostrabili. Per questo definiamo un percorso evolutivo che identifica in che modo cambiare i processi, quali competenze servono e quali sono le tecnologie e l’infrastruttura necessarie: senza un approccio di questo tipo non è possibile far percepire ai clienti il valore della nostra proposizione, e si rischia il fallimento.

 

 

Giannetti, Microstrategy – Anche Microstrategy crede molto nel cloud: abbiamo investito molto in questa direzione, e ora siamo in grado di fornire accesso ai Big Data nel nostro cloud, rendendo disponibile una piattaforma molto performante. Abbiamo lavorato anche sul fronte social, in particolare Facebook, mettendo a punto una soluzione che permette di analizzare e segmentare i dati provenienti da questo social network. In Europa il primo progetto è stato realizzato per il football club Barcellona, che su Facebook ha 28 milioni di fan: si voleva conoscere meglio questa platea, per incrementare il merchandising. Attraverso un sistema di token, il fan fornisce al Barcellona le autorizzazioni necessarie per processare i dati, e da lì partono la raccolta dei dati e le analisi che portano alla realizzazione di programmi di marketing mirati.

 

 

Borgonovo, Adobe – I dati vengono prodotti a getto continuo: al di là delle tecnologie, oggi, bisogna lavorare sugli aspetti organizzativi, di skill, di metriche, per identificare il valore, spesso nascosto, di questa enorme quantità di dati. In questo momento molti clienti affidano i propri Big Data ai nostri data service, ma naturalmente proponiamo anche l’approccio in house. Attualmente abbiamo circa 27 petabyte di dati nella nostra infrastruttura, su cui i clienti, in particolare i responsabili marketing, fanno analisi di correlazione, real time, dimensional, di sentiment, dell’efficacia delle politiche di investimento, per capire qual è il contenuto rilevante da proporre al singolo cliente, il livello di personalizzazione che si può introdurre in un percorso di navigazione, il coinvolgimento che si può creare intorno a un contenuto video ecc.

 

 

Ferraro, SAS – Oggi i clienti sono in una fase esplorativa, cercano nei vendor tecnologici, ma non solo, qualcuno in grado di aiutarli a capire quali soluzioni possono implementare velocemente per incrementare la propria competitività. Oltre al tema degli investimenti infrastrutturali e degli skill, con l’avvento dei Big Data i reparti IT devono ripensare il data management, i processi operativi, perché introdurre dati esterni in azienda vuole dire mettere barriere all’ingresso che possano filtrare tali dati rilevanti, laddove la definizione di rilevante abbraccia varie sfaccettature, dalla sensibilità del dato alla compliance normativa, che magari richiede di rendere anonimo il dato. Problematiche nuove che, in base alla nostra esperienza, sono quelle che oggi suscitano i dubbi maggiori.

 

 

Maio, QlikView – Più che alla salvaguardia degli investimenti oggi le aziende guardano al TCO, al total cost of ownership rispetto allo sviluppo e al valore che viene creato. Penso quindi che sia importante spostare il focus sul valore: cosa serve, oggi, per creare valore? Se è vero, come è vero, che il mondo sta cambiando, le aziende devono adeguarsi, mettendo in atto cambiamenti razionali in grado di creare valore. Le ricerche dicono, però, che ancora oggi la parte ancestrale del cervello umano è quella che comanda, che per il 53% le nostre decisioni nascono in quella zona. Il nostro compito è fornire strumenti in grado di confermare con dati puntuali la validità delle scelte dettate da quel 53% di cervello. Dopo aver disegnato insieme ai clienti una road map e capito quali saranno i costi, bisogna quindi focalizzarsi sul valore del progetto.

 

 

Guarino, Oracle – Se si vogliono gestire veramente i Big Data bisogna pensare a una capacità elaborativa corretta fatta in tempi rapidi. Oracle ha cercato di scindere il problema in due, da una parte affrontando il tema dell’immagazzinamento dei Big Data, quelli trattati in Hadoop file system in realtà ancora poco conosciuti, dall’altro focalizzandosi sul tema dell’estrazione di quel 15% di dati realmente rilevanti che devono essere messi a fattor comune con i dati tradizionali. Secondo la nostra visione i dati rilevanti provenienti dall’esterno devono essere trasportati, nel modo più semplice possibile, all’interno delle infrastrutture esistenti, le piattaforme decisionali e i data warehouse. La parte più critica per estrarre valore dai Big Data, secondo noi, è proprio quella di facilitarne l’estrazione e il congiungimento all’interno dei sistemi esistenti, che vanno salvaguardati.
 

 

TORNA INDIETRO >>