42
office automation
luglio-agosto 2012
cambiando, visto che per la me-
moria di lavoro il valore è di circa
5.000 dollari per TB, un livello ac-
cettabile.
Sortino, EMC
– Non si possono
continuare a investire risorse per
spostare i dati da un punto all’al-
tro, soprattutto in un momento in
cui l’innovazione deve andare di
pari passo con l’attenzione al bud-
get. Il nostro approccio è quello di
vedere tutta l’architettura - dal ser-
ver all’archivio dei dati - come una
serie di layer e tier differenti, al
fine di ottimizzare lo spostamento
dei dati in base alle frequenze delle
richieste di accesso che arrivano
dalle applicazioni.
Per supportare i Big Data abbiamo
quindi aggiunto architetture ‘scale
out’ in cui si inseriscono in ma-
niera lineare capacità, nodi e con-
nettività nelle varie tecnologie a
disposizione.
Grazie all’acquisizione di Green-
plum (fornitore di soluzioni Ha-
doop), abbiamo inoltre introdotto
un sistema di ‘ingestion’ dei dati
molto performante a supporto del-
l’aspetto analytics.
Agolli, Informatica
– Non basta
discutere se è meglio far lavorare il
database o il motore ETL, bisogna
verificare quanti sono, oggi, i clienti
che gestiscono il loro patrimonio
informativo come un vero e proprio
asset, a prescindere dalle tecnologie
utilizzate, e perché molte soluzioni
di BI non sono in grado di soddi-
sfare le aspettative del top manage-
ment. Il nostro approccio è quello
di proporre un unico framework
per fare progetti di BI efficaci e per-
formanti. ETL, data quality, traccia-
bilità dei dati, analisi: con i Big Data
ci sono delle sorgenti di dati in più
da dover gestire, ma la filosofia re-
sta immutata, così come gli skill ri-
chiesti. Con le nostre soluzioni uno
sviluppatore Hadoop, per esempio,
non deve fare interventi custom di
programmazione in vari script Java,
Perl o altro, utilizza sempre tecniche
classiche di visualizzazione.
Bellinzona, Ecos, Dedagroup
– In
qualità di consulenti, per noi la
tecnologia è una componente ac-
cessoria: sono sedici anni che fac-
ciamo progetti di BI, business ana-
lytics e ora advanced analytics;
vediamo una continuità di fondo,
in cui la salvaguardia degli investi-
menti pre esistenti ha un ruolo im-
portante. Nel caso dei Big Data il
fattore più critico è l’estrazione di
dati consistenti dai social network.
Sono già stati sottolineati i forti
vincoli normativi esistenti in Italia
per accedere ai dati di chi naviga
nel web. Oggi attività come il cra-
wling (analisi dei contenuti di una
rete), il parsing (analisi sintattica) e
l’entity extraction sono ancora spe-
rimentali, per cui bisogna creare
sinergie. Ecos, per esempio, aderi-
sce al consorzio Semantic Valley di
Trento, un centro di eccellenza ri-
conosciuto a livello internazionale.
Guerrieri, Reply
– Stiamo passando
dalla teoria alla pratica. Con tre
grandi brand abbiamo fatto tre
giorni di raccolta, collezionando in
totale un milione di tweet, vale a
dire 147 caratteri per tweet, in di-
verse lingue. Ora stiamo cercato di
capire come referenziare le lingue,
un altro problema legato ai Big Data.
Tenendo questa mole di dati per un
mese si mette in crisi non tanto
l’hardware quanto il sistema opera-
tivo. Una facilitazione nella barriere
d’ingresso è il cloud, che consente
di avviare questo tipo di sperimen-
tazioni utilizzando cluster in cloud,
a costi sostenibili. Con un milione
di twieet devo poi capire quali sono
i dati rilevanti, e quali tecnologie
analitiche utilizzare (Netezza, Wat-
son…), bisogna poi avere risorse in
grado di leggere i dati, un altro
aspetto critico. In questo modo,
però, le prime sperimentazioni si
possono avviare.
Sassi, IBM
– Fermo restando l’im-
portanza della salvaguardia degli
investimenti, non ci si può illu-
dere che con piccoli passi si pos-
sano affrontare nuove sfide. Siamo
di fronte a un salto di paradigma
Tavola rotonda - Big Data