luglio-agosto 2012
office automation
43
significativo a più livelli: tecnolo-
gico, di competenze e di processo.
Il nostro approccio è quello di de-
finire con i clienti una ‘information
agenda’, impostando insieme una
road map che, partendo dall’as is,
vada verso un obiettivo ben defi-
nito, chiaro e monetizzabile, per-
ché in questo momento i vantaggi
devono essere chiaramente quan-
tificabili e dimostrabili. Per questo
definiamo un percorso evolutivo
che identifica in che modo cam-
biare i processi, quali competenze
servono e quali sono le tecnologie
e l’infrastruttura necessarie: senza
un approccio di questo tipo non è
possibile far percepire ai clienti il
valore della nostra proposizione, e
si rischia il fallimento.
Giannetti, Microstrategy
– An-
che Microstrategy crede molto nel
cloud: abbiamo investito molto in
questa direzione, e ora siamo in
grado di fornire accesso ai Big Data
nel nostro cloud, rendendo dispo-
nibile una piattaforma molto per-
formante. Abbiamo lavorato an-
che sul fronte social, in particolare
Facebook, mettendo a punto una
soluzione che permette di analiz-
zare e segmentare i dati prove-
nienti da questo social network. In
Europa il primo progetto è stato
realizzato per il football club Bar-
cellona, che su Facebook ha 28
milioni di fan: si voleva conoscere
meglio questa platea, per incre-
mentare il merchandising. Attra-
verso un sistema di token, il fan
fornisce al Barcellona le autorizza-
zioni necessarie per processare i
dati, e da lì partono la raccolta dei
dati e le analisi che portano alla
realizzazione di programmi di
marketing mirati.
Borgonovo, Adobe
– I dati ven-
gono prodotti a getto continuo: al
di là delle tecnologie, oggi, bisogna
lavorare sugli aspetti organizzativi,
di skill, di metriche, per identifi-
care il valore, spesso nascosto, di
questa enorme quantità di dati. In
questo momento molti clienti affi-
dano i propri Big Data ai nostri
data service, ma naturalmente pro-
poniamo anche l’approccio in
house. Attualmente abbiamo circa
27 petabyte di dati nella nostra in-
frastruttura, su cui i clienti, in par-
ticolare i responsabili marketing,
fanno analisi di correlazione, real
time, dimensional, di sentiment,
dell’efficacia delle politiche di in-
vestimento, per capire qual è il
contenuto rilevante da proporre al
singolo cliente, il livello di perso-
nalizzazione che si può introdurre
in un percorso di navigazione, il
coinvolgimento che si può creare
intorno a un contenuto video ecc.
Ferraro, SAS
– Oggi i clienti sono
in una fase esplorativa, cercano
nei vendor tecnologici, ma non
solo, qualcuno in grado di aiutarli
a capire quali soluzioni possono
implementare velocemente per in-
crementare la propria competiti-
vità. Oltre al tema degli investi-
menti infrastrutturali e degli skill,
con l’avvento dei Big Data i reparti
IT devono ripensare il data mana-
gement, i processi operativi, per-
ché introdurre dati esterni in
azienda vuole dire mettere barriere
all’ingresso che possano filtrare tali
dati rilevanti, laddove la defini-
zione di rilevante abbraccia varie
sfaccettature, dalla sensibilità del
dato alla compliance normativa,
che magari richiede di rendere
anonimo il dato. Problematiche
nuove che, in base alla nostra
esperienza, sono quelle che oggi
suscitano i dubbi maggiori.
Maio, QlikView
– Più che alla sal-
vaguardia degli investimenti oggi
le aziende guardano al TCO, al to-
tal cost of ownership rispetto allo
sviluppo e al valore che viene
creato. Penso quindi che sia im-
portante spostare il focus sul va-
lore: cosa serve, oggi, per creare
valore? Se è vero, come è vero, che
il mondo sta cambiando, le
aziende devono adeguarsi, met-
tendo in atto cambiamenti razio-
nali in grado di creare valore. Le ri-
cerche dicono, però, che ancora
oggi la parte ancestrale del cer-
vello umano è quella che co-
manda, che per il 53% le nostre
decisioni nascono in quella zona.
Il nostro compito è fornire stru-
menti in grado di confermare con
dati puntuali la validità delle scelte
dettate da quel 53% di cervello.
Dopo aver disegnato insieme ai
clienti una road map e capito quali
saranno i costi, bisogna quindi fo-
calizzarsi sul valore del progetto.
Guarino, Oracle
– Se si vogliono
gestire veramente i Big Data biso-
gna pensare a una capacità elabo-
rativa corretta fatta in tempi ra-
pidi. Oracle ha cercato di scindere
il problema in due, da una parte
affrontando il tema dell’immagaz-
zinamento dei Big Data, quelli trat-
tati in Hadoop file system in realtà
ancora poco conosciuti, dall’altro
focalizzandosi sul tema dell’estra-
zione di quel 15% di dati real-
mente rilevanti che devono essere
messi a fattor comune con i dati
tradizionali. Secondo la nostra vi-
sione i dati rilevanti provenienti
dall’esterno devono essere tra-
sportati, nel modo più semplice
possibile, all’interno delle infra-
strutture esistenti, le piattaforme
decisionali e i data warehouse. La
parte più critica per estrarre valore
dai Big Data, secondo noi, è pro-
prio quella di facilitarne l’estra-
zione e il congiungimento all’in-
terno dei sistemi esistenti, che
vanno salvaguardati.