All Around Work
Applicazioni
 

30/10/2012

Share    

Come spremere i Big Data fino all’ultima goccia. La ricetta HP

Information Optimization per capire, gestire e agire sul 100% dei dati disponibili

 

Il fenomeno dei Big Data parte dalla crescita del volume di dati, ma oltre a questo aspetto include fattori di velocità, varietà e complessità dell’informazione oggi disponibile. Secondo un’indagine di Coleman condotta per conto di HP, solo il 2% dei business e technology executive afferma che la propria azienda è sempre in grado di fornire le informazioni giuste al momento giusto per supportare sempre i giusti risultati di business.

 

Il punto è che i precedenti approcci alla gestione delle informazioni, che fanno leva su architetture, infrastrutture e sistemi di analisi sorpassati, non riescono a individuare i concetti e il valore insiti nelle diverse forme di informazioni.

 

Allo stesso modo, con questi approcci ci si trova incapaci di scalare ed elaborare, a costi concorrenziali e in tempo reale, le grandi masse di informazioni raccolte in dati strutturati, non strutturati e meccanizzati. “I Big Data introducono una nuova categoria di informazioni che sfugge ai sistemi utilizzati finora per la Business Intelligence − afferma Paolo Cattolico di HP IM Marketing Manager Emea − una categoria fatta soprattutto di dati destrutturati e semi-strutturati nell’ordine di petabyte che è proibitivo pensare di inquadrare in una base dati di tipo tradizionale”.

 

 

C’è voglia (anzi bisogno) di qualcosa di nuovo
 

 

La necessità di qualcosa di nuovo nella BI in senso ampio è evidente se si osserva che le opinioni mutevoli dei clienti vengono condivise su Twitter e YouTube, nel web, via e-mail e nelle conversazioni telefoniche che la maggior parte delle volte avvengono al di fuori dei confini dell’impresa. Persino il traffico di persone registrato dai sensori di un negozio può costituire una forma di opinione. Servono nuovi sistemi ma anche nuove professionalità: secondo Gartner gli statistici saranno la figura aziendale più ricercata da qui al 2015, perché sarà proprio la capacità di fare inferenza statistica e trovare correlazioni tra i dati la cosa più importante per le organizzazioni.
 

Oggi molte aziende alle prese con la crescita esponenziale delle informazioni stanno passando ad Apache Hadoop, una tecnologia di elaborazione dei dati open source e distribuita che sembra rispondere alle loro esigenze di archiviazione e gestione di petabyte di dati.
 

“L’open source quando si parla di Big Data ha il vantaggio di presentare costi più bassi e una tecnologia industry standard da tempo in produzione: che questi fattori attirino gli investimenti delle aziende non mi stupisce affatto”, sottolinea Cattolico.

 

 

La strategia di HP per il 100% Big Data
 

 

Sul nuovo fronte che si apre HP non è rimasta alla finestra e anzi ha investito nell’innovazione necessaria per costruire un portafoglio il più possibile completo di soluzioni per l’Information Optimization. Con il vantaggio rispetto ai competitor di partire dalla posizione privilegiata di chi dispone di una proprietà intellettuale unica e di tecnologie in grado di risolvere le criticità che le aziende hanno con i Big Data. In effetti, a ben guardare, sembra davvero che HP abbia saputo organizzarsi in modo tale da permettere oggi ai propri clienti di gestire, comprendere e agire sul 100% dei dati.

 

Lo ha fatto con le nuove soluzioni HP Converged Infrastructure, le tecnologie di Autonomy e Vertica, entrambe HP company, e con i servizi di data management di HP. Lo ha fatto anche interpretando il fenomeno Big Data non solo in chiave di problema tecnico, ma come l’opportunità di capire i benefici di un uso strategico dell’informazione, che sta all’azienda indirizzare.
 

Esistono fondamentalmente due modi di usare i Big Data: uno tattico e uno strategico. “L’approccio tattico è di tipo difensivo e mirato a usare le informazioni soprattutto per difendersi, ad esempio per prevenire furti e frodi – spiega Cattolico –. L’uso strategico è invece di chi cerca informazioni per allargare il business o individuare nuove opportunità di mercato. Finora l’approccio strategico lo si è visto soprattutto in USA e nel mondo anglosassone, mentre in Italia e nell’Europa mediterranea prevale ancora un interesse di tipo difensivo”.

 

 

Non solo (ma anche) tecnologia
 

 

Una scelta forte per HP è stata l’acquisizione di Autonomy e della sua soluzione IDOL, Intelligent Data Operating Layer, capace di comprendere concetti e dati in tutte le forme di pattern. Così che oggi la nuova soluzione di Autonomy, Optimost Clickstream Analytics, diventa un gran bel valore aggiunto per i professionisti del marketing offrendo un’unica vision omogenea su visite, conversioni e coinvolgimento dei clienti sui siti di e-commerce.

 

“Autonomy Optimost Clickstream Analytics sfrutta le tecnologie Vertica Analytics Platform e Autonomy IDOL per permettere l’accesso a dati granulari sulle sequenze dei clic utili per aggregare, combinare e analizzare le informazioni nel modo più opportuno per chi opera nel marketing”, spiega Cattolico.
 

L’introduzione di Vertica 6, ultima versione della piattaforma HP Vertica Analytics Platform, ha invece dato alle aziende la possibilità di connettersi, analizzare e gestire qualunque tipo di informazione, a prescindere dalla sua posizione e dall’interfaccia utilizzata. L’esclusiva architettura FlexStore di Vertica, altra recente acquisizione di HP, offre infatti un framework flessibile per l’analisi dei Big Data, nonché l’integrazione avanzata o la federation con la tecnologia Autonomy, Hadoop, o qualunque altra sorgente di dati strutturati, non strutturati o semi-strutturati.

 

Secondo Cattolico: “Vertica 6 offre a HP la più completa e robusta piattaforma per l’analisi dei Big Data oggi sul mercato, grazie al supporto avanzato per le implementazioni cloud e SaaS e a capacità approfondite per ambienti di workload misti”.
 

Sempre in tema di tecnologia, HP App System per Apache Hadoop si presenta come un’appliance enteprise-ready che semplifica e velocizza l’implementazione, ottimizzando al tempo stesso le prestazioni e l’analisi dei carichi di lavoro Hadoop a elevatissimo scale out. In pratica una soluzione in grado di combinare la tecnologia HP Converged Infrastructure, le consuete funzioni di gestione e l’integrazione avanzata con Vertica 6 per offrire elaborazione e analisi in tempo reale di grandi masse di dati.
 

 
TAG: Big Data

TORNA INDIETRO >>