OLMeet Roma 2019
Applicazioni
 

02/10/2013

Share    

Data warehouse, è il momento del recupero d’efficienza

Da Teradata una soluzione che sfrutta le potenzialità delle memorie di sistema nei database

Utilizzare i dati in modo strategico, siano essi strutturati o meno, richiede competenze, visione integrata e strumenti idonei per sfruttare a pieno tutte le risorse a disposizione. E per le organizzazioni pronte a questo scenario, le soluzioni di Teradata sembrano mettere a disposizione del data warehousing aziendale recuperi di efficacia simili a quelli dei kers in Formula 1. La novità di inizio estate si chiama Intelligent Memory. Si tratta di una tecnologia innovativa per database che estende e utilizza lo spazio di memoria, oltre alla cache, consentendo di incrementare in modo significativo le prestazioni in termini di velocità delle query, migliorando le potenzialità della tecnologia in-memory.

 

 

Verso l’Enterprise data warehouse
 

Lo scenario di riferimento punta al mercato dei big data ma, in generale, sono interessate tutte quelle organizzazioni che fanno un uso intensivo, tattico, dei propri DB o che, di questi, fanno il perno delle proprie applicazioni aziendali.
Per Franco Vittone, amministratore delegato Teradata Italia, si tratta di quelle aziende evolute, pronte per modelli di enterprise data warehouse, nelle quali la base dati è l’ambiente di riferimento per l’intero parco applicativo: “molto spesso partiamo con deliverable di tre-sei mesi e con la copertura di una prima area del business aziendale. Il test, nella maggior parte dei casi, porta i nostri clienti ad ampliare l’architettura e scalare sull’ambiente Teradata tutti i dati dell’impresa. Si tratta di passare a un approccio architetturale che migra, da quello per silos, a una base dati unica per l’azienda, nella quale le informazioni sono riutilizzabili per tutte le funzioni aziendali. È un processo che viene adottato dagli operatori più evoluti negli Stati Uniti ma, sempre più spesso, anche in Europa e in Italia. Tra i nostri clienti sono presenti diverse aziende medio-grandi e amministrazioni pubbliche che rientrano in questa categoria. Ad esempio, il Credito Emiliano e Poste hanno adottato da tempo un modello di enterprise data warehouse che ha portato in un unico ambiente informatico diverse divisioni aziendali, secondo un approccio graduale, che evita la replicazione dei dati, migliora la qualità dell’informazione e offre una visione unica della realtà aziendale”.

 

 

Più velocità, meno spazio occupato
 

Enrico Galimberti, responsabile dei servizi professionali di Teradata Italia, riassume in questo modo la novità: “Intelligent Memory è uno dei nostri principali punti di forza. Siamo partiti dalla constatazione che l’80% delle query che vengono lanciate dagli utenti sfruttano in media soltanto l’1 o il 2% dei dati presenti nei database. Il nostro gruppo di ricerca e sviluppo ha sperimentato questa proporzione analizzando i sistemi di grandi realtà su scala globale. La nostra feature, quindi, è in grado di scegliere questi dati nei dischi, selezionandoli in base alla frequenza di utilizzo e spostandoli nella memoria di sistema. Questo, rispetto alle tecnologie per DB che operano al 100% in memory, porta consistenti vantaggi in termini di uso razionale delle risorse perché, da una parte, riduce i tempi d’attesa delle query e, dall’altra, minimizza l’occupazione di spazio in memoria”.
Questa soluzione si inserisce nel complesso di proposte legate alla strategia denominata Unified Data Architecture, che integra anche Aster e la piattaforma open source Apache Hadoop. Tramite Teradata SQL-H è possibile accedere ai dati in Apache Hadoop che vengono utilizzati di frequente e, in base alla temperatura dei dati, trasferirli in Intelligent Memory per trarre vantaggio dalla sua capacità di elaborazione a elevate prestazioni.

 

 

Tra dati caldi e dati freddi
 

Intelligent Memory gestisce i dati in questo nuovo spazio in modo predittivo, spostando in memoria i dati più caldi (quelli più frequentemente utilizzati), per poi aggiornarli e sincronizzarli automaticamente. Il processo non necessita di alcun intervento umano, non è necessario apportare modifiche alle applicazioni, alle query SQL, o al modo di memorizzare i dati. L’impiego dei dati in memoria elimina i colli di bottiglia legati all’I/O su disco e i ritardi delle query, aumenta il throughput di sistema ed è di tre ordini di grandezza più veloce rispetto all’accesso ai dati memorizzati su disco. Questa tecnologia utilizza algoritmi sofisticati che, in modo totalmente automatico, tracciano e classificano i dati in base alla ‘temperatura’, per garantire una gestione efficace delle query degli utenti.
“All’interno di Intelligent Memory - spiega Galimberti - i dati possono essere memorizzati e compressi in colonne e righe, in modo da massimizzare la quantità di dati archiviati in memoria. In questo modo soltanto i dati più caldi vengono copiati nel nuovo spazio di memoria estesa. Intelligent Memory estende la gestione multi-temperatura dei dati nel layer di memoria e integra altre funzionalità multitemperatura tra cui Teradata Virtual Storage, che migra continuamente i dati al livello appropriato di archiviazione come dischi a stato solido - SSD - o dischi rigidi - HDD - affinché il data warehouse raggiunga sempre prestazioni ottimali”.
Teradata Virtual Storage, infatti, fornisce un processo di gestione del ciclo di vita automatizzato dove i dati ‘freddi’ o meno utilizzati sono migrati su dischi meno costosi. Inoltre, quando i dati vengono identificati come ‘freddi’ la funzionalità compress-on-cold di Teradata li comprime automaticamente, con un notevole risparmio di spazio.

 

 

A supporto di INPS per i controlli medico fiscali


Dal 2010 Teradata, insieme a SAS, è partner di Inps sull’impegnativo fronte del controllo dei certificati medici elettronici. Grazie alla partnership tra questi due big nel campo del data warehousing e della business intelligence, l’Ente previdenziale, infatti, si è dotato di una soluzione in grado di rendere sempre più efficace l’attività di verifica dei dati sulla certificazione di malattia e delle relative visite mediche di controllo. Ogni anno l’Inps riceve circa 12 milioni di certificati e indennizza 164.000 anni di lavoro, equivalenti a 60 milioni di giornate di lavoro, con una spesa di alcuni miliardi di euro. Per l’attività di verifica di questi eventi l’Inps effettua circa un milione e mezzo di visite mediche di controllo, spendendo alcune decine di milioni di euro l’anno, con un esito di riduzione della prognosi in circa un quarto dei casi.
Grazie alla combinazione dei modelli statistici elaborati da Inps, del data warehouse Teradata e delle abilità analitiche di SAS, il progetto avviato da Inps si propone di migliorare la strategia nella disposizione delle visite mediche di controllo nella doppia ottica di riduzione di costi e incremento di efficacia dell’azione di controllo.
Il progetto prevede un obiettivo di riduzione dei costi derivante da due fattori: la diminuzione del numero di visite mediche di controllo, che avendo un’efficacia maggiore in quanto a più alta probabilità di successo nell’identificare richieste irregolari potranno essere maggiormente mirate, e l’individuazione dei casi che presentano una maggiore probabilità di riduzione della prognosi.
 

 

TORNA INDIETRO >>