InTheCyber
Applicazioni
 

26/05/2020

Share    

di Paolo Morati

Una miniera da difendere

La collaborazione tra Sferanet e Veritas è finalizzata a una gestione e tutela a 360 gradi dei dati, tramite processi e tecnologie evolute che comprendono algoritmi di machine learning e strumenti di intelligenza artificiale.

Massimiliano Botta, Sales Area Manager di SferanetÈ ormai da diverso tempo che le aziende hanno compreso l’importanza dei dati, considerati un asset fondamentale in forma strutturata così come non strutturata e dei quali la seconda tipologia oggi rappresenta la porzione più rilevante. Ma non è sempre stato così. “Se torniamo con la memoria indietro di alcuni anni i dati strutturati – ossia organizzati e ordinati secondo un determinato schema predefinito che ne rendeva relativamente facile la loro gestione – erano di fatto la stragrande maggioranza, prodotti da tutte quelle applicazioni fondamentali per il business. Nel mentre iniziavano a farsi però largo quelli non strutturati, ancora poco presi in considerazione e quindi scarsamente valorizzati. Oggi lo scenario si è completamente ribaltato avendo assistito ad una decisa esplosione della produzione dei dati in ogni loro forma. Nel mondo si parla di circa 300 miliardi di messaggi di email scambiate al giorno, di 460 exabyte di dati prodotti quotidianamente. Questa esplosione ha radicalmente cambiato dimensioni e tipologia del patrimonio informativo nelle aziende del quale è necessario occuparsi in modo corretto per sfruttarne il valore, tenendo conto delle problematiche tecniche generate dai differenti formati esistenti – più o meno gestibili – e dall’eterogeneità di provenienza. È dunque essenziale analizzarli e segmentarli in modo accurato per gestire le diverse basi dati in modo differenziato al fine di aumentare l’efficienza operativa ed ottimizzare i costi di gestione”, spiega Massimiliano Botta, Sales Area Manager di Sferanet, realtà di consulenza e system integration nata nel 2008 proprio per portare sul mercato competenze sulla gestione del dato a 360 gradi. Il tutto sviluppando una serie di expertise diffuse su più Business Unit focalizzate principalmente su quattro tematiche – Big Data, Cyber Security, Infrastruttura e IoT – in uno scenario che include sempre di più dati critici a supporto del business in tutte le sue varie forme, da quelli finanziari a quelli di produzione e vendita, che sono fondamentali per prendere decisioni critiche in tempo reale.

Roberto Rusconi, Technical Director BU Big Data and Analytics di Sferanet, aggiunge che i dati oggi non sono solo prodotti internamente ad un’azienda dalle sue applicazioni e relativi sistemi ‘tradizionali’ ma anche tramite strumenti esterni e di uso quotidiano come gli smartphone e le app dedicate, le fotocamere digitali, dispositivi wearable e altri device non propriamente business, per cui diventa fondamentale una loro memorizzazione e gestione diversa rispetto al passato più legacy e tradizionale. “Nella business unit da me coordinata non trattiamo di fatto solo il tema big data ma ci occupiamo anche di intelligenza artificiale, oggi ancora in fase embrionale non per una mancanza di tecnologie adeguate ma perché, almeno qui in Italia, le potenzialità non sono ancora state comprese appieno. A questo si collega anche l’aspetto della sicurezza, dando vita a un circolo virtuoso tra i diversi temi”.

Lo scenario descritto è insomma quello che ha visto la nascita di una serie di esigenze che toccano tanti aspetti che vanno dall’analisi del dato all’accesso e relativa protezione fino all’infrastruttura a supporto sia in termini di potenza elaborativa che di spazio di archiviazione. Con anche il passaggio da modelli di utilizzo on premises a modelli cloud e multicloud, oggi sempre più diffusi, con tutte le relative sfide tecnologiche da affrontare.

La tecnologia al servizio dei dati
Tra i partner tecnologici di Sferanet c’è Veritas Technologies, tra i principali operatori a livello mondiale nell’area della Data Protection, della Business Continuity e Software-defined storage, e dell’Information Governance, e che mette sul piatto una proposta studiata per rispondere alle esigenze appena descritte. “Oggi nelle aziende si parla di temi quali big data e data lake, raggruppando dati provenienti da più sorgenti ed in vari formati, mentre con il dato che assume sempre più un’importanza strategica in tutti gli aspetti produttivi di un’azienda, anche tecnologie come l’IoT o quelle a supporto dei social alimentano progetti di supporto al business”, commenta Carlo Viganò, Technical Sales Manager di Veritas.

Carlo Viganò, Technical Sales Manager di Veritas.“Parliamo di dati di diversa origine, strutturati e non – compresi video e social – e che riguardano tutte le attività e i settori operativi, dal marketing alle vendite al legal, dalla supply chain fino ai processi produttivi. Se però in passato la loro protezione non era una priorità in quanto prodotti internamente e quindi facilmente ricostruibili, oggi è invece strategico prevedere strumenti, soluzioni e processi che contemplano attività di backup efficienti ed efficaci. Ma non solo. La realtà è infatti cambiata ed esistono sorgenti di dati che una volta perse non possono più essere ritrovate o ricostruite per cui diventa decisivo seguire una logica di protezione e/o archiviazione a 360 gradi capace di supportare il ciclo di vita del dato così come la loro sicurezza. In particolare, in Veritas parliamo di architetture a microservizi, modulari e scalabili, fruibili sia in modalità software, appliance, sia on premises così come in cloud. Parliamo di soluzioni altamente scalabili e performanti, che rispondano anche ad esigenze e scenari di High Performance Computing e Hyperconvergenza attraverso un’architettura altrettanto scalabile di backup, con livelli di performance ed alta disponibilità tali da garantire il rispetto di determinati Sla di ripristino, laddove un disservizio di ore/giorni o settimane su big data ed analytics può significare perdita di fatturato, di immagine del brand e di market share”, prosegue Viganò.

La collaborazione tra Sferanet e Veritas si cala quindi in uno scenario in cui l’IT ha la necessità di ottimizzare i processi e soddisfare i propri clienti interni laddove non è accettabile fermare l’operatività delle line of business così come i processi di decision making che poi portano alla realizzazione e rilascio di prodotti e servizi. E che nel caso in esame vede la tutela provenire ad esempio da logiche innovative e intelligenti che consentano la produzione di più copie codificate e compresse dei dati, distribuite su più destinazioni e dispositivi diversi hardenizzati, e quindi più sicuri. Nel contempo si va ad agire sugli accessi degli utenti attuando anche azioni di testing e vulnerabilità per prevenire e ridurre le superfici di attacco e mettere in difficoltà chi eventualmente sta provando ad effettuare azioni criminose sugli asset del cliente: apparecchiature e dati. Tutto ciò per indirizzare un tema, quello della continuità operativa, che è tra l’altro diventato ancora più di attualità in occasione dell’attuale situazione forzata che ha cambiato necessariamente il modo di operare di tante organizzazioni.

Il contributo tecnologico
La tecnologia Veritas e la mission di Sferanet si sposano non solo proponendo opzioni di backup dei dati ma anche strumenti di segmentazione e quindi analisi preventiva, tenendo conto che i dati non sono tutti uguali (e di eguale importanza) e che le organizzazioni devono riadattare i processi di business. “La nostra offerta, denominata Enterprise Data Services Platform, include anche la soluzione di protezione dei dati, leader di mercato, NetBackup che è in grado di proteggere workload tradizioni e i cosiddetti ‘new workload’, quali MongoDB, Hadoop, Docker, MySQL per citarne alcuni”, afferma Viganò introducendo tecnologie quali il framework denominato Parallel Streaming, studiato per garantire la possibilità di lavorare su database ed ambienti scale-out di dimensioni variegate e di scalare in modo predittivo sia in termini di tempistiche che di volumi sui quali effettuare il backup, mantenendo il medesimo Sla. “Sui dati è poi possibile portare avanti attività di analisi dei metadati e di gestione degli accessi in base a ruoli e permessi, sfruttando anche l’analisi comportamentale e il tracciamento di eventuali incidenti. La tecnologia Veritas si occupa quindi di monitoraggio dell’infrastruttura per verificare la conformità e le tempistiche di backup, con le suite Information Studio e Aptare IT Analytics, dotate di intelligenza artificiale per garantire sicurezza e predittività comportamentali”, aggiunge Viganò. Un tema, quello della AI, sul quale Sferanet è anch’essa impegnata essendo tra l’altro membri fondatori della community DeepLearning Italia che conta più di 5.000 iscritti, e proponendo direttamente degli strumenti intelligenti per andare incontro alle esigenze di organizzazioni e singoli individui, partendo dal dato sanitario.

“In funzione dell’emergenza in corso abbiamo lanciato una nuova applicazione : Take Care, un assistente medico virtuale programmato per prevenire, predire e diagnosticare eventuali patologie che possono influenzare lo stato di salute delle persone, raccogliendo i dati attraverso dispositivi IoT. L’applicazione fa uso di un algoritmo basato sul deep learning, e quindi delle reti neurali profonde, compie analisi dei dati mettendoli a confronto con la condizione di salute di ogni singolo individuo ed è in grado di generare automaticamente chiamate a individui ed organizzazioni sanitarie alle quali è collegata”, spiega Rusconi.

Roberto Rusconi, Technical Director BU Big Data and Analytics di SferanetLa fase progettuale e quella operativa
Tutto quanto esposto finora deve però avere alla base un progetto ben definito sulla base delle esigenze e della situazione di ciascun azienda. “Di fatto il primo passo da compiere quando si deve affrontare il tema del ‘dato’ è quello di un confronto finalizzato a un’attività di prima valutazione. Bisogna ad esempio scoprire se ci sono dati critici che vanno ospitati su hardware performante e quelli meno fondamentali destinati a soluzione meno impegnative. Quindi entriamo direttamente in una fase di PoC (proof of concept) che possa già subito dimostrare in concreto come la tecnologia è in grado di rispondere alle esigenze aziendali. Possiamo citare esempi di realtà che raccolgono enormi quantità di dati e che una volta entrate in produzione hanno ottenuto una serie di vantaggi quantificabili anche in risparmi del 70% sullo storage e riduzione di almeno tre volte dei tempi di ripristino”, sottolinea Rusconi. Ma non si parla solo della fase di realizzazione di un progetto in quanto un data lake resta qualcosa di vivo che va curato costantemente. “Dobbiamo considerare che con la moltitudine di fonti oggi a disposizione la gestione dell’ambiente dati è veramente complessa, trattandosi di un ecosistema sempre attivo. E per vincere le varie sfide, si parte dalla fase di analisi descrittiva, ossia relativa a eventi storici per isolare quelli critici. Quindi l’analisi qualitativa dove entrano in gioco intelligenza artificiale e machine learning, con elaborazione dei relativi modelli matematici. E infine l’analisi prescrittiva. Quindi evoluzione dei big data, individuazione dei processi critici e identificazione di eventuali opportunità. Senza mai dimenticare che contengono informazioni business critical”, commenta Botta.

Dal canto suo Viganò sottolinea che quando si parla di machine learning i fattori dominanti sono i modelli matematici di qualità così come le dimensioni della base dati campione per minimizzare la comparsa di eventuali falsi positivi: “Il nostro contributo deriva da una lunga storia di storage e backup e archiviazione, e secondo logiche software defined, per cui riusciamo a mettere a disposizione degli algoritmi di intelligenza artificiale il più ampio livello di base dati su cui lavorare. Inoltre va ricordata l’importanza di best practice per cui strumenti come i nostri diventano vitali non solo nella fase di valutazione iniziale ma anche successivamente per garantire un deployment efficace ed efficiente rispetto agli SLA di un servizio gestito. Ma non solo. Per chiudere il cerchio proponiamo infatti anche soluzioni per la protezione di device distribuiti, partendo dalle sonde per arrivare ai più canonici laptop”, conclude Viganò.

 

TORNA INDIETRO >>