Aruba VPS
Servizi
 

25/05/2017

Share    

Come districarsi tra cloud e applicazioni digitali

Il business ha bisogno di realizzare nuovi progetti digitali in modo rapido, efficace e sostenibile, e l’infrastruttura deve essere all’altezza. Le opinioni di alcuni protagonisti dell'offerta.

Cloud - © iconimage - fotolia.com

Big data, virtualizzazione spinta non solo a livello server ma anche storage e networking, social, cloud, mobile, Internet of Things… stanno mettendo a dura prova la capacità delle aziende di gestire i dati in modo adeguato con processi e strumenti tradizionali. Per queste ragioni stanno emergendo nuovi modelli e nuovi strumenti per l’aggregazione e la gestione dei dati aziendali, per renderli più liberi, più accessibili, più utilizzabili per la business analytics, ma anche per le nuove applicazioni digitali che si affacciano in questa era di trasformazione del business. Per capire quali sono i driver che oggi portano le aziende a valutare un nuovo approccio alla gestione dei dati, quali le metodologie e le piattaforme che possono essere adottate, Office Automation ha organizzato una tavola rotonda a cui hanno partecipato importanti protagonisti dell’offerta – sia vendor di soluzioni tecnologiche sia system integrator che realizzano progetti per aziende clienti - che si sono confrontati evidenziando come anche in Italia questi temi siano ormai all’ordine del giorno sia nelle grandi organizzazioni che nelle piccole e medie imprese, presentando anche alcuni interessanti casi di successo. Di seguito proponiamo una sintesi degli interventi emersi durante il dibattito.

Stefano MaioStefano Maio, Direttore Big Data & Analytics, Oracle Italia
La chiave di volta, oggi, è il fattore tempo e in questo l’adozione del cloud, anche in questo contesto, può rappresentare un acceleratore. È questo, secondo noi, il driver principale che spinge le aziende a prendere in considerazione nuovi modelli di gestione del dato. In contesti sempre più complessi e competitivi bisogna essere molto più attivi e reattivi, e per prendere le decisioni giuste nel momento giusto è necessario prendere in considerazione molte più variabili rispetto al passato. È una esigenza molto sentita a tutti i livelli, dalle grandi aziende alle PMI, che deve tradursi in progetti mirati, in grado di dare ritorni concreti in tempi rapidi. I progetti di successo, inoltre, devono coinvolgere più attori, dal CIO, che conosce le potenzialità delle nuove tecnologie di Big Data, Analytics ecc., fino ad arrivare al CEO, che imposta le strategie di medio-lungo periodo e ha una visione globale dell’andamento del business.
Questo significa introdurre in azienda una cultura molto più orientata alla collaborazione, un comportamento più facile da mettere in pratica dalle nuove generazioni, più propense alla condivisione rispetto alle persone d’esperienza. Quando si decide di avviare un processo di modernizzazione dell’infrastruttura bisogna prendere in considerazione innanzitutto tre aspetti. I dati, che continueranno a crescere a ritmo esponenziale, e che dovranno essere costantemente monitorati per continuare a restare ‘vivi’, pronti a fornire informazioni utili al business. In secondo luogo gli obiettivi di business, che non cambieranno, mentre inevitabilmente piattaforme e tecnologie evolveranno nel tempo, e per farlo è necessario dotarsi di strumenti di analisi adeguati, in grado di sapere dove e quando andare a ‘prendere’ il dato che serve per ottimizzare un processo o migliorare un prodotto o servizio. Infine la sicurezza, non solo per ottemperare alle normative vigenti ma anche, e soprattutto, per difendere dati e reputazione, ovvero gli asset più preziosi per chiunque.
Certo non è semplice, ed è per questo che è opportuno fare tavoli multidisciplinari, sia all’interno di ogni singola azienda sia a livello più ampio, nell’ambito delle diverse filiere di riferimento, come hanno fatto per esempio nel Regno Unito tre importanti operatori di telecomunicazioni che hanno messo a fattore comune i propri dati, con l’obiettivo di sviluppare insieme una nuova piattaforma in grado di migliorare il servizio agli utenti. Senza dimenticare le start up, che a volte riescono a intercettare più rapidamente le nuove tendenze. Il nostro compito è affiancare le aziende in questo percorso, mettendo in campo metodologie consolidate, maturate collaborando con aziende primarie in tutti i principali mercati verticali, e, naturalmente, tecnologie sempre allo stato dell’arte, in grado realmente di accelerare la trasformazione digitale delle aziende, fruibili sia in modalità tradizionale, onpremise, che sul nostro cloud, sempre più ricco e completo.

Walter AgliettiWalter Aglietti, Analytics Technical Manager, IBM Italia
Le definizioni cambiano, ma l’esigenza rimane. Un tempo si parlava di SOA (service oriented architecture), poi sono arrivati i Big Data, oggi c’è molta attenzione intorno all’Internet of Things: si tratta sempre di far tesoro di dati e informazioni, traendone il maggior valore possibile. Quello che cambia è l’attenzione che circonda oggi questo tema, e la consapevolezza crescente che i dati rappresentano gli asset più preziosi di qualsiasi organizzazione. Da questo presupposto deriva una ulteriore considerazione, e cioè che i dati non possono più essere considerati ‘patrimonio’ esclusivo di un singolo dipartimento, tipicamente quello IT, ma devono essere messi a fattore comune, affinché possano dare una vista complessiva dell’andamento dell’azienda e della percezione che il mondo esterno (clienti, partner fornitori…) ne ha. Attenzione, però: avere a disposizione una mole di dati sempre più completa e coerente non basta, bisogna sapere cosa cercare, e perché, e per fare questo servono nuovi skill, competenze trasversali che integrano, oltre a un know how tecnico, nozioni di statistica, sociologia, metriche economiche… Non a caso sono nate nuove figure, come i CDO (chief data officer), ancora rare nel nostro Paese ma già abbastanza diffuse altrove. Elemento umano e tecnologia, quindi, devono andare di pari passo, al fine di costruire percorsi innovativi tesi a quel miglioramento dei processi che solo può portare a costruire nuovi modelli di produzione, distribuzione e fruizione di prodotti e servizi. IBM è fortemente impegnata in questo senso e continua a investire in maniera consistente per portare le tecnologie di cognitive computing (Watson), machine learning e intelligenza artificiale sviluppate nei propri laboratori in ambiti sempre più ampi e diversificati, generando reali vantaggi all’interno di organizzazioni pubbliche e private di ogni dimensione. Gli esempi non mancano, a livello internazionale ma anche italiano. Per esempio una delle principali public utility del nostro Paese, focalizzata sulla distribuzione di acqua ed energia, in due anni ha modernizzato tutta la propria allarmistica, introducendo avanzate funzionalità di analisi anche predittiva, con importanti ritorni. Non è necessario partire con progetti faraonici: anche solo le iniziative di manutenzione predittiva che, a titolo di esempio, suggeriscono di modificare determinati componenti di macchinari e/o centrali di controllo per renderle più resilienti sono attività significative chee possono portare risparmi notevoli.

Alessio GiordaniAlessio Giordani, Presales Manager Italia, Informatica
Tutto intorno a noi stanno fiorendo modelli di business impensabili fino a ieri. Pensiamo per esempio all’Area Unica di Pagamenti in Euro (Sepa, Single Euro Payments Area), che di fatto consente di disintermediare le banche, o ad applicazioni che hanno scosso alla radice mercati consolidati, come Uber o Airbnb, solo per fare un paio di esempi. Di fatto ogni giorno nascono nuovi attori, tutti ‘divoratori’ di dati, che esercitano una forte pressione sui brand storici, che devono attrezzarsi se vogliono restare competitivi, partendo proprio da un nuovo modello di gestione dei dati. I dati, che devono essere di qualità e coerenti con le policy aziendali e le normative vigenti, rappresentano insomma il punto di partenza per sviluppare il business nell’era digitale e sono alla base della trasformazione digitale. Il sistema Italia in passato ha perso molte occasioni, non dobbiamo lasciarci sfuggire anche questa, e molte aziende lo stanno capendo. Questo passaggio coinvolge innanzitutto i dipartimenti IT, che devono conciliare molte esigenze diverse: implementare servizi più rapidi ed efficaci, fare evolvere l’infrastruttura salvaguardando gli investimenti fatti nel corso degli anni e, nel contempo, garantire livelli di sicurezza e compliance adeguati. Secondo noi il modo migliore per farlo è disaccoppiare le logiche IT da quelle di business, nel senso che il focus deve spostarsi sempre più sugli obiettivi di business, mentre per quanto riguarda gli strumenti IT oggi viene in aiuto il cloud, che non a caso sta registrando tassi di crescita importanti. Per quanto ci riguarda rendiamo disponibile una soluzione di Enterprise Cloud Data Management che, integrando diverse tecnologie, consente di mettere a fattore comune tutti i dati aziendali, sia quelli interni che quelli che provengono da fonti esterne, e di orchestrarli in base alle policy aziendali, rendendoli disponibili in modo semplice e immediato alla persona giusta nel momento giusto. Il primo passo da fare, spesso, è ancora quello di certificare e normalizzare le anagrafiche, per poi costruire il nuovo ambiente che consentirà un uso dei dati molto più fluido e ‘democratico’, l’unico in grado di mettere a punto nuovi servizi customer-centrici. Adottando un approccio di questo tipo e grazie alla nostra tecnologia Fastweb, per esempio, è oggi in grado di adattarsi più velocemente alle mutevoli richieste del mercato, migliorando costantemente la qualità del servizio e, di conseguenza, la soddisfazione dei clienti. Un altro esempio significativo viene da GE Aviation, società del Gruppo General Electric, che ha modificato il proprio modello di business affiancando alla vendita tradizionale la locazione operativa dei motori, assumendosi in tal modo rischi aggiuntivi che possono venire mitigati, per esempio, grazie a una efficace manutenzione preventiva.

Gabriele RuffattiGabriele Ruffatti, Direttore Architetture e Processi per l’Innovazione e del Centro di Competenza Big Data e Analytics, Engineering
Efficienza, qualità, produttività e velocità caratterizzano gli attuali modelli di business. Per far fronte a queste sfide le architetture IT devono modernizzarsi per essere in grado di gestire in maniera adeguata una mole di dati in crescita esponenziale, proveniente da fonti interne ed esterne all’organizzazione sempre più eterogenee. La quantità, però, non deve andare a scapito della qualità dei dati, come sa bene chi opera nel campo degli algoritmi, che risultano tanto più efficaci quanto più sono precisi: non a caso, per esempio, la metodologia Agile per lo sviluppo del software pone un’attenzione particolare alla fase di verifica a-priori. Quando si decide di fare evolvere una architettura IT, quindi, per prima cosa bisogna mettere a fuoco gli obiettivi che si vogliono raggiungere, stabilendo nel contempo gli indicatori che serviranno a misurarne la reale efficacia ed efficienza. Il nostro compito è quello di affiancare in maniera proattiva le aziende in questo percorso, aiutandole ad approcciare nel migliore dei modi i nuovi paradigmi: deve essere chiaro, per esempio, che i progetti di Data Lake hanno finalità analitiche e non transazionali, per evitare inutili fraintendimenti. Per definire al meglio le finalità e i confini di un progetto è bene coinvolgere il top management, perché deve essere chiaro che trasporre in toto o in parte ambienti transazionali all’interno delle architetture di nuova generazione non è banale, richiede tempo e competenze specifiche. Non esistono, infatti, soluzioni standardizzate pronte all’uso, e diffido sempre di chi dice il contrario.
Certo, oggi il cloud può venire in aiuto, ma anche in questo caso bisogna essere molto cauti, da un lato per evitare il pericolo del lock-in, sempre in agguato anche nel mondo cloud, dall’altro perché non sempre il cloud, pubblico, ibrido o privato che sia, offre i livelli qualitativi richiesti dagli ambienti enterprise. Il ruolo del system integrator, insomma, resta fondamentale, non solo in fase di implementazione ma anche, e soprattutto, nelle fasi di progettazione e disegno delle nuove architetture, al fine di avviare progetti che possano realizzarsi nei tempi e nei modi previsti portando i benefici attesi. Naturalmente in un contesto in cui il digitale diventa sempre più pervasivo è importante anche stringere nuove alleanze e trovare nuove sinergie. Nel nostro caso, per esempio, abbiamo recentemente siglato un accordo internazionale di cooperazione con Comau, società del Gruppo FCA che si occupa della produzione e fornitura di sistemi avanzati di automazione industriale, per perseguire congiuntamente lo sviluppo e la commercializzazione di soluzioni per la manutenzione predittiva basate su hardware e software modulari finalizzati all’acquisizione e analisi di dati di campo, per fornire al mercato nuovi strumenti per migliorare la qualità e l’economicità dei processi produttivi automatizzati sfruttando le più moderne tecnologie di raccolta e analisi dei dati di campo.

Enrico GalimbertiEnrico Galimberti, Direttore dei Servizi Professionali, Teradata
Sono ancora troppi i responsabili d’azienda che si basano su esperienza e intuizione per decidere tattiche e strategie, anziché su dati certi e storicizzati. Mai come oggi, però, è necessario fare un salto di qualità, perché i fattori che influenzano i mercati sono sempre più numerosi e i modelli di business cambiano con una velocità senza precedenti, per cui le capacità personali non bastano più. Questo significa dotarsi di strumenti in grado di analizzare i dati provenienti dalle fonti più disparate in modo semplice e veloce, affinché anche risorse prive di skill tecnici specifici possano utilizzare le risultanze e applicarle al proprio lavoro, perché ormai tutti sono chiamati in qualche misura a fare delle scelte. Che gli Analytics rappresentino un fattore strategico di successo del resto è testimoniato dalle aziende più innovative, basti pensare a un’azienda come E-bay che ha un nutrito gruppo di specialisti dedicato proprio agli Analytics che hanno il compito di segmentare sempre meglio il mercato e individuare i trend più interessanti per ogni area di interesse.
La vera sfida, oggi, è riuscire a collegare sistemi e piattaforme diverse - sistemi on premise, in cloud, open source, virtualizzati ... - collegandoli tra loro in maniera trasparente e garantendo la massima interoperabilità senza duplicare i dati. Si tratta di riuscire a creare un ecosistema analitico solido, efficiente e sicuro in grado di gestire motori multipli, da quelli dei brand più blasonati a quelli emergenti, proprio quello che Teradata propone al mercato. Negli Stati Uniti hanno coniato il termine ‘data gravity’ per suggerire una analogia tra la forza di gravità, che attira i corpi verso un punto di attrazione, e il modo in cui i dati dovrebbero venire gestiti, vale a dire mantenendo ciascuno la propria specificità ma convergendo verso un unico ‘centro di gravità’. Naturalmente non è un percorso banale, richiede una visione strategica precisa che spesso comporta cambiamenti importanti nell’organizzazione e nella cultura delle aziende, ma è l’unico che può consentire alle aziende di avere sempre a disposizione, a tutti i livelli, gli elementi utili per venire incontro alle esigenze dei propri clienti, a loro volta sempre più informati ed esigenti. Gli esempi di organizzazioni che si sono già incamminate su questa strada non mancano. I settori dell’automotive, del finance e del retail - solo per fare alcuni esempi - si stanno dimostrando particolarmente ricettivi, arrivando a volte a mettere a fattore comune determinate informazioni che possono avvantaggiare tutta la filiera di riferimento. Il nostro compito è affiancare in maniera proattiva i clienti in questo cammino rendendo disponibili soluzioni in grado di coordinare l’uso di motori analitici e file system multipli in un ecosistema analitico strutturato.

Vincenzo CostantinoVincenzo Costantino, Emea South Technical Services Director, Commvault
Data center, cloud, social, Internet of Things: la proliferazione dei dati che ogni azienda è chiamata a gestire è inarrestabile, e per governarla i tradizionali strumenti non bastano più. Se poi pensiamo alla nuova General Data Protection Regulation (Gdpr) emanata dall’Unione Europea ci rendiamo conto che è necessario una vera e propria inversione di rotta: non si tratta più di generare dati, archiviarli e averli a disposizione in caso di necessità. Bisogna guardare al merito del dato, classificarlo, decidere chi può accedervi e chi no, sapere quale sarà il suo ciclo di vita… La capacità di accedere ai dati, da qualunque fonte interna o esterna provengano, è data per scontata, il reale valore risiede nella capacità di governare e orchestrare queste complessità in maniera efficace ed efficiente, senza limitarsi a dotarsi di alcune certificazioni in maniera supina, senza crederci veramente, per poi dimenticarsene una volta ottenute. Bisogna essere consapevoli che i dati hanno un grande valore che, se correttamente gestito, può portare a incrementare realmente profittabilità e competitività.
È proprio questa consapevolezza che nel nostro Paese non è ancora del tutto assimilata, soprattutto nelle piccole e medie imprese. Se le grandi organizzazioni si sono ormai avviate su questa strada, le PMI molto spesso sono ancora perplesse e diffidenti, spesso non hanno ancora fatto una disamina completa dei dati che hanno a disposizione, non sanno cosa hanno in casa, e neppure perché, e nel contempo temono di doversi incamminare su una strada troppo impervia, costosa e rischiosa. Gli strumenti per avviare una trasformazione digitale in maniera graduale e sostenibile però ci sono. Secondo noi la sfida può essere vinta partendo dall’infrastruttura, ‘federando’ le risorse che si hanno in casa per ricavarne una vista globale, gestibile centralmente, che poi restituisce il dato giusto alla persona giusta, quando serve, su qualsiasi piattaforma e device.
Commvault, che si occupa di queste tematiche sin dagli esordi, con la propria piattaforma Commvault Data Platform continua a offrire una roadmap di innovazione per il data management, fornendo una vasta gamma di prodotti e servizi per una gestione olistica dei dati. Le più recenti innovazioni utilizzano una architettura basata su API che consentono nuovi livelli di apertura e di interoperabilità che offrono ai clienti la massima flessibilità per poter scegliere i fornitori infrastrutturali, di piattaforma, di elaborazione e storage più adatti alle proprie esigenze e all’ambiente esistente. In altre parole il nostro obiettivo è quello di abbattere tutte le barriere, sia in ingresso, per quanto riguarda le fonti che generano i dati, sia in uscita, per quanto riguarda la destinazione delle stesse, consentendo nel contempo di effettuare tutte le correlazioni necessarie per estrapolarne evidenze utili al business. Che i dati siano il petrolio del futuro, del resto, è ormai evidente, basti pensare alle ultime elezioni presidenziali americane, dove il vero vincitore pare sia stato il social media marketing, ovvero l’utilizzo di sofisticati strumenti di monitoraggio e analisi su cui hanno investito in maniera massiccia entrambi i candidati.

Francesco Del VecchioFrancesco Del Vecchio, Presales Director Emea, Qlik
Ritengo che il tema vada approcciato innanzitutto da un punto di vista culturale: si tratta di capire fino a che punto si è disposti a condividere dati e informazioni anche personali per ricevere in cambio vantaggi di vario tipo. E qui entra in gioco il gap generazionale: i giovani sono abituati a condividere i propri dati, si aspettano offerte personalizzate disegnate intorno alle loro preferenze e abitudini; partecipano volentieri, spesso con entusiasmo, al processo creativo che porta alla realizzazione di nuovi prodotti e/o servizi; utilizzano volentieri applicazioni che consentono loro di conoscersi meglio - pensiamo, per esempio, alla app Strava studiata per gli appassionati di pratica sportiva - fornendo in cambio dati personali, e l’elenco potrebbe continuare. Anche le aziende più innovative stanno cominciando a capire che scambiando dati con la propria filiera di riferimento e magari, attraverso accordi specifici, con alcuni competitor, possono ottenere vantaggi concreti. Diverso il discorso per le persone più mature, abituate ad altri modelli di vita e di lavoro. Il problema vero, secondo noi, è focalizzarsi sul dato, e non spostarlo mai. Bisogna costruire una ‘dorsale digitale’ lungo la quale si muovono liberamente i dati, come quella che mettiamo a disposizione attraverso soluzioni che integrano funzionalità di governance con avanzate capacità di analisi e visualizzazione dati. Si tratta, in pratica di uno strato software che consente di connettere e far dialogare i dati - interni ed esterni - utili a un’organizzazione, senza bisogno di ‘spostarli’ in altri repository come i cosiddetti ‘Data Lake’, che tecnicamente è possibile vedere come nuovi ‘silos’ in cui i dati non sono correlati.
In altre parole non sono i dati che devono spostarsi, ma le informazioni, il loro ‘significato’, che poi deve essere reso disponibile nel modo più semplice ed ‘ergonomico’ possibile, affinché anche gli utenti privi di specifici skill tecnici possano utilizzarle. Si tratta di un nuovo approccio che, partito dalle organizzazioni di dimensioni maggiori, sta progressivamente interessando anche quelle di dimensioni medie e medio-piccole, perché tutti hanno l’esigenza di prendere decisioni basandosi su dati reali, costantemente aggiornati; e i vantaggi sono facilmente misurabili. In BTicino, per esempio, abbiamo collegato i misuratori di energia con i sistemi gestionali aziendali, associando in un’unica vista i dati di consumo e quelli dei volumi produttivi, i dati climatici, le previsioni e i valori di budget dei consumi attesi, consentendo all’azienda di migliorare la propria efficienza, con un risparmio del 3% sulla bolletta energetica. Un altro esempio è quello del Sistema Sanitario Nazionale australiano, che, mettendo a fattor comune i dati a disposizione di diverse strutture sanitarie, ha registrato in 6 mesi un saving pari a 5 miliardi di dollari australiani.

Renato ComesRenato Comes, Sales & Marketing Manager, Tecnet Dati
Vorrei partire da una considerazione: i dati non sono complementari alle applicazioni, ma hanno un valore intrinseco, si possono vendere e comprare, e chiunque voglia diventare una data company deve averlo ben presente, e attrezzarsi di conseguenza. Le grandi banche, il mondo del retail, i protagonisti dell’Industry 4.0 stanno cominciando a farlo, ma questa ondata progressivamente investirà tutti, portando le aziende a investire non solo sullo sviluppo dei prodotti e dei servizi ma anche, e forse in maniera più incisiva, sulla razionalizzazione e ottimizzazione dei processi, che si basano essenzialmente sui dati. Un tema correlato è naturalmente quello della compliance, che richiede la massima attenzione, ma la sostanza non cambia: saranno i dati, in futuro, i veri protagonisti di qualunque business, e prima lo si capisce meglio è. Non tutte le aziende, però, sono pronte per questo cambiamento. Molto spesso non sanno quali dati hanno a disposizione, né il contesto a cui afferiscono. Chi ha ancora sistemi legacy è nella situazione peggiore, perché spesso non ha documentato, o ha documentato male, le applicazioni sviluppate, per cui di fatto non sa quali dati popolano i propri sistemi. Magari hanno capito che devono avere una vista più completa dei propri dati, sia quelli che risiedono nel perimetro aziendale sia quelli esterni che possono aggiungere valore, e decidono di approcciare nuove tecnologie, per esempio quelle legate ai Data Lake, ma non sanno bene da che parte cominciare. È un po’ come fare un trasloco: si tirano fuori dagli angoli più reconditi oggetti di cui ci si è dimenticati provenienza e scopo, e bisogna decidere cosa tenere e cosa buttare. Nel caso dei dati aziendali la scelta è particolarmente delicata, soprattutto se si decide di esporli verso l’esterno.
Non a caso stanno nascendo nuove professionalità, come quella del Chief Document Officer (CDO) con competenze non solo tecniche ma anche giuridiche, statistiche ed economiche, che hanno proprio il compito di ‘prendersi cura’ dei dati e del contesto a cui afferiscono, affinché il loro utilizzo sia sempre congruente. Il nostro compito è quello di fornire alle aziende non solo un supporto tecnico ma anche, e soprattutto, consulenziale e metodologico, analizzando a fondo il loro ambiente e, sulla base delle loro specifiche esigenze, evidenziare rischi e opportunità. Spetta a noi ricordare che ogni cliente porta con sé un cluster di contatti che verranno influenzati dalle sue decisioni, sia in senso positivo che negativo, o che è necessario mettere a punto policy precise affinché i dati siano un reale patrimonio dell’azienda e non di singole individualità, perché le risorse possono cambiare ma il business non deve risentirne. In pratica, quindi, operiamo per permettere alle aziende di minimizzare i rischi e massimizzare i vantaggi legati all’introduzione dei nuovi paradigmi tecnologici, verificando puntualmente i risultati ottenuti e fornendo un supporto e una formazione on the job continuativi.

Matteo LosiMatteo Losi, Digital Awareness Office EMEA South, SAP
Il driver principale che spinge le aziende a massimizzare il valore dei propri dati è economico: nella maggior parte dei casi è possibile tramutare le evidenze ‘nascoste’, fino a ieri trascurate, in prodotti e servizi innovativi che consentono di incrementare i profitti. In pratica i dati influenzano i processi, che a loro volta influenzano i dati, in un circolo virtuoso che sta registrando una forte accelerazione, basti pensare che in una automobile oggi è possibile trovare fino a 30 CPU, che la trasformano di fatto in un computer su quattro ruote. Tutto è reale e virtuale allo stesso tempo, nel senso che i dati che arrivano dal campo vanno ad alimentare un patrimonio che, se gestito correttamente con strumenti innovativi, genera nuovi dati in grado di migliorare i prodotti e i servizi da cui provengono, e/o di idearne di nuovi. Dal punto di vista di un player come SAP, da sempre impegnato a supportare le aziende nel miglioramento continuo dei propri processi, si tratta di una opportunità molto interessante, che apre scenari ancora inesplorati. Gli strumenti per intraprendere un percorso di questo tipo non mancano, e sono accessibili ad aziende di ogni dimensione. In questo passaggio il cloud viene in aiuto, rendendo disponibili una vasta gamma di servizi che consentono di affrontare i temi della governance dei dati, della gestione del rischio e della compliance in modo più efficace ed efficiente e a costi più sostenibili. La gestione degli accessi e delle identità digitali rappresentano criticità non banali, visto il diffondersi nelle aziende dell’utilizzo non regolamentato di servizi cloud e la diffusione dello shadow IT, vale a dire i ‘dati oscuri’ in cui è facile imbattersi e che è sempre più difficile individuare, e il cloud può fornire quelle risposte rapide, flessibili e scalabili difficili da garantire in altro modo.
Anche la scelta del cloud, però, va fatta in maniera consapevole: entrando in una logica di gestione del dato di tipo ‘industriale’ bisogna stabilire quale modello di cloud – on premise o erogato da un cloud provider – è più adatto alle proprie esigenze. Le aziende di successo sono quelle che, grazie a una gestione dei dati più efficiente, investono nell’empatia con i propri clienti, intercettando in tempo reale, e spesso anticipando, bisogni e preferenze, e costruendosi in questo modo una reputazione sempre più solida. Gli esempi non mancano. Ricordo solo il caso di Trenitalia, parte del Gruppo Ferrovie dello Stato Italiane, che grazie alle nostre tecnologie applicate alla manutenzione preventiva ha migliorato i livelli di efficienza conferendo alla gestione delle risorse maggiori capacità predittive rispetto ai modelli tradizionali. Trenitalia dispone di circa 30.000 locomotive, treni elettrici e leggeri, veicoli per trasporto passeggeri e merci, con oltre 8.000 treni in viaggio ogni giorno. Mettendo in relazione i dati relativi alle varie componenti (motore, batterie, freni…), con il loro ciclo di vita e grazie all’indicatore di utilizzo e di altri, Trenitalia stima di ridurre i costi di manutenzione dell’8-10%, un valore decisamente significativo.

Roberto AndreoliRoberto Andreoli, Direttore Divisione Cloud & Enterprise, Microsoft
Il tema della trasformazione digitale è sicuramente all’ordine del giorno di tutte le aziende, ma bisogna riconoscere che c’è ancora una certa confusione, a volte generata anche dal mondo dell’offerta. Per questo tutta l’industria IT dovrebbe investire per semplificare i messaggi, corredandoli di esempi concreti, perché progetti di data warehouse ne sono stati fatti tanti, ma oggi bisogna andare oltre. Se i dati rappresentano il minimo comun denominatore alla base di qualsiasi progetto di innovazione, è necessario avere ben chiari gli obiettivi che si vogliono raggiungere e calibrare correttamente gli investimenti. Recenti indagini hanno rilevato che le aziende che sanno valorizzare i dati in loro possesso registrano un margine lordo maggiore (si parla di un +18%) rispetto a quelle che non hanno ancora cominciato a farlo; al di là delle statistiche, è sempre più evidente che per restare competitivi oggi bisogna essere molto più veloci e flessibili rispetto al passato.
In un simile contesto il paradigma che può fare la differenza è il cloud, su cui Microsoft sta investendo da tempo. Anche in questo caso, però, bisogna fare chiarezza, evitare che il termine ‘cloud’ sia solo uno slogan. Le esperienze che utilizzano questo modello, infatti, sono le più disparate. Si va dalle start up che accettano, anzi vogliono, condividere strumenti, spazi e idee, come constatiamo ogni giorno nell’acceleratore che abbiamo promosso insieme a Fondazione Cariplo - battezzato growITup - nato con l’obiettivo di mettere in contatto le grandi imprese espressione del Made in Italy con le migliori startup, alle aziende che hanno la necessità di salvaguardare gli investimenti effettuati nel tempo, continuando a utilizzare sul cloud applicativi complessi come, per esempio, quelli di SAP o di Oracle. La nostra piattaforma, Microsoft Azure, è nata e continua a essere arricchita proprio per venire incontro a esigenze di questo tipo, per quanto diverse esse possano apparire. In pratica rendiamo disponibili una gamma sempre più ampia di soluzioni as-a-service in grado di fornire un supporto concreto a qualunque progettualità, da chi opera in mercati di nicchia a chi necessita di prestazioni di high performance computing, e ormai non più relegate ai grandi centri di ricerca o ai colossi dell’industria. La cosa più importante, però, come si diceva, è far conoscere le potenzialità delle nuove tecnologie digitali e le storie di successo a esse legate. Posso citare, per esempio, il caso di Melixa, una startup che, grazie alla nostra tecnologia, ha ideato e reso disponibile sul mercato un innovativo sistema di monitoraggio per l’apicoltura, bastato su una soluzione sostenibile e di facile applicazione al fine di fornire all’apicoltore hobbista, al professionista e ai centri di ricerca, un sistema che consenta il controllo professionale dell’apiario. La nostra ambizione è quella di ispirare le aziende e le persone affinché utilizzino la tecnologia per coronare i loro sogni e le loro ambizioni, mettendo in campo strumenti e metodologie sempre più performanti ma al tempo stesso semplici e intuitive, affinché diventino naturali e pervasive, proprio come gli strumenti di produttività personale di cui oggi nessuno può più fare a meno.

Stefano LocelsoStefano Locelso, Channel Manager, Hitachi Data Systems Italia
Qualunque azienda oggi, per avere successo, deve essere in grado di gestire, governare e rendere disponibili i dati in agilità, e non stiamo parlando solo dei dati strutturati, generati e archiviati all’interno del perimetro aziendale, ma anche di quelli non strutturati, che rappresentano oggi la stragrande maggioranza delle informazioni che hanno un impatto diretto su qualunque business. Il nostro compito è quello di supportare le aziende a fare i passi necessari per affrontare questo tema, non tanto a livello teorico ma pratico, al fine di ‘monetizzare’ i dati disponibili, che, adeguatamente gestiti, possono trasformarsi in nuovi prodotti e nuovi servizi in grado di incrementare la profittabilità delle aziende. Naturalmente è necessario da un lato avere obiettivi chiari e dall’altro dotarsi di una ‘cabina di regia’ in grado di governare in modo efficace, efficiente e sicuro un nuovo modello di gestione dei dati che parta da questi presupposti. La nostra strategia, che nasce dall’integrazione delle nostre competenze con quelle dell’intero Gruppo Hitachi, che da oltre 100 anni affianca in ogni parte del mondo grandi organizzazioni pubbliche e private nei principali mercati verticali, dai trasporti ai media, dalla sanità ai grandi impianti industriali, è proprio quella di offrire al mercato gli strumenti necessari per spostare qualunque dato liberamente e in sicurezza da qualsiasi sorgente a qualsiasi repository, per qualsiasi utilizzo.
Solo per fare un esempio, con le nostre soluzioni è possibile tenere sotto controllo, attraverso un’unica interfaccia e un’unica consolle, le informazioni che arrivano da dispositivi di riconoscimento facciale integrate nelle telecamere di controllo, quelle che vengono trasmesse da droni che stanno sorvolando una determinata zona e molte altre. Con adeguati strumenti di analisi è possibile ricavarne indicazioni utili per migliorare, per esempio, la sicurezza, ma i campi di applicazioni possono essere i più disparati. O ancora, è possibile rilevare il comportamento di un convoglio ferroviario in base alle condizioni meteo, anche in questo caso per trarre utili informazioni per migliorare, per esempio, gli standard costruttivi. Mi rendo conto che si tratta di esempi che riguardano aziende grandi e complesse: il nostro impegno, e quello di tutto il mondo dell’offerta, deve essere ora quello di portare questo messaggio a tutte le imprese, convincendole dei benefici che possono trarre da questo nuovo approccio alla gestione dei dati, naturalmente sulla base alle loro specifiche esigenze.

Roberto MartiniRoberto Martini, Alliance Manager, Business Technology & Data, Dedagroup
L’aumento dei flussi informativi e il loro valore crescente impone alle aziende di prestare maggiore attenzione alla gestione dei dati. Affrontarne la complessità data da volumi, variabilità, interazione, distribuzione e condivisione dei dati in modo sicuro e coerente, nel rispetto di normative in continua evoluzione, è una sfida che deve essere affrontata in maniera consapevole. Ciò è possibile solo grazie al supporto di un partner che sappia mettere in campo sia competenze tecniche, sempre allo stato dell’arte, sia approfondite conoscenze di tipo funzionale. Questo è, appunto, il ruolo di Dedagroup in qualità di system integrator, e per svolgerlo al meglio abbiamo dato vita a un’organizzazione strutturata per mercati verticali, perché ogni filiera ha esigenze specifiche, che vanno lette e interpretate correttamente. Non a caso l’aspetto consulenziale della nostra attività sta assumendo un ruolo sempre più significativo, perché se dal punto di vista tecnologico l’offerta è garantita, fondamentale risulta il saperla declinare in base alle specifiche esigenze di ciascun cliente, salvaguardando sia gli investimenti effettuati nel corso del tempo, ponendo però nel contempo attenzione all’incremento della velocità e della flessibilità, fattori che solo le tecnologie di ultima generazione possono garantire. In questo scenario il cloud rappresenta spesso la soluzione più adatta, ma anche in questo caso l’approccio deve essere graduale, verificando innanzitutto se sono soddisfatti determinati pre-requisiti, come standardizzazione e normalizzazione dei dati, virtualizzazione ecc.
In secondo luogo è necessario valutare quale tipologia di cloud - on-premise, ibrido o totalmente gestito - sia più indicata, in base agli obiettivi prefissati. Dedagroup, in questo senso, è in grado di fornire una vasta gamma di servizi cloud per affiancare e accompagnare le aziende nel loro percorso di crescita e sviluppo, salvaguardando gli investimenti effettuati integrandoli in soluzioni Hybrid, che consentono flessibilità e riduzione dei costi così da essere congruenti alle reali esigenze di business.
I ritorni offerti da un approccio alla gestione dei dati basato sull’analisi dei dati aziendali, messi a fattore comune con quelli che provengono dall’esterno, sono reali e quantificabili. Pensiamo, per esempio, ai progetti legati alla manutenzione preventiva, che consentono di allungare il ciclo di vita dei prodotti in ambito industriale, o ai miglioramenti che si possono ottenere in agricoltura utilizzando dati metereologici aggregati, o ancora al mondo del retail, che si sta attrezzando per conoscere sempre meglio le abitudini d’acquisto degli utenti grazie ai dati che vengono raccolti attraverso i canali più diversi. Si tratta di applicazioni che utilizzano, tra l’altro, tecnologie di cognitive computing, machine learning, business intelligence avanzata, tutte ad altissimo potenziale. L’importante è saperle orchestrare al meglio con l’aiuto del partner tecnologico giusto.

 

TORNA INDIETRO >>