Sicurezza ICT 2019
Datacenter
 

18/05/2016

Share    

Potenza e risorse IT libere da vincoli infrastrutturali

ll tema del Nuovo Data Center, da qualunque punto lo si guardi, fa fulcro sul fatto che la ‘potenza’ di un qualsiasi sistema informativo aziendale per allinearsi con efficacia alle esigenze del business dovrà essere facilmente ‘a disposizione’.

Sia che si stia adottando in modo consistente il modello cloud, sia che si continui a investire nell’onpremise, e sia che si pensi che il futuro sarà sempre più ‘ibrido’, l’IT aziendale deve sempre più essere in grado di mettere a disposizione del business la potenza necessaria per affrontare le sfide di un mercato sempre più complesso e competitivo. Il tema del Nuovo Data Center, da qualunque punto lo si guardi, fa fulcro sul fatto che la ‘potenza’ di un qualsiasi sistema informativo aziendale, di qualsiasi dimensione e di qualsiasi realtà, per allinearsi con efficacia alle esigenze del business dovrà sempre più risultare ‘libera’, o meglio, facilmente ‘a disposizione’. La potenza di un ambiente IT per essere messa con efficacia e rapidità a supporto degli importanti progetti strategici del business, soprattutto in termini di capacità di calcolo e di memorizzazione ma non solo, non deve quindi più risultare ingabbiata dai vincoli dettati dalle piattaforme hardware e dagli ambienti operativi esistenti... Ma anche da quelli del futuro. Per chi condivide questa visione, il passaggio indispensabile per ‘liberare la potenza dell’IT’ è l’adozione di una strategia Software Defined per le diverse risorse IT che stanno dentro a un data center, ma anche per avere facilità di accesso a quelle fornite dagli eventuali cloud provider. A questo primo passo non può non seguire la necessità di dare strumenti di governo agili e di facile utilizzo che possano portare a una efficiente Orchestrazione delle risorse IT messe a disposizione in qualunque contesto si operi: onpremise, cloud ibrido oppure pubblico.

Da queste considerazioni quindi si capisce come il concetto odierno di data center debba essere rivisto profondamente, e che è bene iniziare un percorso di evoluzione delle proprie infrastrutture verso quel modello di Nuovo Data Center che si connoti come più agile, più aperto e anche più efficiente sotto i profili dei consumi energetici. Per questo abbiamo chiesto a diversi operatori attivi su questo mercato con diverse specializzazioni di condividere con i nostri lettori la loro visione di quello che sarà il data center di domani, chiedendo di rispondere alle seguenti tre domande. (r.v.) 

1. Come si configura nella vostra visione di fornitore di soluzioni e servizi negli ambiti in cui siete specializzati il tema del ‘Nuovo Data Center’?
2. Come la vostra offerta di soluzioni e servizi abilita la realizzazione del Nuovo Data Center?
3. Nella vostra esperienza, quali sono i driver che convincono oggi le aziende a investire in un Nuovo Data Center fisico/virtuale?

Matthias Knobloch, 1&1 Communication Department
1. - La visione di 1&1 del ‘Nuovo Data Center’ si definisce grazie a una serie di punti chiave. La premessa è che 1&1 ha dotato i propri data center del massimo livello di sicurezza possibile, per assicurare la protezione totale dei dati dei propri clienti. D’altra parte l’azienda può garantire ciò grazie all’esistenza di alcuni sistemi centralizzati, come per esempio connessioni multiple ridondanti e alimentatori di corrente (almeno doppi). Questo permette a 1&1 di garantire quasi il 100% di tempo di funzionamento. Tutti i prodotti 1&1 sono stati sviluppati nel rispetto totale dei più alti standard di sicurezza e protezione dei dati. Inoltre, la visione moderna del concetto di data center include proprio un approccio ad ogni componente che sia prima di tutto sostenibile. Questo significa che 1&1 utilizza, insieme ad altre risorse, energia rinnovabile per alimentare i propri data center. In aggiunta, l’azienda investe continuamente nello sviluppo e nell’innovazione delle proprie tecnologie e immagina il futuro dei propri data center in un’ottica cloud. Pertanto ha sviluppato il suo Cloud Server ad alte prestazioni specificamente per rispondere alle esigenze delle PMI e continuerà ad arricchire il proprio portfolio di soluzioni con grande attenzione alla tecnologia cloud.

2. - Quello che 1&1 ha fatto nell’ottica di facilitare la nascita del nuovo concetto di data center, è stato concentrare le proprie strategie sul cloud e sul suo enorme potenziale per le imprese, per esempio investendo nel progetto di offrire tutti i servizi di hosting in modalità cloud. Pertanto, i clienti 1&1 hanno la possibilità oggi di beneficiare di una flessibilità ancora maggiore per progetti e attività sul web e allo stesso tempo di migrare facilmente i propri dati da un data center fisico nel cloud.

3. - Investire in un data center moderno, basato sul cloud computing, permette alle aziende di incontrare i bisogni dei propri clienti che sono ogni giorno alla ricerca di soluzioni che consentano il più alto livello di qualità, i più elevati standard di sicurezza, prestazioni, flessibilità, convenienza e facilità d’uso, parametri che garantiscono loro di rimanere competiviti sul mercato, nei propri settori di riferimento.

Stefano SordiStefano Sordi, Direttore Marketing di Aruba
1. - Crediamo che l’azienda cliente possa rivolgersi ad Aruba per esigenze di migrazione verso un’infrastruttura che vada oltre i modelli tradizionali e per integrare l’esistente in nuove infrastrutture, siano esse ibride o cloud. Questo accade per diverse necessità: per esempio, quando le aziende intendono concentrarsi maggiormente sul proprio core business e lasciare a noi l’onere di gestione dell’infrastruttura, server e data center in generale; oppure quando la complessità di gestione della propria infrastruttura ha raggiunto un livello tale da richiedere un alto supporto di management in termini di competenze, monitoraggio e rapidità d’intervento e, quindi, diventa utile affidarsi a degli specialisti; o anche quando aumenta la necessità di prestazioni delle macchine, perché magari si sta andando incontro a una crescita aziendale, o quando si desiderano maggiori garanzie in termini di affidabilità e soluzioni di Disaster Recovery. Spesso accade anche che un’azienda intende implementare la propria infrastruttura già esistente, limitata, sfruttando quindi tutta la flessibilità delle soluzioni cloud e data center, o magari possiede apparati particolari da interconnettere HSM (Hardware Security Module) e quindi necessita di ciò che si definisce come Data Center Extension; ossia l’infrastruttura del clien- t e che si ‘estende’ e viene ospitata da noi. Questo avviene in maniera graduale creando essenzialmente un prolungamento del data center aziendale o della sala dati che molte grandi imprese possiedono già al proprio interno, nel nostro cloud.

2. - La nostra offerta di soluzioni e servizi abilita questa realizzazione in due modi: da una parte riuscendo a creare il ‘nuovo data center’ all’interno di uno dei nostri DC, poiché siamo in grado di fornire fin da subito soluzioni di colocation di architetture, siano esse parziali o intere, mettendo a disposizione dei clienti porzioni di armadi o interi gruppi di rack provvisti di alimentazione e connettività; dall’altra parte creando il sito secondario – di un eventuale altro server o data center utilizzato dal cliente – in uno dei nostri DC. La creazione di un data center primario, infatti, presuppone oggigiorno che si ipotizzi fin da subito l’esistenza di un sito secondario di Disaster Recovery, in questo caso si potrà infatti ottimizzare fin da subito la progettazione del nuovo DC tenendo in considerazione l’utilizzo delle nostre soluzioni di Disaster Recovery, fisiche o cloud, e quindi risparmiare tempo e risorse.

3. - Tra i driver che convincono oggi le aziende a investire in un nuovo data center ci sono sicuramente il livello di prestazioni che si hanno a disposizione, la sicurezza e l’alta affidabilità date da infrastrutture e data center certificati che garantiscono la continuità del servizio, la scalabilità del sistema che permette di rispondere e ‘modellarsi’ più rapidamente in base alle esigenze di business, ed infine la digitalizzazione dei processi, che ormai è un’esigenza sempre crescente per ottenere efficienza e risparmi, sia a livello di processi interni alle aziende che di servizi offerti.

Luca Enea-SpilimbergoLuca Enea-Spilimbergo, Responsabile Commerciale Italia di ATEN
1. - Ritengo che i principali obiettivi da tenere in considerazione quando si pensa a un data center di nuova concezione siano tre: affidabilità, prestazioni ed efficienza energetica. Sebbene i produttori dei principali componenti hardware, server e apparati di networking in primis, siano in grado di fornire oggi prodotti molto affidabili e orientati alla continuità di esercizio grazie a strutture ridondanti, la supervisione umana è sempre necessaria e richiede strumenti adeguati. ATEN da oltre 36 anni progetta e produce soluzioni, sia hardware che software, utilizzate quotidianamente in data center di tutto il mondo per aiutare il personale addetto alla gestione dell’infrastruttura a tenere sotto controllo l’affidabilità del parco macchine garantendo un’erogazione dei servizi prossima al 100%. Il crescente interesse per servizi erogati in modalità cloud che si sta riscontrando negli ultimi anni, ha aumentato il numero di aziende che gestiscono data center di varia dimensione e ha avviato processi di aggiornamento delle infrastrutture esistenti. Gestire un data center oggi, vuol dire poter controllare in qualsiasi momento e ovunque ci si trovi, lo stato di tutte le apparecchiature installate e poter intervenire rapidamente per attuare interventi correttivi anche restando fuori dai locali fisici. L’analisi energetica, infine, non può oggi essere trascurata. Controllare i consumi delle apparecchiature e monitorare le condizioni ambientali, vuol dire sia controllare i costi dell’infrastruttura sia prevenire guasti e disservizi.

2. - ATEN dal 1979 propone soluzioni di connettività, accesso e gestione di infrastrutture IT e nel tempo si è guadagnata la fama di uno dei principali produttori in questo segmento di mercato. La gamma prodotti parte dalle soluzioni di gestione all’interno del data center: switch KVM per gestire da una singola postazione operatore un numero elevato di server; console LCD/KVM per l’accesso immediato in prossimità dei server stessi; matrici KVM per consentire a un gruppo di operatori di lavorare su centinaia di server; extender KVM per remotizzare le postazioni operatori fuori dall’area climatizzata e PDU (Power Distribution Units) per distribuire l’alimentazione agli apparati misurandone i parametri principali e controllandone lo stato. Con le tecnologie KVM over IP il controllo si sposta poi fuori dal data center consentendone l’accesso sicuro anche da luoghi geograficamente distanti, il tutto aiutato dalle soluzioni software di data center management.

3. - L’incremento della richiesta di servizi erogati da data center ha generato tra gli operatori molta più concorrenza che in passato grazie anche al costo dell’hardware che è diminuito nel tempo. Avere il controllo completo della propria infrastruttura è oggi fondamentale per poter offrire servizi di qualità con costi facilmente gestibili. Fortunatamente è possibile avere sotto controllo l’intero data center scegliendo i prodotti più adatti al proprio budget grazie all’ampia gamma di soluzioni offerte e usufruendo dei servizi di consulenza offerti da noi, in qualità di produttore, e dai nostri partner di canale.

Paolo ArlettiPaolo Arletti, Business Development Director ATS
1. - L’attuale contesto di mercato e i nuovi scenari di business impongono l’adozione di modelli e approcci agili, flessibili ed efficienti, che devono necessariamente essere applicati anche in ambito IT. Nella visione di ATS il ‘Nuovo Data Center’ si configura come elemento fondamentale per la digital transformation aziendale: un data center non più vincolato all’hardware ma in grado di spostare l’intelligenza verso il software, trasformando l’hardware in una commodity semplice, ma soprattutto rapida da implementare. In questo scenario entra in gioco la nostra visione di Software Defined Data Center: network virtualization, hyperconvergence, automation, big data e quality analysis sono alcuni degli elementi che ci vengono richiesti dal mercato e che proponiamo quotidianamente. In queste tematiche vediamo il futuro del Nuovo Data Center, capace di automatizzare i processi di rilascio di servizi IT adattando l’infrastruttura a un ecosistema agile, composto da infrastruttura onpremise e in cloud, che possono gestire in modo puntuale e automatico l’efficienza energetica, la sicurezza, la resilienza e le prestazioni. Uno degli esempi da cui prendiamo maggiormente spunto è quello di Tesla, ovvero l’implementazione reale della Software Defined Car, con aggiornamenti software che consentono di migliorare le prestazioni e l’efficienza della macchina. Allo stesso modo, con semplici aggiornamenti software, sarà possibile migliorare le prestazioni e l’efficienza dei servizi IT, sfruttando a pieno le potenzialità del nuovo data center. 

2. - L’offerta di ATS si basa sull’innovazione come fattore abilitante e vantaggio competitivo, per rispondere alle esigenze attuali del business: agilità, flessibilità, efficienza. Abbiamo scelto i nostri partner tecnologici tra i principali innovatori del settore, come per esempio Juniper Networks, creando una ‘ricetta’ in grado di allineare l’IT con le richieste del business. In particolare abbiamo cominciato a focalizzare le nostre expertise sulla network virtualization e sull’hyperconvergence, e da li abbiamo costruito un ecosistema aperto (evitando il lock-in, grazie a soluzioni come Juniper Contrail) e agile di partner tecnologici che ci permettessero di aggiungere componenti alla nostra visione.

3. - Le scelte delle aziende sono oggi dettate dallo sviluppo di nuovi paradigmi tecnologici - cloud, software defined networks, hyperconvergence - e dalle logiche di agilità, automazione, efficienza e ottimizzazione delle risorse. Proprio su questi driver si basano le scelte aziendali nell’investire nel nuovo data center, elementi capaci di tradursi in un reale vantaggio competitivo abilitato da tutte le componenti tecnologiche presenti nella nostra offerta: network security e virtualization, performance analysis on-premise e cloud, operation big data, a oggi al top di mercato e in grado di sfruttare al massimo il paradigma del software defined. Per esempio tra i nostri partner Juniper Networks è stata la prima a disaccoppiare l’hardware dal software.

Nicola PreviatiNicola Previati, Head of AWS per l’Italia
1. - Il nuovo concetto di data center è spesso legato al cloud computing che si riferisce alla fornitura on-demand di risorse IT tramite Internet con una modalità di pagamento payas- you-go. Grazie al cloud computing, i vendor come AWS gestiscono e mantengono l’infrastruttura tecnologica in un ambiente sicuro e le aziende accedono a queste risorse via Internet per sviluppare e far funzionare le proprie applicazioni. La capacità può aumentare o ridursi in modo instantaneo e le aziende pagano esclusivamente quello che utilizzano. Siamo convinti che nel lungo periodo la stragrande maggioranza delle aziende eseguirà quasi tutti i suoi carichi di lavoro IT nel cloud, e la nostra priorità è da sempre quella di rendere più agevole per i clienti utilizzare la piattaforma AWS come supporto alle loro infrastrutture onpremise esistenti senza dover affrontare difficoltà o intoppi, operando di fatto in un’architettura IT ibrida. In tale contesto abbiamo sempre considerato nostro obiettivo quello di aiutare le aziende clienti a sviluppare ambienti di lavoro integrati tra le loro infrastrutture esistenti e AWS. Vantiamo il più ampio e completo insieme di funzionalità per permettere ai nostri clienti di creare architetture ibride che vanno, dall’integrazione di reti, sicurezza e controllo degli accessi, al potenziamento della migrazione automatizzata dei dati e il monitoraggio direttamente tramite gli strumenti di gestione delle infrastrutture onpremise.

2. - Le aziende, dovunque esse siano nel mondo, devono continuare a migliorare la customer experience e trasformare il proprio business per rimanere competitive, e mentre i bassi costi di gestione della struttura possono favorire la trasformazione, non ne sono certo il principale driver. Questi sono piuttosto l’agilità e la capacità di innovare e il cloud ne è indubbiamente il principale abilitatore. Nel passato, chiedendo a un cliente in quanto tempo avrebbe potuto avviare un server per la sperimentazione, la sua risposta sarebbe stata 10-18 settimane. Oggi, non solo un’azienda può avviare migliaia di server nel giro di minuti e pagare solo quando li utilizza, ma ha anche accesso a una solida e completa piattaforma tecnologica per realizzare le proprie idee molto più velocemente.  

3. - Sono diverse le motivazioni che stanno portando tante aziende a migrare velocemente al cloud di AWS. Una è certamente l’agilità: AWS permette ai suoi clienti di avviare velocemente le risorse quando ne hanno bisogno, facendo il deploying di centinaia o addirittura migliaia di server in pochi minuti. La seconda ragione è il risparmio economico. AWS permette ai suoi clienti di trasformare le spese in conto capitale in costi variabili pagando l’infrastruttura cloud solo per quanto effettivamente consumato. La terza ragione è l’elasticità: le aziende tendono a dotarsi di maggiori risorse rispetto a quante ne avrebbero bisogno. Oggi invece è possibile dotarsi solo delle risorse strettamente necessarie con la consapevolezza che in ogni momento l’azienda può aumentarle o ridurle in base alle reali esigenze di business. 

Alberto LugettiAlberto Lugetti, Head of portfolio di BT Italia
1. - Nella nostra visione il driver primario per la realizzazione del nuovo data center non può che essere legato a una strategia cloud, dove il data center dell’azienda è l’elemento infrastrutturale di accelerazione per la fruizione locale di applicazioni da parte degli utenti interni. Elemento chiave quindi è l’orchestrazione tra risorse private e risorse cloud. Proprio a questo scopo, BT ha definito il ‘Cloud of Clouds’, una strategia di portfolio networkcentrica per l’integrazione dei servizi cloud a livello globale. La nuova generazione di servizi cloud di BT ha l’obiettivo di permettere alle organizzazioni di tutto il mondo di connettersi facilmente e in modo sicuro alle applicazioni e ai dati di cui necessitano, indipendentemente dal luogo in cui sono fisicamente collocati. Gli utilizzatori dei nuovi servizi cloud avranno la possibilità di integrare e gestire in modo autonomo le risorse IT ospitate nei loro ambienti cloud privati, nella piattaforma cloud globale di BT o nelle piattaforme degli altri principali cloud provider. Le aziende – come recenti ricerche dimostrano – sono infatti sempre più inclini a scegliere come broker di fiducia per le soluzioni cloud ibride quei service provider che, come BT, dispongono di capacità di orchestrazione combinate di data center e reti.

2. - L’offerta di soluzioni e servizi di BT risponde al forte interesse che riscuotono le architetture cloud ibride, capaci di coniugare i vantaggi delle piattaforme di cloud pubblico e privato attraverso strumenti e processi per il controllo e l’orchestrazione dei data center, della rete e dei servizi. Con l’obiettivo di divenire il Cloud Services Integrator di riferimento, BT sta investendo insieme ai partner per rendere disponibile il massimo numero di opzioni per connettere applicazioni e dati critici dei clienti, ovunque questi siano ospitati, ogniqualvolta ne abbiano bisogno, su qualsiasi dispositivo utilizzato (soluzioni Cloud Connect Direct). Con una rete proprietaria, performante ed intrinsecamente sicura che oggi collega 198 Paesi e include 48 data center distribuiti su scala mondiale, di cui cinque in Italia, BT ha il totale controllo sia delle performance sia della security ed è quindi in grado di fornire ai clienti un service level agreement end-to-end. 

3. - I principali benefici del cloud computing che gli IT decision maker perseguono sono il miglioramento dei processi di business, la riduzione dei costi IT e l’accelerazione del lancio di nuove applicazioni. Ormai la tecnologia cloud non è più considerata una scelta ad alto rischio di investimento, e in generale osserviamo che i budget destinati alle soluzioni cloud si stanno innalzando. A prevalere oggi è il cloud privato ma, al maturare della loro esperienza, le aziende si stanno orientando verso servizi di cloud pubblici e ambienti ibridi. Negli ambienti cloud pubblici, per esempio, sono destinati a crescere i carichi di lavoro dev/test e CRM, mentre per le applicazioni email si sceglie sempre di più uno scenario di cloud ibrido. Le soluzioni cloud private continuano a essere le più richieste per business intelligence, ERP ed esigenze di storage.

Diego BiondaDiego Bionda, Marketing Manager Datacenter e Energy Efficency di BTicino/Gruppo Legrand
1. - Che si tratti di una nuova realizzazione fisica, di una migrazione da un modello tradizionale o una infrastruttura per operare in contesti cloud, è fondamentale che il data center sia progettato nel rispetto e nell’equilibrio di alcuni parametri fondamentali: efficienza energetica, continuità di servizio, scalabilità e sicurezza. In tema di efficienza energetica è importante minimizzare le perdite, non solo quelle termiche ma anche quelle elettriche del sistema di alimentazione. Il data center infatti è un’industria fortemente energivora con un’elevata capacità di degrado dell’elettricità, la forma di energia più nobile, che viene trasformata in calore. Diventa quindi di’importanza fondamentale scegliere accuratamente i componenti del sistema elettrico, dal trasformatore alla PDU, per minimizzare le perdite di trasformazione mantenendo la flessibilità di gestione e la ridondanza dei sistemi, a tutto vantaggio del dimensionamento termico. La supervisione infine ricopre un ruolo fondamentale per l’ottenimento del risultato voluto. L’efficienza energetica del data center deve essere bilanciata con l’efficacia di funzionamento dello stesso e con necessità di dover garantire la continuità di servizio. Ridondanza di sistema e affidabilità dei componenti sono quindi prerequisiti fondamentali per la garanzia di successo. Altro parametro fondamentale è la scalabilità di sistema: i sistemi modulari possono garantire l’evoluzione nel tempo del data center e consentono di ottimizzare gli investimenti iniziali. È infine fondamentale proteggere il contenuto dei dati con opportuni sistemi di controllo accessi e videosorveglianza.

2. - BTicino si pone da sempre come fornitore di prodotti e soluzioni volti a garantire efficienza energetica, continuità di servizio, scalabilità e sicurezza. Giocando da oltre 70 anni un ruolo di protagonista nel settore elettrico, in tal senso BTicino può far valere la sua esperienze. Trasformatori a basse perdite di carico, sistemi di distribuzione Busbar e Ups con elevato grado di efficienza sono soluzioni coordinate necessarie per la corretta gestione dell’energia all’interno della tecnical room. Sistemi di tipo ‘hot plug’, collegati e scollegati mantenendo l’alimentazione e sistemi ‘hot swap’, sostituibili mantenendo l’alimentazione, sono prerogative di riduzione dei tempi di intervento e di conseguente aumento della disponibilità e della redditività del data center. La modularità di sistema, dal cablaggio strutturato agli Ups, dalle Busbar agli interruttori aperti, sono da sempre la prerogativa dei sistemi BTicino.

3. - È necessario muoversi in un contesto sempre più rapido e flessibile, offrendo servizi qualitativi ai propri clienti. Tutto questo in un ambito applicativo dove la mole crescente dei dati, si pensi solo al fenomeno sempre più marcato dell’Internet of Things, determina la necessità di una gestione efficace ed efficiente. Sono questi i driver che muovono le aziende, siano esse fisiche o virtuali, a investire in infrastrutture per la gestione di dati. 

Alberto DegradiAlberto Degradi, Infrastructure Architecture Leader di Cisco Italia
1. - Persone e macchine creano, accumulano ed elaborano una quantità di dati senza precedenti. La più grande sfida per le aziende di oggi è che questa crescita non avviene in un solo luogo, ma ovunque. E, se i dati sono ovunque, anche le risorse di elaborazione e archiviazione devono essere accessibili ovunque: dal cuore del data center ai dipendenti, ai clienti, ai cittadini. Con la giusta architettura, che fornisca le risorse di elaborazione in tempo reale ovunque siano presenti dati, è possibile usufruire delle enormi opportunità offerte dalla rete interconnessa di persone, processi, dati e cose: Internet of Everything. La chiave del successo consiste nel costruire sistemi che condividano la gestione comune e il software di automazione. Infatti, in un mondo dove tutto è connesso, le aziende sono consapevoli di dover trasformare l’approccio alla gestione dei dati e dell’intera infrastruttura IT e il nuovo modello di data center che sta emergendo deve essere composto da modelli centralizzati e decentralizzati. In Cisco abbiamo sviluppato un approccio olistico primo nel suo genere, che inizia con i prodotti di riferimento del settore per connettere le applicazioni centrali e periferiche, fornisce servizi che consentono di personalizzare le piattaforme di elaborazione ed è supportato da un forte ecosistema di partner tecnologici, un approccio in cui l’azienda è al centro di tutto, in tutte le fasi.

2. - Da un lato, con il Cisco Unified Computing System (Cisco UCS) offriamo soluzioni per una vasta gamma di impieghi, dai più grandi hyperscale data center alle sedi remote più piccole, sfruttando l’elaborazione di prossima generazione incentrata sulle app. Cisco UCS, infatti, è un ambiente di elaborazione che offre capacità di prim’ordine attraverso una gamma completa di funzioni. Dall’altro, grazie a un approccio policy driven data center, si può semplificare la gestione del data center, la creazione di un’infrastruttura cloud e la delivery di nuove applicazioni, migliorando così la flessibilità e l’agilità del data center ottenendo più benefici a livello di business. Tutto questo è possibile solo grazie a un Policy Driven Data Center con Cisco ACI, una soluzione che automatizza la fabric, i servizi di rete, il computing e lo storage partendo dalle applicazioni.

3. - I responsabili IT delle aziende sono costantemente impegnati a liberare risorse che contribuiscano a orientare l’innovazione e a conseguire risultati migliori, per cui un sistema in cui tutte le risorse di elaborazione condividano una piattaforma di gestione comune risulta essere la chiave per la crescita, inoltre, un modello come quello di Cisco UCS porta a implementazioni accelerate dell’infrastruttura, ambienti di elaborazione più adattivi, processi che supportano la differenziazione e, non da ultimo, costi ridotti. Ciò si inserisce nella visione più ampia del momento di transizione che stiamo vivendo, dove il processo di digitalizzazione delle aziende non è più un’opzione, ma una scelta da fare nel breve periodo per poter crescere ma anche per rimanere competitivi e non soccombere.

Massimo TradigoMassimo Tradigo Sales Director Italy di DATA4 Group
1. - Oggi la trasformazione digitale sta rivoluzionando il modello economico mondiale. In un contesto virtuale e aperto, le imprese stanno migrando progressivamente verso l’hybrid cloud, basandosi su un ampio portafoglio di fornitori cloud e infrastrutture. Questo significa accompagnarli nel loro processo di open innovation, dove i sistemi informativi sono aperti e la scelta del data center è cruciale. In qualità di operatore di data center, dobbiamo far evolvere costantemente il nostro portafoglio di offerta affinchè i nostri clienti trovino in DATA4 un partner pronto a soddisfare i loro bisogni evolutivi. In primo luogo, i nostri data center sono finanziati, costruiti e gestiti da DATA4, ovvero disponiamo della capacità finanziaria di poter investire costantemente nell’innovazione e nel design delle nostre infrastrutture, al fine di accompagnare la crescita del cliente e consentirgli di disporre di data center sempre allo stato dell’arte, con la garanzia della massima sicurezza. In secondo luogo, la sfida del data center 4.0 di oggi è di diventare sempre piu connesso, attraverso la realizzazione di infrastrutture fisiche che consentono di raggiungere l’ecosistema digitale: essere cioè l’hub di tutti i fornitori che sostengono lo sviluppo delle imprese nel cloud. Il nuovo data center deve dunque essere scalabile, e iper-connesso, in grado quindi di proporre soluzioni sempre più agili e flessibili secondo il paradigma del ‘Pay as you Grow’.

2. - DATA4 Group prevede di raddoppiare sia in termini di presenza in Europa, che di fatturato, entro il 2020. Propietario di digital campus e di data center, il Gruppo ha approvato un importante piano di investimenti per sviluppare i propri digital campus e la propria offerta di soluzioni e servizi di data center. Stiamo investendo nell’innovazione per un nuovo design sempre piu modulare, scalabile ed eco-responsabile. Stiamo consolidando la nostra visione di data center 4.0 ultra-sicuro e iper-connesso con la creazione di un digital hub, cioè un ecosistema di servizi e partner per interconnettere i clienti con: operatori di telecomunicazioni, Internet Exchange Point - come MiX -, private cloud and public cloud provider, Internet service provider e altri.

3. - Nel contesto di outsourcing oggi la aziende devono scegliere la strategia giusta per ottenere i migliori ROI, e quindi: accedere direttamente ai digital hub, ai peering point, ai network metropolitani, nazionali ed internazionali; disporre di infrastrutture fisiche di qualità, ridondanti e resilienti; lavorare con partner che offrano soluzioni di data center scalabili: dal singolo rack in colocation all’edificio dedicato su misura con ingenti disponibilità di potenza elettrica; usufruire di una gamma di servizi complementari pensati per il personale dei clienti (sale riunioni, uffici, sale integration, servizio wi-fi, ecc.); infine, affidarsi a partner solidi, che possano vantare un’esperienza pluriennale nel design, nella costruzione e nella manutenzione dei propri digital campus e che siano focalizzati all’erogazione di servizi di hosting in infrastrutture di eccellenza.

Ivan RenestoIvan Renesto, Enterprise Solutions Marketing Manager di Dell Italia
 1. - La maggior parte dei leader IT pensano che oggi le infrastrutture siano troppo costose, poco flessibili e difficili da gestire. Il data center di nuova generazione deve superare questi limiti, che Dell ha ben tenuto in considerazione nella progettazione di nuove piattaforme che offrano più scelta, riducano la complessità e migliorino la scalabilità. Trend quali mobility, cloud, big data, social business stanno portando a una ridefinizione di tutte le nostre assunzioni su come adottare e utilizzare la tecnologia. I cambiamenti stanno avvenendo molto rapidamente e all’IT viene chiesto di rivoluzionarsi per poter meglio supportare il business, fornendo nuove risorse ogni volta questo sia necessario e con una scalabilità immediata al crescere della domanda. Dell propone ai suoi clienti di iniziare subito un percorso volto alla realizzazione di una ‘future-ready enterprise’, termine con il quale indichiamo aziende il cui l’IT evolve verso soluzioni innovative, pronte per ciò che la tecnologia offrirà in futuro o si rivoluziona approcciando nuovi modelli. Oggi è possibile prepararsi al futuro attraverso infrastruttura efficiente nel footprint, nei consumi e nelle prestazioni erogate, con piattaforme open standard e profondamente integrate con ambienti di virtualizzazione e applicativi, con soluzioni modulari e ‘componibili’ sulla base dei workload e quindi delle esigenze del business. Tutto questo nell’ottica di predisporsi all’IT-as-a-Service e al cloud.

2. - La convergenza è la chiave che unisce calcolo, storage, rete e gestione per permettere a un data center di crescere on-demand. I moduli PowerEdge VRTX e FX realizzati da Dell sono architetture convergenti uniche. Con l’integrazione di hypervisor, tool di monitoring e gestione, Dell sviluppa soluzioni ingegnerizzate e appliance. Le prime sono realizzate, dimensionate e verificate con i principali vendor di riferimento tra cui VMware, Microsoft, Red Hat. Un esempio: Dell HCS per Microsoft, per la realizzazione di cloud privati e ibridi. Le seconde rappresentano sistemi iper-convergenti come la serie Dell XC, basata su Nutanix, per massime flessibilità e semplicità. I servizi professionali Dell, i suoi partner e le modalità di pagamento di Dell Financial Services, sono garanzia di successo.

3. - Molto apprezzata dai nostri clienti, registriamo crescite importanti in Europa, è la possibilità di modulare una soluzione server per aderire al meglio ai workload. Poter comporre una piattaforma convergente in sole 2U con unità di calcolo, fino a 16 processori, piuttosto che dischi, fino a 56, o scegliere il mix più adatto con l’integrazione di connettività Enthernet e/o FC in un unico sistema significa consentire all’IT di adattarsi con facilità al business. Flessibilità infrastrutturale che si unisce a quella dei livelli di virtualizzazione e applicativa con le soluzioni Software-Defined che Dell fornisce a tutti i livelli: networking, storage e data center. Anche il cloud è oggi un driver rilevante. Grazie a Cloud in-a-box, basato su VRTX, stiamo ricevendo conferme da aziende e PA.

Fabio PascaliFabio Pascali, Responsabile Top Account North di EMC Italia
1. - Vediamo emergere molto forte il concetto di ‘modern data center’ a livello sia di architettura sia di infrastruttura, insieme all’approccio sempre più diffuso dell’hybrid cloud, dove la funzione IT vuole riprendere il controllo del dato e tornare a essere protagonista. Con il passaggio al cloud, il data center si sta trasformando, raggiungendo nuovi livelli di agilità. Il nuovo data center si basa su alcuni aspetti che vedono nella riduzione dei costi operativi, in più alti livelli di performance e nella maggiore flessibilità i principali obiettivi a cui le aziende puntano. Tutto questo può essere sintetizzato nella ‘converged infrastructure’, e molti dei nostri clienti oggi stanno iniziando a realizzare queste infrastrutture al fine di essere più rapidi nella realizzazione delle soluzioni richieste dal mercato. Per assistere le aziende in questa trasformazione, EMC ha creato appositamente una business unit dedicata alla converged infrastructure, che include anche soluzioni iperconvergenti derivate dall’approccio EMC al Software Define Data Center. Quello che vediamo oggi è che le organizzazioni IT incaricate di supportare le crescenti richieste del business per nuove applicazioni e servizi a fronte di risorse e budget limitati non vogliono sprecare tempo per dover continuamente integrare nuove infrastrutture. Sono le aziende che oggi ci chiedono di assisterle nel passaggio al modern data center, sulla spinta di una necessità di maggiore velocità nella realizzazione di nuove applicazioni, soprattutto nell’area delle ‘cloud native applications’.

2. - La nostra offerta si configura sui quattro pillar che caratterizzano il moderno data center. Il primo è rappresentato dalla rivoluzione dello storage ‘flash’, con la reingegnerizzazione fatta da EMC per portare livelli più elevati di performance e ridurre i costi. Il nostro recente annuncio in ambito storage enterprise con il nuovo VMAX All Flash va in questa direzione, per proporre una soluzione completamente riprogettata per capitalizzare il valore di questa tecnologia nella trasformazione del data center moderno. Il secondo pillar si basa sulle architetture scale-out che consentono di partire piccoli e far crescere, sulla base delle future esigenze delle organizzazioni, sia la capacità elaborativa che quella dei dati. Terzo elemento è il software-defined, che permette la gestione via software del data center moderno. E infine l’approccio cloud in modalità hybrid, con un approccio che comprende il meglio del cloud privato e di quello pubblico.

3. - I driver di questa trasformazione sono la ricerca di una maggiore efficienza e la necessità di ridurre i costi operativi, in modo da poter investire le risorse risparmiate nello sviluppo di applicazioni in cloud. E sicuramente la velocità e flessibilità con cui l’IT deve supportare il nuovo mondo applicativo. Ci sono realtà che stanno compiendo questo percorso per gradi, altre invece che vogliono cogliere interamente l’evoluzione del nuovo data center. Per questi EMC offre Enterprise Hybrid Cloud, soluzione pensata per aiutare le organizzazioni ad accelerare il loro processo di trasformazione.

Antonio CarnassaleAntonio Carnassale, Country Manager di Emerson Network Power in Italia
1. - Cloud computing, sostenibilità, sicurezza dei dati e Internet of Things stanno determinando profondi cambiamenti nell’IT, creando nuove opportunità e sfide. L’evoluzione del software- as-a-service (SaaS) in ambienti ibridi, in cui si usano i servizi per garantire maggior agilità alle strutture tradizionali, continua a progredire e il cloud computing potrebbe diventare ancora più complesso. La spinta all’identificazione e all’eliminazione dei server poco operativi continuerà a intensificarsi e costituirà un passo fondamentale per gestire il consumo energetico, attraverso l’implementazione di soluzioni hardware e software innovative e servizi intelligenti, per favorire la riduzione dei requisiti di alimentazione e raffreddamento. Inoltre, sarà esplorato il potenziale della capacità inutilizzata del data center utile a diventare parte di un modello di cloud computing distribuito con servizi condivisi, che permetta di vendere la capacità in eccesso sul libero mercato.

2. - Emerson Network Power è leader globale nella fornitura di tecnologie per le infrastrutture critiche e di servizi per l’intero ciclo di vita di sistemi tecnologici in ambito informatico e delle comunicazioni. Grazie a un portfolio in continua espansione di soluzioni hardware e software intelligenti e rapidamente implementabili per la gestione termica, delle infrastrutture e dell’alimentazione, Emerson Network Power rende possibili reti efficienti e ad alta disponibilità. Inoltre, con Trellis forniamo una piattaforma completa di gestione dell’infrastruttura del data center, da remoto e onsite, per garantire il miglior supporto nella ottimizzazione e manutenzione di data center.

3. - Le aziende stanno affrontando numerose sfide per essere all’avanguardia e mantenere una produttività elevata. Gli investimenti in nuove infrastrutture sono guidati sicuramente dalla necessità di incrementare l’agilità digitale, la protezione dei dati, l’efficienza, garantendo la continuità di servizi e di attività. Allo stesso tempo vi è l’esigenza di ridurre la complessità di gestione e rendere le infrastrutture più snelle e flessibili. Di fondamentale importanza anche il contenimento di spazio e consumo energetico, che permettono una riduzione dei costi e un ritorno sull’investimento più rapido. Il confronto con i nostri clienti e quelli potenziali è un elemento imprescindibile dell’attività di Emerson Network Power, per riuscire a garantire soluzioni e servizi a supporto di questa trasformazione.

Davide BenelliDavide Benelli, Business Program Manager di Fujitsu Italia
1. - Gestire oggi un ‘Nuovo Data Center’ significa saper mettere a fattor comune automazione, standardizzazione, consolidamento, virtualizzazione e cloud, ovvero realizzare un’architettura estremamente agile, affidabile, performante e sicura, nella maniera più semplice possibile e in tempi brevi. L’obiettivo è uno solo: supportare il business. L’approccio architetturale che ne consegue è definito come Software Defined Data Center: ciò significa estendere i concetti della virtualizzazione a tutte le sue risorse e servizi. Si tratta di un’infrastruttura ideale per offrire servizi applicativi dinamici, in quanto accelera e semplifica notevolmente il provisioning e la gestione delle risorse virtualizzate di elaborazione, rete e storage. Questo approccio però porta subito ad una riflessione: quale sia la strategia più opportuna da adottare. Orientarsi verso la scelta dei singoli componenti provvedendo alla loro integrazione, spesso tutt’altro che semplice, oppure scegliere soluzioni ‘ready to run’, pre-integrate e pre-testate. Oggi risulta vincente optare per la seconda, ovvero per soluzioni chiavi in mano che possono velocemente passare dall’ambiente di test a quello di produzione, garantendo la perfetta interoperabilità tra tutte le diverse componenti hardware e software, anche complesse. In questo contesto, utilizzare soluzioni software defined, pre-integrate e pre-testate consente, indipendentemente dal contesto IT di riferimento, di portare i progetti IT velocemente in produzione, ridurne i tempi di realizzazione e i rischi di implementazione, permettendo al contempo di orientarsi verso successivi sviluppi.

2. - Fujitsu ha sintetizzato l’approccio alla tecnologia software defined e alle soluzioni pre-integrate e pre-testate nella realizzazione di una famiglia di appliance ready-to-run a tutto tondo basate su hypervisor VMware: FUJITSU Integrated System PRIMEFLEX, ingegnerizzate specificatamente in base all’ambiente VMware di riferimento (es. vSAN, vCloud) ed equipaggiate con processore Intel Xeon. Queste soluzioni sono composte da tutti gli elementi hardware, software e servizi che sono necessari per costituire una piattaforma di virtualizzazione. In questo modo tutti gli utenti possono beneficiare di un’integrazione basata su tecnologia collaudata, un’infrastruttura agile e veloce come il business, ambienti pronti all’uso in tempi brevi dal design semplificato con un prevedibile sizing & scaling.

3. - Diversi sono i driver che possono spingere le aziende ad adottare soluzioni software defined nell’ambito di un processo di rinnovamento tecnologico del proprio data center e quindi di trasformazione digitale dei processi di business. Innanzi tutto la necessità, lato management, di avere a disposizione da parte dell’IT una tecnologia che possa dare delle risposte flessibili, a valore e in tempi brevissimi alle proprie mutevoli esigenze e, in alcuni casi, anticiparle. Dal punto di vista IT ciò significa basare i servizi erogati su un ambiente e un’infrastruttura di facile gestione, altamente performante e scalabile.

Sergio EufemiSergio Eufemi, Resiliency Services Leader di IBM Italia
1. - Il data center del futuro sarà un data center ibrido, in parte in cloud, acquisito come servizio, in parte ancora fisico, sotto il diretto controllo dell’azienda. Per ottimizzare costi e consumi del data center fisico e ridurre al minimo gli impatti operativi di gestione, i sistemi IT, i sistemi meccanici di raffreddamento, l’alimentazione elettrica devono essere in grado di auto-regolarsi al mutare delle condizioni e delle necessità. Perché questo sia possibile occorre puntare sulla realizzazione di data center modulari e flessibili, governati da sistemi intelligenti, in grado di elaborare grandi quantità di dati, prelevate in tempo reale, tenendo conto delle caratteristiche degli impianti, dei sistemi IT e delle necessità di elaborazione, secondo un modello di auto-apprendimento continuo. Solo così il ‘contenitore’ potrà essere resiliente, tenuto costantemente sotto controllo dai sistemi cognitivi, in relazione continua con il proprio contenuto.

2. - La nostra offerta di soluzioni e servizi prefigura un futuro in cui l’adattabilità cognitiva delle soluzioni ai problemi rende possibile l’integrazione di sistemi fisici e virtuali, abilitando, nei sistemi di gestione, capacità di relazione e di apprendimento, che sviluppano competenze di integrazione a supporto di qualunque decisione aziendale. Oltre ai tradizionali servizi di costruzione di un data center, IBM sta offrendo servizi per ‘assemblare’ e gestire ambienti ibridi complessi. Una prima componente importante di un servizio ibrido sono i servizi di brokerage per permettere al gestore del sistema di approvvigionarsi in tempi rapidi al miglior prezzo di servizi cloud pubblici che rispettino i vincoli aziendali di sicurezza e compliance. Un secondo elemento importante è l’orchestrazione del complesso dei sistemi, middleware, e servizi per accelerare configurazione, provisioninig, e fornitura dei servizi.

3. - Le funzioni di business sono sempre più interessate a sviluppare servizi, presentati e fruiti su device mobili, con una utenza fortemente variabile nel tempo, con cicli di rinnovo delle applicazioni molto frequenti. Queste caratteristiche richiedono che il servizio separi nettamente la fase di preparazione del dato dalla fase di presentazione dello stesso. Il servizio risiede su un sistema centrale molto flessibile, per far fronte a variazioni improvvise nel carico. Il sistema centrale deve risultare omogeneo, perché il ciclo di sviluppo delle nuove applicazioni non può più includere il system test su versioni differenti di sistemi operativi e hardware. Queste esigenze richiedono sistemi cloud. Per contro, le applicazioni tradizionali, quali ERP e i sistemi di core banking, sono state progettate per ambienti molto differenti. Qui una versione di referenza dei dati è elaborata su sistemi centrali, e i dati sono poi acceduti e rielaborati da centinaia di programmi pc eterogenei in rete. La sfida del nuovo CIO sarà far convivere i due mondi nel prossimo futuro, sposando l’integrità e la compliance tipica dei sistemi tradizionali, con l’agilità e la fruibilità delle nuove app.

Roberto PatanoRoberto Patano, Senior Manager Systems Engineering di NetApp
1. - Le infrastrutture IT non sono più entità statiche caratterizzate da una crescita prevedibile. Con l’avvento del cloud, le infrastrutture IT stanno rapidamente evolvendo. Oggi, le aziende hanno a disposizione una vasta gamma di opzioni quando si tratta di dove e come procurarsi i servizi IT. Non sono più costrette a standardizzare un unico metodo di erogazione o un unico provider per l’intera organizzazione. In qualsiasi momento, le aziende possono sfruttare una combinazione di risorse di calcolo interne e pubbliche per approfittare di nuove opzioni. In questo contesto il Nuovo Data Center diventerà necessariamente un ambiente ibrido ed estremamente dinamico. L’IT aziendale agirà sempre più come broker scegliendo tra risorse onpremise e servizi in cloud, rispetto alle esigenze delle diverse funzioni aziendali. Per non perdere l’orientamento, per l’IT sarà fondamentale governare la mobilità dei dati e tutti gli attributi che questi ultimi aggregano e che li rendono molto più difficili da gestire rispetto alla componente di computing. A seguito della vasta implementazione della virtualizzazione, grazie all’approccio software defined questa mobilità è stata garantita all’interno delle infrastrutture IT, ma oggi è necessario garantire l’esecuzione dei workload anche tra diversi data center. Questo è esattamente quello che la strategia NetApp Data Fabric mette a disposizione degli IT manager.

2. - NetApp ha fatto evolvere la propria offerta sulla base di una tecnologia particolarmente visionaria: in linea di massima, per permettere ai diversi attori (aziende utenti, service provider, hyperscaler e fornitori di servizi cloud) di implementare questa modalità operativa. Ciascun elemento della proposizione NetApp è stato declinato in tre modalità: appliance, virtual machine, servizio nel cloud. Un esempio è dato dal nostro sistema operativo Clustered Data ONTAP che è oggi fruibile come sistema operativo dei sistemi Storage FAS di NetApp, ma è anche disponibile in modalità software only, come VM (ONTAP Edge), oppure come sistema operativo disponibile nei sistemi di Hyperscaler come Amazon Web Services (Cloud ONTAP). La mobilità dinamica dei dati è garantita dal fatto di essere un sistema operativo molto diffuso, ampiamente integrato con diverse piattaforme di virtualizzazione e largamente utilizzato tra i diversi service provider.

3. - Dal punto di vista della ricerca di nuove opportunità di business, c’è l’esigenza di predisporre il proprio modello di data center ed aprirlo gradualmente al modello di cloud ibrido, governando i dati aziendali anche attraverso soluzioni di monitoraggio degli ambienti storage multivendor. Questo è realizzabile con la soluzione NetApp On Command Insight. Dal punto di vista economico/finanziario l’attenzione è chiaramente posta sull’efficientamento dello storage, in quanto per molte realtà il cammino della virtrualizzazione dello storage e dell’automazione è ancora in corso d’opera. Dal punto di vista operativo, da una rivisitazione delle proprie politiche di data management e data protection.

Luigi ScappinLuigi Scappin, Technical Sales Consulting Director di Oracle Italia
1. - Nessuna azienda oggi può prescindere dalle opportunità che il cloud offre per avere una infrastruttura IT più agile, in grado di accelerare lo sviluppo di nuovi servizi, applicazioni, e innovazione. Pertanto un nuovo data center deve essere pensato sempre anche in funzione del cloud: soprattutto laddove c’è un’eredità importante di elementi onpremise con la quale dovremo convivere ancora per diversi anni, ragionando in ottica di cloud ibrido. In questo senso la carta vincente è trovare il modo di far funzionare ‘come in cloud’ anche ciò che è ancora onpremise. Questo è possibile sia assicurandosi infrastrutture fisiche performanti sui due diversi fronti, sia scegliendo fornitori cloud che offrano soluzioni in grado di ottimizzare le performance e la flessibilità degli ambienti ibridi e garantire la protezione e il rispetto delle normative per i dati, ovunque essi si trovino. Oggi Oracle offre anche una carta in più: stiamo portando sul mercato una tecnologia del tutto nuova, che ci consente di portare direttamente ‘dentro’ il data center del cliente la nostra offerta cloud e allo stesso tempo permette al cliente di mantenere i propri dati nel perimetro fisico del proprio data center, senza portarli sulla nuvola. Questo è particolarmente importante se consideriamo le questioni legate alle normative sulla gestione dei dati a livello internazionale, ed è un passo che avvicina le imprese alla possibilità di portare in cloud anche le applicazioni mission critical.

2. - La proposta Oracle si distingue perché abbiamo la capacità di supportare ogni tipo di scelta architetturale con una gamma di soluzioni flessibili e sempre integrabili fra di loro. Per esempio alle aziende che scelgono il cloud ibrido offriamo strumenti che permettono di muovere facilmente i dati dall’onpremise alla nuvola e viceversa, senza perdere in performance e affidabilità. Un’altra innovazione sul fronte hardware che ci rende unici sul mercato nell’affrontare una delle questioni più spinose è la sicurezza dei dati. Con la nostra tecnologia Software in Silicon abbiamo aggiunto un nuovo livello di sicurezza direttamente nel processore Sparc M7.

3. - Per competere oggi è essenziale innovare, implementare applicazioni e servizi rapidamente e in sicurezza e in questo senso vediamo sempre più aziende spingere sull’automatizzazione, sapendo di poter contare anche su fornitori come Oracle che possono rispondere a tutte le esigenze, end-to-end. Inoltre, oggi vediamo che sono sempre di più le linee di business che acquistano IT; questo implica la necessità di dover gestire una molteplicità di applicazioni e di doverle erogare in modalità molto più centrate sull’utente, dominando il fenomeno della ‘shadow IT’ e chiedendo innovazione: rinnovare il data center serve anche a liberare risorse da dedicare all’innovazione e non alla ‘manutenzione’ di sistemi obsoleti. Infine, abbiamo i grandi scenari come big data & analytics che richiedono di riconsiderare i dati e le proprie infrastrutture per sfruttare al 100% le potenzialità.

Mauro BonfantiMauro Bonfanti, Country Manager Italia di Pure Storage
1. - Secondo Pure Storage un Nuovo Data Center deve sfruttare i vantaggi dell’innovazione per consentire alle applicazioni e quindi al business di trarne i maggiori vantaggi. Flash = Performance certo, ma anche: riduzione di spazio fisico e quindi di costosi metri quadri; riduzione dei consumi energetici per l’alimentazione e per il cooling. Nel caso specifico di Pure Storage, questo si traduce in: semplicità di utilizzo e riduzione degli FTE necessari a gestire le infrastrutture; eliminazione dei rischi e dei costi legati alla migrazione dati da vecchi a nuovi array storage; predicibilità dei costi di manutenzione nel lungo periodo e rinnovo continuo della tecnologia in continuità di esercizio. Tutto ciò è ottenibile a costi comparabili se non più competitivi rispetto alle tecnologie disco tradizionali o ibride, grazie a funzionalità di compressione e deduplica dei dati che consentono di ‘moltiplicare’ i TB raw in TB utili alle applicazioni.

2. - È necessario entrare in una nuova dimensione nel mondo dello storage e con Pure Storage il nuovo data center si avvantaggia innanzitutto della semplicità d’uso dei sistemi. Un moderno DC non può essere condizionato dai fermi e dalle costanti migrazioni infrastrutturali dettate dalle strategie di vendita di quel particolare vendor legate agli up-grade tecnologici; un IT manager deve poter essere libero di decidere i percorsi di migrazione indipendentemente dalle strategie e dai contratti di manutenzione. Pure Storage aiuta le moderne architetture di data center ad essere flessibili (eliminando i rischi di dimensionamento iniziale), semplici (introducendo criteri di gestioni basati sul cloud), predicibili (con un sistema di costi predeterminato e uguale nel tempo), costantemente aggiornate tecnologicamente (grazie all’unicità del programma Evergreen) e non soggette a fermi applicativi e/o di sistema per le manutenzioni hardware o software (grazie al ‘non disruptive upgrade’) che garantisce zero impatti sulle performance in caso di manutenzione.

3. - L’IT rimane in ogni enterprise vitale e cruciale, anzi aumenta rilevanza e forza. Molti dei data center esistenti prevedono un criterio di efficienza ormai superato con l’impossibilità di gestire le nuove densità raggiunte dai principali vendor. E’ necessario quindi ridisegnare i data center dal punto di vista architetturale tenendo anche in considerazione l’efficienza energetica (PUE). Se a questo aggiungiamo le nuove dinamiche relative al cloud, che richiedono gradi di flessibilità maggiori, si capisce come sia necessario rendere efficienti i data center anche per cogliere le nuove opportunità di mercato legate alle offerte di co-location gestita o di managed service. In tale contesto Pure Storage offre soluzioni assolutamente innovative rispetto alla concorrenza sia per aspetti tecnici che di modello di business e di uso. Per noi le scelte del CIO non devono dipendere dalle complessità infrastrutturali, ma vicecersa l’’infrastruttura deve servire a liberare risorse per un utilizzo più proficuo delle risorse IT, anche economiche, rispetto agli obiettivi di business dell’azienda.

Salvatore MoriaSalvatore Moria, Direttore Commerciale Italia di Riello UPS
1. - Per costruire i modelli del futuro non servono solo nuove tecnologie. Occorre soprattutto ripensare la tecnologia e assegnare nuovi ruoli anche a dispositivi le cui funzioni sembravano ormai consolidate. Per esempio, è sufficiente dare un nuovo ruolo agli UPS per cogliere incredibili vantaggi in termini di efficienza energetica globale. Gli UPS gestiscono l’energia: la accumulano, la conservano e la erogano. Sono fondamentali in moltissimi campi, tra cui quello dei data center a cui assicurano energia continua e di qualità, proteggendoli da ogni tipo di anomalia. I data center dal canto loro sono fortemente energivori, responsabili dell’1,3% delle emissioni globali di gas serra, di cui circa il 30% dipende dagli UPS. Basta però rivedere il ruolo degli UPS anche in termini di impatto ambientale per ridurre significativamente questo fattore e contribuire al risparmio energetico. All’opposto degli energivori data center stanno le Smart Grid, le nuove e più efficienti reti di distribuzione dell’energia che accumulano localmente quella prodotta a costi inferiori, rendendola disponibile quando o dove la produzione sarebbe più onerosa. Dando alle Smart Grid accesso alle immense capacità di stoccaggio delle batterie di UPS di nuova generazione, specificamente costruiti secondo le nuove norme che li rendono adatti a questo scopo, diventa possibile ottenere reti più efficienti ed energia a minore impatto ambientale e grandi capacità di accumulo distribuito.

2. - In Riello UPS abbiamo una visione innovativa degli UPS capaci di trasformarsi da soggetto passivo, che agisce solo in caso di emergenza, a soggetto attivo dell’efficienza, ovvero: capace di interfacciarsi con la rete, scambiare energia in modo intelligente, adottare strategie capaci di assicurare sempre la massima efficienza. Così i nostri nuovi UPS hanno funzionalità di trasporto bidirezionale dell’energia, possono fungere da depositi di enormi quantità di energia, prodotta a costi inferiori e magari da fonti rinnovabili, con grandi vantaggi per i loro possessori. Inoltre sono predisposti per interfacciarsi con le reti di scambio di informazioni, con sistemi di gestione centralizzata e con le nuove Smart Grid.

3. - Il driver più potente è sicuramente l’ottimizzazione dei costi di gestione, a cui si può agevolmente arrivare se si perseguono obiettivi intermedi coerenti; in questo modo, valutando gli investimenti IT non tanto sulla base dell’immediato costo di acquisto quanto piuttosto sulla base di parametri ben più importanti come il Power Usage Efficiency (PUE) e del Data Center Infrastructure Efficiency (DCiE) si riescono a raggiungere incredibili risultati. In questa ottica, quando CIO e CEO ragionano in termini di vantaggi conseguenti agli investimenti e iniziano a quantificare i benefici che ottengono dall’alta efficienza, dalla ridondanza intelligente, dalla modularità e scalabilità, dalla trasparenza dei rendimenti, dall’allungamento del Mtbf, dalle migliori prestazioni e performance, dall’aumento dell’affidabilità, si rendono conto che gli investimenti in questo settore sono addirittura necessari ancor prima che opportuni. 

Alessio NavaAlessio Nava, Direttore Divisione IT & Telecomunicazioni di Rittal
1. - I trend di mercato indicano soprattutto l’esigenza di agilità ed efficienza. La convivenza di architetture ibride e l’andamento incerto dei mercati determinano la necessità di investimenti mirati ma flessibili, di scalabilità ed espandibilità facilmente implementabili sia per garantire efficacia nella fase iniziale che per consentire un costo operativo di esercizio competitivo e abilitante per raggiungere i risultati prefissati. Le nostre ricerche dimostrano che il mercato ha compreso l’importanza di stabilire una strategia vincente per l’infrastruttura dei data center, affinché si possa assicurare il successo delle aziende stesse attraverso l’opportunità di coglierne al meglio l’evoluzione ed essere più rapidi e migliori della competition.

2. - La nostra offerta tecnologica garantisce la semplificazione dei processi oltre che una riduzione di tempi e costi per le aziende che guardano all’agilità e all’efficienza quali fattori determinanti per il successo. Le nostre soluzioni modulari e pre-ingegnerizzate rappresentano lo ‘state-of-the-art’ e garantiscono disponibilità, scalabilità e sostanziali risparmi offrendo la possibilità di realizzare un data center in sei settimane e senza necessità di progettazione e site-preparation, permettendo importanti saving sia nell’investimento iniziale che durante l’esercizio. Grazie anche alle funzionalità Dcim l’implementazione di tecniche di analisi predittiva permette inoltre un continuo miglioramento dei parametri di efficienza nel tempo volto all’abbattimento del PUE.

3. - I principali driver sono senz’altro quelli classici, ovvero la disponibilità e la sicurezza ma visti in chiave evolutiva e integrati da agilità ed efficienza. Anche l’automazione delle tecnologie e dei processi giocano un ruolo di primo piano nella determinazione delle priorità di investimento, ma senza dubbio uno dei driver principali è rappresentato dalla capacità di creare un ROI rapido a supporto delle scelte operate, che determini il vantaggio economico e competitivo per garantire il successo. 

Luca ZerminianiLuca Zerminiani, Senior Systems Engineering Manager di VMware Italia
1. - Di anno in anno, cresce la consapevolezza delle aziende italiane nei confronti di ciò che il cloud rappresenta e di che cosa significhi per il business; le aziende hanno bisogno di un IT flessibile per far fronte alla pressione costante dei cambiamenti del mercato. Il cloud pubblico gioca un ruolo fondamentale perché offre la possibilità di testare nuove applicazioni e di scalare in modo rapido e conveniente. I vantaggi che si possono ottenere per il test, lo sviluppo o per specifici workload come una web app, lo hanno reso una scelta popolare, soprattutto nel mercato delle PMI. Se si inizia però a sperimentare cloud pubblici multipli, la complessità che ne deriva vanifica i benefici ottenuti all’inizio. Il cloud privato offre maggiore sicurezza, per questo trova un’adozione molto diffusa in settori come quello bancario e delle utility, per motivi di sicurezza del controllo del dato. Cresce quindi in modo costante anche nel nostro Paese la ricerca di un compromesso fra l’agilità del cloud pubblico e la protezione dai rischi del cloud privato. Le soluzioni ibride consentono alle aziende di avere carichi di lavoro sia nel cloud che onpremise ed essere in grado di gestirli con gli stessi strumenti, spostando i workload senza problemi in tutti gli ambienti. La flessibilità e la possibilità di scelta del cloud ibrido offrono quel valore duraturo nel tempo necessario per contenere i costi, minimizzare i rischi e creare un ambiente che permetta di raggiungere gli obiettivi aziendali.

2. - Per restare competitive, le aziende hanno bisogno di un nuovo modello che sia in grado di guidare l’innovazione, garantire l’efficienza e portare più valore al business. Il cloud, in tutte le sue forme, risponde a tutte e tre le sfide perché consente di costruire, eseguire e gestire qualsiasi applicazione. Grazie agli ultimi sviluppi oggi è possibile virtualizzare tutte le componenti del data center, dai server, allo storage, al networking (Software-Defined Data Center). Le aziende possono gestire silos IT multipli in un unico cloud, il che consente loro di creare un ambiente coerente ed integrato che contiene cloud pubblici e privati, sviluppare rapidamente e distribuire qualunque applicazione realizzata nel cloud o tradizionale, rispondere alle esigenze di scalabilità e costruire applicazioni e ambienti cloud basati sui reali bisogni specifici.

3. - Le aziende chiedono al cloud quell’agilità che oggi spesso faticano a trovare nell’IT aziendale. Oggi, la concorrenza più agile si accaparra buona parte dei profitti sottraendoli alle imprese più lente, che non riescono a reagire ai cambiamenti del mercato o a sfruttare rapidamente le nuove opportunità. È evidente che le aziende nel cloud non cercano solo gli ‘economics’, ma soprattutto una piattaforma capace di garantire il corretto ‘time to market’ per le nuove applicazioni. È sicuramente un’idea ragionevole: è molto facile accedere a delle risorse cloud, però altrettanto facilmente si arriva a un punto in cui l’IT deve integrare queste risorse cloud con i sistemi esistenti, per garantirne sicurezza e compliance. 

Riccardo MazzantiRiccardo Mazzanti, Managing Director di Wiit Spa
1. - Il Nuovo Data Center non deve più essere inteso come un unico luogo fisico che ospita tutti i sistemi di elaborazione di un’azienda, ma piuttosto come quel luogo virtuale in cui si realizza la gestione dei processi dell’azienda. Hosting private cloud per gli ambienti critici, public cloud per le applicazioni in SaaS, private cloud per le applicazioni di campus, sistemi di elaborazione distribuiti, sistemi iper-convergenti… Le necessità sono più complesse del passato e comportano il funzionamento, il coordinamento e la gestione di modelli diversi in funzione di obiettivi e specifiche caratteristiche aziendali. Il Nuovo Data Center deve quindi miscelare in un modello ibrido tutte le componenti disponibili, in un mix perfetto di efficacia, efficienza e affidabilità ma una cosa è certa: salvo rari casi il mondo non ha bisogno di un nuovo data center privato aziendale.

2. - Wiit è in grado di fornire tutte le componenti necessarie alla realizzazione dell’architettura del nuovo data center. Siamo specializzati in servizi di data center in outsourcing, di hosted private cloud e di managed public cloud per realizzazione il modello cloud ibrido più adatto alle specifiche esigenze di qualsiasi azienda. Abbiamo come mission quella di fornire al cliente un servizio completo di gestione altamente specializzato sulle applicazioni più critiche (SAP, Oracle, Microsoft) per supportare al meglio i processi di business. Ma non solo. Comprendiamo come in questo momento di discontinuità sia importante fornire ai clienti anche un supporto nel prendere le migliori decisioni per il disegno e la realizzazione del nuovo data center e mettiamo quindi a loro disposizione tutta la nostra esperienza in un apposito servizio di ‘advisory’.

3. - In passato le aziende ragionavano su cambiamenti della propria politica di data center, soprattutto per affrontare l’obsolescenza delle strutture e impianti esistenti, oppure quando si verificavano necessità di spostamenti del proprio data center determinati da cambi di sede, oppure per supportare processi di internazionalizzazione che richiedevano maggiore affidabilità. Attività di questo tipo comportano investimenti molto importanti non più in linea con le politiche di ottimizzazione dei costi delle aziende. Da qualche tempo, invece, è la modifica del business dell’azienda nell’ottica della ‘digital trasformation’ che chiede di ripensare profondamente al proprio modello di erogazione dei servizi IT. I nuovi modelli di business basati sulle tecnologie impongono requisiti di affidabilità, resilienza, variabilità di risorse disponibili, protezione dei dati, e in generale temi di compliance sempre più stringenti e non compatibili con i modelli di servizio più tradizionali. Le aziende che vogliono essere pronte per affrontare la sfida stanno già realizzando il proprio nuovo data center. 

 

TORNA INDIETRO >>