Atlassian
Datacenter
 

18/12/2017

Share    

di Paolo Morati

I data center e la sfida della qualità

Diversi gli spunti emersi da una tavola rotonda organizzata in Soiel per individuare tendenze, criticità e soluzioni a livello di progettazione e gestione in ambito data center. Con alcuni tra i principali attori.

© psdesign1 – Fotolia.com
Il data center rappresenta ormai di fatto il fulcro che ruota attorno alle strategie delle aziende in termini di servizi erogati internamente così come verso l’esterno. Dai più elementari sistemi di comunicazione ai più complessi processi transazionali tutto passa attraverso facility che rispettano i migliori standard di settore. Ecco che la qualità di un’infrastruttura parte dalle tematiche di progettazione, verifica e quindi gestione per garantire il massimo livello possibile di disponibilità e sostenibilità ai diversi utenti che ne usufruiscono. Per trattare questo tema la redazione di Office Automation ha organizzato la Tavola Rotonda “Data Center: Una questione di qualità” riservata a figure professionali e aziende con persone certificate Uptime Institute. Ecco quanto emerso dalla discussione.

Mario VellanoMario Vellano, Direttore Generale – SPRING
Spring è una società di consulting che ha come missione la fornitura e la diffusione di competenze tecniche sulle infrastrutture fisiche di rete e sui data center attraverso la formazione, la progettazione e l’auditing, la pubblicazione della rivista Cabling & Wireless. Vorrei mettere in evidenza innanzitutto l’importanza - tutt’altro che scontata - di una progettazione onnicomprensiva, olistica, ma allo stesso tempo specifica e specializzata. Può sembrare un ossimoro, ma si tratta di un punto di partenza imprescindibile per raggiungere risultati adeguati nella pianificazione e realizzazione di un data center. In Italia, ancora più che altrove, spesso l’approccio alla realizzazione di un data center viene frammentato e demandato a professionisti e gruppi di lavoro specializzati in uno o più settori verticali di competenza, ma senza il contributo e la guida di una figura capace di una visione complessiva. Non sono infrequenti addirittura casi di ‘progetti’ in cui il committente si rivolge direttamente ai fornitori di soluzioni i quali vengono così a trovarsi costretti in un ruolo improprio, quando dovrebbero invece essere chiamati a fornire supporto specifico e approfondito sulle tecnologie, i prodotti e sistemi di loro produzione. Questo tipo di situazione – che abbiamo riscontrato anche in progetti di grandi dimensioni, riguardanti infrastrutture di elevato valore e criticità – comporta inevitabilmente disottimizzazioni e il rischio di incoerenze a livello di progetto e quindi una serie di ‘peccati originali’ che si ripercuotono sulle prestazioni, sull’efficienza e sull’affidabilità del data center. Con un impatto non trascurabile sui costi di gestione. Ecco che allora – nel momento in cui incominciano ad affiorare queste criticità – si rende necessario intervenire a posteriori con un’attività di consulenza per individuare e porre rimedio ai problemi: solo un’attenta analisi, condotta in modo oggettivo con l’apposita strumentazione, e soggettivamente attraverso l’esame della documentazione e un sopralluogo esaustivo, consentirà di definire le misure correttive più opportune ed attuare i necessari adeguamenti per raggiungere la conformità ai requisiti del cliente e degli standard tecnici. All’interno delle complesse infrastrutture dei data center, tra gli aspetti che più vengono sottovalutati c’è il sistema di trasporto delle informazioni che molto spesso, in fase di progettazione, riceve un’attenzione proporzionale all’incidenza sul costo complessivo, che è bassissima, mentre il suo impatto sulle prestazioni è al contrario enorme, decisivo. Una situazione che difficilmente trova analogie in altri contesti tecnologici e che purtroppo perdura da anni, rendendo sempre più indispensabile e urgente – a mio parere – una capillare azione di sensibilizzazione per fornire un adeguato livello di consapevolezza tecnica ai clienti finali, proprietari e gestori di data center.

Alessandro ValenteAlessandro Valente, Progettista – ETC Engineering
ETC Engineering è uno studio di progettazione che presenta competenze nell’ambito data center, con certificazione della qualità del prodotto e servizi di progettazione e assistenza. Un tema che ritengo sia particolarmente importante da evidenziare è relativo al settore di provenienza del referente del committente. I capi progetto, spesso, sono persone con background tecnico diverso, ed ecco che emerge una difficoltà di confronto in quanto mancano quei punti in comune utili a portare avanti discussioni proficue e ad approfondire l’argomento nel dettaglio con i giusti elementi in mano. Il cliente, di conseguenza, non riesce a percepire e comprendere appieno le proposte e i requisiti indicati per realizzare un progetto di data center che sia realmente valido. Inoltre, spesso ci si trova in situazioni in cui non è possibile agire a mente libera in quanto in casa sono già presenti delle soluzioni che necessariamente si devono continuare a sfruttare. Si tratta di scelte pregresse che sono comunque complicate da gestire e riadattare a un progetto di data center che possa poi risultare realmente efficiente. Inoltre quando si va a intervenire sull’esistente, la difficoltà maggiore è quella di mantenere nel contempo operativo il data center. E non tanto per la parte hardware, che in ogni caso può anche essere stata già sostituita con soluzioni più moderne, ma perché si deve cambiare lo schema globale su cui è basato il progetto. Ecco che ci si trova ad operare in locali inadeguati oppure in condizione di dover garantire l’operatività mentre si sta intervenendo per cambiare l’infrastruttura stessa. Qualcosa di certamente sfidante ma, al tempo stesso, stimolante per chi svolge la nostra attività. Bisogna tenere infine conto che quando si parla di data center non esiste solo l’aspetto progettuale ma anche quello organizzativo al quale non sempre viene assegnato il livello corretto di importanza dal cliente finale. In tal senso noi cerchiamo di guidarlo al meglio.

Leonardo LadiniLeonardo Ladini, Pre-Sales Technical Support Manager – Vertiv
Vertiv è uno dei maggiori player globali in ambito data center, con un portafoglio - dedicato non solo ai data center - che include diverse esigenze di continuità elettrica e di condizionamento, propone soluzioni rack così come software di monitoraggio, gestione degli asset e così via. Come vendor, capita a volte di dover progettare la soluzione finale, ma si tratta di un fenomeno molto italiano, dove abbiamo in effetti curato casi di soluzioni ‘chiavi in mano’ comprensive del team di progettazione su dimensioni medio-piccole. Quando però parliamo di realtà da 10 o 30 Mega Watt o superiori, restiamo fornitori di prodotti, spesso svolgendo anche la funzione di advisor, ma non ci mettiamo mai il cappello da progettista. Proponiamo anche architetture di data center in container progettando la soluzione in modo integrato. A seconda del caso, seguiamo le esigenze del cliente o proponiamo soluzioni standard basate sulla nostra esperienza e sulle best practice che abbiamo avuto modo di riscontrare. Si tratta di sistemi testati e replicabili che permettono in pochi mesi di mettere in campo un ambiente funzionante abbattendo il tempo di deployment fino al 40% rispetto a un data center tradizionale e per i quali stanno emergendo delle certificazioni studiate ad hoc: al momento abbiamo già 2 installazioni basate su container certificate Tier III dall’Uptime Institute e una che ha ottenuto la certificazione Tier III secondo TIA-942. Le certificazioni standard, in generale, possiedono un grande valore se parliamo di quelle realtà che offrono servizi di co-location o cloud, in quanto rappresentano un elemento di garanzia che può effettivamente convincere il cliente ad affidarsi ai loro servizi. Interessante notare che, essendo le certificazioni complesse e costose da ottenere, tale investimento da parte di chi ha un data center di proprietà si ripaga solo qualora sia possibile monetizzarle come mezzo per dare al sito in questione un’immagine migliore e più attraente. Come testimonia anche il recente cambiamento di approccio di Uptime Institute, ritengo che anche la ‘serie di 9 dopo la virgola’ che viene messa per dimostrare l’affidabilità di un data center sia pura accademia in quanto, ai fini di una vera rilevanza pratica, bisogna comunque saper fare prima di tutto una buona progettazione che metta in grado il gestore del data center di effettuare una corretta manutenzione con un impatto sulla continuità del business inversamente proporzionale alla criticità della stessa in rapporto alle specificità di ciascun cliente. La nostra capillare rete di service è in grado di affiancare e supportare i nostri clienti in questa delicata pratica con la qualità definita anche dalle procedure che vengono applicate sia in fase di preparazione che di realizzazione e gestione di un ambiente.

Alberto CacciaAlberto Caccia, Director – CAP DC Italia
Cap DC Italia è una società di progettazione e costruzione frutto di una joint venture tra Lombardini 22 e la francese Cap DC, che si occupa esclusivamente di data center e caratterizzata da un imprinting tipicamente non anglosassone, che tiene conto della realtà locale dove si opera. Quando parliamo di certificazioni standard per i data center è evidente che si tratta di punti di riferimento che si applicano certamente ai grandi progetti di co-location, perché rappresentano un plus da potersi giocare sul mercato in termini di qualità e di immagine. E in questo senso ci vengono effettivamente fatte diverse richieste. Al tempo stesso, vediamo però che i grossi player stanno valutando se elaborare essi stessi degli standard di certificazione proprietari, relativi ai rispettivi processi, per potersi adattare al meglio in termini di flessibilità alle esigenze reali del data center e dei servizi da esso erogati. In termini di adeguamento agli standard, si può distinguere tra la realizzazione di un edificio nuovo e l’intervento su un data center già esistente. Nel primo caso è più facile lavorare, i vincoli sono nettamente inferiori potendo progettare da zero. Resta comunque la necessità di adattare gli standard del cliente al contesto normativo e di mercato locale, attività certamente non banale. Differente il caso, sempre più diffuso, di realtà che crescono per acquisizioni di altre società già operative localmente e che, mediante l’acquisizione, si ritrovano in casa strutture eterogenee, con evoluzioni legate alla storia di ciascuna, da adattare agli standard del nuovo ente proprietario, con tutte le sfide del caso. In entrambi gli scenari, assistiamo a una parcellizzazione delle figure coinvolte nel processo, provenienti anche da contesti e Paesi diversi. Fondamentale è quindi avere una cabina di regia che tenga sotto controllo le diverse tensioni in gioco. Se parliamo di qualità intendiamo la capacità del data center di rispondere alle esigenze del cliente facendo ciò che lui si aspetta. È determinante, quindi, definire con chiarezza gli obiettivi del cliente e, di conseguenza, le funzioni svolte dal DC, evidenziando quali sono effettivamente mission critical. Lo scenario è caratterizzato da una forte varietà. Quando si parla di DC, ci riferiamo ai grossi operatori colocator, ma anche ai CED proprietari più tradizionali, che continuano ad esistere ed evolvere. Poi ci sono data center verticalizzati solo sullo storage, inoltre esistono strutture fuori scala, i cosiddetti cloud hyperscale, e quelle realizzate in una logica edge più vicine all’utente finale. Insomma parliamo di infrastrutture diverse, con obiettivi e funzioni diverse, ma tutte con complessità tecniche e organizzative. Ecco che in un panorama così vasto, per parlare di qualità bisogna prima di tutto comprendere che cosa deve fare il prodotto e condurre un’analisi più che solida dei requisiti in fase iniziale del progetto. Definire gli obiettivi del progetto, a partire da quelli di business, individuare le funzioni strategiche ed il loro livello di criticità, supporta anche il corretto dimensionamento delle infrastrutture a supporto del DC, che rischiano di essere spesso sovradimensionate.

Antonio Racioppoli,Antonio Racioppoli, Data Center Solution Architect – Schneider Electric
Per Schenider Electric, specialista sul tema della gestione dell’energia e dell’automazione, i data center rappresentano uno dei principali mercati di riferimento (pari a circa il 15% del fatturato globale), con un portafoglio prodotti completo che va dai sistemi di media tensione fino ad arrivare agli accessori per il cablaggio dei singoli rack. In Italia, in diverse occasioni, abbiamo gestito progetti di data center complessi proponendo realizzazioni ‘chiavi in mano’, ma non è certo nostra intenzione sostituirci a studi di progettazione, ingegneria e consulenza. Tipicamente i principali casi di successo sono frutto di un lavoro a quattro mani che ci vede operare con le nostre competenze tecnologiche in modo complementare a quello degli studi di consulenza. Abbiamo investito molto sulle competenze relative alle Certificazioni (in particolar modo quelle dell’Uptime Institute) sia perché impattano fortemente sulle soluzioni da realizzare, sia perché vogliamo proporre ai nostri clienti architetture in linea con le best practice e i più rigorosi standard internazionali. Dal punto di vista tecnologico si è assistito in questi anni ad evoluzioni ed innovazioni interessanti sulla scia di trend come la cosiddetta ‘Terza Piattaforma’ (che include fenomeni come social, mobile, cloud, big data) e l’IoT. Si sta nel contempo confermando la crescita esponenziale dei grandissimi Cloud Data Center su scala globale, così come il diffondersi di strutture Regional Edge e Local Edge, più compatte e vicine all’utente. E una soluzione tecnologica per un grande data center non è la stessa per i regional e local DC. Ad esempio, per questi ultimi, il mercato si sta interessando sempre di più ad approcci di tipo ‘Prefab’, basati su container pre-configurati, oppure ad approcci di tipo ‘Micro DC’, estremamente flessibili e installabili in tempi rapidi. Ovviamente anche il trend dell’intelligenza energetica continua a dare la spinta all’innovazione, insieme alle nuove piattaforme software Dcim (Data Center Infrastructure Management) che riescono ad abbattere significativamente i rischi operativi durante l’intero ciclo di vita del data center stesso.

Gabriele TacchiGabriele Tacchi, Direttore Tecnico – Studio Associato S.I.D.I.
Lo Studio Associato S.I.D.I. si occupa principalmente di due tematiche: ambiente ed energia, seguendo aspetti di consulenza, progettazione e formazione. Al settore data center siamo arrivati partendo dalla power quality. Tre sono gli aspetti da prendere in considerazione: progettazione, gestione e manutenzione, con quest’ultima che viene spesso lasciato in secondo piano e dove si potrebbero inoltre applicare tecnologie innovative come ad esempio la realtà aumentata e l’installazione di sensori Rfid per avere un controllo costante di quanto accade nella struttura e intervenire in modo più preciso e costante. Lo scenario in cui ci troviamo ad operare vede chi gestisce grossi data center tenere all’interno le attività dedicate a gestione e manutenzione per cercare di risolvere i problemi in prima battuta, oppure propendere per società esterne che prendono in carico tutti questi aspetti, anche per un discorso di maggiore sicurezza. Da tenere inoltre presente che le certificazioni mettono dei paletti quando si devono intraprendere i lavori di progettazione, impedendo di rispettare al cento per cento i desiderata dei clienti, nonché di dare sfogo alla ‘fantasia’ di chi deve disegnare il sistema. Prendiamo le indicazioni relative al dimensionamento dei gruppi elettrogeni. Spesso in Italia ci troviamo a dover applicare criteri accademici e non contingenti rispetto all’ambiente in cui effettivamente si opera. E questo vuol dire anche un innalzamento dei costi nonché degli spazi occupati. Chiaramente bisogna anche tenere conto delle differenze in campo quando si deve intervenire su una struttura già esistente, con tutti vincoli del caso, e una al contrario completamente nuova. Ecco che il nostro ruolo è quello di trovare il giusto range di dimensionamento rispetto agli spazi e alle necessità effettive del cliente, provvedere a una distribuzione energetica effettivamente intelligente e ottimale e, in definitiva dare realizzazione al migliore layout possibile.

Kristian MontevecchiKristian Montevecchi, Senior System Engineer – VEM Sistemi
VEM Sistemi, classe 1986, è un system integrator che si occupa di ICT a 360 gradi, con una grande esperienza nel campo data center sia dal punto della progettazione che della realizzazione. Grandi o piccoli che siano, i data center hanno le medesime esigenze poiché vi risiede il patrimonio dati e processi dell’azienda: sicurezza, continuità di servizio, affidabilità ed efficienza sono gli obiettivi da raggiungere in tutti i casi. Dal nostro punto di vista, a cambiare sono gli interlocutori dei clienti: le aziende più grandi e strutturate hanno dei team dedicati, solitamente molto preparati con cui possiamo rapportarci, che siano interni all’azienda o che si tratti di grandi studi di progettazione. Le realtà medie e piccole, che dispongono di data center fino ai 2-300 kW, delegano la gestione del progetto all’IT manager o facility manager che a volte si affida a impiantisti che non hanno le competenze specifiche per intervenire efficacemente su un data center. Per cui capita spesso che il vendor o, nel nostro caso, il system integrator, venga coinvolto nello sviluppo del progetto fin dalle prime fasi ed è per questo che ci siamo strutturati per poter offrire la massima professionalità nella progettazione dei data center puntando sulle certificazioni di massimo livello come quelle di Uptime Institute. Venendo proprio alla questione Uptime, abbiamo rilevato come siano emerse delle nuove problematiche per i clienti che hanno scelto di certificarsi: una buona pratica nella progettazione dei data center è quella di puntare sulla modularità e flessibilità per poter seguire le mutevoli esigenze informatiche aziendali. Per i data center certificati Uptime, questo non è possibile, in quanto la certificazione riguarda il dimensionamento finale dell’infrastruttura, costringendo le aziende a una previsione dell’evoluzione del carico informatico non sempre corretta. E, sia il sottodimensionamento che il sovradimensionamento del data center, possono creare problemi non trascurabili. Non parliamo solo di condizionamento ed energia elettrica: il cablaggio strutturato è normalmente sottostimato in termini di impatto infrastrutturale ed economico, quando invece può arrivare a pesare fino al 10% sulla spesa complessiva degli impianti. Infine, vorrei sottolineare l’importanza delle attività di risk management per il successo di ogni progetto. È bene coinvolgere sia chi all’interno dell’azienda ha le competenze tecniche, che chi gestisce il business, in modo che siano chiare a tutti le ripercussioni in caso di eventuali malfunzionamenti o sistemi mal assortiti.

Cosimo VerteramoCosimo Verteramo, Head of Datacenter – Deerns
Deerns è una società con casa madre olandese specializzata nella consulenza di ingegneria, con focus specifico su tematiche quali efficienza energetica, comfor t e Building Fisics. Nell’ambito di 23 uffici in 12 paesi, è presente a Milano con team specializzati in vari settori di mercato tra cui quello dei data center. In questo particolare settore riteniamo che la qualità sia il frutto di un percorso che parte ancor prima della progettazione. Va di fatto condotta un’attività di auditing che porti attorno allo stesso tavolo i diversi stakeholder aziendali, con responsabilità frammentate, per arrivare alla creazione dello specifico ‘business case’. Solo a questo punto si passa alla progettazione vera e propria, che apre però un altro grande capitolo di confronto. Di fatto, al di là della scelta della soluzione tecnologica specifica, questa va calata all’interno del business case condiviso e che funzioni, diventando un tema anche economico che va trasferito internamente. Una volta chiusa questa fase si parte da un monitoraggio costante delle attività da svolgere perché il messaggio passi in modo corretto dalla progettazione alla realizzazione, tenendo presente anche quanto previsto dalle eventuali certificazioni richieste. Qui sta emergendo con forza il tema delle operations, di chi effettivamente deve poi guidare il data center, dove in Italia è necessario fare ancora un lavoro culturale enorme. Il focus della qualità si sta oggi concentrando proprio su questo aspetto e il ruolo di una società come la nostra è quindi anche quello di aiutare i clienti su questo versante, identificando ad esempio tutte le procedure operativa in configurazione standard e di emergenza da implementare all’interno di una facility. Contemporaneamente il tema della business continuity diventa assolutamente centrale soprattutto quando si interviene su data center già esistenti, non potendo spegnere i servizi fondamentali mentre si va a cambiare/ integrare l’infrastruttura critica. In questo ambito è fondamentale definire preliminarmente tutti i necessari Method of Statement (MoS) per le attività critiche per la mitigazione del rischio. Tale definizione passa necessariamente dal business per l’identificazione dei servizi IT no-break da quelle che è possibile potenzialmente interrompere in quanto non vitali per il business stesso.

 
TAG: Energy

TORNA INDIETRO >>