Aruba
Datacenter - Mobile/Wireless
 

10/07/2013

Share    

Il data center chiama l’integrazione

Come avere una infrastruttura performante al centro dell’evento Connectivity 2013 organizzato da Soiel. Appuntamento ad Ancona

Il tema dell’integrazione in ambito cablaggio, networking e data center è stato al centro del convegno Connectivity 2013 organizzato a Bergamo da Soiel International (prossima tappa ad Ancona il 26 settembre), affrontando problematiche, strategie e soluzioni per arrivare a un’infrastruttura performante dal punto di vista operativo, gestionale e dei costi. A partire dall’evoluzione dello scenario in cui oggi si muovono i fornitori e, conseguentemente, gli utenti (e viceversa). “Si può dire che il cuore dei sistemi informativi sia il data center, dove sono presenti tutte quelle macchine - server, mainframe, storage - in grado di fornire servizi e dati”, ha affermato il moderatore del convegno, Pietro Nicoletti, introducendo il tema della giornata. “Tutti gli oggetti hanno però bisogno di un sistema nervoso centrale che è la rete, composta da infrastruttura fisica e apparati, con le relative problematiche di integrazione in termini di prodotto, specifiche e standard, e tra rete virtuale e reale”.

Il dialogo al centro
 

“Ogni giorno dobbiamo gestire 15 milioni di nuovi Gigabyte di informazioni che vengono rese fruibili su una serie crescente di device. Questo però va fatto rispettando imperativi necessari per la sopravvivenza e la competitività delle nostre aziende: risparmiare energia, consolidare le risorse e rendere le informazioni sicure, disponibili sempre e ovunque, in crescente mobilità”, ha spiegato Alessio Nava di Rittal. “Si tratta di uno scenario che vede dal punto di vista elettrico una disomogeneità dei carichi ed è importante che le varie componenti possano sempre di più dialogare tra loro, quindi dagli UPS agli apparati di distribuzione della corrente. Lato raffreddamento invece esistono problemi anche maggiori. Ad esempio i reflussi tra corridoi caldi e corridoi freddi possono produrre inefficienza. Anche in questo caso è fondamentale il dialogo tra gli apparati a partire da chiller e unità condensanti fino ai sistemi di climatizzazione interna”.
Da questo punto di vista è quindi necessario capire quale sia il tipo di raffreddamento migliore da adottare. “Quello perimetrale spesso non è il più efficace ed efficiente possibile. Con la compartimentazione - sia del corridoio freddo che di quello caldo - possiamo invece ridurre lo spazio da raffreddare”, ha continuato Nava. “Con i sistemi di precisione a colonna è possibile raffreddare i server direttamente all’interno degli armadi, immettendo aria fredda in un armadio a tenuta stagna mentre nella parte posteriore viene recuperata quella calda: si tratta del sistema più efficiente oggi in commercio. Fronte gestione si può invece interagire con tutte le componenti del sistema, eseguire analisi predittive e fornire una intelligenza artificiale al data center - dando luogo ad azioni automatiche in base al verificarsi di ogni singolo evento - misurare l’energia - valutando il risparmio effettivo - e spostare servizi da un server all’altro”.
Uno dei parametri ‘green’ di cui bisogna tenere conto per una valutazione di una infrastruttura è quello del PUE (Power Usage Effectiveness) che misura l’efficienza di un data center relativamente all’utilizzo dell’energia elettrica. “La media PUE in Italia si aggira intorno al 2,2, quindi per raffreddare un kilowatt di calore ne sono necessari 1,2 supplementari. Con le soluzioni moderne si può abbassare questo dato fino all’introduzione di un raffreddamento di precisione closed loop”, ha aggiunto Nava che ha infine parlato del data center inteso come commodity per le aziende. “Sul mercato sono presenti soluzioni configurabili online e disponibili in poche settimane dall’ordine, che contengono alimentazione ridondata, raffreddamento e anche rilevamento e spegnimento di eventuali incendi. Possono essere integrate in locali esistenti e non attrezzati oppure in camere di sicurezza o in container. L’impegno in sostanza è quello di semplificare l’infrastruttura per essere più agili e adattarsi rapidamente al mercato”.

Di tutto un cavo
 

Passando al discorso cablaggio, Carlo Maria Soave di TE Connectivity ha sottolineato come oggi il sistema di cablaggio debba essere ‘umile’ per adattarsi a tutto quanto in futuro verrà richiesto, in base alle evoluzioni tecnologiche che ci saranno: “Nel passato i data center erano considerati essenzialmente come un costo per le aziende, in quanto visti come una necessità a fini di gestione. Poi si sono evoluti diventando dei provider di servizi. Oggi sono invece intesi come strategici per lo sviluppo del business, con quindi sfide ancora più importanti da affrontare. Da un semplice service provider il data center è in sostanza diventato un business partner, deve essere virtualizzato, dinamico e scalabile, capace di modificarsi e adattarsi alle piattaforme in arrivo ed essere ecologico, guardando al risparmio energetico. Le parole chiave sono quindi agilità, disponibilità ed efficienza”.
Tre termini che devono essere tenuti bene in mente fin dalla fase di progettazione, implementazione e successivamente gestione, ricordandosi che quando si parla di data center si deve ragionare non solo per apparati ma come insieme di soluzioni, cablaggio compreso, che devono collaborare al meglio. “Spesso però fanno fatica a farlo”, ha affermato Soave. “Per non avere problemi gli spazi fisici vanno quindi definiti all’inizio, creando isole omogenee e strumenti di collegamento sia fronte energia che telecomunicazioni. Va studiata quale sarà l’evoluzione, i punti attivi di concentrazione, e vanno valutati i percorsi e le canalizzazioni in maniera appropriata. Anziché affidarsi all’approccio tradizionale, ossia ragionando come un edifico con strutture rigide, bisogna invece avere sistemi innovativi con componenti studiati apposta per il data center. Il cablaggio si deve sviluppare nel tempo e soprattutto potersi adattare a tutte le configurazioni, sistemi e architetture. La qualità del componente è dunque molto importante perché potrà permettere un passaggio su piattaforme a velocità più alte”.
Qui entrano in gioco sistemi modulari e accessori che permettono di implementare una infrastruttura dinamica che possa consentire una riconfigurazione veloce del data center. “Esistono sistemi che offrono cassettini agganciabili con cavi trunk e accessori che permettono di portarli dove servono: adiacenti al punto di impiego o sui lati del rack, o sotto il pavimento o agganciati alle canalizzazioni di rete aeree”, ha continuato Soave. “Fronte patching esistono nuovi sistemi che permettono di portare il cabling sulle parti laterali dell’armadio e, quindi, di ottenere un cablaggio più pulito, non riempendo la parte frontale e riuscendo a portare il tutto anche sui lati, con maggiore densità e più precisione nella gestione dell’impianto”.
Si tratta di uno scenario dove oggi si parla dei cosiddetti sistemi pre-terminati: “Il vantaggio sta nella velocità di implementazione, non dovendo cablare un connettore per volta ma più componenti insieme, potendoli rimuovere e riattestare velocemente. Per le fibre il sistema si sviluppa quindi sul connettore MPO che permette con un unico prodotto di agganciare 12 fibre ottiche e poi distribuirle con cassettini di diramazione su connettori tradizionali come LC ed SC. Da tenere presente che l’MPO è il sistema standard per lo sviluppo dei 40 e 100 Gigabit quindi adottando architetture che lo includono si consente una evoluzione veloce verso queste velocità”, ha concluso Soave.

Quale design scegliere
 

Andando nel dettaglio dei design architetturali oggi più in voga Giampiero Sforte di CommScope è partito da quello di tipo ‘direct connect’: “In sostanza in una sala si posizionano file di rack con i server, mentre tutta la connettività LAN e storage viene concentrata in un unico punto dove si hanno i relativi apparati. I vantaggi sono rappresentati da una maggiore semplicità e da un adattamento ai data center di piccolo taglio. È poi possibile installare tante porte quante ne servono. Lo svantaggio risiede invece nella concentrazione di tutti i cavi, per cui è necessario prevedere canalizzazioni più grandi con più cavi che arrivano verso il punto di concentrazione”.
Il secondo approccio è quello ‘top of the rack’: “In sostanza si portano in prossimità del server gli apparati attivi per comunicare. A loro volta questi vengono connessi a un punto di concentrazione ben specifico”, ha spiegato Sforte. “I vantaggi risiedono nell’uso di molti meno cavi, con scalabilità, flessibilità e utilizzo più efficiente degli stessi. Tuttavia è necessario installare almeno uno switch per ogni armadio innalzando i costi e le difficoltà di management. L’uso delle porte degli switch è infine meno efficiente avendone parecchie disponibili e non utilizzate”. Il terzo design è quello ‘zone distribution’: “In questo caso - ha affermato Sforte - si realizzano isole specifiche dove concentrare collegamenti e apparati che a loro volta vanno connessi al centro stella. È un approccio scalabile che rappresenta il giusto equilibrio in termini di costi ed efficienza. Il design è ripetibile e la grossa parte del cablaggio viene confinata nell’isola. È l’approccio migliore per un piccolo data center mentre è meno adatto se la sala contiene principalmente mainframe”.
L’idea generale è che il data center sia comunque da considerare una sorta di organismo vivente con più fasi evolutive che partono dalla progettazione: “È necessario iniziare a farla con un certo anticipo, con componenti modulari e seguendo best practice descritte dagli standard o soluzioni che ne superano le specifiche e sono migliorative. Per esempio esistono fibre ottiche che consentono il raggiungimento di distanze superiori a quelle previste dallo standard, e si possono usare interfacce multimodali al posto di quelle monomodali. Senza dimenticare le soluzioni di gestione e rilevamento per avere visibilità chiara e precisa di tutti i collegamenti”, ha concluso Sforte.

Aria fresca e meno costosa
 

“La parte pre-configurata la distinguiamo da quella pre-terminata”, ha commentato dal canto suo Daniele Tordin, di Panduit, riprendendo brevemente il tema del cablaggio. “Quest’ultima è tipicamente un prodotto trasmissivo già pronto all’uso, che sia rame o fibra, e pre-validato dal produttore. Viene usata anche all’interno di soluzioni pre-configurate che sono invece sistemi, armadi di telecomunicazione, che già ospitano quanto serve per l’installazione di sistemi attivi e portano a determinati vantaggi come l’abbattimento di costi multipli e una migliore gestione termica dell’armadio. Una delle caratteristiche fondamentali è quella di mitigare i rischi nell’implementazione di apparati complessi”. Un esempio è rappresentato da soluzioni a configurazione scalabile che permettono di offrire servizi cloud per le aziende, includendo apparati di networking, server, virtualizzazione e storage.
Relativamente al tema raffreddamento ed efficienza energetica legata al loro utilizzo, le soluzioni a disposizione sono diverse. “Si parte da semplici accorgimenti come accessori inseribili nell’armadio, evitando il bypass di aria calda e fredda. Passando poi a convogliatori che permettono di direzionare l’aria dove serve nell’armadio, fino a sistemi di contenimento. Il tutto con una infrastruttura di monitoring per gestire i fattori critici ambientali. In questo modo si possono abbattere notevolmente i costi energetici”, ha continuato Tordin. “I convogliatori ad esempio gestiscono i flussi in modo coerente e contribuiscono a ridurre il consumo energetico potendo, nell’insieme di sala, tenere un set point più alto vicino alla massima operatività delle macchine. Quando si parla di contenimento di corridoio o armadio, invece, la prima genera un corridoio compartimentato a temperatura più bassa rispetto a quella di sala. Un sistema a camini è comunque più flessibile, con la salita dell’aria calda verso un’area di ripresa dedicata svincolata dal sistema di corridoi”.
“La caratteristica del data center è quella di dover funzionare 24 ore al giorno per 365 giorni all’anno. Questa criticità di funzionamento comporta degli aspetti progettuali di valutazione sulla parte cablaggio e condizionamento che vanno a impattare sul costo di esercizio e realizzazione del data center”, ha affermato invece Paolo Mazzetto, di Stulz. “Per quanto riguarda il condizionamento l’energia impiegata per raffreddare il data center potrebbe arrivare a pesare anche per il 55% del totale utilizzato. Per questo è necessario ridurre l’impatto sul costo di esercizio del data center e gestire calore e aria per massimizzarne efficienza e affidabilità”.
Fronte flussi attivi le soluzioni a disposizione sono le più disparate: “Si va da quelle a bassa densità con qualche centinaio di watt a metro quadro a soluzioni più critiche dove si può arrivare anche 10 kilowatt per metro quadro”, ha continuato Mazzetto. “Ogni tipologia di densità di carico ha un approccio diverso su condizionamento e gestione dei flussi dell’aria, che vanno calibrati in base all’esigenza specifica dell’armadio. Altrimenti una sua parte andrà in sofferenza, tipicamente quella in alto dove gli apparati tendono a ricircolare l’aria sovrastante, con limiti che possono portare allo ‘shut down’ termico degli apparati. Se si modula correttamente la portata dell’aria, tutto l’armadio viene rinfrescato correttamente ma non è detto che quello a fianco abbia le stesse esigenze. Quindi finirà per soffrire oppure si sprecherà aria. E questo è uno degli effetti più deleteri di una gestione disordinata dei flussi d’aria che crea inefficienze pesanti per il sistema di condizionamento. Mettendo insieme i vari aspetti utili a rendere efficienti i flussi dell’aria e della gestione del sistema di condizionamento, a parità di carico termico e tecnologia di raffreddamento, si possono invece raggiungere risparmi energetici anche del 40%. Una volta ottimizzata la gestione del flusso dell’aria bisogna ottimizzare la tecnologia di raffreddamento e condizionamento. Il maggior vantaggio arriva dalle soluzioni di free cooling che spengono la parte di raffreddamento meccanico quando le condizioni ambientali consentono di trasportare all’esterno il carico termico della sala usando sistemi passivi. Quindi non parliamo più di compressore ma di elementi di scambio diretto o indiretto”.

Il nodo delle macchine
 

Coperti aspetti quali progettazione, cablaggio e condizionamento il convegno ha puntato l’attenzione sul tema delle macchine che effettivamente devono ‘pensare’ e trattare dati e applicazioni e fornire servizi all’interno di un data center. “I tre elementi fondamentali che entrano in gioco nella progettazione di un data center oggi sono cloud computing, virtualizzazione e convergenza. Questa non significa semplicemente FCoE (Fiber Channel Over Ethernet) ma, ad esempio, un sistema di monitoraggio e provisioning unificato per la SAN e il networking che semplifichi la vita a chi opera sull’IT”, ha sottolineato Dario D’Avino di Brocade. “I clienti chiedono consolidamento e infrastrutture e riduzione dei costi, eliminazione della complessità perché significa enormi problemi in aree come troubleshooting e costi operativi, e riduzione dei tempi di implementazione delle applicazioni. E infine orientamento del data center ai servizi, con i singoli livelli che perdono importanza. Essenzialmente quindi si tratta di una visione basata su innovazione, flessibilità e semplicità”. D’Avino ha quindi descritto il concetto di Ethernet fabric: “Si tratta di una infrastruttura di switching che perde i connotati classici, ossia la scarsa flessibilità e capacità di adattarsi alle esigenze di banda del cliente, con nessuna interoperabilità con il mondo virtualizzato. Al contrario non ha vincoli di topologia di rete, può essere realizzata con architetture cross, full mesh o ring e bilanciamento nativo a livello 1, 2 e 3. Inoltre presenta un unico punto di gestione e capacità di connessione fino a 100Gb, indipendentemente da ciò che si connette. Quindi traffico Ethernet, FcoE, iSCSI e Fiber Channel. Infine offre massima possibilità di sviluppo e possibilità di scalare, aggiungendo un nuovo apparato con quelle funzioni di cui necessita la rete, ring aggregation senza comandi di configurazione e interoperabilità con le macchine virtuali”.
L’idea è del futuro del data center descritta da D’Avino prevede una automazione completa, e programmazione della rete da un unico orchestrator: “Oltre al discorso cloud, attraverso la stessa infrastruttura di networking all’interno del singolo rack è possibile erogare capacità per ciascun cliente come se si avessero delle infrastrutture di networking dedicate. In breve, se con una infrastruttura di livello 2 si possono erogare 4.096 VLAN, con quella nuova virtualizzata c’è un solo apparato fisico in grado però di realizzare 16 milioni di VLAN, distribuite a livello geografico su una stessa infrastruttura. Con contenimento dei costi e massime performance per l’utente. Accanto si inserisce anche il discorso SDN (Software-Defined Networking), ossia automazione piena: piani di controllo virtualizzati per tutte le macchine in rete e flussi che lungo la rete vengono stabiliti da un orchestrator centrale. A questo si può poi sottendere un piano di controllo per singola macchina secondo le attuali logiche di funzionamento normali”.

Ci vuole flessibilità
 

“Migliorare le performance degli investimenti e ottimizzare cercando di imparare dagli errori di overprovisioning del passato”. È questo uno dei punti da cui è invece partito Denis Nalon al momento del convegno in Fujitsu Technology Solutions (di recente passato in NetApp) per descrivere lo scenario hardware in cui si trova oggi a operare chi si occupa di un data center. “Tipicamente in un data center ci sono server con propri controller, schede PCI addizionali, mezzanine. Il tutto collegato attraverso gli switch alla rete aziendale. In questo contesto non è facile capire come governare la complessità. È necessario un utilizzo il più flessibile possibile, quindi più applicazioni con un numero minore di server (consolidamento e virtualizzazione). Attraverso i controller, dobbiamo però anche garantire che i flussi dati siano indirizzati correttamente e la stessa cosa vale per gli switch”.
L’idea è in generale che ci siano più punti da gestire, con la complessità che sale rispetto a prima, e l’obiettivo di garantire una banda che sia effettivamente corretta e una gestione di diversi carichi di lavoro. “La risposta – ha continuato Nalon - finora è stata: virtualizziamo i server e siamo a posto. Si tratta certamente di un passo importante, ma bisogna anche pensare a quanta banda si sta applicando e quali sono le aree di sovrapposizione dei compiti di chi amministra rete, applicazioni e storage. Chi è quindi responsabile di gestire la disponibilità dell’intero sistema, e come garantire la multitenancy, con la convergenza sul data center di applicazioni che fanno riferimento a più aziende dello stesso gruppo. Anche questo diventa un ulteriore elemento di complessità di cui occuparsi”.
Secondo Andrea Ciciliano di Fujitsu Technology Solutions, è necessario avere macchine affidabili mentre la progettazione del data center deve essere soprattutto flessibile, tenendo conto dell’efficienza energetica: “Ora i contatori sono separati. Prima la corrente consumata del data center finiva in un unico calderone oggi invece il refresh hardware non funziona più, ed esistono soluzioni che se soddisfano le attuali esigenze di connettività devono essere pronte anche a soddisfare quelle di domani. Lo scenario tradizionale prevedeva blade server, schede di rete e mezzanine per la connettività. Per portare tutto fuori si usavano più switch, con la complessità di gestione che ne derivava. Con le cosiddette CNA (Converged Network Adapter) spariscono invece quasi tutti gli switch. È possibile partizionarle e uscire con due o tre schede di rete per la lama e un canale FCoE, gestire la percentuale di banda da utilizzare per le schede di rete e il traffico, con la tecnologia che si adatta a seconda delle esigenze”
“Ricapitolando - ha concluso Ciciliano - il primo passo è quindi il consolidamento che si effettua con le CNA, quindi avere un software che sia in grado di virtualizzare il MAC Address e le LUN (Logical Unit Number), cioè gli indirizzi delle schede in fibra. Se si rompe una lama e bisogna passare tutto l’indirizzamento delle LUN sulla SAN o dei Mac Address sulle schede di rete, è necessario riconfigurare tutto. Virtualizzandole quando il sistema operativo si sposta, portandosi dietro le relative informazioni, in pochi minuti la macchina è in produzione senza essersi persa nulla della progettazione. È questa la semplicità che vogliono gli IT manager”.
 

 

TORNA INDIETRO >>