Estate 2020
Servizi - Datacenter
 

23/07/2013

Share    

Come cambiano le modalità di acquisizione di server e storage

I racconti dei responsabili IT di Chantecler Capri, Carl Zeiss Italy, Deutsche Bank Italia e Gruppo Feltrinelli

Una volta si comprava tanto ‘ferro’ che poi magari veniva utilizzato al 10% delle capacità e costava molto anche sotto il profilo dei consumi di energia. Questo però è il passato che non tornerà più… per fortuna.
Oggi nell’epoca della virtualizzazione e del cloud computing come le aziende si organizzano per dimensionare, selezionare e acquisire le risorse di elaborazione e di memorizzazione per i loro data center: ovvero server e storage?
Con questa semplice curiosità ci siamo mossi per capire come sono cambiate le cose rispetto al passato, in un’epoca in cui le risorse finanziarie per l’IT non devono essere sprecate e allo stesso tempo bisogna essere capaci di rispondere alle esigenze del business in tempi rapidi. Per raggiungere il nostro obiettivo abbiamo intervistato i responsabili IT di quattro realtà aziendali molto diverse tra loro: la tipica PMI italiana campione internazionale però del nostro Made in Italy, il creatore di gioielli Chantecler; la filiale nazionale di una banca che opera a livello globale, Deutsche Bank; l’azienda culturale del nostro Paese che opera in diversi settori (dalla televisione alle librerie) esclusivamente sul mercato interno, Gruppo Feltrinelli; la filiale italiana con produzione e attività commerciale anche di servizi di una multinazionale straniera focalizzata su un mercato particolare, Carl Zeiss Italy.
Un panorama variegato e con differenze enormi, prima di tutto sul fronte della capacità di spesa, dove ogni realtà si muove tenendo conto di fattori molto diversi dall’altra, ma dove, e questa la caratteristica comune da valorizzare, ogni responsabili IT è riuscito a fare importanti innovazioni, trovando caso per caso, gli strumenti più utili per raggiungere i suoi obiettivi.
Infine, in modo ‘laterale’, da questa inchiesta è emersa una posizione di attesa, se non di diffidenza, sul cloud computing ibrido e pubblico che doverosamente segnaliamo.
Era stata infatti studiata una domanda particolare che ci permettesse di far emergere con chiarezza la propensione o la diffidenza dei nostri interlocutori verso il nuovo modello di acquisizione delle risorse IT: “A parte il vostro processo standard di acquisizione di capacità server o storage, come vi comportate se dal business arriva una richiesta impellente e non prevista da gestire?” Anche di fronte a un caso di questo tipo, per ora il cloud non riesce a emergere come la risposta più adatta a gestire le ‘emergenze’ di business. Forse sul fronte dell’offerta di questi nuovi servizi qualcosa andrebbe cambiato...

La Pmi che deve ottenere qualità con poche risorse
 

Chantecler Capri è una realtà d’eccellenza del nostro Made in Italy attiva da oltre 65 anni nella produzione di gioielli. Nei primi Anni 2000, l’azienda decide di intraprendere la sfida dell’internazionalizzazione, aprendosi alla distribuzione tramite il canale wholesale e ottenendo un successo immediato. Opera con alcuni negozi di proprietà e con una rete di rivenditori e di punti vendita in franchising riuscendo oggi a portare il proprio stile in tutto il mondo.
“Nel mondo del gioiello, così come probabilmente in altri, i sistemi informativi sono molto utilizzati, ma sono ritenuti più una necessità di cui non si può fare a meno, piuttosto che una vera e propria leva strategica per la crescita del proprio business – dichiara Claudio Nasti, direttore sistemi informativi Chantecler. Proprio per questo quindi, nonostante la mia sia una struttura leggera, abbiamo tutto l’IT in outsourcing e personalmente coordino solo fornitori esterni. Il nostro data center è però all’interno dell’azienda e penso che ci rimarrà per molto”. Una realtà nei fatti descritti che oggi è comune anche a imprese piccole e medie di altri settori, dove la resistenza a portare fuori le informazioni è sicuramente molto forte soprattutto quando entrano in gioco aspetti fondamentali per il business come la protezione della proprietà intellettuale e dei brevetti.

La gestione di server e storage
 

Attualmente nel data center di Chantecler sono attivi 17 server virtuali in configurazione rack e in cluster, a questi si aggiungono due server fisici, un sistema di storage esterno e alcuni sistemi per gestire la ridondanza dei backup. “Abbiamo iniziato il processo di virtualizzazione nel 2007 e negli anni abbiamo seguito tutti gli aggiornamenti – spiega Nasti. L’unica applicazione installata su un sistema tradizionale è la piattaforma applicativa, tutte le altre invece girano su macchine virtuali. Con il prossimo anno però anche la piattaforma gestionale verrà spostata su una nuova tipologia di sistema virtualizzato. Entro il 2014 quindi disporremo di un ambiente IT totalmente virtuale”.
Il sistema di storage esterno gestisce una decina di TB e sono più che sufficienti: “Sono consapevole di essere sovraccarico di capacità, ma è stata una scelta necessaria per non avere problemi qualsiasi cosa mi venga chiesta dal business”.
Una capacità che però non va sprecata. Anzi una buona ottimizzazione degli spazi di memoria consente di tenere il fattore volume dati sotto controllo, e quindi assicurare sempre quella capacità di reazione che giustifica il sovradimensionamento: “Costantemente mi occupo di gestire e verificare che in azienda siano presenti i dati sicuramente indispensabili e quelli necessari per la crescita. Inoltre cerco di evitare di moltiplicare gli stessi documenti che possono proliferare in modo incontrollato: ho attivato un meccanismo di condivisione dei documenti sulla intranet aziendale che evita al minimo la diffusione in più copie della stessa versione di uno stesso documento. Così come si produce tanta carta in maniera inutile, in altrettanta maniera si producono grandi quantità inutili di volumi di storage”.
Anche in Chantecler l’obiettivo comunque è quello di evitare gli sprechi e ogni innovazione tecnologica è realizzabile a fronte di un progetto che dia un ritorno in parte immediato e in parte in un periodo medio. Ciò non toglie che ogni due o tre anni venga effettuato un ciclo di revisione dell’infrastruttura IT, e quindi si proceda anche con la sostituzione di diverse macchine.

Un paradosso apparente, ma facilmente risolto
 

Può sembrare paradossale che in un’azienda dove il direttore dei sistemi informativi è anche l’unica persona di staff dell’IT possa essere messo in campo un processo così articolato e complesso. Ma la soluzione del paradosso è semplicemente detta: “Per reggere questo ritmo ho trovato come estremamente comodo il discorso del noleggio dei sistemi, che estendo a tutti gli apparati IT e non solo a server e storage. Grazie a tale soluzione, tra le altre cose, non mi devo più occupare della parte di smaltimento dei vecchi sistemi che sta diventando un processo veramente complesso e oneroso in termini di tempo e burocrazia. Si pensi che è necessario ogni volta far intervenire un notaio perché comunque i sistemi ricadono nei cespiti aziendali. Con il noleggio posso quindi svecchiare facilmente il parco macchine esistente”.
Questa formula che riflessi ha sui tempi di reazione alle richieste ‘impellenti’? “Dal momento in cui contatto il ‘noleggiatore’ al momento in cui faccio una serie di valutazioni di offerte e scelgo le macchine passa circa un mese. Per alcune richieste specifiche può passare anche più tempo”.
Ma il vantaggio principale è la possibilità di dimensionare di volta in volta l’intero sistema informativo sulle necessità reali, risultando sempre in linea con le ultime versioni delle tecnologie che si vogliono implementare: “Per un’azienda molto elastica e con un forte turn over delle risorse interne anche il dimensionamento dei desktop è variabile. Con contratti di questo tipo a canone mensile ‘variabile’, nel momento in cui emerge una richiesta di rinnovamento tecnologico, o il posizionamento dei desktop per gli stagisti, il provider dietro una riconfigurazione del canone mensile mi mette a disposizione in tempi ragionevoli la mia richiesta di cambiamento. Se per esempio decidessi di passare a Windows 8, cosa che però non farò, posso decidere molto velocemente quando sostituire tutte le macchine”.
Il noleggiatore fornisce una serie di servizi a supporto compresi nel canone, dall’assistenza online all’help desk a più livelli. In ogni caso è l’unica interfaccia con l’azienda utente che invece non deve andare a cercare i diversi vendor dei sistemi quando si verificano anomalie e malfunzionamenti.
Un vantaggio non di poco conto è poi il fatto che l’azienda utente non deve compiere investimenti nella continua formazione di personale interno. Anche questo è un costo non indifferente che può incidere in modo sostanziale sul budget IT di aziende medio piccole.
“Per evitare l’effetto di lock in del fornitore è sempre meglio frammentare i propri provider. E’ una regola che seguo non solo per l’hardware, ma anche per il software applicativo e per la consulenza. Avere più punti di riferimento è meglio, poichè un punto di riferimento unico può venire a cadere per qualsiasi motivo. Non so se forse si può parlare di un ‘cloud ibrido o pubblico’ con in realtà i sistemi in casa; certo è che questo è l’unico modo per avere qualità con poche risorse”.

La governance degli acquisti di una banca 'globale'
 

In una realtà globale molto estesa e complessa come Deutsche Bank dal 2007 è stato avviato un programma di standardizzazione di tutte le risorse IT. Questo anche a seguito della firma di un contratto per la gestione dell’infrastruttura valido per tutti i Paesi europei con un player importante dell’offerta di servizi di outsourcing.
In questo scenario quindi anche l’infrastruttura data center di Deutsche Bank Italia è stata centralizzata a livello europeo, principalmente in Germania, e a oggi non esistono più data center operativi localmente nel nostro Paese di questa azienda, mentre rimangono attivi in DB Italia alcuni server di servizio per esigenze specifiche.
Il processo oggi non ha ancora toccato la natura storica dell’IT di DB Italia, e quindi l’infrastruttura centrale dedicata all’Italia, e governata a livello europeo, è ancora basata su mainframe (così come quelle di altri Paesi dove è presente una forte componente di business retail), mentre il progetto a lungo termine è quello di una migrazione verso un nuovo sistema di core banking in ‘acquisizione’ dal mercato basato su server blade industry standard.
“Si tratta di una scelta di standardizzazione che non riguarda la sola Europa, è un programma a livello mondo che coinvolge i 72 Paesi in cui siamo presenti – dichiara Riccardo Riccobene, responsabile progetti strategici global technology production IT Emea di Deutsche Bank. Quindi è in via di definizione un complesso processo di migrazione”.
Il tutto nasce da un piano che punta all’eccellenza operativa che dovrà concludersi entro il 2015. Secondo gli impegni presi con gli investitori questo piano dovrà portare all’abbattimento di 4,5 miliardi di euro di costi, la gran parte di questi proveniente dal mondo IT. “A oggi è in corso la virtualizzazione completa del nostro ambiente, puntiamo a lungo termine ad avere un tasso di virtualizzazione del 100%. Sarà un processo lungo, il primo obiettivo è arrivare entro il 2016 alla virtualizzazione delle maggiori applicazioni. Oggi comunque ci consideriamo un cloud privato”.

La strategia di standardizzazione delle risorse IT
 

Per quanto riguarda i processi di definizione delle risorse IT necessarie al supporto del business, nel 2011 con una visione integrata a livello globale è stata varata l’Enterprise Compute Strategy: “All’interno del concetto di ‘compute’ sono racchiusi tutti gli aspetti tecnologici, operativi e commerciali. Non esistono quindi più strutture IT nei singoli Paesi che prendono decisioni in questi ambiti, ma sono nati dei comitati, per quanto ci riguarda come Italia a livello Emea, dove ogni singolo Paese ha dei propri rappresentanti”.
All’interno di questa iniziativa è stato quindi creato l’Enterprise Compute Strategy Board che ha stabilito, tra le altre cose, il piano industriale relativo alla virtualizzazione di tutto il mondo IT, basato su due pilastri fondamentali: industrializzazione e consumerizzazione: “Su questi due pilastri quello che si sta cercando di ottenere è la riduzione del 50% dei costi infrastrutturali dell’IT”.
Per quanto riguarda l’industrializzazione vengono definite delle linee guida – Blue Print - necessarie sia agli sviluppatori, per guidarli nella scelte delle componenti che devono essere utilizzate nell’ambito dello sviluppo delle nuove applicazioni, sia a livello strutturale per costruire gli stack di supporto: “L’obiettivo è quello di costruire la nostra private cloud utilizzando solo dei componenti standard e riducendo al minimo tutte le necessità di customizzazione; non sono più previste soluzioni tattiche basate sulle specifiche conoscenze di singoli sviluppatori, piuttosto che preferenze di country”.
“Passare attraverso la consumerizzazione significa dare allo sviluppatore o alla persona IT in genere la possibilità di utilizzare dei servizi self service elastici, trasparenti, documentati in modo che la persona possa selezionare e ‘prelevare’ la tecnologia che gli serve in modalità virtuale, soprattutto su tecnologia blade perché è quella che consente la massima flessibilità”.
In quest’ottica è in via di introduzione il concetto di ‘mattoncini’ predefiniti per la soluzione cloud modulare interna, configurati a seconda della dimensione della locazione di riferimento. La scala parte da un quarto di rack (2-3kw, 100 virtual machine, 20 TB di storage) fino a un massimo di tre rack (40-50kw, 3.000 VM, 200 TB storage oppure 500 VM e 1PB di storage). “In questo scenario l’utente IT autorizzato si interfaccia con una soluzione di gestione delle utenze che secondo il suo profilo e il centro di costo di riferimento (informazione utile per il billing), può prendere i componenti che servono per svolgere il suo lavoro. Il modello target è l’estensione del self provisioning in ogni ambito. Il sistema oggi è attivo per alcuni servizi e stiamo riscontrando già diversi risultati positivi perché abbiamo a disposizione una soluzione molto flessibile, che si basa comunque sempre su un corretto utilizzo della ‘compute power’ standardizzata”.

Il processo di dimensionamento e acquisizione
 

L’acquisto dei sistemi è tutto delegato centralmente e fa riferimento a un processo che viene attivato dalle singole country: “Per ogni singolo progetto il nostro team di architettura definisce quelli che sono gli standard da utilizzare, oltre alle Blue Print e alla technology roadmap che sono già attive, viene costruito il design della corretta infrastruttura e del corretto middleware e quindi di tutto lo stack che serve a supporto del progetto. Uno dei primi passi nella definizione del progetto è proprio il disegno dell’architettura di alto livello”.
Sulla base di quanto emerso in questa prima fase parte il processo di disegno del servizio che viene poi affinato successivamente. Questo è curato da un organismo - Service Design - che si occupa anche del dimensionamento delle risorse di elaborazione e memorizzazione: “Quando tutti gli stakeholder di progetto ritengono che quella identificata sia l’architettura standard da utilizzare si passa allora all’implementazione dell’infrastruttura”.
In fase di ‘acquisizione’ delle risorse, invece, viene prima di tutto chiaramente verificato cosa è già disponibile all’interno di tutti i data center DB che sono già stati riconfigurati secondo questo modello industriale: “Se proprio serve si passa all’acquisto di nuovi sistemi e per fare l’ordine di acquisto c’è un tool apposito”.
Il processo di acquisizione vero e proprio passa attraverso vari comitati di approvazione per la verifica del budget: “Il processo è stato costruito in modo da avere dei tempi abbastanza precisi, chiaramente non possono essere dei tempi assoluti, ma se sono richieste standard, il tutto si svolge tra le quattro e le otto, massimo dieci settimane a seconda della complessità dell’ambiente. Rispetto al passato questi tempi sono decisamente diminuiti: dal 2008 a oggi possiamo dire che li abbiamo dimezzati”.
Il passaggio tra le vecchie e la nuova modalità non è stata una cosa indolore, ma rispetto alle pratiche del passato i miglioramenti ottenuti sono considerevoli: “Chiaramente nella fase di passaggio da una modalità a quella nuova c’è stato un picco iniziale tipico di tutte le trasformazioni organizzative che comunque si è ridotto una volta assestato il processo. Quando potevamo fare gli acquisti in Italia per i data center locali, avevamo una quantità di soluzioni ad hoc, tattiche o disegnate su specifiche esigenze per un determinato processo. Questo produceva a livello globale una sostanziale inefficienza perché registravamo una media di impiego delle macchine pari al 10%. Chiaramente non si può andare in cloud con un fattore di utilizzo di questo tipo. Grazie all’attuale configurazione del processo di definizione e acquisizione dei sistemi oggi possiamo perseguire l’obiettivo di arrivare a un indice di utilizzo delle macchine del 60%. E’ il target verso cui tutti cercano attualmente di tendere”.


L'azienda italiana con molteplici business
 

I molteplici business del Gruppo Feltrinelli sotto il profilo dell’IT sono tutti gestiti, insieme ad altre attività, da una società controllata al 100% dalla holding: LSI 150 – Logistica e Servizi Integrati che supporta i servizi trasversali per tutte le aziende di questa variegata realtà. “In questo momento abbiamo due sale dedicate presso un data center Tier 4 di un fornitore specializzato – racconta Roberto Vidimari, system & network manager di LSI 150. Il provider fornisce anche i servizi di sicurezza con sonde IPS, IDS, firewalling, proxy e parte del networking, tutto il resto viene invece gestito direttamente da noi”.
Una delle due sale ospita due configurazioni rack a blade e alcuni server fisici, mentre nella seconda sala è ospitato il rack dedicato esclusivamente al sito di e-commerce: “Essendo in co-location tutta la responsabilità dell’acquisto dei sistemi dipende dalla nostra business unit. Per quanto riguarda i sistemi non dedicati all’e-commerce abbiamo un rack che consideriamo saturo, ovvero abbiamo a disposizione spazio ancora per ospitare 2 blade, ma non pensiamo di occuparlo completamente. L’altro è stato riempito al 70% ovvero mantiene la possibilità di inserire altre 5 blade. L’acquisto di un ulteriore nuovo rack con 18 blade è oggi subordinato all’approvazione e alle tempistiche dei nuovi progetti che dovrebbero essere discussi prossimamente”. La gestione della parte retail, invece, è realizzata con macchine fisiche posizionate nei diversi punti vendita, mentre centralmente è completamente virtualizzata.
I criteri che guidano la gestione delle risorse di server e storage, e quindi anche le loro politiche di acquisizione, si rifanno a logiche di capacità di risposta rapide alle esigenze del business e a livelli di performance adeguati: “Siamo sicuramente attenti ai costi e sempre alla ricerca di ottimizzazioni, ma questo non deve pregiudicare la nostra capacità di dare risposte coerenti a determinati standard. Cerchiamo di compiere acquisti mirati con una visibilità che al massimo è di tre anni per i server, mentre invece per lo storage abbiamo realizzato un importante investimento in una piattaforma di tipo enterprise lo scorso anno con un volume di dischi idoneo per poter supportare nei prossimi cinque anni le richieste del business”.
I tre sistemi rack attivi hanno la possibilità tutti di installare fino a 18 blade ciascuno: “Cerchiamo sempre di avere un certo numero di lame attive e alcune in riserva così da non avere problemi e difficoltà nella gestione delle richieste non preventivate; una gestione centralizzata e interna oltre che in ambiente virtuale ci consente una buona reattività. Dato che l’hardware comunque costa sempre meno ed è sempre più potente, ci possiamo permette di garantire più potenza di quanto sia effettivamente richiesto. Inoltre, quando il budget ce lo consente, sostituiamo le lame più vecchie con elementi di ultima generazioni dotate di CPU più potenti e performanti”.

Virtualizzazione in migrazione
 

Tutti i sistemi sono costantemente monitorati sotto i profili delle performance, degli spazi e delle risorse, questo permette di intervenire con una certa tempestività: “Quando ci rendiamo conto che le performance iniziano a degradare, allora vengono acquistate nuove lame per riportarle a quei livelli che noi riteniamo ottimali. Dovendo agire con le diverse società del gruppo che hanno dei focus di business diversi tra loro, cerchiamo di mixare risorse e richieste per mantenere adeguati i livelli di performance senza sprecare risorse di elaborazione e memorizzazione”.
Per la programmazione delle risorse sul fronte storage non ci sono problemi. Con l’investimento nel 2012 in una piattaforma enterprise che può arrivare fino a 94 TB lo spazio disco a disposizione è ampio, mentre la programmazione delle risorse server su base triennale ha dei cicli di revisione in alcuni casi di almeno sei mesi, ma in generale si tratta di un processo annuale. “L’ambiente totalmente virtualizzato ci permette di raggiungere, a seconda dei diversi periodi dell’anno, un tasso di occupazione RAM e CPU tra il 50% e il 60% dei server installati; in questo momento riteniamo questo risultato soddisfacente. Per i prossimi mesi prevediamo però di mettere in atto un programma di migrazione dalla piattaforma di virtualizzazione attuale a quella di un altro vendor. Le funzionalità delle due soluzioni sono ormai allineate e con performance paragonabili. Oltre alla riduzione dei costi della manutenzione software, con la nuova piattaforma andremo anche a coprire altre necessità come il backup per gli utenti mobili e una parte di funzionalità MDM, mobile device management, attualmente gestite con un’altra soluzione”.
In questo contesto, la gestione delle eccezioni non rappresenta generalmente un problema: “La gran parte delle richieste riesce a essere coperta dalla riserva di capacità che abbiamo a disposizione. Poiché in questa azienda non mancano mai idee e iniziative, la nostra infrastruttura è comunque in grado di assorbire richieste anche sostanziali in poco tempo senza pregiudicare il livello di performance richiesto. Se la necessità è però più corposa, allora possiamo attingere a budget ad hoc definiti per questi progetti e non pesare sul normale budget IT. L’importante per noi è che tutte le nuove risorse siano coerenti al nostro disegno di standardizzazione”.

Tempi di messa in opera da tagliare
 

I tempi in cui si attua l’acquisto e la messa in produzione di un nuovo blade, prevedono tendenzialmente quattro settimane per la consegna da parte del fornitore dal momento in cui viene effettuato l’ordine e due settimane per la successiva configurazione dello chassis, le lame di management e una lama server: “Certe volte riusciamo anche a stare nelle cinque settimane, ma sei è la regola. Rispetto al recente passato i nostri tempi sono diminuiti di almeno il 30%, ma è probabile che il business ci richieda ancora di ridurre ulteriormente questi tempi. Purtroppo non credo che riusciremo a tagliare più di tanto i tempi tecnici del processo di acquisizione che viene controllato dal nostro fornitore, quindi quello che dovremmo cercare è ridurre i tempi di configurazione e installazione dei sistemi. Tutti gli obiettivi raggiunti grazie alla virtualizzazione sono stati agevolati grazie a una adeguata preparazione tecnica delle nostre risorse interne”.


La multinazionale che opera in un particoilare mercato verticale

Carl Zeiss è un gruppo multinazionale che opera in modo esteso e pervasivo in tutti gli ambiti del mercato dell’ottica. Dall’ottica di precisione per l’area oftalmica (lenti per occhiali da vista, da sole, a contatto), a quella per obiettivi fotografici (oggi anche in cellulari e smartphone) per binocoli, telescopi terrestri e satellitari, all’ottica per le macchine dei planetari (come quella del Planetario di Milano), dai sofisticati sistemi medicali, e le tecnologie per la chirurgia refrattiva, alle protesi per il cristallino, oltre infine alle macchine per micro e macro misurazioni di assoluta precisione in ambito industriale, per cui oltre a i impianti ad hoc l’azienda fornisce anche una serie di servizi in house.
Una realtà che spazia in diversi business tutti ad alto contenuto tecnologico e qualitativo che è universalmente riconosciuta per l’eccellenza nella qualità, nell’R&D e nell’innovazione di prodotto. E’ presente nel mondo con 43 filiali, oltre 100 rappresentanze e 14 centri di produzione.
Carl Zeiss Italy conta circa 600 persone, gran parte di queste opera nell’area della distribuzione commerciale, mentre per il business delle lenti da sole, dove l’Italia agisce da ‘headquarter’ per tutto il mondo, c’è un sito di produzione a Castiglione Olona.
 Molteplici business coperti con realtà che vanno dalla pura distribuzione con magazzini remoti decentralizzati, a entità di distribuzione e trasformazione locale, fino alla produzione vera e propria: “Un’articolazione complessa quindi, che si specchia inevitabilmente anche nel sistema informativo – racconta Luigi Pignatelli, ICT manager di Carl Zeiss Italy - con applicativi diversificati che spaziano in molti ambiti. Una parte di questi è già centralizzata su un sistema ERP a singola istanza regionalizzato e installato in Germania, mentre una verticalizzazione della stessa piattaforma è stata sviluppata per le produzioni cinesi. Oltre a questo, però, manteniamo anche una logica applicativa decentralizzata in diverse modalità a seconda della tipologia di business”.
Tra queste anche una soluzione custom del gestionale oftalmico locale, a cui si integrano diverse componenti tecnologiche, spesso parte dell’offerta commerciale, come per esempio le applicazioni per i negozi di ottica, utilizzate per gli ordini delle lenti oftalmiche da ricetta, direttamente ai siti di produzione di Carl Zeiss. “Non è una banalità perché questo software è supportato da dei sistemi di calcolo molto complessi e sofisticati”.

Le caratteristiche del sistema informativo
 

L’azienda ha circa 15 sedi in Italia e dispone di due data center: uno più piccolo con sette macchine server e il più grande a Castiglione Olona con una ventina di sistemi, di cui una buona parte virtualizzati. L’applicazione custom gestionale per la divisione oftalmica, in ambiente AS/400, è in outsourcing presso una terza parte, come allo stesso operatore sono affidati diversi sistemi in hosting di ambienti pubblici a supporto dei clienti.
“All’interno di una VPN a livello globale certi servizi vengono già erogati dalla struttura corporate con una logica pay per use in un ambiente ‘virtual cloud’: per un utente che aggiungo o tolgo ho un costo supplettivo o meno in base a un catalogo servizi messo a disposizione a livello corporate”.
“Soprattutto in ambito storage, per i più svariati motivi dovuti alle diverse normative, oggi non c’è una predisposizione all’utilizzo del cloud puro. E’ chiaro però che la mia struttura può usufruire di servizi erogati in questo ambiente virtual cloud che possono essere forniti anche da terze parti. Oggi presso il nostro outsourcer locale abbiamo a disposizione alcune aree di storage che possono essere co-utilizzate da diverse divisioni”.
A parte questo però, la gestione dello storage è in gran parte affidata ai data center di Carl Zeiss Italy in configurazione sia SAN sia interna ai server. Viene direttamente acquisito sul mercato e ogni anno il volume da gestire è di qualche decina di TB. “Per garantire servizio e prestazioni possiamo agire con un’ampia autonomia di decisione, mentre su altri punti seguiamo delle linee guida dettate dalle corporate. C’è autonomia gestionale per comprare e gestire localmente hardware, software e quant’altro; ma dobbiamo garantire il più possibile la standardizzazione dei sistemi. Questo per avere una gestione coerente dei livelli di security, delle policy di utilizzo dei sistemi e per disporre di un più semplice consolidamento dei dati sia finanziari di budget di gestione dell’IT sia di parco hardware installato; e con un occhio sempre attento alla possibilità di affidare dei servizi in outsourcing”.

La gestione della domanda
 

Per quanto riguarda server e storage, le dinamiche di acquisizione sul mercato di queste risorse sono radicalmente cambiate rispetto al recente passato: “Dal mio arrivo nel 2012, l’esercizio che cerchiamo di fare è quello di predisporre una programmazione più strutturata di questi acquisti – spiega Pignatelli. Oggi non ragioniamo più con la logica di compiere un grosso investimento in un sistema di storage particolarmente potente che poi magari può risultare sovradimensionato per un lungo periodo di tempo. Per razionalizzare i costi dei sistemi e renderli più efficienti tendiamo a seguire la domanda cercando di ragionare con un approccio proattivo ma commisurato all’esigenza”.
L’obiettivo è seguire la domanda del business, evitando il più possibile invece di procedere per ‘grandi progetti’, che implicano anche un supporto infrastrutturale consistente. Una linea politica che però può essere messa in discussione quando la corporation lancia grandi iniziative IT di standardizzazione. Ma questa è l’unica eccezione.
“Normalmente ogni anno in sede di definizione del budget IT facciamo delle stime in eccesso di quelli che possono essere i volumi che andremo ad affrontare nei successivi 12 mesi, e su questo pianifichiamo i nostri acquisti, cercando di scadenziarli nel tempo. Verso metà esercizio le previsioni vengono poi riviste, per capire se siano ancora in linea con le richieste del business o meno, rivedendone la pianificazione, in più o in meno, a seconda dei fattori eventualmente cambiati. Quello che vogliamo evitare è di trovarci con dei periodi di ‘sofferenza’ del business, a causa della mancanza di tutte le risorse necessarie, ma anche il rischio di avere lunghi periodi di sovraccapacità inutilizzata. Sono chiaramente discorsi teorici, a cui si tende ad avvicinarsi, anche se non sempre con successo”.
Nel caso però ci siano grandi progetti da portare avanti su tempi lunghi, anche su più esercizi, allora le soluzioni lasciano spazio a investimenti di largo respiro e non a soluzioni tattiche. “Semmai in questi casi c’è la necessità di ragionare su quale sarà l’evoluzione prospettica del ‘demand’ di progetto, e quindi rapportarne un processo di pianificazione parallelo a quello focalizzato sull’operatività standard”.
Lo scopo però non è solo quello di ottimizzare i costi, ma anche quello di raggiungere il miglior livello di efficienza per i servizi erogati ai clienti. “Naturalmente anche l’IT della filiale italiana ha dei piani di sviluppo a lungo termine, oltre a quelli corporate, a cui facciamo comunque riferimento per definire le nostre strategie annuali”.
Rispetto alle tematiche di storage e della relativa gestione, le attuali tecnologie di virtualizzazione server assicurano flessibilità e quindi una maggiore agilità nel seguire la domanda del business: “Siamo partiti un po’ tardi, ma stiamo recuperando ed entro fine anno raggiungeremo il traguardo della virtualizzazione su almeno l’80% dei server, e successivamente quello del 100%”.

Le richieste ‘urgenti’... non vanno in cloud
 

“Nelle multinazionali la richiesta ‘urgente’ è un concetto molto complicato, poiché ci sono sempre processi di verifica e approvazione interni che portano via il loro tempo, soprattutto quando è chiamata in causa la spesa di capitale. In ambito storage comunque non abbiamo problemi, semmai è più difficile implementare la richiesta sul fronte dei server, in quanto per una spesa in conto capitale l’approvazione porta via diverse settimane. Questo a parte quelle scelte obbligate ‘compulsory’, che a volte devono essere fatte in breve tempo, perché una nuova legge o normativa ha fissato determinate regole, da mettere in esecuzione in un periodo di tempo ristretto, o entro una data specifica”.
In questo contesto però il cloud non sarà, a breve, un’opzione che cambia le regole del gioco: “Sebbene siamo utenti di Salesforce.com, storica soluzione cloud, e abbiamo sperimentato il cloud in alcune soluzioni di nicchia, per la nostra tipologia di value proposition e know-how tecnologico, abbiamo esigenza di livelli di riservatezza molto elevati. Molte informazioni sono implementate con sofisticate soluzioni di crittografia a livello di gruppo, e questo è un aspetto che diventa complicato gestire in cloud pubblico. Non da meno, ci sono complicazioni dovute alle diverse normative sulla privacy nei vari Paesi. Non credo quindi, che svilupperemo significativamente del cloud ibrido o pubblico in un medio periodo di due o tre anni, ma pensando con una prospettiva più lunga, in futuro si potranno certamente trovare tecnologie e soluzioni più interessanti di quelle disponibili oggi”.

“Mai trovarsi a dover dire... impossibile”

L’esigenza IT principale di Chantecler Capri è quella di essere in linea con le novità tecnologiche per evitare problemi alle soluzioni software e applicative di cui necessita il business: “Già il prossimo anno sostituirò la configurazione rack in cluster – afferma Claudio Nasti, direttore sistemi informativi della società. Per molte realtà non è un investimento consistente, ma invece nel mio budget ha sicuramente un peso importante. Dovrò sostituire i server sui quali girano le macchine virtuali, questo perché la nuova versione del virtualizzatore che utilizziamo non girerà più con i microprocessori che attualmente abbiamo sul blade. L’azienda ha la necessità, ed è in questo senso mio dovere supportarla, di essere sempre e in ogni momento sul mercato”.
Una infrastruttura IT non in grado di supportare anche le ultime tecnologie può avere una ripercussione molto negativa sul business: “Oggi, per esempio, abbiamo il progetto di mettere in alcune boutique dei tablet che possono essere utili al cliente per la consultazione della nostra offerta. Se la mia azienda mi chiede questa cosa, io devo essere pronto a supportarla; sarebbe una sconfitta, soprattutto per me, se la mia risposta a questa richiesta fosse: impossibile”.

Come cambia il rapporto con l’outsourcer

Nel 2003 Deutsche Bank ha siglato un accordo con un outsourcer globale per le country europee che ha esternalizzato la gestione dell’infrastruttura, con l’obiettivo di trasformarla in un servizio: “Diciamo che negli anni abbiamo costruito una relazione che si rifà alla logica dell’Infrastructure as a Service, dove l’outsourcer si occupa della gestione e della domanda di capacity – racconta Riccardo Riccobene, responsabile progetti strategici global technology production IT Emea di Deutsche Bank. L’obiettivo finale a cui puntiamo è che sia l’outsourcer a occuparsi anche dell’acquisizione dei sistemi, ma questo nell’ottica di poter contare su una molteplicità di fornitori di servizi di infrastruttura e non più su un unico player come oggi. Vorremmo poter lavorare con un qualunque provider che dimostra la capacità di fornire determinati standard di servizio”.
Una volta raggiunto l’obiettivo dei molteplici fornitori di Iaas, e sviluppati adeguati criteri di sicurezza, il passo successivo per Deutsche Bank potrebbe essere quello di aprirsi ai cloud pubblici, questo perché: “Oltre certi volumi il cloud interno non riesce a reggere”.
Il processo di Service Design si caratterizza come una funzione core per il lifecycle management degli ordini e quindi sarà un processo che in futuro difficilmente potrà andare in outsourcing. “Ma ciò che oggi vedo come sfida principale in questo momento è l’educazione del consumatore utente interno - sviluppatori, sistemisti... - che utilizzando i processi Iaas deve incominciare a pensare in modo diverso. Inoltre queste dinamiche dovranno essere estese anche ai consulenti esterni: chiunque lavori con DB deve aderire al 100% alle policy che sono fissate a livello aziendale”. A livello globale si sta parlando di più di 20.000 persone, mentre per l’Italia si tratta di circa 800 professionisti IT tra interni ed esterni.

Cloud? Non nei prossimi due anni


Gruppo Feltrinelli non ha progetti a breve in relazione al tema cloud computing: “La parte dei server decentralizzati ancora operativi nella nostra infrastruttura in futuro dovrà essere rivista secondo i modelli del cloud privato o anche in altre configurazioni – spiega Roberto Vidimari, system & network manager di LSI 150, società di servizi interamente controllata dalla holding. Questo passaggio per ora non è stato ancora formalizzato, ma comunque stiamo valutando tutte le offerte e le possibilità presenti nel mercato. Credo che questa evoluzione si attuerà nel giro dei prossimi due/tre anni”.
In passato sono state fatte alcune sperimentazioni di servizi cloud erogati da terzi, ma senza risultati particolarmente positivi: “Abbiamo visto che questo approccio non va bene per la nostra struttura, preferiamo ragionare in una logica di cloud privato, dove siamo noi a governare il tutto, disponendo di adeguate competenze interne”.
Un giudizio di merito che però va oltre: “Anche su soluzioni più semplici, come quelle di posta elettronica o quelle di tipo office, ci siamo accorti che i nostri livelli di servizio relativi alle performance di quanto potevamo assicurare internamente erano comunque migliori rispetto a quelli offerti dai fornitori cloud”.
Il cloud computing implicherebbe inoltre anche un approccio organizzativo diverso da quello attuale: “Nel nostro caso è importante assicurare velocità e rapidità nei tempi di risposta, che solo una struttura interna può assicurare. Per andare in cloud inoltre bisognerebbe modificare i processi interni poiché non tutta la nostra struttura è abituata a ragionare in termini di SLA… Nei prossimi tempi ci saranno cambiamenti significativi soprattutto sul lato ERP e si ragionerà molto in termini di revisione dei processi”.

Lo storage può diventare un servizio ai clienti


Lo storage di Carl Zeiss Italy oggi è centralizzato, ma un domani potrebbe essere anche più distribuito: “Attualmente, per esempio, se un cliente ha un problema perché una macchina genera un’immagine di tipo medicale che non è coerente con le proprie aspettative, non potendo condividere queste immagini di grandissime dimensioni per i vincoli d’accesso alla VPN aziendale, spesso si presenta la necessità d’intervenire in loco con un tecnico che va a controllare quale possa essere il problema – racconta Luigi Pignatelli, ICT manager della società. Se invece fossimo in grado di acquisire in casa l’immagine del cliente per analizzarla, ottimizzandone l’acquisizione in un ambiente intermedio (fuori dalla VPN aziendale), allora potremmo risparmiarci il costo e il tempo speso per il viaggio presso il cliente; e i tempi di risposta del servizio sarebbero quasi immediati, con benefici anche sul fronte della relazione”.
 

 

TORNA INDIETRO >>