Intelligenza Artificiale 2019
Applicazioni - Mobile/Wireless
 

03/07/2013

Share    

Non può esserci servizio senza qualità

Il tema della Quality of Service nell’era dell’azienda estesa, tra cloud e mobile, al centro della tavola rotonda con quattro operatori del settore

 

Lo scenario sistemi informativi in azienda negli ultimi anni è stato stravolto da una serie di cambiamenti che hanno impattato su utenti e fornitori di soluzioni e servizi. Aspetti come la migrazione verso servizi cloud e la sempre più alta diffusione di dispositivi mobili hanno costretto gli uni e gli altri a ridefinire rispettivamente le proprie modalità (e processi) operative e le dinamiche di offerta. Tutto questo ha posto nuove sfide fronte infrastruttura, applicazioni, policy e strategie di integrazione che coinvolgono i ‘vecchi’ sistemi legacy costruiti su piattaforme proprietarie così come quelli più recenti basati su standard, ma legati ancora a vecchie logiche di utilizzo e regole ormai superate. In sostanza, smartphone, tablet così come il paradigma ‘mobile’ e ‘portatile’ in generale hanno di fatto fornito nuove prospettive di impiego richiedendo nel contempo reti adeguate e applicazioni ben testate capaci di rispondere alle richieste degli utenti, senza mettere a rischio la sicurezza del business ma al contrario abilitandone ulteriori sviluppi e crescita. Nel contempo i servizi offerti attraverso la cloud e le varie declinazioni dell’universo XaaS rappresentano uno dei passi decisivi per una fruizione a 360 gradi di risorse un tempo in mano esclusiva di chi stava dietro il firewall aziendale. Sia che si tratti di architetture private che pubbliche.
Al centro di questo scenario dell'azienda estesa rimane però uno dei dettami principe per chi si occupa dei sistemi informativi in azienda, ossia la qualità del servizio che deve essere la più elevata possibile per poter finalmente dare una accelerata decisiva alle prestazioni delle imprese e non rimanere pericolosamente indietro. Nel corso della tavola rotonda Governare la qualità e le performance dei servizi ICT nell'era del cloud e della mobility abbiamo affrontato queste tematiche con quattro tra i principali vendor del settore.

 

Quali sono i trend tecnologici che oggi stanno influenzando maggiormente le prestazioni delle infrastrutture ICT e le problematiche che gli utenti devono di conseguenza affrontare?

 

Luigi Benocci, Customer Solution Architect, CA Technologies: Possiamo identificare due aspetti in particolare. Il primo è quello di una visione unificata tra applicazioni e servizi. Il secondo è il concetto di agilità, elemento più sfidante per i CIO. Questo perché la vecchia tradizione vedeva l’IT confrontarsi con i business owner interni dell’azienda mentre oggi il confronto è sempre più con l’utente finale, con la conseguenza per l'IT di diventare più proattivo che reattivo. Anche il ruolo dei CIO sta cambiando: non è più il guardiano dell’infrastruttura informatica, che ne misura le performance, ma diventa a tutti gli effetti un broker di servizi. Un altro elemento sfidante proviene dalle continue richieste di cambiamento, non solo legate alle normali attività di routine, e che derivano per la maggior parte da problemi applicativi. Il più delle volte perché manca il tempo per effettuare i test applicativi prima di rilasciare le applicazioni. Un cliente, di recente, ha ammesso che quando rilascia applicazioni di tipo ‘mobile’ può testarle su una sola tipologia di dispositivo e sperare che su altre piattaforme non ci siano problemi (“...incrociamo le dita”). Diventa sempre più importante collegare Sviluppo e Operations creando un‘area comune dove ogni ambito diventa funzionale e utile all’altro (DEVOPS), arrivando a una qualità del software capace di rispondere ai concetti di agilità. E’ questo il trend che si riscontra maggiormente partendo da modelli operativi che portano a uno scambio di informazioni, primo passo per arrivare poi effettivamente a una vera e propria strategia ‘agile’.

 

Guido Schiaffino, IT Architect, IBM Software Group: I trend che osserviamo sono in primo luogo legati alla grande quantità di dati generata da fenomeni come quello dei social network. Essi possono mettere a disposizione del business una serie di informazioni utilizzabili per generare cambiamenti profondi nella modalità di erogazione dei servizi, a patto però di poterli analizzare. Inoltre c’è la possibilità di far leva su nuove infrastrutture per proporre servizi applicativi molto più flessibili rispetto al passato, basati sul cloud computing. Queste nuove strutture devono infine tener conto del cosiddetto pervasive computing, per cui i servizi applicativi non sono più erogati in house, ma sempre di più sono acceduti dappertutto e usando i dispositivi più disparati. Si tratta di tre trasformazioni principali che poi, a cascata, ne producono altre più importanti. In questo scenario si nota come sempre di più l’IT non sia più qualcosa solo a supporto del business ma diventi il driver effettivo dei cambiamenti.

 

Giuseppe Gigante, Regional Marketing Manager - IGIT & Middle East, Micro Focus: Il mobile e il cloud sono i due trend in questo momento più esigenti e ricchi di aspettative. Parliamo sicuramente del fenomeno dei dati che però sono generati, gestibili e accessibili attraverso applicazioni che nascono da richieste interne e il cui obiettivo è quello di supportare il business. Avere applicazioni mobile ready significa però che queste diventano un servizio richiedendo allo stesso tempo una rivisitazione del parco applicativo, con la necessità di sapere che cosa si utilizza o meno, cosa è pronto per essere usato in modalità mobile e che cosa no. Con l’obiettivo di riuscire a capire che cosa è possibile rendere fruibile attraverso tale canale e con quali evoluzioni tecnologiche rispondere alle rispettive esigenze. Un altro aspetto critico riguarda il cambiamento generazionale indotto dal mobile. Un dispositivo di questo tipo impone infatti un aggiornamento ogni due mesi circa, mediamente un team di sviluppo interno o in outsourcing necessita invece di cinque mesi per realizzare una app mobile personalizzata e ritagliata sulle esigenze dell’azienda. Questo introduce la problematica del tempo necessario a sviluppare le app che realmente vengono usate dai dispositivi. Trattandosi di un ciclo disgiunto è quindi importante sapere come sono fatte le app, come e quanto è possibile modificarle e, nello stresso tempo, avere una metodologia di sviluppo che sia agile per rispondere agli umori delle diverse comunità di utenti.


Albert Zammar, Regional Sales Manager, Riverbed: Uno dei trend principali a cui assistiamo è la trasformazione dell’IT, che diventa una componente sempre più importante a supporto delle business line e che deve poter garantire architetture in grado di far fronte alla continua evoluzione delle esigenze degli utenti e del mercato di riferimento. Oggi alle stesse architetture si richiede di avere requisiti che prima erano esclusivi, quali flessibilità, elevate prestazioni, sicurezza, ma anche sempre più semplicità e gestibilità. L'IT deve essere dunque orientato verso un'ottica di semplificazione, per permettere di accedere in modo semplice alle nuove declinazioni del cloud (che sia pubblico, privato, ibrido), andando incontro alle nuove tendenze come il BYOD e la mobility. Un altro concetto fondamentale è il poter controllare la mole di dati che si sta riversando sulle infrastrutture aziendali. In questo senso, attraverso una piattaforma di analisi e monitoraggio del traffico di rete, così come delle performance applicative, l’IT manager può avere la garanzia degli SLA per utenti interni e clienti. Relativamente al cambiamento delle infrastrutture, assistiamo alla necessità di una maggiore semplificazione anche negli uffici remoti, con la necessità di accedere a servizi centralizzati o esterni, ad esempio ad una cloud pubblica, semplice e meno costosa in termini di ROI e time to market; ma si vanno sempre più diffondendo architetture ibride, ove alcuni servizi vengono erogati in intranet (cloud private) ed altri servizi vengono fruiti attraverso soluzioni di cloud pubbliche. Per questo motivo è fondamentale che l’azienda garantisca che le performance siano le stesse sia che si acceda a risorse presenti in ufficio, sul data center aziendale o acquisite all’esterno.

 

Come oggi gli strumenti tecnologici, che siano hardware e software, possono intervenire a supporto di applicazioni, reti e sistemi in generale e quali sono le strategie che vanno messe in campo per non avere imprevisti?

 

Benocci, CA Technologies: Esistono due approcci per poter tenere sotto controllo un ambiente enterprise. Il primo è quello di potersi dotare di strumenti di misurazione della customer experience. Oltre agli specifici tool di monitoraggio presenti in una architettura enterprise è importante conoscere e misurare il punto di vista dell’utente finale e avere sotto controllo il business aziendale. Un esempio: dopo aver aiutato un cliente a mettere in piedi un sistema di controllo di tutta la sua infrastruttura IT con la misurazione delle prestazioni della rete, di sistemi e applicativi, il CIO ci ha detto: “Adesso che so che il mio server lavora al 100%, come faccio a sapere se i miei servizi di business sono performanti?”. Il passo successivo è quindi creare una misurazione delle performance a livello di servizio/applicativo per cui ci sia una visibilità in termini di business operativo, capire ad esempio come l’utente percepisce un servizio o se sta portando business all’azienda.
Il secondo approccio è quello di avere una visione end-to-end. Questo in una filiera applicativa dove intervengono elementi sempre più complessi, con interazioni con il mondo esterno (servizi cloud) e applicazioni integrate e correlate tra loro. Potendo sezionare l’applicazione per identificare dove si trova il problema si abbassano i tempi medi di riparazione e l’impegno degli sviluppatori.

 

Schiaffino, IBM: Parliamo di un modello di riferimento, detto ‘smart computing’, che vede l’IT diventare il veicolo attraverso il quale vengono messe a disposizione una serie di tecnologie abilitanti che vanno a intervenire sui trend citati nella prima risposta. Si parla quindi di analisi dei dati non strutturati, e spesso non storicizzati, che producono indicazioni su come i servizi applicativi esistenti dovrebbero essere modificati e quali invece sviluppati ex novo. Dopodiché entra in gioco il cloud computing per erogarli nel modo più flessibile possibile e con la possibilità di cambiare in continuazione in base alle esigenze. Continuando è necessario pensare sempre più in termini di workflow ottimizzati.
Importante però, quando si parla di cloud, è distinguerlo dalla pura e semplice virtualizzazione. Perché se non si applicano anche strategie di governance diventa un’aggiunta incontrollata, mentre deve al contrario prevedere una precisa architettura di riferimento completa di servizi a contorno per avere una visione effettiva di tutto l’ambiente. Tuttavia non bastano le tecnologie ma ci vogliono anche le conoscenze, e delle vere e proprie metodologie ad esempio per analizzare i dati e ottenere determinati risultati. In tal senso gli utenti hanno a disposizione soluzioni specifiche che vanno a veicolare anche il know how necessario per usarle al meglio. C’è poi l’aspetto della ottimizzazione dei workflow, con sistemi che offrono con un’unica soluzione capacità di calcolo, networking e storage e di ottimizzazione di tutto lo stack hardware e software per determinati pattern applicativi. Il monitoraggio classico può poi essere coniugato con le analisi dei dati per fornire soluzioni che consentono di essere proattive e non vadano a identificare un problema solo quando questo si è già effettivamente verificato. Infine, con ambienti cloud e virtualizzati, esiste una modifica costante del livello di servizio, legata anche all’uso su vari dispositivi. La dinamicità è tale che ci si può affidare a strumenti specifici per produrre la reportistica utile a sapere come vengono impiegati i servizi dai propri utenti.

 

Gigante, Micro Focus: Va premesso che bisogna prevenire prima di trovarsi nella situazione di dover curare. Le applicazioni devono infatti trasformarsi in servizi ed essere accessibili a prescindere. In tal senso è possibile eseguire una valutazione del parco applicativo per capire quanto sia effettivamente utilizzato e abbia senso mantenerlo e, nello stesso tempo, raccogliere i requisiti suggeriti dal business driver. Quest'ultimo infatti spesso richiede una ‘bottiglia’ ma alla fine del ciclo di sviluppo si ritrova con un ‘bicchiere’. I requisiti devono essere quindi monitorabili durante tutto il ciclo di sviluppo delle applicazioni per avvicinarsi il più possibile al risultato ottimale. Il tutto può essere fatto con strumenti di Application Lifecycle Management.
Prevenire vuol dire sviluppare, se e che cosa. Poi però bisogna verificare se l’applicazione soddisfa l’utente da due punti di vista: fa quello che ci si aspetta e lo fa in tempi sostenibili. Un secondo di ritardo di risposta dell’app rispetto a quello che si attende l’utente riduce infatti il numero di pagine visitate, mentre la customer satisfaction viene anch'essa intaccata così come il tasso di conversione da visita ad acquisto. Il rischio quindi è quello di perdere del business. Per intervenire si possono usare soluzioni che permettono di affittare utenti virtuali e testare direttamente la app, e di verificare le performance del sito. Un altro aspetto è poi quello degli ambienti multipiattaforma e in tal senso l'obiettivo è valorizzare e far evolvere quello che già si ha in casa, a partire dal mainframe che è un punto di riferimento per le aziende enterprise.

 

Zammar, Riverbed: È in continuo aumento l’attenzione al monitoraggio applicativo e del traffico di rete, abbinato a strumenti per eseguire operazioni di troubleshooting in modo semplice e veloce, ed evitare di investire tempo nella raccolta e analisi dei pacchetti. Tutto questo attraverso particolari interfacce grafiche in grado di evidenziare immediatamente il problema, scendere nel dettaglio e intervenire in modo appropriato. Un altro elemento interessante è la cosiddetta predictability, quindi strumenti in grado di consentire all’IT manager di capire cosa succede se vengono applicate delle modifiche architetturali e anticipare eventuali problemi. Un altro tema è poi quello ALM con piattaforme in grado di capire come lavorano gli applicativi, quali sono quelli maggiormente utilizzati e critici e quali sono le aree su cui si deve intervenire. C'è poi la possibilità di semplificare sempre di più l’infrastruttura e migliorare la qualità dei servizi erogati e la sicurezza. In tal senso è possibile implementare soluzioni innovative che consentono di accedere a una SAN centralizzata eliminando lo storage nelle sedi periferiche. In questo modo è più semplice non solo gestire ma anche rendere più sicura una infrastruttura ed eseguire un ripristino in tempi brevi. A corredo si può poi adottare una tecnologia che permetta all’utente remoto di continuare a lavorare anche in caso di disconnessione dalla rete. Infine sono disponibili soluzioni per bilanciare in modo adeguato il carico degli application server e definire classi di priorità per gli utenti, privilegiando le transazioni più importanti nell’ambito del business aziendale.

 

Quali sono le azioni che il mercato intraprende oggi per spiegare e veicolare al meglio la proposta legata alla qualità del servizio e al performance management?

 

Benocci, CA Technologies: Sul mercato italiano notiamo come sia il fornitore a spiegare, caso per caso, che ciò che mette a disposizione per i dipartimenti IT serve a raccogliere una serie di informazioni/metriche utilizzabili in un modello di business; utile a sapere, ad esempio, quante polizze assicurative si stanno stipulando o meno. Su altri mercati non italiani è invece più presente il concetto di prevenzione e proattività, con una logica che sposa Sviluppo e Operations anticipando i concetti relativi alla qualità. In questo contesto vengono veicolate soluzioni per aiutare ad anticipare gli eventi in diversi ambiti (dalla virtualizzazione alla gestione del ciclo di vita delle applicazioni) e a ridurre i tempi di sviluppo (Agility). Tutto questo in uno scenario in cui dal punto di vista della individuazione e risoluzione dei problemi è necessaria una visione diversa del ruolo del CIO, tenendo presente che esistono sì soluzioni ormai consolidate ma che non bastano più.

Schiaffino, IBM: Ci troviamo in uno scenario dove esistono una serie di tecnologie abilitanti che permettono sì di ottenere enormi vantaggi ma che, nel contempo, non sono oggetti facili da maneggiare in quanto, come detto, necessitano del know how per saperle usare nel modo più opportuno. Per evitare che emergano dei fattori di inibizione fronte clienti la complessità va quindi nascosta ed è per questo che è necessario proporre soluzioni pacchettizzate ben precise e utilizzabili nel modo più semplice possibile. Queste soluzioni magari useranno una piattaforma sottostante comune che garantisce la flessibilità per espansioni future, ma nel contempo devono risolvere una esigenza ben specifica mostrando al cliente in modo ben visibile il ROI che ne deriva. La richiesta è di soluzioni di immediato utilizzo mentre l’evangelizzazione su questi temi la stanno comunque facendo gli operatori. Da questo punto di vista noi fornitori tecnologici dobbiamo abbandonare l’idea che esiste una tecnologia in grado di fare tutto quanto perché questo, come detto, spaventa l’utente che desidera invece una soluzione.

 

Gigante, Micro Focus: Istintivamente noi vendor siamo portati a parlare con termini tecnici però dobbiamo evitare che si creino problemi di comunicazione internamente all’azienda utente. Quindi dobbiamo assumerci la responsabilità di trovare un vocabolario adeguato per parlare di soluzioni calate in un contesto specifico. E' così che si abbattono le barriere. Il nostro percorso è quello di rendere comprensibile la tecnologia, quindi parlare di testing-as-a-service, fare verifiche all’interno dell’azienda per poi decidere insieme e disegnare il relativo processo. Quello che il mercato ci richiede è rispondere alle esigenze identificandole, snellire il processo di evoluzione e sviluppo dell’applicazione, contenere i costi. Al CIO, che va sempre più a braccetto con l’ufficio acquisti, interessa anche quest’ultimo punto. Dal punto di vista dello sviluppo bisogna invece distinguere il mercato enterprise che spesso ha all’interno la forza sviluppo e chi invece deve rivolgersi a operatori esterni. Nel primo caso il vendor è chiamato a sedersi al tavolo con l’azienda e cercare di trovare e verificare quale sia il percorso da compiere insieme. Sul mercato medio, dove ci sono i presupposti, si lavora invece di più con il canale indiretto che può a sua volta utilizzare strumenti ad hoc per andare incontro alle esigenze dei clienti.

 

Zammar, Riverbed: Garantire la qualità è la condizione necessaria per essere sul mercato, che già propone molte piattaforme, con il cliente stesso che premia chi gli consente di accedere alle proprie risorse in modo immediato e sicuro e nel rispetto dei livelli di servizio stabiliti. Questo richiede però una misurabilità certa, con i singoli fornitori che devono essere in grado di garantire standard elevati. Le aziende si stanno dunque strutturando per garantire il rispetto dei livelli prestazionali richiesti, dimostrando direttamente quali livelli di servizio sono in grado di erogare. Sono gli operatori del settore che si attivano invece per andare a spiegare ai clienti queste tematiche ed evidenziare come le soluzioni siano in grado di far raggiungere determinate performance. Di fatto, da un lato è l’utente che sceglie a chi rivolgersi, tuttavia, ci si accorge che la qualità del servizio è necessaria solo nel momento in cui ci si scontra con un problema.

 

 

TORNA INDIETRO >>