Relicense 2019

IT Infrastructure Day

Il Giorno delle Infrastrutture IT

Milano - 19 Marzo 2019

 

>> Elenco eventi 2019

Sponsor

Cips Informatica - Sangfor - Solarwinds COMMVAULT Eco4Cloud ETA Fujitsu INFINIDAT LANDE ITALY MOMIT - Zadara NetApp Piller Reichle & De-Massari Rittal Schneider Electric - Supernap Italia SIEL WESTCON

Expo

AlHof - Huber + Suhner Kingston Technology LEONI - NGS MTU - CTM Riello UPS Rosenberg OSI Tecnosteel

Contributo culturale di:

Bird and Bird Cineca DLTM MHPC Optimad Spring Start 4.0 Vega_Research_Laboratories
 

Per scaricare il PDF dell'agenda clicchi qui!


08.45 - Registrazione dei partecipanti

09.10 - Benvenuto e apertura dei lavori

11.00 - Coffee Break e visita all'area espositiva

13.30 - Buffet Lunch e visita all'area espositiva

15.50 - Coffee Break e visita all'area espositiva

17.30 - Chiusura dei lavori

Il convegno prevede momenti in sessione plenaria ai quali si alternano technology track

---------------------------------------------------- 

SESSIONE PLENARIA:

09.30 - 10.10 Dati e Datacenter: scenari futuri e loro implicazioni
Un futuro in cui proliferano servizi basati su Big Data e Internet of Things rappresenta grandi opportunità, ma anche importanti sfide per chi questi scenari dovrà gestirli. La necessità di elaborare dati in modo distribuito, in prossimità delle sorgenti (edge computing), ha implicazioni che spaziano dal piano organizzativo a quello energetico, senza dimenticare l'ormai pervasivo aspetto della sicurezza.
Pier Luca Montessoro, Professore ordinario di Sistemi di Elaborazione, Università degli Studi di Udine

12.30 - 13.30 Sicurezza Datacenter e Intelligenza Artificiale
Marcello Maggiora, Technologies and Digital Stretegies - Compagnia di San Paolo Sistema Torino
Loredana Mancini, Vice Presidente, OWASP/WIA
Fabrizio Rosina, CEO/CTO, 7Layers
Ludovico Orlando Russo, Responsabile Tecnico, Abbila

16.10 - 17.10 Integrazione dell'hardware con il mondo software
Marcello Maggiora, Technologies and Digital Stretegies - Compagnia di San Paolo Sistema Torino
Michela Meo, Professoressa di Telecomunicazioni, Politecnico di Torino

Claudio Castellano, Responsabile Infrastrutture Informatiche e Telematiche, Università degli Studi di Udine
Luca Cicchelli, Interconnection Manager, Top-ix

17.10 - 17.30 I Datacenter e il Real Estate
Il datacenter rappresenta il punto di incontro tra l'immobiliare e l'informatica, combinando quindi sia gli aspetti tipici dello sviluppo o dell'acquisizione dei beni immobili a quelli della sicurezza, sia fisica che logica a quelli dell'efficienza informatica e pertanto delle risorse energetiche più opportune al fine di garantire la continuità del servizio sotto ogni condizione.
Avv. Antonella Ceschi, Bird & Bird

---------------------------------------------------- 

TECHNOLOGY TRACK 1
DATACENTER: INFRASTRUTTURA, CONTINUITA' OPERATIVA, EFFICIENZA ENERGETICA E GESTIONE

10.20 - 10.40 La norma EN50600 come riferimento per gli spazi Datacenter: controllo ambientale e sistemi di sicurezza
Quando ci si accinge alla realizzazione o al rinnovamento di un datacenter è necessario avere un punto di riferimento oggettivo, che possa guidare le valutazioni e quindi le scelte delle soluzioni più adeguate. In Italia il CEI ha recepito la norma europea EN50600 che tratta in modo completo  “Servizi ed infrastrutture dei Datacenter”. Tale norma affronta tutti i diversi aspetti  da considerare nella progettazione dei Datacenter basandosi su tre indicatori di prestazione: disponibilità di servizio, sicurezza ed efficienza energetica. L’argomento è quindi molto vasto, pertanto ci concentreremo su due aspetti fondamentali: il controllo ambientale e la sicurezza.
Roberto Gigliotti, Product Manager e Marketing operativo LDCS, Legrand Datacenter Solutions

10.40 - 11.00 L’evoluzione delle infrastrutture tecnologiche nell'era dell'edge computing
Nel contesto evolutivo dei fenomeni che contraddistinguono l'IT transformation delle aziende, il Datacenter riveste un ruolo strategico perché deve garantire alta affidabilità, continuità ed efficienza assicurando anche un alto grado di flessibilità per affrontare le peculiarità dei trend tecnologici e le sfide dei mercati. Le nuove tecnologie emergenti, specialmente nel mondo del manufacturing, richiedono tempi di latenza e risposta ridotti e determinano la necessità di un calcolo distribuito anziché concentrato sul cloud. La capacità progettuale, le architetture e la standardizzazione dei sistemi e dei processi sono determinanti per garantire soluzioni performanti e scalabili in grado di far fronte alle nuove esigenze.
Alessio Casagrande, Product Manager & Solution Architect, Rittal

11.40 - 12.00 Dal cloud l'evoluzione del monitoraggio remoto: come cambia la gestione dell'IT
Con la rapidissima migrazione al cloud, sono naturalmente molte le domande che i clienti si pongono in merito alle risorse che ha senso spostare nel cloud e quando effettuare tale trasferimento. Per approdare a questa decisione, i clienti hanno bisogno di sapere quale sarà l'effetto di tale passaggio sull'infrastruttura esistente. Oltretutto, rispetto all'infrastruttura e al software on-premise, quali elementi sono ancora supportati e quali sono prossimi al termine? La maggior parte dei moderni Datacenter, tuttavia, non sfruttano l'analisi dei Big Data e l'apprendimento automatico conosciuto anche come “machine learning”. Queste sono parte di quei trend che rivoluzioneranno la modalità di gestione e manutenzione dei Datacenter. Analizzeremo i nuovi trend che stanno sviluppando una nuova visibilità sui Datacenter passando al concetto di SaaS di nuova generazione con i relativi vantaggi e l’evoluzione futura della gestione e della manutenzione dei Datacenter.
Schneider Electric darà spazio alla testimonianza diretta di SUPERNAP Italia nella gestione dei propri Data Center con un particolare focus sui sistemi di monitoraggio e di interfaccia, lato clienti cloud e utenti finali.
Roberto Esquinazi, Key Account Manager C&SP Finance & Commercial Segment, Schneider Electric e Massimo Mattioli, Critical Systems Manager, SUPERNAP Italia

12.00 - 12.20 Datacenter senza batterie
La presenza delle batterie in un data center risulta essere un aspetto molto critico, in termini di spazi occupati, di sicurezza d’esercizio, di affidabilità e di costi per la loro sostituzione periodica.
Ponemon Institute, centro di ricerca indipendente che conduce ricerche sulla sicurezza e protezione dei dati, ha rilevato che fino al 50% dei downtime di un data center è causato dalle batterie. Pertanto, una soluzione senza la loro presenza risolverebbe alla radice il problema. Inoltre, i nuovi motori diesel per i gruppi elettrogeni sono affidabili nell'avviamento quanto i moderni motori per le automobili e anche più gruppi in parallelo si avviano, si sincronizzano e sono pronti a prendere il pieno carico in meno di 9-12 secondi. Quindi, l’utilizzo di accumulatori cinetici al posto delle batterie in un data center, si traduce in notevoli vantaggi, in quanto occupano uno spazio notevolmente inferiore; non necessitano del condizionamento dei locali e la presenza di luoghi con pericolo di esplosione; garantiscono sempre l’autonomia richiesta; i minori costi operativi e la maggiore vita attesa (20 anni) consentono un notevole risparmio nel ciclo di vita dell'impianto (TCO). 
Lanfranco Pedrotti, Amministratore Delegato, Piller

14.30 - 14.50 Datacenter Modulari e Sistemi Iperconvergenti
Per qualunque azienda è fondamentale avere a disposizione infrastrutture che supportino in modo naturale le evoluzioni e i cambiamenti continuamente in atto all'interno di un data center, con una particolare attenzione alle attuali strutture iperconvergenti dei sistemi IT. Questo intervento di ETA, leader nel mercato delle infrastrutture dell’automazione e della quadristica, e nuovo player nel mercato strategico e tecnologico dei data center, approfondirà alcune soluzioni complete, modulari e scalabili che vanno incontro alle richieste architetturali di Server Room così come di Grandi Data Center, passando per le soluzioni Edge di ultima generazione, fino alla realizzazione di strutture innovative ponendosi come punto di riferimento per tutti i clienti.
Di fatto tutti i prodotti che compongono le nuove soluzioni EXARO di ETA si pongono in quest’ottica attraverso il proprio concept progettuale e la naturale disponibilità alla personalizzazione, restando fedeli alle proprie caratteristiche di industria di alto livello ed alla standardizzazione delle architetture.
Massimo Berti, Datacenter Business Unit Manager, ETA.

14.50 - 15.10 Progettazione, sviluppo e realizzazione di un quadro alimentazione (PDU) 48Vcc in doppia linea con 8 uscite monitorate e remotizzate
È sempre più diffusa, in installazioni TLC e DC, la necessità di alimentare apparati a 48 Vcc. Questo richiede spesso l’inserimenti di trasformatori che sottraggono spazio prezioso all'interno dei cabinet. Lande Italy ha progettato, sviluppato e prodotto un pannello di alimentazione a 48 Vcc che, oltre alla caratteristica di mantenere dimensioni ridotte, offre la possibilità di monitorare da remoto i consumi dei dispositivi ad esso collegati.
Marco Borghi, R&D Manager, Lande Italy

15.10 - 15.30 DCIM: come gestire efficacemente il Layer1 
I moderni data center necessitano di un piattaforma di gestione dell’infrastruttura capace di misurare, monitorare, mettere in relazione e capire cosa sta succedendo a dispositivi, applicazioni e processi. Queste attività si riassumono nell'acronimo DCIM "Datacenter Infrastructure Management". Ad oggi non esiste un unico software in grado di svolgere efficacemente il monitoraggio di tutte le funzionalità di un Data Center e normalmente i sistemi più evoluti integrano varie tipologie di applicativi prodotti da differenti fornitori.  Un adeguato controllo e monitoraggio dell’infrastruttura, oltre infatti ad impattare su tutti i 7 livelli della pila ISO/OSI, non può prescindere dal monitoraggio dei sistemi di cooling, powering e l'inventory. 
R&M si è concentrata sullo sviluppo di un software dedicato ai Layer1 e 2 che sia in armonia con le indicazioni degli standard internazionali e tenga conto delle esigenze operative di Add Move and Change.
Emanuele Colombo, Country Manager, Reichle & De-Massari

15.30 - 15.50 Flessibilità e adattabilità: soluzioni avanzate per la continuità elettrica
Le migliori architetture costruttive dei sistemi statici di continuità (UPS), a partire da una reale modularità, consentono estrema flessibilità e adattabilità alle specifiche necessità dell'utente IT, sia in fase di realizzazione di una nuova infrastruttura, sia nel caso di replacement in impianti esistenti, sia in fase di manutenzione tele-assistita. Tutto ciò garantendo la più alta affidabilità e disponibilità dell’alimentazione dei carichi critici.
Eugenio Mascagni, Applications Engineering Manager, Siel

---------------------------------------------------- 

TECHNOLOGY TRACK 2
SOFTWARE DEFINED IT: CLOUD, STORAGE E BACKUP, DATA MANAGEMENT

10.20 - 10.40 Governance e gestione dei dati in ambiente multi cloud: opportunità o preoccupazione?
La gestione e protezione dei dati affrontata in modo tradizionale difficilmente può essere applicata ad una realtà moderna e multi cloud. L’evoluzione del data center moderno e la proliferazione dei dati in diversi cloud hanno complicato la gestione delle informazioni e la loro protezione in modo olistico. Tipicamente si tende ad affrontare tale tematica segmentando i dati per applicazioni o per cloud provider o specifica infrastruttura ospitante, rendendo la gestione dei dati e delle informazioni complessa, macchinosa e spesso molto lenta.
Inoltre, tematiche legate alla ricerca rapida delle informazioni e la compliance (come ad esempio GDPR) sono dei prerequisiti di business da cui non si può prescindere.
Avere una visione a tutto tondo dei dati e informazioni, proteggere i dati personali e di business indipendentemente da dove questi risiedano, unito a soluzioni di Analytics, Machine Learning e Intelligenza artificiale, può trasformare questa sfida in un'opportunità di business importante, dando la possibilità alle aziende di sfruttare l'asset più strategico e fondamentale che possiedono: i dati.
Per chiunque stia già affrontando queste tematiche e per chi è preoccupato di perdere il controllo introducendo nuove tecnologie (come ad esempio il cloud), questo incontro servirà per chiarire alcuni dubbi e fornire una soluzione che possa non solo diminuire i rischi e i costi ma soprattutto migliorare il modo in cui fare business.

Edwin Passarella, Technical Service Manager, Commvault

10.40 - 11.00 Intelligenza Artificiale e Machine Learning per l’enterprise storage del futuro
Come gestire perfomance elevate con costante e non prevedibile crescita dei dati, rispettando i requisiti normativi di sicurezza sempre più rigorosi?
L’intervento analizzerà come INFINIDAT risponde a queste domande rivoluzionando il mondo della gestione e protezione del dato con un insieme di soluzioni innovative ed uniche sul mercato che eliminano ogni compromesso tra prestazioni, affidabilità, scalabilità e costi. Una tecnologia per tradurre al meglio l’efficienza operativa in vantaggio economico, favorendo lo sviluppo aziendale e rendendo possibile una vera trasformazione digitale.
Donato Ceccomancini, Country Sales Manager Italy, Infinidat

11.40 - 12.00 Contenere la crescita dei dati, limitare il fabbisogno di storage, ridurre drasticamente i costi e le risorse per il loro mantenimento
Tutte le aziende, a prescindere dalla loro dimensione e mercato di riferimento, sono sommerse dai dati, una crescita inesorabile che sta mettendo a dura prova i tradizionali sistemi storage e modalità operative per la memorizzazione, archiviazione e protezione. Perché acquistare dell’altro storage per memorizzare ulteriori dati statici da gestire e proteggere come se fossero dati attivi? Un approccio non sostenibile che porta solo ad un consistente spreco di risorse e denaro, uno scenario preoccupante per chi è alle prese con budget IT e risorse sempre più limitate.
Durante l’intervento saranno presentate tecnologie, soluzioni e metodologie innovative e nel contempo semplici da implementare, per una reale visione d’insieme per aiutare le imprese nel vincere queste sfide.
Raffaele Persico, Executive Vice President, QStar Technology

12.00 - 12.20 Case study - smart workload automation: come ridurre i costi di licenze sw automatizzando il placement delle VM

La gestione dei costi delle licenze software in un Datacenter virtualizzato può diventare un problema rilevante. Ignorarlo comporta sprechi di denaro, ma ottimizzare facendo micro-management di ogni VM è inefficiente. Una valida alternativa è ottimizzare i costi in maniera automatica tramite un posizionamento intelligente delle macchine virtuali.
Eco4Cloud lascerà la parola ad Irideos, che spiegherà come è riuscita a tagliare i costi dei Sistemi Operativi del 60% e diventare più efficiente.
Raffaele Giordanelli, CEO, Eco4Cloud Andrea Colangelo, Direttore dell'infrastruttura cloud e datacenter, Irideos


14.30 - 14.50 Enterprise-scale hybrid cloud infrastructure
Le aspettative IT in termini di flessibilità, scalabilità e servizi stanno crescendo velocemente. La necessità di usufruire dei servizi attraverso scelte di cloud pubblici e privati, la volontà di consolidare diversi carichi di lavoro senza impatto sulle prestazioni attraverso piattaforme automatizzate porta ad andare oltre le architetture classiche ed scegliere soluzioni di nuova generazione dove un'esperienza multicloud consente di muoversi più velocemente ed essere così più competitivi sul mercato. NetApp Hybrid Cloud Infrastructure è la soluzione che ti permette di raggiungere i tuoi nuovi obiettivi di business attraverso l’utilizzo efficace delle tue informazioni.
Roberto Patano, Sr Manager Solution Engineering, NetApp Italia

14.50 - 15.10 L'iperconvergenza software-defined alla guida di Virtualizzazione, Sicurezza, Virtual Networking
Gestire, eseguire il backup e ripristinare i dati in modo semplice ed efficace. Un obiettivo che è possibile raggiungere grazie a un approccio olistico che permette di occuparsi degli aspetti di  Virtualizzazione, Backup, Disaster Recovery, multiclustering integrato con vmWare, Stretched Cluster, Virtual networking e Virtual security attraverso un'unica console. Ecco che Sangfor propone al mercato soluzioni HCI  di Disaster Recovery  che forniscono una risposta scalabile e multitenant che copre tutti questi aspetti sfruttando la tecnologia KVM per l'iperconvergenza di terza generazione. Nel dettaglio, con Sangfor aCmp è possibile aggiungere servizi innovativi di DR As a Service e introdurre efficienza fronte costi affidandosi a un'unica piattaforma di management. Il tutto gestendo anche al meglio la banda tramite soluzioni di WanOptimization, e garantendo la sicurezza del dato e la disponibilità dei servizi, in secondi, con supporto 24/7.
Giuseppe Coppola, Country Manager Italy, Sangfor

15.10 - 15.30 Enterprise Storage-as-a-Service, Anywhere
Puoi avere la flessibilità del cloud senza perdere il controllo su prestazioni, affidabilità e sicurezza? Zadara offre una premiata soluzione Enterprise Storage as a Service (STaaS) disponibile nei principali cloud pubblici: AWS, GCP, Azure e On-Premises. Zadara Data Cloud utilizza una combinazione di hardware standard del settore e software VPSA (Virtual Private Storage Array) brevettati da Zadara per offrire velocità, sicurezza e scalabilità di livello enterprise. In questa sessione, il direttore di Zadara per l'Europa meridionale, Tal Rotem, spiegherà in che modo Zadara può aiutare le organizzazioni a gestire meglio i propri dati usufruendo dei vantaggi di entrambi i mondi: Cloud & On-Premises. Zadara consente alle aziende di eliminare i rischi, ottenere una migliore efficienza dei costi (pay per use), supportare qualsiasi tipo di dati e godere di un ambiente completamente gestito 24/7.
Tal Rotem, Regional Sales Director South Europe & Africa, Zadara

---------------------------------------------------- 

TECHNOLOGY TRACK 3
HIGH PERFORMANCE COMPUTING

10.20 - 10.40 L'HPC come Servizio a supporto delle aziende
L’utilizzo del calcolo parallelo ad alte prestazioni (HPC) è ormai diventato un'esigenza  sempre più sentita dalle aziende che vogliano stare al passo con le nuove tecnologie e che necessitano di analizzare grandi moli di dati e/o di realizzare complesse simulazioni,  avvicinarsi all'IoT e quindi alle tematiche della Fabbrica 4.0. Anche l’Europa ha percepito la notevole importanza, infatti  per il periodo tra il 2021 e 2027,ha pianificato di attuare importanti investimenti. L’intervento presenterà in breve lo stato attuale della tecnologia HPC e i servizi, offerti dal DLTM, per rispondere alla domanda di crescita delle aziende, in particolar modo le PMI, che generalmente non possono permettersi, sia in termini di know-how necessario che di Hardware e Software, gli investimenti che occorrono per l'acquisizione e la manutenzione di infrastrutture IT così complesse.
Davide Marini, Manager e responsabile  del centro di Supercalcolo HPC & Cloud Computing, Distretto Ligure delle Tecnologie Marine (DLTM)

10.40 - 11.00 Nuove architetture e nuovi servizi per l'elaborazione dati ad alte prestazioni
L’evoluzione del mondo HPC e dell’intelligenza artificiale hanno fatto sì che si verificasse una convergenza tra i due settori dove spesso le tecnologie utilizzate sono le stesse. La potenza di calcolo ad oggi disponibile per le elaborazioni è cresciuta enormemente e va di pari passo con le quantità di dati necessarie per simulazioni significative e/o per ‘allenare’ reti neurali a svolgere compiti di sempre maggiore complessità e di impatto economico. Fujitsu è da sempre impegnata a rispondere a queste sfide tecnologiche proponendosi nella realizzazione, dai componenti elementari fino alla realizzazione di sistemi completi e complessi, a supporto dei clienti. L’intervento verterà quindi sulle principali aree di sviluppo che Fujitsu sta perseguendo in ambito HPC, AI ed ottimizzazione combinatoria secondo principi di ispirazione Quantum Computing.
Roberto Cherubini, Senior IT Architect, Fujitsu Italy


11.40 - 12.00 
HPC Digital Twin, CINECA: la fabbrica della simulazione
Sistemi di calcolo più potenti comportano una complessità di funzionamento maggiore. CINECA ha creato un digital twin dei propri supercalcolatori in modo da monitorare, prevedere e ottimizzare il loro comportamento. Nell'intervento saranno esposte metodologie e tecnologie su cui è basato il digital twin di DAVIDE, il cluster CINECA dedicato all'AI.
Eric Pascolo, consulente HPC per l'industria, Cineca

12.00 - 12.20 Machine Learning as-a-service: Il ruolo delle infrastrutture nell'industria intelligente
La sfida dell’automazione intelligente, secondo il paradigma Industry 4.0, parte dai dati e passa necessariamente attraverso il Machine Learning, l’insieme di tecnologie che trasformano i dati in informazione e conoscenza operativa. In questo intervento si esaminerà un possibile scenario di deployment in un caso d’uso.
Stefano Rovetta, Co-fondatore, Vega Research Laboratories

14.30 - 14.50 Let's Master the High Performance Computing
I computer hanno rivoluzionato tanto la scienza quanto la nostra vita quotidiana. L'Apollo 11 è atterrato sulla Luna utilizzando meno potenza di elaborazione rispetto a quella che utilizzano i nostri smartphone. La potenza di calcolo per fare una ricerca su Google oggi è paragonabile a quella utilizzata per l'intero programma Apollo. Il programma di MHPC ti farà atterrare sulla Luna dell'HPC e dell'AI!
Luca Heltai, direttore del Master in High Performance Computing promosso da SISSA-ICTP di Trieste

14.50 - 15.10 Convergenza fra dati e simulazione numerica di alta fedeltà
La simulazione numerica per anticipare il comportamento del prodotto in fase di progettazione, per esempio da un punto di vista termo-fluido dinamico, è stata forse la maggiore forzante per l’innovazione nella industria manifatturiera negli ultimi due decenni.
Sarà discusso come si possano integrare dati raccolti di diversa natura per derivare dei modelli numerici personalizzati ad una particolare applicazione per incrementarne l’affidabilità.
Haysam Telib, CEO, Optimad

15.10 - 15.30 Port Lab 4.0: Digital Twin di un'infrastruttura strategica
Con lo svilupparsi del concetto di digitalizzazione e con l’espandersi del concetto di industry 4.0 al mondo dei processi e dei servizi anche il concetto di Digital Twin assume un contesto più ampio e trova sue applicazioni anche nei sistemi complessi come quelli portuali. Start 4.0 ha tra i suoi obbiettivi principali la creazione di una piattaforma digitale per realizzare il Digital Twin del Porto di Genova, con il contributo dell’Autorità di Sistema del Mar Ligure Occidentale e dell'Autorità di sistema del Mar Ligure Orientale. Il Digital Twin dovrà essere in grado di studiare, modellare e simulare la futura generazione dei porti digitali. Lo scopo finale è creare procedure, metodologie, infrastrutture digitali che facilitino gli utenti portuali e permettano di fare efficienza e permettano di raggiungere obbiettivi reali.
Roberto Marcialis, Responsabile esecutivo, Start 4.0

TAG: