Regent 2B
Sicurezza
 

23/04/2013

Share    

La sicurezza è una passione... come la moto

Nella definizione di una strategia di sicurezza la qualità tecnologica è ancora una caratteristica fondamentale

La passione per la moto sviluppa una particolare sensibilità nei confronti della sicurezza, tenendo conto di tutte le sfaccettature che rientrano in questo tema. La moto è la passione di Gastone Nencini, Senior Technical Manager di Trend Micro Southern Europe, che quando può inforca la sua Harley Davidson e porta il figlio a imparare come si sta in modo responsabile sulla strada. “Il motociclista responsabile deve conoscere il mezzo a cui si sta affidando e assicurarsi che tutta la meccanica sia a posto. Il motociclista responsabile deve essere presente e concentrato sulla guida al 100%... Tutto questo però non basta, perché bisogna essere estremamente attenti anche ai comportamenti degli altri... In auto non ci si rende conto del potenziale distruttivo di una banale distrazione, andando in moto invece questa percezione viene moltiplicata per 1.000 e riguarda non solo il tuo comportamento, ma anche quello degli altri”. Per Gastone Nencini, quindi la cultura della sicurezza in generale, e quella relativa alla sicurezza informatica in particolare, deve essere un patrimonio del singolo individuo, dell’azienda in cui lavora e della società nel suo complesso.

 

Come è cambiata secondo lei la tematica della sicurezza informatica in questi 15 anni?
Non è tanto cambiata la problematica della sicurezza, ma il contesto in cui oggi sono inserite le aziende e i loro sistemi informativi. I fattori che hanno influito questi cambiamenti sono diversi, ma alla base c’è sempre l’evoluzione tecnologica delle infrastrutture su cui si basa il mondo ICT.
All’inizio la sicurezza informatica nasceva come risposta al rischio a cui andavano incontro le aziende di installare un virus semplicemente copiando dei file presenti su un floppy disk. L’uso che si faceva allora dell’informatica era molto limitato e confinato agli ambienti d’ufficio, solo qualcuno aveva il personal computer a casa per far giocare i figli. Lo scenario, lo sappiamo tutti, è profondamente cambiato, nel senso che l’evoluzione della tecnologia nel suo corso ha man mano abilitato le reti di pc in azienda, lo sviluppo di Internet, la comunicazione wireless, la virtualizzazione server, l’arrivo di nuovi device, la standardizzazione delle comunicazioni su reti IP, l’Internet delle cose...
Oggi abbiamo disponibilità di banda ovunque e riusciamo ad accedere a contenuti ovunque, e quindi uno dei problemi, evidenziato anche dalle statistiche, è la sempre maggiore mole di dati che vengono caricati sui diversi ambienti che oggi caratterizzano Internet, come i social network, e che vengono condivisi.

 

Può darci una dimensione di questo problema?
Il 98% dei dati oggi presenti in rete è stato caricato solo negli ultimi cinque anni. La gestione di questi dati sta imponendo un’evoluzione tecnologica che genera come effetto nuove problematiche di sicurezza.
Questa d’altronde è la storia di questo settore. Ogni novità tecnologica è stata sempre presentata come più sicura della precedente. Quando però queste novità hanno iniziato a diffondersi nel mercato, ogni tecnologia ha mostrato le sue debolezze sul fronte della sicurezza e, inevitabilmente, sono state violate.

 

Ci può fare un esempio di quanto sta dicendo?
Il Web 2.0 è stato pensato come un ambiente più sicuro rispetto al Web 1.0. Ma nel corso del suo sviluppo sono emerse tutta una serie di problematiche che non erano state prese in considerazione da chi l’aveva in qualche modo ideato. Questo proprio per il fatto che era difficile immaginare al suo inizio lo sviluppo impressionante che ha registrato il Web 2.0. La cosa si sta ripetendo con il cloud computing. La tecnologia è ottima, ma con la diffusione si è aperta tutta la problematica sulla privacy dei dati e su chi ha la responsabilità della tutela dei dati sensibili.
Anche per quanto riguarda il caso della mobility sta accadendo la stessa cosa. Il fenomeno dei dipendenti che arrivano in azienda e vogliono usare le loro applicazioni di lavoro sui device che utilizzano in privato (per gli esperti il fenomeno Byod, bring your own device, ndr), pone all’azienda il tema di come ci si deve garantire dai problemi di sicurezza che potenzialmente possono arrivare dall’interscambio dati tra questi dispositivi e i sistemi informativi aziendali.
Per venire quindi alla domanda iniziale, in questi anni ci sono stati molti cambiamenti legati all’evoluzione dell’infrastruttura IT in relazione alla sicurezza, ma in termini concreti, la problematica della sicurezza non è cambiata di molto: l’obiettivo di chi attacca è sempre quello di creare un danno tangibile al soggetto attaccato.
Certo si sono evoluti gli obiettivi e le tecniche, il virus dell’inizio tendeva a bloccare l’infrastruttura, ora l’attacco si insinua nel cuore di un sistema informativo per carpire dati sensibili. Il punto semmai è che è soprattutto cambiato il profilo degli attaccanti.

 

In che modo?

Oggi in rete girano molti soldi. Dietro gli attacchi recenti è molto più facile trovare la criminalità organizzata anzichè lo studente che vuole mettersi in gioco per dimostrare la sua bravura tecnica. Non mancano poi le notizie di cronaca che attribuiscono attacchi informatici ai servizi segreti di diverse nazionalità. Diciamo però che oggi chi compie degli atti da pirata informatico è la criminalità organizzata che trova più facile e meno rischioso carpire informazioni nei sistemi informativi di una determinata azienda che compiere una rapina a mano armata in banca.

 

Le aziende utenti hanno percepito e compreso in pieno le criticità dei cambiamenti descritti prima?
Per le aziende utenti la sicurezza è sempre un problema del vicino e il momento di comprensione reale arriva, purtroppo, immediatamente dopo aver subito un attacco. Solo a fronte della consapevolezza emersa a quanto è successo e ai danni subiti, le aziende provvedono a realizzare sistemi di sicurezza di prim’ordine, che però devono essere mantenuti su livelli di eccellenza nel tempo.
Questa è la regola, ma in caso di cambiamenti tecnologici molto radicali, nella mia esperienza ho assistito solo a qualche caso in cui una esigua minoranza di aziende utenti si è posta il problema di cosa cambiava sotto il profilo della sicurezza.

 

Quando è successo?
Quando sono partiti i primi progetti di virtualizzazione server. All’epoca, qualcuno, ripeto una esigua minoranza, si è posto il dilemma di chiedersi se il passaggio da un ambiente fisico a un ambiente virtuale comportasse delle nuove problematiche di sicurezza.
Aver affrontato il tema prima del progetto di virtualizzazione ha aiutato molto queste aziende e ha prodotto anche dei benefici economici perché ha reso più efficiente l’intero ambiente virtualizzato.
Questo è stato reso possibile perché Trend Micro, prima di ogni altra azienda, ha rilasciato una soluzione tecnologica destinata alla protezione degli ambienti virtuali a livello di hypervisor, ovvero l’elemento che controlla lo scambio di informazioni tra macchine virtuali, liberandosi così dalla necessità di installare soluzioni di protezione su ogni singola macchina virtuale.
Rispetto all’approccio tradizionale che invece molti hanno semplicemente replicato negli ambienti virtuali, il nostro libera le risorse fisiche alla base della virtualizzazione da diversi problemi. Come per esempio quello del time consuming del processore. Fare sicurezza con Trend Micro nei propri ambienti virtuali significa, per le realtà che hanno condiviso il nostro approccio tecnologico, aumentare la capacità di virtualizzazione di un sistema tra il 40% e il 60%, portando dei benefici non solo rispetto all’investimento iniziale in un ambiente virtuale, ma anche sul costo di possesso in termini di risparmio energetico, occupazione degli spazi...
Per supportare al meglio i nostri clienti su questo tema mettiamo in campo la forte collaborazione che ancora oggi abbiamo con VMware.

 

Se si guarda al passato della storia della sicurezza informatica, il grande pubblico è sempre stato in qualche modo portato a pensare di riflesso alla problematica perché periodicamente veniva data molta rilevanza agli attacchi su larga scala che portavano a infettare milioni di personal computer in tutto il mondo in tempi molto rapidi. Questi oggi non fanno più notizia e sembrano passati in secondo piano anche rispetto all’interesse degli attaccanti stessi. Perché?
Ho già accennato al fatto che è cambiato il profilo degli attaccanti, oggi principalmente legati alla criminalità organizzata. Questi si stanno muovendo sempre di più con una strategia di attacchi mirati molto sofisticati, lasciando in secondo piano gli attacchi su larga scala. Il pirata informatico ha capito che la sua azione è più efficace se non spara più nel mucchio, ma se cerca di focalizzarsi su un target meglio definito.
Questa evoluzione è in corso ormai da almeno quattro anni e il 2013 sarà l’anno in cui purtroppo molte realtà saranno soggette a una nuova generazione di attacchi mirati potenzialmente molto pericolosi: gli attacchi Apt, acronimo delle parole inglesi advanced persistent threats, che possiamo tradurre come minacce costanti evolute. Gli attacchi mirati tra l’altro ormai non si rivolgono solo alle aziende che possiamo considerare ‘normali’, ma possono entrare in campo per provocare danni a infrastrutture critiche, come centrali per le comunicazioni telefoniche o per la produzione di energia o un sistema di controllo del traffico aereo.


Per spiegare meglio il concetto di attacco mirato, ci illustri come funziona un attacco Apt.
Un attacco mirato è un processo che si sviluppa in diversi stadi e gli attacchi di tipo Apt rispondono a questa logica.
Gli attacchi Apt sono una tipologia di attacchi molto subdola, che le aziende conoscono ancora poco e perciò in molte credono di essere protette in modo adeguato grazie alle soluzioni di sicurezza che utilizzano da tempo, ma non è così. Se gli attacchi mirati sono un processo, anche la sicurezza, la protezione dei dati deve diventare un processo...
In pratica un attacco Apt parte con una fase di valutazione delle debolezze del soggetto attaccato, ovvero con una prima serie di attacchi di ‘test’ di tipo tradizionale che consente di svolgere un’analisi preventiva sui sistemi di sicurezza esistenti identificandone le vulnerabilità.
Passato questo primo stadio, per attaccare l’azienda identificata, l’organizzazione criminale inizia a studiare i singoli dipendenti di questa società sul lato dei loro interessi anche al di fuori del lavoro: sport, hobby, vacanze e quant’altro. Ormai molte di queste informazioni si possono trovare con estrema facilità sui vari social network.
Individuato uno o più soggetti, il secondo attacco si concretizza inviando messaggi di posta elettronica che cercano di solleticare la curiosità, e quindi un comportamento poco accorto, dei soggetti target.
Se la mail viene aperta, immediatamente e in modo nascosto sul client del dipendente poco accorto si installa un codice malevolo ‘dormiente’ che al momento non altera la situazione in essere. Questo codice analizza la ‘relazione’ tra il client dell’attaccato e il sistema informativo aziendale con l’obiettivo di individuare le informazioni critiche che vengono trattate da quel particolare utente. Una volta analizzate e compreso il valore delle informazioni critiche che possono essere violate, dal codice dormiente già installato sulla macchina dell’utente parte il terzo attacco, quello ai sistemi dove risiedono queste informazioni che vengono prelevate e inviate alla fonte dell’attacco.

 

Oggi i CIO di molte aziende stanno dicendo che il budget per le soluzioni di sicurezza si sta mangiando il budget IT... Come commenta questa affermazione? Cosa fate per evitare questo problema?
Con il nostro nuovo modello cloud based avendo inglobato il costo della licenza delle nostre soluzioni all’interno di un servizio proponiamo ai nostri clienti di passare da una spesa ‘Capex’ a una spesa ‘Opex’. Quindi la voce di costo relativa alla sicurezza diventa più flessibile perché è stato implementato il concetto del ‘pay per use’... ovvero si paga realmente solo quello che viene utilizzato.
Risultiamo quindi anche più collaborativi nei confronti delle aziende, in particolar modo con le piccole e medie imprese grazie anche all’aiuto ottenuto dai nostri partner di canale...

 

Il fatto che Trend Micro non sia un’azienda Usa, ma una giapponese che cosa la distingue dai suoi principali competitor?
Uno degli aspetti positivi, ricordato sempre anche da uno dei nostri fondatori è che così come la cultura giapponese è estremamente sensibile al rispetto degli altri, in Trend Micro c’è un grosso rispetto del cliente, del partner e del dipendente. Naturalmente anche le aziende americane hanno il rispetto del cliente tra i loro valori, ma questo viene coniugato in modo diverso. Anni fa è capitato un problema a un nostro cliente e in quella occasione, il nostro gruppo dirigenziale è andato davanti alla stampa giapponese per fare il famoso inchino tradizionale per scusarsi personalmente del problema causato. In una azienda non giapponese, probabilmente questa criticità sarebbe stata affrontata, mandando un comunicato stampa, allertando l’ufficio legale e quant’altro.
Invece, nella cultura giapponese, quando c’è qualcosa che non va, ci si mette la faccia.

 

TORNA INDIETRO >>