Regent
Applicazioni - Sicurezza
 

13/02/2020

Share    

di Raffaela Citterio

L’apprendimento automatico applicato alla sicurezza

Uno studio di Gartner analizza i punti di forza e di debolezza dell’applicazione del machine learning e delle tecnologie di IA alla sicurezza, evidenziando anche i rischi legati a messaggi troppo roboanti.

ML

Una recente analisi di Gartner a firma Anna Belak e Augusto Barros evidenzia come le tecnologie basate sull’intelligenza artificiale, e in particolare sul machine learning (ML), stiano ormai prendendo piede nell’area della sicurezza delle informazioni. Analizzando questo trend, viene innanzitutto sottolineato come l’applicazione di tali tecnologie è realmente efficace solo quando gli obiettivi che si perseguono, i dati a disposizione e le metodologie applicate sono allineati. Secondo gli analisti Gartner, l’approccio migliore per i responsabili IT è quello di non perseguire IA e ML in quanto tali, ma di cercare la soluzione in grado di centrare gli obiettivi prefissati nel modo più efficace ed efficiente possibile.

Tecniche di ML applicabili agli ambienti di sicurezza odierni
Secondo gli analisti Gartner le tecnologie di ML possono rivelarsi effettivamente utili nelle applicazioni di sicurezza, ma si dovrebbe evitare questa scelta quando gli scenari possibili non presentino prospettive chiare di successo o quando non vi sia tempo sufficiente per valutarne l’efficacia. Ecco alcuni ambiti in cui possono fare la differenza.

•Apprendere le caratteristiche dell’ambiente da proteggere. Molti approcci di rilevamento delle minacce sono basati sull’identificazione di determinate anomalie nei comportamenti degli utenti e delle entità. Come esempi si possono citare le autenticazioni degli utenti da postazioni insolite o i server che improvvisamente mostrano i comportamenti tipici delle workstation degli utenti finali. In tutti questi casi esiste un’aspettativa su ciò che può essere considerato ‘normale’, ma spesso è molto complesso definire questa linea di discrimine con metodi manuali o statici. L’ML può svolgere questo compito e rendere più efficace il riconoscimento delle minacce basato sulle anomalie.

•Identificare le caratteristiche dei comportamenti ‘anomali’ noti. Quando sono disponibili molte istanze di comportamenti illeciti noti, i fornitori di tecnologie di sicurezza possono usarle per addestrare un modello di ML con cui identificare istanze simili. Questo approccio è ampiamente impiegato in prodotti che spesso utilizzano le firme per identificare i contenuti dannosi.

•Supportare i processi decisionali degli analisti della sicurezza, i quali interagiscono continuamente con i loro tool e prendono una serie di decisioni sui potenziali rischi o minacce. Queste decisioni possono essere usate per insegnare ai sistemi di ML a operare valutazioni simili. I tool Soar (security orchestration, automation and response) possono imparare, ad esempio, quali procedure di risposta è più probabile che vengano utilizzate per un determinato tipo di incidente. Questo approccio può aiutare le aziende a sfruttare meglio le capacità esistenti e ad aumentare la produttività. Alcuni casi d’uso associati alla sicurezza sono difficili da gestire con altre tecniche.

Punti di forza
Ecco i punti di forza dell’applicazione del ML e di altre tecnologie di IA alla sicurezza secondo Gartner.

•Gli approcci basati sull’apprendimento supervisionato sono molto efficaci contro i tipi di attacco noti, come il malware e il phishing. Se è disponibile un dataset affidabile e di grandi dimensioni con cui addestrare il modello, i metodi che sfruttano il ML possono eguagliare o superare l’efficacia dei tool tradizionali basati sulle firme.

•Gli approcci basati sull’apprendimento non supervisionato sono molto efficaci per il clustering e il rilevamento delle anomalie. Questi metodi possono imparare a riconoscere ciò che è ‘normale’, a raggruppare entità simili e a utilizzare sofisticati metodi statistici per isolare le attività anomale nell’ambiente. In questi casi il ML può rivelarsi particolarmente efficace, in quanto può essere configurato in modo specifico per il contesto in cui deve essere utilizzato.

•Le reti neurali profonde e l’apprendimento profondo appaiono promettenti per il rilevamento delle minacce sconosciute. Questi modelli possono offrire un buon potenziale per il rilevamento di attacchi nuovi e ancora sconosciuti, purché siano addestrati con i dati corretti.

•Il ML può imparare dagli analisti più esperti e diventare un aspetto della memoria istituzionale. Negli scenari di apprendimento per rinforzo, ad esempio, il modello impara dall’esperienza e può ripetere le misure adottate da un analista in risposta a un allarme qualora dovesse incontrare un allarme simile in futuro.

•Il ML può rendere più efficace il lavoro degli analisti meno esperti. Un modello di ML precedentemente addestrato può fungere da guida per gli analisti alle prime armi e raccomandare determinate azioni, indipendentemente dal tipo di algoritmo. In alcuni casi, gli analisti meno esperti muniti di potenti strumenti di ML possono essere molto più efficaci di analisti di lunga esperienza che operano con tool tradizionali.

•Il ML non richiede aggiornamenti frequenti e rapidi dei contenuti per rilevare tutte le nuove minacce. Vi sono alcuni esempi di modelli di ML che, pur non venendo aggiornati da qualche tempo, mantengono la capacità di rilevare efficacemente le minacce anche a distanza di mesi dall’ultimo aggiornamento. Poiché i tool di ML osservano vari set di caratteristiche, anziché firme esplicite, sono in grado di estrapolare e identificare attacchi simili a quelli già subiti.

Punti di debolezza
Secondo Gartner però non bisogna sottovalutare i punti di debolezza. Eccone alcuni.

•La maggior parte dei tool di ML è del tipo ‘a scatola nera’. Benché in genere l’utente finale non conosca nei dettagli il funzionamento interno di tali tool, quelli basati su firme e regole hanno un comportamento facilmente prevedibile e spiegabile. Questo non vale necessariamente per gli strumenti di IA e ML: la crescente potenza e complessità degli algoritmi li rende intrinsecamente meno trasparenti e spiegabili.

•Il ML può rendere difficili le procedure di verifica. La minore trasparenza della logica decisionale dei tool di ML può creare problemi ai revisori. Il GDPR, ad esempio, conferisce ai cittadini il diritto di comprendere le decisioni basate su algoritmi. Supponiamo di ricevere un rifiuto a una domanda di mutuo o a una richiesta di finanziamento per l’acquisto di un’auto: se tale decisione viene assunta con l’ausilio di un modello di ML a ‘scatola nera’, l’ente erogatore potrebbe incontrare difficoltà o non riuscire a spiegare le ragioni del rifiuto. Un tipo di IA spiegabile può essere utile per gestire questo tipo di situazioni, ma finora poche soluzioni offrono questa capacità.

•Le segnalazioni del ML possono essere difficili da valutare. I modelli di ML sono di natura probabilistica. Ciò significa che non producono risultati di valore assoluto. Molti tool producono risultati interni del tipo ‘la probabilità che questo evento sia dannoso è del 95%’ e possono restituire un’indicazione del tipo ‘Punteggio di rischio: 73’. La scelta su cosa fare con queste informazioni non è sempre evidente, e l’efficienza del tool può richiedere una curva di apprendimento piuttosto ripida. Inoltre, la ‘scatola nera’ responsabile delle decisioni interne dell’ML può offuscare informazioni che un analista della sicurezza esperto avrebbe normalmente a disposizione. Gli analisti incaricati di prioritizzare e confermare gli allarmi prodotti dal ML hanno bisogno di un ampio insieme di dati contestuali, che non sempre hanno a  disposizione.

•Il ML può generare alte percentuali di falsi positivi. A differenza di regole e firme, che vengono preparate con attenzione e prevedono applicazioni molto specifiche, il ML stima la probabilità che un dato file o comportamento sia benigno o meno. La natura probabilistica di questo approccio, unita alla qualità e alla quantità dei dati considerati, può spesso generare una grande quantità di falsi allarmi.

•È possibile che non sia disponibile una quantità sufficiente di dati appropriati sulla sicurezza. Che il modello di ML in uso sia supervisionato o meno, esso si baserà essenzialmente sia sul dataset usato per il suo addestramento, sia sul set di dati che cerca di analizzare e/o classificare. Ciò significa che l’efficacia del modello dipenderà essenzialmente dalla qualità del dataset di partenza.

Conclusioni
Secondo Gartner, quindi, nel momento in cui si affronta il tema della security in azienda è più opportuno scegliere i tool da utilizzare sulla base di POC mirati anche di lunga durata, senza basarsi esclusivamente sui messaggi che arrivano dal mondo dell’offerta.

 

TORNA INDIETRO >>