luglio-agosto 2011
7
IBM
ha pronti i primi i chip per il cognitive computing
Possono emulare le capacità del cervello umano e interpretare in tempo reale dati che arrivano a una velocità vertiginosa
I ricercatori IBM hanno presentato una nuova generazione di chip sperimentali, progettati per emulare le capacità di percezione, azione e
cognizione del cervello umano. La tecnologia potrebbe produrre un consumo di potenza e avere dimensioni di molti ordini di grandezza
inferiori a quelli dei computer odierni. Allontanandosi nettamente dai concetti tradizionali di progettazione e costruzione dei computer, i primi
chip di calcolo neurosinaptico ricreano i fenomeni tra i neuroni basati su potenziali d’azione (spiking neurons) e le sinapsi nei sistemi bio-
logici, come il cervello, attraverso algoritmi e circuiti di silicio avanzati. I primi due prototipi di chip sono già stati costruiti e sono attualmente
in fase di test. Chiamati computer cognitivi, i sistemi costruiti con questi chip non saranno programmati come i tradizionali computer di
oggi ma saranno in grado di apprendere dall’esperienza, trovare correlazioni, creare ipotesi e ricordare e imparare dagli esiti, imitando la
plasticità strutturale e sinaptica del cervello. Per farlo, IBM associa i principi derivanti dalla nanoscienza, dalla neuroscienza e dal super-
computing nell’ambito di una serie di progetti avviati da anni e definiti con l’espressione cognitive computing. Perché il cognitive compu-
ting? I chip del futuro potranno “ingerire” le informazioni da ambienti complessi del mondo reale, attraverso diverse modalità sensoriali, e
agire attraverso diverse modalità motorie in modo coordinato e dipendente dal contesto. Ad esempio, un sistema di cognitive computing
che monitora l’approvvigionamento idrico mondiale potrebbe contenere una rete di sensori e attuatori che registrano e riferiscono dati quali
temperatura, pressione, altezza d'onda, acustica e marea oceanica, ed emettono allarmi tsunami sulla base del suo processo decisionale.
Allo stesso modo, un negoziante che rifornisce gli scaffali potrebbe utilizzare un guanto tecnologico che monitora l’aspetto, l’odore, la con-
sistenza e la temperatura, per individuare i prodotti guasti o contaminati. Interpretare i dati in tempo reale che arrivano a una velocità ver-
tiginosa sarebbe un'impresa immane per i computer odierni, mentre risulterebbe naturale per un sistema ispirato al cervello umano. Per
avere un’idea della cosa si può pensare a un semaforo in grado di integrare stimoli visivi, suoni e odori per segnalare un incrocio perico-
loso prima che si verifichi un incidente o coprocessori cognitivi che trasformano server, laptop, tablet e telefoni in macchine in grado di in-
teragire meglio con l’ambiente.
Stonesoft:
il panorama della sicurezza è cambiato
Il Top Management è chiamato a partecipare al processo decisionale, rivedendo il profilo di rischio dell’organizzazione in funzione del nuovo scenario
A partire dalla fine del 2010 si è cominciato ad assistere a un cambiamento radicale del panorama della sicurezza informatica. Solo
negli ultimi mesi, una serie di gravi attacchi ha colpito sistemi e reti, che finora si pensava fossero inattaccabili, con conseguenze de-
vastanti in termini economici, di immagine e brand reputation. “Sono quattro gli eventi principali che hanno segnato lo spostamento
degli assiomi relativi alla sicurezza e indicato la necessità di riflettere strategicamente sul tema” afferma Emilio Turani (
nella foto
), Coun-
try Manager Italia di Stonesoft. “Il primo è Wikileaks, che ha portato molte organizzazioni a riflettere sull’opportunità di mantenere ri-
servate informazioni o pratiche di business che in caso di divulgazione al pubblico potrebbero causare danni anche gravissimi. Stuxnet
invece ha dimostrato che ci sono organizzazioni o singoli in possesso delle competenze e delle risorse necessarie per creare attacchi
mirati e sofisticati nei confronti di bersagli specifici. Il terzo evento è l’affacciarsi delle tecniche di evasione avanzata, una nuova specie
di tecniche di evasione che permettono ricombinazioni o alterazioni tali da renderle invisibili ai sistemi di sicurezza deputati
al riconoscimento delle intrusioni. Iinfine, abbiamo avuto il furto del codice sorgente del SecurID, le chiavi elettroniche
prodotte da RSA, divisione di sicurezza di EMC, largamente utilizzate allo scopo di eliminare il rischio di furto delle cre-
denziali informatiche mediante sistemi di key-logging, generando continuamente nuove password. Il denominatore
comune a quasi tutti le organizzazioni colpite da questa nuova generazione di minacce è il fatto di avere sistemi di
network security operativi al massimo livello a presidio della sicurezza e dell’integrità. Queste organizzazioni hanno
gruppi di persone specializzate e dedicate oltre a centri di controllo in grado di gestire i più svariati scenari di incidente
telematico. Nonostante questo sono state violate”. Con il moltiplicarsi e la diffusione su larga scala degli strumenti di hacking,
è naturale credere che il numero di attacchi di questo genere sia destinato a crescere ancora soprattutto verso quelle aziende che pos-
siedono un grande valore in termini di informazioni e dati sensibili. Questo nuovo scenario impone una riflessione da parte delle orga-
nizzazioni che sono chiamate a riconsiderare la loro architettura di risk management e di sicurezza. “I principi fino a questo momento
utilizzati per progettare la protezione degli asset digitali non sono più validi e devono essere rivalutati da parte del top management –
afferma Turani – che è invitato a partecipare al processo di definizione della strategia relativa alla sicurezza informatica offrendo la pos-
sibilità di prevedere strumenti di protezione dinamici, continuamente aggiornati e in costante miglioramento”.