che la colpa o il difetto devono aver
causato il danno. L’intensità della col-
pa, a sua volta, determina la pena e/o
altra modalità di compensazione del
danno causato.
Ora, il limite dell’applicazione dei prin-
cipi della causalità naturale a fenomeni
correlati a processi decisionali algorit-
mici di machine learning - e quindi il
relativo rischio di errore nella valuta-
zione della corrispondente responsa-
bilità - risiede, secondo chi scrive, nel
fatto che, in ipotesi, proprio perché
il soggetto che apprende non è un
essere umano, le decisioni che esso
adotta o gli atti che compie posso-
no diventare sempre più lontane da
qualsiasi logica implementata dall’es-
sere umano nel codice software della
macchina. Ovvero decisioni e atti che
possano essere determinate (si dice
che ‘emergano’) dallo stato interno
dinamico al processo di elaborazione,
costituitosi dall’interazione tra dati e
algoritmo.
Nello scenario descritto viene quin-
di a mancare, o quanto meno viene
molto attenuato, quel nesso diretto
tra codice software e comportamen-
to del sistema di elaborazione, che è
invece alla base dell’attribuzione della
responsabilità del produttore nell’at-
tuale scenario giuridico. Ciò in quan-
to la struttura legale di attribuzione
della responsabilità è stata creata in
un quadro di tracciabilità, come per
esempio nei casi di misurabilità e at-
tribuibilità, diretta dei difetti. Cioè le
decisioni e gli atti delle macchine do-
vrebbero poter essere ricondotti a uno
specifico difetto nella programmazione
ovvero all’esecuzione di un’operazio-
ne incorretta.
Un riferimento normativo utile alla
comprensione dell’estrema delicatezza
e rilevanza sociale, oltre che economi-
ca, delle questioni implicate dalle te-
matiche che trattiamo in questa sede,
può rinvenirsi, oltre che naturalmente
nelle disposizioni del Regolamento Ge-
nerale in materia di protezione dei dati
personali (GDPR), cui si è fatto cenno
nello scorso numero, anche nella, non
meno importante, direttiva 680 del 27
aprile 2016, in materia di protezione
delle persone fisiche con riguardo al
trattamento dei dati personali da par-
te delle autorità competenti a fini di
prevenzione, indagine, accertamento
e perseguimento di reati o esecuzione
di sanzioni penali.
In particolare, l’art. 11 della direttiva
richiamata indica come il processo de-
cisionale automatizzato relativo alle
persone fisiche, preveda che gli Stati
membri dispongano che una decisione
basata unicamente su un trattamento
automatizzato, compresa la profilazio-
ne, che produca effetti giuridici negativi
o incida significativamente sull’interes-
sato, sia vietata salvo che sia autorizzata
dal diritto dell’Unione o dello Stato
membro cui è soggetto il titolare del
trattamento. Inoltre deve prevedere
garanzie adeguate per i diritti e le liber-
tà dell’interessato, almeno il diritto di
ottenere l’intervento umano da parte
del titolare del trattamento.
Rischi determinati dai dati
Se i rischi determinati dalla causalità
di cui abbiamo sin qui trattato pos-
sono essere definiti rischi ‘esterni’, nel
senso di implicare considerazioni re-
lative all’applicazione di regole giuri-
diche esterne a quelle del sistema di
machine learning, quelli ‘determinati
dai dati’ - specialmente dai big data –
possono essere definiti rischi ‘interni’
al sistema stesso.
I big data pongono un problema in
cui si accavallano il modo con cui le
aziende capitalizzano il flusso di terab-
yte di dati generati in modalità ‘smart
streaming’ dai dispositivi ‘intelligenti’ e
la disponibilità di modelli e algoritmi
di machine learning di analisi preditti-
va che stanno trasformando il modo
in cui le aziende si riferiscono ai loro
clienti e che generano da sé questioni
controverse oltre a costituire fattori di
rischio per la privacy e la protezione
dei dati personali.
Si tenga presente che lo smart strea-
ming dei dati è già oggetto di atten-
zione dei Regolatori. Per esempio, la
Commissione Europea ha pubblicato
la propria ‘Strategy on Co-Operative
Intelligent Transport Systems’ o ‘CIT-
S’ per lo sviluppo di un’infrastruttura
intelligente di trasporto che permetta
agli autoveicoli di comunicare tra di
loro e con un sistema centralizzato di
gestione del traffico, nonché con altri
agenti del sistema di trasporto.
Il rischio potenziale di utilizzo impro-
prio di dati è chiaramente problema-
tico poiché l’infrastruttura è capace
di identificare ogni singolo veicolo in
tempo reale lungo il suo percorso,
conoscerne la destinazione, riportare
il comportamento del conducente e
ogni eventuale infrazione alle norme
di circolazione.
Ha contribuito
il Tenente Colonnello Francesco Marradi
NEL PROSSIMO NUMERO
Si inizieranno a esaminare le te-
matiche giuridiche correlate agli
impieghi diversificati delle tec-
nologie di blockchain, sia, come
nel caso delle criptovalute, per
l’attribuzione di valore, sia, come
per esempio nel caso di Ethe-
reum, per realizzare piattaforme
distribuite di gestione di rapporti
negoziali.
IL PARERE DEL LEGALE
95
gennaio-febbraio 2018
© iStock - artisteer