Previous Page  97 / 100 Next Page
Information
Show Menu
Previous Page 97 / 100 Next Page
Page Background

che la colpa o il difetto devono aver

causato il danno. L’intensità della col-

pa, a sua volta, determina la pena e/o

altra modalità di compensazione del

danno causato.

Ora, il limite dell’applicazione dei prin-

cipi della causalità naturale a fenomeni

correlati a processi decisionali algorit-

mici di machine learning - e quindi il

relativo rischio di errore nella valuta-

zione della corrispondente responsa-

bilità - risiede, secondo chi scrive, nel

fatto che, in ipotesi, proprio perché

il soggetto che apprende non è un

essere umano, le decisioni che esso

adotta o gli atti che compie posso-

no diventare sempre più lontane da

qualsiasi logica implementata dall’es-

sere umano nel codice software della

macchina. Ovvero decisioni e atti che

possano essere determinate (si dice

che ‘emergano’) dallo stato interno

dinamico al processo di elaborazione,

costituitosi dall’interazione tra dati e

algoritmo.

Nello scenario descritto viene quin-

di a mancare, o quanto meno viene

molto attenuato, quel nesso diretto

tra codice software e comportamen-

to del sistema di elaborazione, che è

invece alla base dell’attribuzione della

responsabilità del produttore nell’at-

tuale scenario giuridico. Ciò in quan-

to la struttura legale di attribuzione

della responsabilità è stata creata in

un quadro di tracciabilità, come per

esempio nei casi di misurabilità e at-

tribuibilità, diretta dei difetti. Cioè le

decisioni e gli atti delle macchine do-

vrebbero poter essere ricondotti a uno

specifico difetto nella programmazione

ovvero all’esecuzione di un’operazio-

ne incorretta.

Un riferimento normativo utile alla

comprensione dell’estrema delicatezza

e rilevanza sociale, oltre che economi-

ca, delle questioni implicate dalle te-

matiche che trattiamo in questa sede,

può rinvenirsi, oltre che naturalmente

nelle disposizioni del Regolamento Ge-

nerale in materia di protezione dei dati

personali (GDPR), cui si è fatto cenno

nello scorso numero, anche nella, non

meno importante, direttiva 680 del 27

aprile 2016, in materia di protezione

delle persone fisiche con riguardo al

trattamento dei dati personali da par-

te delle autorità competenti a fini di

prevenzione, indagine, accertamento

e perseguimento di reati o esecuzione

di sanzioni penali.

In particolare, l’art. 11 della direttiva

richiamata indica come il processo de-

cisionale automatizzato relativo alle

persone fisiche, preveda che gli Stati

membri dispongano che una decisione

basata unicamente su un trattamento

automatizzato, compresa la profilazio-

ne, che produca effetti giuridici negativi

o incida significativamente sull’interes-

sato, sia vietata salvo che sia autorizzata

dal diritto dell’Unione o dello Stato

membro cui è soggetto il titolare del

trattamento. Inoltre deve prevedere

garanzie adeguate per i diritti e le liber-

tà dell’interessato, almeno il diritto di

ottenere l’intervento umano da parte

del titolare del trattamento.

Rischi determinati dai dati

Se i rischi determinati dalla causalità

di cui abbiamo sin qui trattato pos-

sono essere definiti rischi ‘esterni’, nel

senso di implicare considerazioni re-

lative all’applicazione di regole giuri-

diche esterne a quelle del sistema di

machine learning, quelli ‘determinati

dai dati’ - specialmente dai big data –

possono essere definiti rischi ‘interni’

al sistema stesso.

I big data pongono un problema in

cui si accavallano il modo con cui le

aziende capitalizzano il flusso di terab-

yte di dati generati in modalità ‘smart

streaming’ dai dispositivi ‘intelligenti’ e

la disponibilità di modelli e algoritmi

di machine learning di analisi preditti-

va che stanno trasformando il modo

in cui le aziende si riferiscono ai loro

clienti e che generano da sé questioni

controverse oltre a costituire fattori di

rischio per la privacy e la protezione

dei dati personali.

Si tenga presente che lo smart strea-

ming dei dati è già oggetto di atten-

zione dei Regolatori. Per esempio, la

Commissione Europea ha pubblicato

la propria ‘Strategy on Co-Operative

Intelligent Transport Systems’ o ‘CIT-

S’ per lo sviluppo di un’infrastruttura

intelligente di trasporto che permetta

agli autoveicoli di comunicare tra di

loro e con un sistema centralizzato di

gestione del traffico, nonché con altri

agenti del sistema di trasporto.

Il rischio potenziale di utilizzo impro-

prio di dati è chiaramente problema-

tico poiché l’infrastruttura è capace

di identificare ogni singolo veicolo in

tempo reale lungo il suo percorso,

conoscerne la destinazione, riportare

il comportamento del conducente e

ogni eventuale infrazione alle norme

di circolazione.

Ha contribuito

il Tenente Colonnello Francesco Marradi

NEL PROSSIMO NUMERO

Si inizieranno a esaminare le te-

matiche giuridiche correlate agli

impieghi diversificati delle tec-

nologie di blockchain, sia, come

nel caso delle criptovalute, per

l’attribuzione di valore, sia, come

per esempio nel caso di Ethe-

reum, per realizzare piattaforme

distribuite di gestione di rapporti

negoziali.

IL PARERE DEL LEGALE

95

gennaio-febbraio 2018

© iStock - artisteer