AI & ROBOTICA

Il Parlamento europeo ha approvato la Risoluzione P9_TA(2021)0405

Si tratta di un enorme passo in avanti verso l’introduzione dell’intelligenza artificiale nel diritto penale. Negli anni sono stati diversi i contributi dottrinali, anche in Italia, per cercare di evidenziare pro e contro dell’introduzione di un sistema sittanto pervasivo nel nostro ordinamento: da un lato il rischio di decisioni chnon sono assiologicamente neutrali, dall’altro la paura di riconoscere una macchina come soggetto, vittima o autore, del reato.

Il 6 ottobre scorso il Parlamento ha deliberato in merito al suo utilizzo da parte delle autorità di polizia e giudiziarie. Nel documento si riconosce l’alto potenziale dei benefici in termini di efficienza ed al contempo la paura per i diritti fondamentali dei cittadini europei, focalizzando l’attenzione sulla necessità che l’Intelligenza artificiale sia vista solo come possibile strumento al servizio delle persone. Il rischio, neppure troppo velato, è di ricorrere all’IA in tale campo con la promessa, irrealizzabile, che così facendo crollino i numeri dei reati e le decisioni dei giudici siano più obiettive.


Sebbene sia incontrovertibile che l’IA possa essere utilizzata nel contrasto ai reati finanziari, riciclaggio di denaro, finanziamento del terrorismo, abusi sessuali e sfruttamento sessuale nei confronti di minori online nonché per reprimere alcune tipologie di reati informatici, vi è la necessità di disciplinare il modo in cui tale strumento posso esser d’aiuto nelle indagini.

Prima di introdurre questi sistemi vi deve essere una riflessione tanto tecnica quanto politica che tracci le linee e verifichi la fattibilità di sistemi da utilizzare a supporto delle attività di contrasto ai crimini e di giustizia penale.

Alcuni paesi sia all’interno che all’esterno dell’Unione Europea hanno adottato dei sistemi di IA in campo giuridico, si pensi banalmente al riconoscimento facciale dei ricercati o ai sistemi di sorveglianza automatica e riconoscimento delle targhe, fino ad arrivare a sistemi, seppur embrionali, di polizia predittiva.

La tecnologia che andrà sviluppata deve essere sottoposta ad un vaglio democratico, rigoroso e indipendente, come previsto al punto 6 della Risoluzione, così da assicurare un sistema solido, sicuro e affidabile i cui algoritmi siano trasparenti, tracciati e verificati da soggetti terzi: i rischi di data breach e violazioni della sicurezza dei dati, così come la sicurezza dei sistemi in sé, devono essere attentamente valutati per poter prevenire, e se del caso mitigare, qualsivoglia conseguenza derivante da un attacco agli stessi. 

Il trattamento dei dati deve essere necessariamente anonimizzato, adeguato, pertinente e non eccessivo rispetto alle finalità perseguite, così da limitare l’impatto sulla dignità umana e le possibili implicazioni in termini di non discriminazione e di non distorsione; con quest’ultima che può risultare intrinseca all’insieme dei dati base, così poi da accentuarsi una volta che il trattamento viene attuato.

I rischi sono oggettivamente elevati: di pari passo con la loro introduzione, occorre normare una responsabilità per i potenziali – e non del tutto remoti – effetti nocivi che tale tecnologia può causare, così come un regime chiaro di responsabilità giuridica in caso di conseguenze negative derivanti dall’applicazione di tali sistemi.

Alcuni paesi, specialmente gli Stati Uniti, hanno adottato sistemi troppo pervasivi rispetto alla stessa Carta dei diritti fondamentali dell’UE e della CEDU. Si pensi alle tecnologie biometriche adottate da Amazon, con riconoscimento facciale e palmare dei clienti.

Tecnologia sviluppata anche da aziende concorrenti e utilizzata dalle forze dell’ordine, già oggetto di molteplici pronunce giudiziali oltreoceano per violazione dei diritti dei soggetti interessati, sia per i frequenti errori con soggetti afroamericani – anche dettati da fattori razziali e di genere di chi l’ha programmata – che per via del fatto che la raccolta e l’utilizzo di tali dati era effettuato senza alcuna autorizzazione o consenso dei soggetti.

Non si può tralasciare la circostanza che anche nel Regno Unito, ex paese membro, dato l’alto numero di falsi positivi e la fin troppa discrezionalità degli agenti nello stabilire chi può essere inserito nella c.d. watchlistla Corte d’Appello ha ritenuto illegale il programma di riconoscimento facciale utilizzato dalla polizia del Galles del Sud.

Pertanto, il quadro giuridico chiaro e preciso che si richiede non potrà prescindere da un sistema di tutela dei soggetti sottoposti a trattamenti effettuati dall’intelligenza artificiale.

È lo stesso diritto unionale a stabilire tanto il divieto di sottoporre un soggetto a una decisione che produca effetti giuridici o abbia effetti significativi nei suoi confronti nel caso in cui la decisione risulti fondata esclusivamente su un trattamento automatizzato dei dati, quanto il diritto al ricorso pieno ed effettivo contro i provvedimenti in generale. Ne consegue che, come rimarcato recentemente dalla Ministra della Giustizia italiana, “l’intelligenza artificiale può essere un prezioso strumento a supporto dell’attività del giudice, ma non deve mai diventare un suo sostituto” sicché si auspica a livello europeo un divieto dell’uso dell’IA e delle relative tecnologie per l’emanazione delle decisioni giudiziarie.

Da ultimo il Parlamento chiede “che sia stabilito un divieto permanente dell’utilizzo dei sistemi di analisi e/o riconoscimento automatici negli spazi pubblici di altre caratteristiche umane quali l’andatura, le impronte digitali, il DNA, la voce e altri segnali biometrici e comportamentali”, riconoscendo il rischio derivante dalla creazione di raccolte di dati biometrici di natura privata o ibrida, chiaro sintomo di una transizione verso un modello di sorveglianza di massa negli spazi pubblici, o statale, come nel modello di stampo cinese imperniato sul social credit system.

Non resta che attendere un impulso legislativo a livello nazionale.

Back to top button