RISERVATEZZA DEI DATI

La tecnologia può essere razzista come chi l’ha programmata

Si preparano mesi e mesi di lotte negli Stati Uniti contro l’applicazione di tecniche di riconoscimento facciale all’interno delle università. La questione razziale, mai del tutto sopita, torna prepotentemente tra i temi all’ordine del giorno come effetto della decisione dell’Università della California (UCLA) di implementare gli ultimi ritrovati nel campo dell’Intelligenza Artificiale come strumento di salvaguardia della sicurezza. Le massicce campagne di protesta da parte dei circa 45.000 studenti appartenenti all’UCLA hanno costretto il direttore dell’Università, Evan Green, ad ammettere che i potenziali benefici che avrebbe portato il riconoscimento facciale sono stati ampiamente superati dalle preoccupazioni espresse dalla comunità universitaria. Subito dopo la presentazione del progetto di introduzione del riconoscimento facciale, gli studenti hanno chiarito che la sua applicazione avrebbe costituito una pesante violazione della privacy, e che avrebbe contribuito a creare un ambiente ostile all’interno del campus.

La questione fondamentale che ha agitato gli studenti è stata la possibilità che una simile tecnologia potesse essere pesantemente discriminatoria per gli studenti di afroamericani. Nel tentativo di evidenziare questa problematica, l’organizzazione no-profit Fight For Future di Boston, impegnata sin dal 2011 per la lotta nel campo dei diritti digitali, ha sperimentato l’uso del software di riconoscimento facciale di Amazon. Su un campione di 400 fotografie di atleti e studenti dell’UCLA, ben 58 sono risultate corrispondenti a profili registrati in un database di foto segnaletiche. Nonostante il software riportasse il 100% di corrispondenza, nessuna delle 58 persone segnalate aveva qualcosa a che fare con le persone riportate nelle foto segnaletiche, oltre al colore della propria pelle o dalla specificità di alcuni tratti somatici.

I risultati ottenuti dall’organizzazione del Massachusetts, e portati all’attenzione dei più alti vertici istituzionali locali e nazionali, mostrano dunque quanto persino gli algoritmi predittivi risentano del razzismo di coloro che li hanno programmati. Lo conferma anche uno studio effettuato su un software prodotto dal National Institute of Standard Technology, la tecnologia del riconoscimento facciale allo stato attuale risulta estremamente sensibile a fattori razziali e di genere oltre che quelli legati all’ambiente e alla qualità dell’immagine.

Eventuali errori commessi da un tale sistema di sicurezza si tradurrebbero per gli studenti in problematiche concrete, e che andrebbero fortemente a minare il loro benessere. Se non riconosciuti dal sistema, essi potrebbero non avere accesso a biblioteche, ai dormitori, potrebbero essere segnati assenti da una lezione in cui invece sono presenti, o addirittura potrebbero essere segnalati alle forze dell’ordine come potenziali minacce.

I rischi ovviamente non si fermano qui. Quando anche si riuscisse a progettare un sistema preciso al 100%, si porrebbe il problema della gestione e conservazione dei dati raccolti che, se finissero in mani sbagliate, potrebbero costituire uno strumento di offesa. Hacker e stalker sono certamente ingolositi da questa ampia disponibilità di dati, e una gestione locale che non debba tenere conto di un’autorità garante non rappresenta il massimo in termini di sicurezza. In questa direzione va la redazione di un documento da parte di alcuni membri del Congresso che mira alla costituzione della Commissione per l’Uso Etico dei Dati sul Riconoscimento Facciale che coinvolga i più affermati esperti in materia di privacy.

Ottenuta la sospensione della sua applicazione, gli studenti dell’UCLA sono fortemente determinati a non fermarsi e infatti hanno organizzato una giornata nazionale di protesta in programma per il 2 Marzo, a cui già hanno aderito numerose altre organizzazioni studentesche universitarie, per chiedere la definitiva cancellazione del progetto affinché gli algoritmi non diventino il riflesso di problemi sistemici della società.

Back to top button
Close
Close