VIDEOSORVEGLIANZA & INTERCETTAZIONE

Chi ha paura degli slaughterbots?

Basta poco per sopprimere un presunto nemico: un drone da pochi euro, una telecamera con riconoscimento facciale e una connessione Internet

In un film corto pubblicato nel 2017, in una società distopica ma simile a quella attuale in maniera allarmante, veniva presentata un’idea semplice e terribile. La comparsa di piccoli droni volanti provvisti di una microscopica carica esplosiva, capaci di attaccare specificamente un singolo individuo e di ucciderlo. Gli slaughterbots, letteralmente i robot da massacro.

La tecnologia di base era molto semplice: un drone da poche decine di euro, di quelli che regaleremmo ai nostri bambini; un sistema di riconoscimento facciale attraverso una microtelecamera ad alta definizione; una connessione Internet con accesso ad un sistema di AI.

La parte di AI del sistema ne era ovviamente il cuore: attraverso l’analisi semantica di tutto quello che un individuo esprimeva attraverso i social, le conversazioni telefoniche, i dialoghi con i personal assistant vocali, ne veniva tracciato un profilo comportamentale e ideologico.

Una volta caratterizzato, l’individuo veniva inserito in un cluster, identificato attraverso le fotografie pubblicate su Facebook e Instagram o filmati di Tik Tok, e messo in database. A quel punto, qualunque individuo o organizzazione interessato a sopprimere quel tipo di idea, non doveva fare altro che selezionare gli individui, caricarne i profili sugli slaughterbots, e loro si sarebbero occupati del resto. Tre anni fa sembrava fantascienza, al punto che ne parlai in una conferenza dedicata a questo genere letterario circa un anno e mezzo fa.

In realtà, il filmato era parte di un appello di Stuart Russell, professore di computer science all’università di Berkeley, finalizzato ad istituire un attento osservatorio sulle possibili applicazioni dell’intelligenza artificiale al controllo sociale. Ed ancora, sembrava una delle tante previsioni di futuri molto di là da venire.

Tra allora ed oggi, sono cambiate un po’ di cose.

Durante le sommosse conseguenti l’omicidio di George Floyd, la compagnia Clearview AI ha messo a disposizione sistemi di riconoscimento facciale atti a catturare le fisionomie dei partecipanti alle manifestazioni. La raccolta avviene a strascico, e dunque non si focalizza sugli atti dell’individuo, ma prende unicamente nota della sua presenza in un determinato momento e in un determinato luogo.

Come raccontato in un altro articolo, il potenziale antidemocratico di questo tipo di strumenti è potenzialmente esplosivo. Questa tecnologia, usata in maniera indiscriminata, può svolgere il ruolo svolto dall’AI immaginaria che guidava le azioni degli slaughterbots. Per la semplice presenza – persino accidentale – in un certo luogo ed in una certa occasione, si può venire associati ad un potenziale di pericolosità indipendentemente dai propri atti, e dalla condivisione o meno di determinate idee. Di più, il diritto di manifestare pacificamente può essere leso dalla tecnologia usata male: un poliziotto umano procede all’identificazione di un individuo solo se sta commettendo atti contrari alla legge, mentre un sistema di AI identifica e caratterizza chiunque.

L’allarme è concreto e presente, e ha spinto il senatore Edward Markey, rappresentante democratico del Massachussets, a manifestare fattivamente la sua preoccupazione su questo aspetto.

Un sistema del genere preoccupa soprattutto in termini di deterrenza, dato che la consapevolezza della sua esistenza e dei suoi rischi può sopprimere la voglia di manifestare le proprie idee, molto meglio degli slaughterbots. Più che a questi ultimi, viene da pensare all’ultima frase del mai troppo citato 1984 di George Orwell, minaccia ultima al nostro essere individui dotati di capacità di critica e di libertà.

Amava il Grande Fratello.

Back to top button
Close
Close