
I più non sono consapevoli di quanto i sistemi di Intelligenza Artificiale (A.I.) siano già parte attiva nella nostra vita quotidiana. Se oggi andate in banca a chiedere un mutuo è probabile che il decisore sia un computer, che dopo aver analizzato la vostra situazione finanziaria emetterà un giudizio inappellabile. Oppure se decideste di effettuare un investimento in Borsa dovete sapere che il 60% delle transazioni che avvengono sul mercato mondiale sono effettuate da computers che seguono complessi algoritmi, senza alcun intervento umano. In caso di alta volatilità poi, la percentuale può raggiungere il 90%. Può anche essere che vi siate imbattuti in Watson senza saperlo, e che “lui” abbia contribuito alla diagnosi della vostra malattia senza che gli abbiate nemmeno pagato una parcella extra. Già, perché Watson, creato dalla IBM, è molto utilizzato nel campo medico, grazie alla sua enorme capacità di elaborazione dati.

Guardare ad A.I. come al film Terminator di Schwarzenegger, è riduttivo, anche se l’idea di impiegare simili robot per compiti di polizia sia già allo studio. Ma ci vorrà ancora un po’ di tempo. L’oggi invece ci offre alcuni scenari di cui sarebbe bene occuparsi.
La settimana scorsa le Nazioni Unite hanno sospeso la discussione sui “Killer Robots” a seguito dell’opposizione di alcune Nazioni, tra cui Stati Uniti e Russia.

Di cosa si tratta?
Droni. Molto simili a quelli che volteggiano sulle nostre città. Ma completamente autonomi. Provate ad immaginare uno sciame di questi droni (parliamo di centinaia) rilasciati in una certa area, con il compito di farsi esplodere singolarmente su target diversi.

Target che potrebbero essere soldati, equipaggiamenti, edifici, persone. Gli algoritmi in essi contenuti gli conferirebbero totale autonomia fino al termine della missione. Potrebbero anche essere dotati di sistemi per riconoscere la faccia di individui designati come nemici. Oppure potrebbero essere programmati per distruggere tutte le persone in una certa area che indossassero ad esempio, una cravatta, o un turbante oppure avessero la pelle scura. Potrebbero essere rilasciati da un aeroplano, o da un mezzo terrestre come ad esempio un camion. Il costo? Non elevato, e facili da maneggiare per chi li volesse impiegare. Nulla a che vedere con il nucleare o con le armi batteriologiche, che richiedono impianti sofisticati e costosissimi e soprattutto di facile individuazione. Insomma, delle “mine” pensanti, volanti, precise, assolutamente letali ed implacabili. Non servirebbe a nulle gettare l’arma a terra ed alzare le mani e magari sventolare un fazzoletto bianco: la sentenza preimpostata sarebbe comunque portata a termine. Ideali per gruppi terroristici.
Un discreto uso di questi sistemi è stato fatto nei mesi passati in Libia e nel conflitto tra Armenia e Azerbaigian nella contesa enclave del Nagorno-Karabakh. Sistemi di forme e dimensioni diverse ma concettualmente uguali ai droni. Nulla a che vedere con i Droni telecomandati da remoto largamente usati in Siria, Iraq, ed in altre zone del pianeta e presenti anche sulla base di Sigonella presso Catania. Qui è l’uomo che mantiene il controllo sul mezzo. Il film “Eye in the sky – Il diritto di uccidere “del 2016 mostra come vengono impiegati questi sistemi d’arma.

Uno dei grandi pericoli di A.I. è quello di non riuscire a controllare tale tecnologia: per precisione e velocità di calcolo; per la capacità di generare risposte a problemi complessi in frazioni di secondo; e perché una volta attivata non è più possibile fermarla. Eppure, tutto dipende da quale uso si voglia fare di tali sistemi. E di quanto l’uomo riesca a mantenere il controllo su di essi.
Durante la crisi dei missili di Cuba nell’Ottobre del 1962, il mondo fu ad un passo dalla catastrofe nucleare. La tensione tra Stati Uniti e Unione Sovietica, tra Kennedy e Kruscev aveva raggiunto il punto più alto. Sarebbe bastata una sola mossa errata per far partire da una parte o dall’altra i micidiali missili nucleari intercontinentali. I Sovietici avevano inviato in acque Cubane quattro sommergibili dotati di siluri con testata nucleare. La Marina americana, che aveva effettuato un blocco navale davanti a Cuba, ne individuò due. Uno di questi fu fatto bersaglio di cariche di profondità. Le condizioni a bordo del sommergibile sovietico sotto attacco erano precarie. Batterie quasi esaurite, la temperatura a bordo aveva superato i 45 gradi, l’aria era irrespirabile. Il Comandante del sommergibile aveva avuto in precedenza l’autorizzazione a lanciare senza dover nuovamente interpellare Mosca e almeno undici navi americane erano sotto tiro. La situazione era drammatica e la decisione era già stata presa: si doveva rispondere alle bombe di profondità. Un fungo atomico della stessa potenza di quello di Hiroshima si sarebbe sollevato dopo che il siluro fosse detonato contro una delle corazzate americane. Due persone dovevano autorizzare il lancio. Il Comandante e l’Ufficiale politico. Ma se il corso della storia non imboccò la strada dell’autodistruzione lo dobbiamo ad un eroe: Vasili Alexandrovich Arkhipov, il Comandante in seconda.

Ebbe la freddezza in tutta quella confusione di analizzare la sequenza delle cariche di profondità che esplodevano sistematicamente a sinistra ed a destra del sommergibile. Intuì che gli americani non volevano affondarli ma solo obbligarli ad emergere. Riuscì a convincere il Comandante e salvò il mondo. Un eroe sconosciuto ai più.
Cosa sarebbe successo se l’analisi della situazione fosse stata affidata ad una Intelligenza Artificiale?