CAMPANELLO DI ALLARME

Gli USA sfidano i “deepfake”. Sai cosa sono e quanto sono pericolosi?

Il rischio di ricatti ed estorsioni è sotto gli occhi di tutti

Le tecnologie ci appassionano e raramente pensiamo alle tante e troppe controindicazioni.

La tanto decantata intelligenza artificiale non di rado è utilizzata per obiettivi ben lontani dall’utilità auspicabile da chiunque, ma si mette al servizio di chi persegue i più deprecabili scopi.

L’impiego balordo degli strumenti innovativi avviene – ad esempio – con il “deepfake”, una tecnica che consente di elaborare le immagini digitali e di andarle a sovrapporle in fotografie e soprattutto in filmati che, pur fasulli, hanno una drammatica verosimiglianza.

Come funziona il deepfake

Questa sofisticata tecnica viene usata per realizzare falsi video pornografici che avrebbero come protagonisti celebrità dello spettacolo o semplici persone vittime di vendette di ex-fidanzati o di individui le cui avances sono state respinte.

Il deepfake viene spesso adoperato per fare innocua e divertente satira (ne sanno qualcosa i politici), ma si deve avere coscienza del fatto che si tratta praticamente di una vera e propria affilatissima arma per dar vita a turpi iniziative di “revenge porn”, ad azioni di cyberbullismo, alla diffusione di fake news, all’innesco truffe e frodi.

Nonostante la preoccupazione per le conseguenze del deepfake abbia una radice nel 2017, il fenomeno – emerso sulla piattaforma sociale “Reddit” – ha continuato a proliferare e ad assumere dimensioni impressionanti.

Applicazioni come FakeApp, DeepFaceLab, FaceSwap e myFakeApp hanno avuto un grande successo e la ricaduta è inquietante.

Sono programmi che basano il loro funzionamento sull’impiego una rete neurale artificiale e sul ricorso alla potenza del processore grafico e ad un certo numero di gigabyte di memoria RAM necessari per generare il video fake. Il software ha bisogno di abbondante materiale: più sono le foto e i filmati della “vittima”, maggiormente agevole sarà il lavoro di elaborazione e sostituzione della sventurata persona in un contesto cui è totalmente estranea.

L’iniziativa americana

La senatrice democratica del Nevada Catherine Cortez Masto ha promosso un provvedimento normativo che impone una ricerca governativa in materia di deepfake e il testo – prossimo a divenire legge – è passato al Senato con consenso unanime.

La norma si chiama IOGAN (Identifying Outputs of Generative Adversarial Networks) e incarica la National Science Foundation (NSF) e il National Institute of Standard Technology (NIST) di sostenere la ricerca sulle “reti generative antagoniste”. Obiettivo dell’approfondimento sono quei sistemi software progettati per elaborare input autentici (foto o video) e per generare output verosimili ma artificiali che possono facilmente trarre in inganno chi visualizza il risultato.

La NSF dovrà dare il proprio supporto alla ricerca sui contenuti manipolati o sintetizzati e sull’autenticità delle informazioni, mentre al NIST compete lo sviluppo di standard necessari per disporre di strumenti tecnologici in grado di esaminare la funzione e gli output delle reti generative antagoniste o di altre tecnologie che sintetizzano o manipolano i contenuti.

Il rischio? Non solo ricatti ed estorsioni

Proprio in questi giorni l’ONU, Europol e l’azienda di cybersecurity Trend Micro hanno lanciato un significativo allarme e con un dettagliato report hanno segnalato la necessità di prestare la massima attenzione a timori oggettivamente incombenti.

Se spaventano i filmati di carattere pornografico, è altrettanto angosciante l’utilizzo di questa tecnica per fare disinformazione.

In questo momento storico cosa può succedere con l’irrefrenabile condivisione di filmati falsi in cui virologi, esperti, politici potrebbero rilasciare dichiarazioni infondate e provocando reazioni spropositate e complicando situazioni già difficilmente gestibili?

Tags
Back to top button
Close
Close