TECNOLOGIA

Deepfake: quando Elon Musk partecipa al tuo meeting su Zoom

L’aspetto duale nell’uso di certi strumenti per la sicurezza aziendale

Avevamo già iniziato a parlare di alcune delle potenzialità dell’intelligenza artificiale, in questo articolo dedicato ai profili fake. Se ve lo siete perso vale la pena di andarlo a leggere per avere una piccola base introduttiva su quanto apprenderete in queste righe.

Lo scorso aprile, gli appassionati del settore non si saranno persi una notizia che ha rimbalzato molto in rete, ovvero un finto Elon Musk è piombato su un meeting di Zoom usando Deepfakes. Delle criticità della famosa piattaforma per videoconferenze e lezioni online si è già discusso molto anche qui su Infosec.

In questa vicenda però si è andati oltre al mero bug di una piattaforma, la quale è stata usata solo da veicolo per compiere uno scherzo, rilevatosi però molto interessante se lo vogliamo analizzare dal punto di vista della sicurezza. Andiamo per ordine: un programmatore conosciuto per Ali Aliev, ha sviluppato un metodo per creare deepfakes in tempo reale e per testare il proprio progetto, ha finto di essere il celebre miliardario Elon Musk capitando per caso nella riunione sbagliata. Qui potete vedere il video:

Come avrete osservato nel filmato, il finto Elon Musk è molto convincente, basta solo vedere le reazioni avute dagli altri due interlocutori. Nel formato Zoom oltretutto, la risoluzione discreta e il problema del calo di frequenza dei fotogrammi, agevolano la similarità con il personaggio e la situazione reale.

La tecnologia utilizzata si chiama Avatarify ed è stata sviluppata da Aliev utilizzando un codice AI open source chiamato “The First Order Motion Model For Image Animation”, sviluppato dai ricercatori dell’Università degli Studi di Trento. Avatarify in pratica sovrappone il viso di un’altra persona in tempo reale durante una video ripresa. La maggior parte dei Deepfakes richiede di pre-registrare segmenti, ma Avatarify è abbastanza robusto da funzionare durante lo streaming. Tuttavia, richiede un PC piuttosto performante (Aliev consiglia un PC da gaming di prim’ordine in questo articolo di Vice: https://www.vice.com/en_in/article/g5xagy/this-open-source-program-deepfakes-you-during-zoom-meetings-in-real-time) e almeno una conoscenza base di programmazione e AI.

I modelli attualmente elencati per il software includono personaggi come Albert Einstein, Eminem, Steve Jobs, La Monnalisa, Barack Obama, Ronaldo e Daniel Radcliffe, meglio conosciuto nel ruolo di Harry Potter.

Tuttavia, se si ha tempo, ambizione e hardware disponibili, si può “addestrare” Avatarify a lavorare con quasi tutti i volti, a patto che si abbiano abbastanza immagini per far funzionare l’IA. L’”addestramento” in realtà consiste semplicemente nel mettere le immagini del personaggio nella relativa cartella ed avviare l’applicazione.

Per chi volesse approfondire l’aspetto più tecnico di Avatarify può toccarlo con mano su GitHub.

L’abitudine ad utilizzare gli strumenti di videoconferenza, diffusasi in questi ultimi mesi grazie alle restrizioni imposte dall’emergenza Coronavirus, amplifica l’effetto delle criticità che possono verificarsi nell’applicare strumenti del genere a scopi diversi da quelli accademici. L’importanza dunque di verificare che dall’altra parte l’interlocutore sia effettivamente chi dice di essere, rimane vitale e di certo apre scenari che rimandano a tanti bei film di spionaggio. Per rimanere con i piedi per terra, pensate alle conseguenze di una videochiamata ricevuta da una segretaria, durante la quale il proprio capo la invita a compiere una qualche operazione finanziaria per conto dell’azienda. Tale circostanza si è similmente realizzata alcuni mesi fa nel Regno Unito, con l’ausilio di un più banale sintetizzatore vocale mediante una normale telefonata… quindi mantenere alta la guardia, continuando a studiare ed approfondire certi aspetti dell’uso duale di questi strumenti è fondamentale per continuare ad operare in sicurezza.

Back to top button