
“Negli ultimi mesi c’è stata una corsa fuori controllo dei laboratori di intelligenza artificiale per sviluppare e impiegare menti digitali sempre più potenti che nessuno – neanche i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile”. Così oltre mille scienziati ed esperti scrivono in una lettera aperta pubblicata dal Future for Life Institute, organizzazione che studia i potenziali rischi per l’umanità derivanti dallo sviluppo di nuove tecnologie che sfuggano al controllo dell’uomo.
I firmatari dell’appello chiedono lo stop per almeno sei mesi ad ulteriori addestramenti di intelligenza artificiale più potenti di Gpt-4, l’ultimo aggiornamento di OpenAi della famosa ChatGpt. “La pausa dovrebbe essere pubblica, verificabile e includere tutti – continua la lettera – se non sarà attuata rapidamente i governi dovrebbero intervenire e istituire una moratoria”. Gli scienziati chiedono infatti di non delegare ai leader tecnologici le decisioni sugli sviluppi, ma che se ne occupino invece i governi, affrontando il tema sotto l’aspetto etico e creando nuove autorità di regolamentazione e controllo.
“Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che potrebbero superarci di numero, renderci obsoleti e sostituirci?”, queste le domande dell’appello.
La pausa invocata consentirebbe di sviluppare protocolli di sicurezza – soprattutto sotto gli aspetti di fake news e cybersecutity – per rendere gli sviluppi dell’AI più “sicuri, trasparenti e affidabili”, in quanto “i sistemi di intelligenza artificiale possono comportare gravi rischi per la società e l’umanità”, affermano gli scienziati.
Tra i firmatari della lettera aperta, nomi di spicco del settore tecnologico come Elon Musk e Steve Wozniak, cofondatore di Apple, insieme a ricercatori ed esperti mondiali di AI, come Stuart Russel e Yoshua Bengio.