
Il CEO di Nvidia (NASDAQ: NVDA) Jensen Huang ha aperto la GPU Technology 2021 con un intervento dove ha dato una panoramica delle ultime tecnologie di intelligenza artificiale e GPU. La cosa divertente, pochi giorni fa al SIGGRAPH, è stato scoprire che parte del suo intervento (la presentazione di DGX e da 1:02:29 a 1:02:56) era totalmente generato al computer. Un deepfake, irriconoscibile rispetto al resto del video dove parlava in carne ed ossa dalla cucina della sua azienda.
D’altronde Christopher Mims, dalle colonne del Wall Street Journal, di recente ha lanciato un dibattito interessante intorno alla Legge di Moore ed a una sua riformulazione più attuale che ha proprio il buon Jensen come protagonista ed eponimo. Nella prima parte dell’Evo Informatico, l’andamento attribuito a Gordon Moore era considerato quasi un assioma nel mondo dei Processori: la cosiddetta Prima Legge di Moore. Formulata nel 1965, prende il nome dal co-fondatore della Intel Corp. (NASDAQ: INTC) ed enuncia che:
«La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni)».
Dunque, la potenza di calcolo di questi processori e dei computers che li implementano, incrementa (all’incirca) di conseguenza.
Nel 2003, in un’intervista a c|net, Gordon Moore profetizzava che la sua “legge” sarebbe stata ancora valida per almeno dieci anni. Nel 2015 Krzanic, all’epoca CEO di Intel, in un’intervista a WSJ aveva rimodulato la performance attesa dall’industria dei microprocessori. Nella Turing Lecture all’ISCA del 2018, affidata a John L. Hennessy e David A. Patterson, è stato dimostrato come dal 2010 questo ritmo non sia più sostenuto.
Secondo Wikipedia, ciò potrebbe essere dovuto al raggiungimento dei limiti fisici, fenomeni connessi alla corrente di sottosoglia, ai limiti dei metalli usati nei gate ed a quelli dei materiali dei canali.
La proposta di Mims, per modellare la crescita di questo settore fondamentale, è quella di formulare una “Legge di Huang”, da Jensen Huang appunto. Quanto Intel è il leader nella produzione di CPU tanto Nvidia è il suo omologo nel mondo delle GPU – i processori nati per la grafica ma oggi usati per il calcolo parallelo (GPGPU). Questi sono il fattore abilitante di molte tecnologie basate su Intelligenza Artificiale (AI), come il riconoscimento degli oggetti (nel senso più lato: cose, ma anche i volti o le voci, ad esempio), o i veicoli a guida autonoma. Nvidia ha infatti consolidato la sua posizione sul mercato dei processori, acquisendo la ARM Holdings per quaranta miliardi di Dollari nel 2020. Questa “Legge di Huang” enuncerebbe che “la performance dei chips alla base dei sistemi informatici per AI duplica ogni due anni, per miglioramenti sia hardware che software“. Lungi ancora dall’essere stata dimostrata, questa legge ci da uno spunto per interpretare il futuro dell’informatica.
Così come Intel è stata tra le aziende più importanti per sostenere la crescita della potenza di calcolo delle CPU al tempo di Moore e della usa legge, ma di certo non l’unica. Sostenere questa crescita ha richiesto miliardi e legioni di ingegneri sparsi in migliaia di aziende grandi e piccole. Parimenti, Nvidia non è la sola realtà a sostenere la legge di Huang e forse i suoi prodotti perderanno un giorno l’innovatività di cui godono oggi. L’acquisizione di ARM sembra volta a mitigare questo rischio e i recenti risultati presentati al SIGGRAPH sembrano confermare che è ancora il leader di questo segmento di mercato.