Sono già alcuni anni che si discute della attuale precarietà della Legge di Moore. Ideata nel 1965 dal co-fondatore di Intel Gordon Moore, l’omonima legge afferma in soldoni come lo sviluppo dei chip in silicio in termini di prestazioni e quindi di transistors sarebbe raddoppiato ogni 18 mesi. Dal 1965 a oggi la legge è stata pressapoco provata più e più volte, ma negli ultimi anni si è andati incontro a difficoltà di gestione tecniche dovute ai limiti della fisica, tutt’ora invalicabili.
Sinceramente penso che la legge di Moore fosse una sorta di motto per spronare l’azienda fondata da Gordon a creare sempre più prodotti per raggiungere profitti sempre più alti, ma alla fine il capitalismo ha avuto un forte ruolo nello sviluppo di microprocessori. L’elettronica in soli cinquant’anni ha fatto balzi inimmaginabili e se al momento godiamo di prestazioni al limite del reale potendo giocare videogiochi al limite del fotorealismo o dispositivi mobili potenti quanto un Dekstop, lo dobbiamo solo alla corsa alla “potenza“.
Tutti gli indizi stanno portando verso una inevitabile fine di questo lungo periodo d’oro per l’elettronica o almeno questo è quello che affermano gli scienziati di tutto il mondo. E’ pur vero che secondo gli scienziati siamo praticamente alla fine di ogni cosa, ecco perché ho pensato fosse interessante capire se in futuro i computer non potranno diventare più potenti raggiunto un certo limite fisico.
Mi ricordo che nel 2003 acquistai un Pentium 4. La quarta generazione dei processori più di successo di Intel arrivo al suo quarto stadio evolutivo in una forma stanca e altrettanto affaticata. Dagli anni ’90 sino a quello strambo 2003 si era cercato di dare più potenza ai processori semplicemente aumentando Transistors e GHz di clock. Il risultato fu ovviamente disastroso: il Pentium 4 è tutt’oggi utilizzato come scaldabagno e non furono in pochi a gridare al fallimento della legge di Moore.
Io stesso cambiai subito partito acquistando successivamente un AMD Athlon 64 X2 nel 2005, il quale risolveva i limiti dei 90nm proponendo due core nello stesso die con frequenze nettamente più basse e un notevole incremento di prestazioni. Insomma: le grandi aziende del silicio risolsero la situazione proponendo una architettura Multi-Core, tutt’oggi vigente riuscendo tra le altre cose ad arrivare a una architettura a 10 nanometri nel caso di alcuni processori Mobile.
Dopo quasi diciassette anni di positivismo siamo arrivati al punto di partenza: i processori stanno tornando a scaldare tanto e si cerca di evitare il peggio aumentando il numero di core per processore, ma a quanto pare questo non ferma l’avanzata dei GigaHertz che sembra inarrestabile.
Secondo gli ultimi studi, una ulteriore miniaturizzazione dei processi di sviluppo dei processori porterebbe a una grande instabilità nella gestione dei dati e quindi dell’energia elettrica, traducendo ogni errore in calore. A tal proposito si è andati incontro all’idea di migliorare l’efficienza energetica piuttosto che la potenza dei chip disponibili in commercio, ma questo vorrebbe dire che la legge di Moore ne uscirebbe sconfitta poiché la potenza e il numeri di transistor non raddoppierebbero affatto entro 18 mesi, ma anzi rimarrebbero tali fino a data da destinarsi.
Alcuni pensano che la potenza aggiuntiva possa essere prodotta da chip “sussidiari“, ovvero processori paralleli a quello principale attui a gestire operazioni diverse alleggerendo il carico di lavoro al processore principale. Questo è quello che accade attualmente nei processori Mobile, ma tale possibilità va inevitabilmente a scontrarsi contro l’idea di efficienza energetica aggirando e non risolvendo il fallimento della Legge di Moore.
Ma se il problema non fosse tanto la legge, bensì il materiale utilizzato? Proprio per evitare un ristagno delle tecnologie, sono in molti a sviluppare soluzioni alternative. Google e NASA stanno collaborando alla ricerca del computer quantistico, una nuova macchina capace di risolvere operazioni mediante l’utilizzo della meccanica quantistica. Altri invece stanno tentando di creare processori capaci di adattarsi e migliorarsi come il cervello umano, altri ancora stanno tutt’oggi filosofando sul futuro inventando tecnologie interessanti, ma solo sulla carta.
Sta di fatto che secondo un gruppo di scienziati il cui studio è stato pubblicato nel mese di Febbraio 2016 su Nature (autorevole rivista di scienze), entro il 2020 il problema deve essere definitivamente risolto altrimenti si andrebbero incontro a problematiche di carattere logistico ed economico.
Tra ipotesi di cambi architettura (come la rivoluzionaria architettura 3D presente nelle memorie HBM), o l’utilizzo di materiali alternativi come il Graphene (Huawei vuole utilizzare il Graphene nel 2018 per produrre chip Kirin), vi è una azienda che sembra andare totalmente controtendenza, quasi ignorando i problemi derivanti dalla legge di Moore.
Questa è AMD, che con la sua mirabolante presentazione di AMD Ryzen, la nuova gamma di processori, ha fatto sapere al mondo di aver risolto il problema a modo suo: sfidando la legge stessa. AMD Ryzen è una architettura multi-core, con grande efficienza energetica e un clock ad altissimi GHz: si parla dai 3.5 ai 4GHz, con possibilità di portare il tutto fino al limite di 5GHz con raffreddamento ad aria, almeno secondo una rivista francese.
Il comportamento di AMD va ovviamente a confutare quanto descritto dagli scienziati, anche perché l’architettura ZEN sembra essere la prima di una lunga serie di processori basati su tecnologia transistors (comunque un concetto vecchio più di un secolo). L’allarmismo degli scienziati è quindi consapevole e degno di nota? Secondo il mio pensiero assolutamente si, anche perché sono il primo a sostenere nuove tecnologie più prestanti e più avare nei consumi, sebbene sono conscio del fatto che il capitalismo, lo stesso che ha permesso uno sviluppo enorme della tecnologia, è anche alla base del suo rallentamento. Il silicio costa poco e le linee produttive sono già impostate da tempo: stravolgere con nuovi materiali sarebbe un costo così alto tanto da scoraggiare multinazionali enormi come Intel e AMD.
Ma a cosa dovremmo affidarci allora?
Dal punto di vista di consumatore vi è in realtà poco che posso fare. Sinceramente osservo un incremento di potenza su base annua incredibile, soprattutto su smartphone e dispositivi mobili. Certo è che i primi limiti dei chip al silicio si possono già osservare, con telefoni che diventano caldi quanto un fornelletto portatile e batterie che sembrano non reggere lo stress del calore, ma forse proprio questi fallimenti possono aiutare la comunità internazionale a prendere decisioni più intelligenti prendendo in considerazione strade alternative.
Tuttavia è pur vero che la maggior parte dei chip in commercio non vengono assolutamente sfruttati al massimo, causa software troppo spesso poco ottimizzati i quali restituiscono risultati molto altalenanti. Quindi forse è vero: probabilmente la Legge di Moore fallirà, ma forse per un breve periodo o fino a quando non si troverà una soluzione alternativa. Per quanto aziende come AMD possano ignorare il problema, esso continuerà a ritornare perché non si potranno creare chip più piccoli di un atomo (o di una molecola). Certo il cloud-computing potrebbe assisterci in questa migrazione grazie a super-computer con migliaia di chip in parallelo, ma fino a quando potremo far finta di niente?