La densità della legge di Mo ore
La progettazione di Cpu scesa fino alla scala dei 7 nanometri riapre il dibattito sul futuro della curva evolutiva dei chip
Nel 1990 per produrre una Cpu si utilizzava un sistema litografico in base al quale i singoli elementi potevano avere al massimo la dimensione della lunghezza d’onda della luce utilizzata per stamparli: 193 nanometri. Era un limite della fisica, insuperabile con quella tecnica di produzione. Il trucco fu cambiare le regole: usare le interferenze sui bordi delle maschere dei modelli dei circuiti per stamparli sul silicio e poi litografia computazionale, multiple patterning. La Legge di Moore, cioè l’osservazione di Gordon Moore (uno dei fondatori di Intel) che prevede che il numero di transistor e resistori di un chip raddoppi ogni 24 mesi, era salva. Per il momento. Oggi che le lavorazioni sono arrivate a 22, 16, 14, 10 nanometri - in teoria a 7 - lo è ancora? Un nanometro è la misura di tre o quattro atomi di silicio: un altro limite fisico insuperabile?
«Il problema non è la fisica – dice a Nòva24 Stacy Smith, vicepresidente esecutivo a capo delle aree di manufacturing, operations e vendite di Intel – ma cos’è in realtà la legge di Moore: è una legge economica molto potente che democratizza l’industria dei computer perché dice che, facendo avanzare la capacità di produzione dei semiconduttori con cadenza regolare, possiamo abbattere i costi di qualsiasi modello di business che si basa sul computer». E sulla loro potenza di calcolo.
In una mattina di fine marzo Intel ha affittato uno spazio nella centralissima Market Street di San Francisco per radunare una pattuglia di giornalisti da tutto il mondo. Anziché presentare nuovi prodotti, Intel ha voluto parlare della legge di Moore che, secondo l’azienda, il resto del mondo sta fraintendendo.
Il punto centrale: la legge di Moore, checché ne dicano gli osservatori e la concorrenza, è tutt’altro che morta. «Su questo bisogna essere molto chiari – dice a Nòva24 Mark Bohr, uno dei quattro Senior Fellow di Intel – cioè che la legge osservata dal cofondatore di Intel più di mezzo secolo fa in base alla quale i transistor di un chip raddoppiano ha sempre funzionato e ancora funziona. Bisogna però intendersi, perché di recente, forse anche per le crescenti difficoltà per far scalare ulteriormente le lavorazioni, alcune aziende hanno abbandonato questa regola pur continuando a fare riferimento a numeri di sempre crescente piccolezza anche in casi in cui c’è stato un incremento minimo o addirittura assente della densità dei transistor. In questo modo l’indicazione di una lavorazione in nanometri è diventato un cattivo indicatore per capire a che punto siamo sulla curva della legge di Moore».
La soluzione? Trovare un modo comune per misurare la densità dei transistor e resistori su un chip. Intel ha la sua formula, che tiene di conto la crescente specializzazione e complessità delle Cpu, diventate da semplici “cervelli” per il calcolo digitale delle vere e proprie piccole città con aree specializzate (input/output, controller video, memoria di buffer) e quindi meno uniformi. La formula prevede di contare quanti transistor sono presenti nelle diverse tipologie di elementi di una Cpu e quale tipo di distribuzione abbiano nelle differenti aree del chip. Il risultato è che, per esempio, gli attuali processori da 14 nanometri di Intel hanno una densità di circa 40 milioni di transistor per millimetro quadrato (più di quelli presenti stimati nelle lavorazioni da 10 nanometri della concorrenza, precisa Intel) e la futura generazione di processori da 10 nanometri in arrivo tra la fine di quest’anno e l’inizio del prossimo ne avrà 100 milioni.
Il trucco con cui la legge di Moore sopravvive, dice Intel, è nelle piccole innovazioni. Patterning, FinFet, High-K metal gate, Single dummy gate, hyperscaling: non sono punti di sintesi tra il lavoro degli ingegneri e quello dei creativi del marketing, ma veri “nodi” che hanno consentito di ottenere miglioramenti nella densità dei transistor anche mantenendo la stessa scala di lavorazione.
La cosa importante è la densità: consumo e velocità in MHz (peraltro non più aumentabile) non sono il vero indicatore della legge di Moore. Anzi. Le Cpu multicore (prima con due, poi quattro, otto e sempre più “centri di calcolo” su un singolo package di silicio) sono nate proprio per sfruttare la crescente densità di transistor in condizioni di velocità costante: il calcolo parallelo permette di fare nello stesso momento più cose (anziché una serie di cose sempre più velocemente) e quindi, per alcune operazioni permette di andare più veloci.
La conseguenza del nuovo approccio di Intel è sul modello di sviluppo dei prodotti per il mercato: «È finito il modello Tic-Toc con cui andavamo sul mercato, e invece iniziamo una nuova fase di “waves of innovation”», spiega a Nòva24 Murthy Renduchintala, presidente di Client and IoT Businesses and Systems Architecture Group.
Se il motore delle innovazioni tecnologiche mantiene il passo cambiando però approccio (non più solo la riduzione delle lavorazioni), ha senso cambiare anche il modo con il quale si va sul mercato, peraltro in crescita in aree (come la mobilità e la Internet of Things) nelle quali Intel storicamente non è forte. La scelta di Intel è abbracciare il meticciato delle lavorazioni, una serie di centri di produzione (le fonderie del silicio) e di chip che ibridano tecnologie di lavorazione diverse - a 32, 21, 16 e in prospettiva 10 e 7 nanometri - per raggiungere risultati diversi: chip più risparmiosi pensati per il mondo del mobile o per quello della Internet delle cose, chip più potenti per computer più “carrozzati”, e sistemi in cui la parte di trasmissione o di gestione di input e output è centrale rispetto al calcolo o alla memoria.
Insomma, le ondate annuali di prodotti da parte di Intel lasciano immaginare una sorta di “chip à la carte” che l’azienda di Santa Clara sviluppa anche con partnership e accordi di co-progettazione e co-produzione, ad esempio con la britannica Arm o altri attori del mercato. Con l’obiettivo di continuare a sfruttare la legge di Moore che, per Intel, in definitiva è anche la chiave per misurare la bontà del proprio lavoro.