NEI MUSCOLI DEL CERVELLONE
ENI AFFIDA I SUOI DATI A UN SUPERCOMPUTER TRA USA E CINA È GARA ANCHE SUI PETAFLOPS
Esiste una teoria, per la verità un po’ distopica, secondo la quale presto il progresso tecnologico esprimerà una velocità di cambiamento tale da superare la capacità di comprensione — e quindi di dominio — del genere umano. Si chiama «singolarità» e sostiene che il numero di dati sfornati a ciclo continuo dalle macchine prima o poi finirà per sommergerci. Ci troveremo persi, spaesati nella confusione del rumore bianco del bit digitale: e l’unica speranza di salvezza, a quel punto, sarà l’intelligenza artificiale.
Ecco perché, in attesa del più volte annunciato ma ancora mai veramente concretizzatosi «salto quantico», nella nuova sfida informatica che si combatte a suon di byte e petaflops le dimensioni contano, eccome. Sembra di essere ritornati agli anni 50, quando i calcolatori assomigliavano a degli armadi a quattro ante. Un ritorno al futuro, insomma, che sa quasi di «Corsa allo Spazio». Governi e corporation — da Google a Ibm, da Facebook a Apple — macinano milioni di dollari al giorno per aumentare le capacità di calcolo e sviluppare hardware sempre più stabili e veloci.
D’altronde, la posta in gioco è alta. Ha le dimensioni della geopolitica. Molecole intelligenti in grado di sconfiggere tumori e malattie degenerative come il Parkinson e l’alzheimer. Strumenti di trasferimento di informazioni sensibili a prova di hacker. Nuovi materiali dotati di inedite proprietà adattive. Macchine in grado di imparare — e di produrre — più velocemente del cervello umano. Ci aveva visto giusto lo scrittore Andrew Keen quando disse, ormai più di un decennio fa, che «i dati saranno il nuovo petrolio». Tanti dati, una montagna di dati appiattiti nel silicio: benvenuti nella quarta rivoluzione industriale, the big data era, dove vincerà chi saprà utilizzare — processare — al meglio l’incessante scorrere delle informazioni.
Alla fine degli anni Cinquanta, su suggerimento di Enrico Fermi il Cnr mise a punto in Toscana un avanzatissimo calcolatore che fu battezzato Cep. Fuor di acronimo, la Calcolatrice elettronica pisana occupava più stanze e i suoi duemila transistor le permettevano di risolvere in pochi minuti un sistema di 100 equazioni lineari in 100 incognite: era nato il primo supercomputer della storia.
Poi, però, il fisico vicentino Federico Faggin, emigrato in Silicon Valley, nel 1970 sviluppò per Intel il primo microno chip e d’un tratto l’umanità ebbe l’illusione che tutto si potesse tenere in tasca: i Pc , poi i laptop e infine gli iphone. Ma più piccoli diventavano i device maggiore era la quantità di dati da digerire. Byte, Megabyte, Gigabyte, Terabyte, Petabyte, Exabyte. Addio downsizing: serve sempre più spazio. È come accade per le navi container: i cantieri le costruiscono sempre più capienti e, per muoverle, in mancanza di una tecnologia davvero disruptive, l’unica soluzione sostenibile è quella di dotarle di motori sempre più potenti.
Eni, ad esempio, ha appena messo a punto un super processore capace di effettuare 23 milioni di miliardi di operazioni al secondo. Due armadi grandi come container da 1.600 processori per 76 mila core (i computer che abbiamo in casa raggiungono a stento i dieci), Hpc4 è stato installato nel nuovissimo data center di Ferrera Erbognone, nella campagna pavese e, al momento, è il processore più potente d’europa: servirà al Cane a sei zampe a trovare il petrolio del futuro, trasformando i dati grezzi restituiti dal buio del sottosuolo in una mappa aggiornata e intellegibile, un po’, per intendersi, come fanno i pipistrelli per orientarsi di notte. Un vantaggio competitivo palpabile, dato che ha portato alla recente scoperta del maxi-giacimento egiziano di Zohr. «Aprire un pozzo è un impegno di decine di milioni di euro e una tecnologia del genere minimizza il rischio» ha spiegato l’ad di Eni Claudio Descalzi.
Dalla fisica delle alte energie alla chimica molecolare, dalla biologia allo studio del Dna fino alle simulazioni militari, questi calcolatori lavorano al gelo dei condizionatori e mostrano i muscoli delle super potenze allo stesso modo delle parate con i carri armati. Non è un caso che Cina e Usa si contendano il primato dei Petaflops (i flop sono le unità di calcolo per secondo). A Wuxi, nello Jangsu, lavora- i 93 mila Teraflops per secondo del Sunway Taihulight, un bestione blu e nero che il governo di Pechino sfrutta anche per ricerche militari: seguito dal Sequoia di Ibm, utilizzato da Washington per fare simulazioni nucleari, è, per il momento, il processore più potente del mondo. Per il momento. Perché, come dice il presidente del Cnr, il fisico Massimo Inguscio, «la storia dei supercomputer, iniziata con la Calcolatrice pisana, è ormai arrivata al suo culmine e quindi alla fine».
Una nuova tecnologia, il computer quantistico, è infatti alle porte. I bit saranno sostituiti dai qbit, unità capaci di eseguire in parallelo una serie altissima di operazioni. E di nuovo le dimensioni, proprio come accadde con il chip quarant’anni fa, non saranno più un problema.
Le dimensioni
Due armadi grandi come container e 23 milioni di miliardi di operazioni al secondo