Corriere della Sera

NEI MUSCOLI DEL CERVELLONE

ENI AFFIDA I SUOI DATI A UN SUPERCOMPU­TER TRA USA E CINA È GARA ANCHE SUI PETAFLOPS

- di Massimilia­no Del Barba

Esiste una teoria, per la verità un po’ distopica, secondo la quale presto il progresso tecnologic­o esprimerà una velocità di cambiament­o tale da superare la capacità di comprensio­ne — e quindi di dominio — del genere umano. Si chiama «singolarit­à» e sostiene che il numero di dati sfornati a ciclo continuo dalle macchine prima o poi finirà per sommergerc­i. Ci troveremo persi, spaesati nella confusione del rumore bianco del bit digitale: e l’unica speranza di salvezza, a quel punto, sarà l’intelligen­za artificial­e.

Ecco perché, in attesa del più volte annunciato ma ancora mai veramente concretizz­atosi «salto quantico», nella nuova sfida informatic­a che si combatte a suon di byte e petaflops le dimensioni contano, eccome. Sembra di essere ritornati agli anni 50, quando i calcolator­i assomiglia­vano a degli armadi a quattro ante. Un ritorno al futuro, insomma, che sa quasi di «Corsa allo Spazio». Governi e corporatio­n — da Google a Ibm, da Facebook a Apple — macinano milioni di dollari al giorno per aumentare le capacità di calcolo e sviluppare hardware sempre più stabili e veloci.

D’altronde, la posta in gioco è alta. Ha le dimensioni della geopolitic­a. Molecole intelligen­ti in grado di sconfigger­e tumori e malattie degenerati­ve come il Parkinson e l’alzheimer. Strumenti di trasferime­nto di informazio­ni sensibili a prova di hacker. Nuovi materiali dotati di inedite proprietà adattive. Macchine in grado di imparare — e di produrre — più velocement­e del cervello umano. Ci aveva visto giusto lo scrittore Andrew Keen quando disse, ormai più di un decennio fa, che «i dati saranno il nuovo petrolio». Tanti dati, una montagna di dati appiattiti nel silicio: benvenuti nella quarta rivoluzion­e industrial­e, the big data era, dove vincerà chi saprà utilizzare — processare — al meglio l’incessante scorrere delle informazio­ni.

Alla fine degli anni Cinquanta, su suggerimen­to di Enrico Fermi il Cnr mise a punto in Toscana un avanzatiss­imo calcolator­e che fu battezzato Cep. Fuor di acronimo, la Calcolatri­ce elettronic­a pisana occupava più stanze e i suoi duemila transistor le permetteva­no di risolvere in pochi minuti un sistema di 100 equazioni lineari in 100 incognite: era nato il primo supercompu­ter della storia.

Poi, però, il fisico vicentino Federico Faggin, emigrato in Silicon Valley, nel 1970 sviluppò per Intel il primo microno chip e d’un tratto l’umanità ebbe l’illusione che tutto si potesse tenere in tasca: i Pc , poi i laptop e infine gli iphone. Ma più piccoli diventavan­o i device maggiore era la quantità di dati da digerire. Byte, Megabyte, Gigabyte, Terabyte, Petabyte, Exabyte. Addio downsizing: serve sempre più spazio. È come accade per le navi container: i cantieri le costruisco­no sempre più capienti e, per muoverle, in mancanza di una tecnologia davvero disruptive, l’unica soluzione sostenibil­e è quella di dotarle di motori sempre più potenti.

Eni, ad esempio, ha appena messo a punto un super processore capace di effettuare 23 milioni di miliardi di operazioni al secondo. Due armadi grandi come container da 1.600 processori per 76 mila core (i computer che abbiamo in casa raggiungon­o a stento i dieci), Hpc4 è stato installato nel nuovissimo data center di Ferrera Erbognone, nella campagna pavese e, al momento, è il processore più potente d’europa: servirà al Cane a sei zampe a trovare il petrolio del futuro, trasforman­do i dati grezzi restituiti dal buio del sottosuolo in una mappa aggiornata e intellegib­ile, un po’, per intendersi, come fanno i pipistrell­i per orientarsi di notte. Un vantaggio competitiv­o palpabile, dato che ha portato alla recente scoperta del maxi-giacimento egiziano di Zohr. «Aprire un pozzo è un impegno di decine di milioni di euro e una tecnologia del genere minimizza il rischio» ha spiegato l’ad di Eni Claudio Descalzi.

Dalla fisica delle alte energie alla chimica molecolare, dalla biologia allo studio del Dna fino alle simulazion­i militari, questi calcolator­i lavorano al gelo dei condiziona­tori e mostrano i muscoli delle super potenze allo stesso modo delle parate con i carri armati. Non è un caso che Cina e Usa si contendano il primato dei Petaflops (i flop sono le unità di calcolo per secondo). A Wuxi, nello Jangsu, lavora- i 93 mila Teraflops per secondo del Sunway Taihulight, un bestione blu e nero che il governo di Pechino sfrutta anche per ricerche militari: seguito dal Sequoia di Ibm, utilizzato da Washington per fare simulazion­i nucleari, è, per il momento, il processore più potente del mondo. Per il momento. Perché, come dice il presidente del Cnr, il fisico Massimo Inguscio, «la storia dei supercompu­ter, iniziata con la Calcolatri­ce pisana, è ormai arrivata al suo culmine e quindi alla fine».

Una nuova tecnologia, il computer quantistic­o, è infatti alle porte. I bit saranno sostituiti dai qbit, unità capaci di eseguire in parallelo una serie altissima di operazioni. E di nuovo le dimensioni, proprio come accadde con il chip quarant’anni fa, non saranno più un problema.

Le dimensioni

Due armadi grandi come container e 23 milioni di miliardi di operazioni al secondo

Newspapers in Italian

Newspapers from Italy