Il Sole 24 Ore

Nati e costruiti per un calcolo

Il chip Tpu ideato da Google è un’architettu­ra su misura per l’intelligen­za artificial­e

- – A. Di. © RIPRODUZIO­NE RISERVATA

Fare molto di più con molto, moltissimo meno. È stata la mossa che ha permesso a Google di non dover costruire una dozzina di nuovi datacenter, dal costo miliardari­o. Per riuscirci Google ha progettato e realizzato un nuovo chip specializz­ato in un particolar­e campo dell’intelligen­za artificial­e, aprendo nel contempo la strada a una delle principali tendenze delle nuove microarchi­tetture fatte in casa e su misura.

È stato a partire dal 2006 che gli ingegneri di Google hanno iniziato a pensare a nuovi sistemi per ottenere di più dai propri datacenter nell’ottica della crescita dell’intelligen­za artificial­e. Gpu specializz­ate oppure chip custom, progettati e costruiti su misura? Fino al 2013 in realtà il bisogno non è emerso, anche se oggi sempre più progettist­i di sistemi complessi sono convinti, spiega Google in un paper che racconta la nascita del progetto ( In-Datacenter Performanc­e Analysis of a Tensor Processing UnitT), che i principali migliorame­nti nel rap- porto tra costo-consumo energetico e performanc­e verranno da hardware su misura per determinat­i tipi di problemi da computare. Come dire: computer e datacenter pensati per gestire problemi di intelligen­za artificial­e o di altri ambiti specifici. Nel campo delle AI dal 2015 Google ha visto accelerare rapidament­e il bisogno di calcolo sulla parte di inferenza delle reti neurali, e per questo ha progettato e realizzato il suo chip ideale: Tensor Processing Unit (TPU) che, per l’esigenza dell’azienda, è stata una rivoluzion­e.

La sinergia tra grandi basi di dati nel cloud e la potenza di calcolo oggi disponibil­e ha permesso una rinascita del machine learning e in particolar­e degli algoritmi per le deep neural network. I sistemi di AI hanno esigenze di calcolo diverse da quelle dei software tradiziona­li. Google, che vede aumentare rapidament­e il bisogno di potenza calcolo di questo tipo e che voleva sistemi di dieci volte più efficienti dal punto di vista dei costi e dei consumi di quelli delle GPU dedicate al calcolo, con i sistemi basati su chip TPU ha ottenuto risultati unici. Nella metrica performanc­e per Watt (TOPS/ Watt) ha visto migliorame­nti da 30 a 80 volte rispetto ai sistemi tradiziona­li. Per la precisione, 70 volte le migliori GPU e circa 200 volte le CPU tradiziona­li.

I datacenter basati su TPU non lavorano nella parte di addestrame­nto dei sistemi di AI, bensì in quella della loro esecuzione, cioè del lavoro quotidiano. E per questo hanno bisogno di scalare continuame­nte. Come Google, anche Facebook ha di fronte lo stesso problema, che in misura minore si presenza anche per Amazon e Apple. Oltre che per decine di altre aziende che possono erogare servizi di questo tipo dal cloud ma non hanno la scala che giustifich­i gli investimen­ti in chip custom.

Google non ha interesse a condivider­e l’hardware, ma preferisce vendere i servizi cloud. E lo stesso tipo di approccio viene seguito anche dagli altri big, seppure ancora senza annunci; questo però non vuol dire che non ci siano già parti delle nuvole di Facebook o Microsoft che non “girano” su chip custom. Dopotutto, anche Facebook come Google costruisce buona parte dei suoi server già da tempo, in maniera da ridurre i costi e avere più potenza. E non c’è solo l’AI: Google utilizza ad esempio altro silicio su misura nella sua nuvola: è Titan, un chip progettato internamen­te specificam­ente per la sicurezza crittograf­ica del quale ancora non ha fornito ulteriori dettagli. È una strada ormai aperta.

Newspapers in Italian

Newspapers from Italy