Nati e costruiti per un calcolo
Il chip Tpu ideato da Google è un’architettura su misura per l’intelligenza artificiale
Fare molto di più con molto, moltissimo meno. È stata la mossa che ha permesso a Google di non dover costruire una dozzina di nuovi datacenter, dal costo miliardario. Per riuscirci Google ha progettato e realizzato un nuovo chip specializzato in un particolare campo dell’intelligenza artificiale, aprendo nel contempo la strada a una delle principali tendenze delle nuove microarchitetture fatte in casa e su misura.
È stato a partire dal 2006 che gli ingegneri di Google hanno iniziato a pensare a nuovi sistemi per ottenere di più dai propri datacenter nell’ottica della crescita dell’intelligenza artificiale. Gpu specializzate oppure chip custom, progettati e costruiti su misura? Fino al 2013 in realtà il bisogno non è emerso, anche se oggi sempre più progettisti di sistemi complessi sono convinti, spiega Google in un paper che racconta la nascita del progetto ( In-Datacenter Performance Analysis of a Tensor Processing UnitT), che i principali miglioramenti nel rap- porto tra costo-consumo energetico e performance verranno da hardware su misura per determinati tipi di problemi da computare. Come dire: computer e datacenter pensati per gestire problemi di intelligenza artificiale o di altri ambiti specifici. Nel campo delle AI dal 2015 Google ha visto accelerare rapidamente il bisogno di calcolo sulla parte di inferenza delle reti neurali, e per questo ha progettato e realizzato il suo chip ideale: Tensor Processing Unit (TPU) che, per l’esigenza dell’azienda, è stata una rivoluzione.
La sinergia tra grandi basi di dati nel cloud e la potenza di calcolo oggi disponibile ha permesso una rinascita del machine learning e in particolare degli algoritmi per le deep neural network. I sistemi di AI hanno esigenze di calcolo diverse da quelle dei software tradizionali. Google, che vede aumentare rapidamente il bisogno di potenza calcolo di questo tipo e che voleva sistemi di dieci volte più efficienti dal punto di vista dei costi e dei consumi di quelli delle GPU dedicate al calcolo, con i sistemi basati su chip TPU ha ottenuto risultati unici. Nella metrica performance per Watt (TOPS/ Watt) ha visto miglioramenti da 30 a 80 volte rispetto ai sistemi tradizionali. Per la precisione, 70 volte le migliori GPU e circa 200 volte le CPU tradizionali.
I datacenter basati su TPU non lavorano nella parte di addestramento dei sistemi di AI, bensì in quella della loro esecuzione, cioè del lavoro quotidiano. E per questo hanno bisogno di scalare continuamente. Come Google, anche Facebook ha di fronte lo stesso problema, che in misura minore si presenza anche per Amazon e Apple. Oltre che per decine di altre aziende che possono erogare servizi di questo tipo dal cloud ma non hanno la scala che giustifichi gli investimenti in chip custom.
Google non ha interesse a condividere l’hardware, ma preferisce vendere i servizi cloud. E lo stesso tipo di approccio viene seguito anche dagli altri big, seppure ancora senza annunci; questo però non vuol dire che non ci siano già parti delle nuvole di Facebook o Microsoft che non “girano” su chip custom. Dopotutto, anche Facebook come Google costruisce buona parte dei suoi server già da tempo, in maniera da ridurre i costi e avere più potenza. E non c’è solo l’AI: Google utilizza ad esempio altro silicio su misura nella sua nuvola: è Titan, un chip progettato internamente specificamente per la sicurezza crittografica del quale ancora non ha fornito ulteriori dettagli. È una strada ormai aperta.