Nvidia cerca di trasformare l'apprendimento automatico con le GPU

Nvidia non è estranea alle applicazioni di data crunching della sua architettura GPU. Ha dominato il AI per anni nello spazio di sviluppo del deep learning e si è seduto piuttosto comodamente anche nella sfera dell’informatica scientifica. Ma ora sta cercando di scendere in campo apprendimento automatico, un mercato che rappresenta oltre la metà di tutti i progetti di dati intrapresi attualmente nel mondo.

Nvidia cerca di trasformare l'apprendimento automatico con le GPU

Vedi correlati 

L'apprendimento automatico impazzisce per questi adesivi affascinanti
AI e machine learning: qual è la differenza?
Nessun lavoro è troppo piccolo? Come il machine learning entrerà nel business quotidiano

Per fare ciò, ha lanciato hardware dedicato al machine learning sotto forma di DGX-2 e la nuova piattaforma open source Rapids. Progettato per funzionare insieme come una soluzione end-to-end completa, il machine learning basato su GPU di Nvidia è destinata a cambiare completamente il modo in cui le istituzioni e le aziende elaborano e comprendono i propri dati dati.

“L’analisi dei dati e l’apprendimento automatico sono i segmenti più grandi del mercato dell’informatica ad alte prestazioni che non hanno subito un’accelerazione”, ha spiegato Jensen Huang, fondatore e CEO di Nvidia, sul palco del GTC Europe 2018. “Le più grandi industrie del mondo eseguono algoritmi scritti dall’apprendimento automatico su un mare di server per percepire la complessità modelli nel loro mercato e ambiente e fanno previsioni rapide e precise che incidono direttamente sul loro fondo linea."

LEGGI SUCCESSIVO: AI e machine learning: qual è la differenza?

Tradizionalmente l’apprendimento automatico ha avuto luogo interamente su sistemi basati su CPU a causa della loro proliferazione e dei relativi progressi della Legge di Moore. Ora che la Legge di Moore è giunta al termine, è tempo che i data scientist trovino una soluzione più potente per alimentare le loro macchine che elaborano i numeri. È un mercato che, secondo gli analisti, vale circa 36 miliardi di dollari (26,3 miliardi di sterline) all’anno. non c'è da stupirsi che Nvidia voglia una fetta della torta e la possibilità di far avanzare il campo dell'apprendimento automatico con il proprio prodotti.

“Stiamo potenziando il machine learning come abbiamo fatto con il deep learning”

"Sulla base di CUDA e del suo ecosistema globale e lavorando a stretto contatto con la comunità open source, abbiamo creato la piattaforma di accelerazione GPU Rapids", ha affermato Huang. “Si integra perfettamente nelle librerie e nei flussi di lavoro di data science più famosi al mondo per accelerare l’apprendimento automatico.

"Stiamo potenziando il machine learning come abbiamo fatto con il deep learning."

Senza entrare in tutte le sciocchezze tecniche dietro tutto questo – e credetemi, ce ne sono molte – è davvero abbastanza chiaro quanto siano più veloci i sistemi GPU di Nvidia rispetto alle tradizionali macchine CPU apprendimento.

LEGGI SUCCESSIVO: Usare le reti neurali per fare arte

nvidia_gtc_2018_dgx-2_on-stage_reveal

In un esempio presentato dal vivo sul palco, la piattaforma di Nvidia ha analizzato 16 anni di dati su mutui e prestiti da un importante intermediario ipotecario in circa 40 secondi. Su un sistema CPU tradizionale basato su Python, l'operazione richiederebbe circa due minuti.

Per un processo più avanzato di creazione di un modello da cui un'intelligenza artificiale possa imparare per creare previsioni sul comportamento – come ad esempio modellare la probabilità che qualcuno vada in default su un prestito data la sua storia – richiede un po’ più di tempo. Su un sistema tradizionale da 100 CPU, occorrerebbe circa mezz'ora e anche di più su un array da 20 CPU. Come parte del sistema DGX-2 e Rapids di Nvidia, funziona in circa due minuti che Huang ha impiegato per spiegare cosa stavamo vedendo accadere.

Ciò, ovviamente, si traduce in vantaggi in termini di tempo per i data scientist e accelera il ritmo di apprendimento per le aziende. Come sottolinea anche Huang, un DGX-2 è in grado di sostenere lo stesso carico di lavoro di 300 server. Ciò potrebbe costare a un'azienda oltre 3 milioni di dollari per l'installazione, con lo stesso livello di spesa per DGX-2 sistemi che eseguono Rapids, un’azienda semplicemente non saprebbe cosa fare con quel livello di potenza di calcolo.

LEGGI SUCCESSIVO: Cloud AutoML di Google spera di rendere accessibile a tutti il ​​machine learning

Non è nemmeno tutta aria fritta poiché Nvidia ha già avuto importanti aziende che si sono espresse a sostegno della sua piattaforma di apprendimento automatico accelerata da GPU. Walmart ha iniziato a utilizzarlo per comprendere la gestione e le previsioni delle scorte per garantire di poter ridurre drasticamente gli sprechi alimentari nei suoi negozi.

Negli ambiti tecnologici, HPE ha collaborato con Nvidia per migliorare le offerte di machine learning ai propri clienti; IBM sta cercando di utilizzarlo con la sua Watson AI e una varietà di altri programmi di machine learning che esegue, e Oracle lo è avvalendosi della piattaforma open source Rapids e di una suite di DGX-2 per potenziare gli insight sul proprio Oracle Cloud infrastruttura.

In definitiva, l’idea è che Rapids e DGX-2 aprano le opportunità dell’apprendimento automatico a nuovi mercati e imprese. Le aziende che non hanno i budget o le capacità per gestire rack di server o impiegare risme di data scientist potrebbero ora essere in grado di farlo. È una tecnologia che, sebbene non intrinsecamente attraente, potrebbe avere un enorme impatto sul modo in cui le aziende gestiranno in futuro.