NVIDIA Fermi, la nuova architettura scopre le carte

NVIDIA Fermi, la nuova architettura scopre le carte

L'architettura Fermi, nome ufficiale sicuramente più suggestivo scelto da Nvidia per GT300, mostra le proprie potenzialità con numeri davvero impressionanti. Fermi andrà a costituire la base per le proposte commerciali destinate al mondo desktop di fascia alta, per i professionisti e per gli High Performance Computer

di , Andrea Bai, Paolo Corsini pubblicato il nel canale Schede Video
NVIDIA
 

NVIDIA Fermi e il visual computing

Enrico Fermi, il fisico italiano impegnato nella realizzazione del primo reattore nucleare a fissione, vissuto nella prima metà del secolo scorso, presta il proprio cognome alla nuova architettura NVIDIA, indicata dai media specializzati anche con il nome in codice di GT300. Un accostamento, quello del campo nucleare ad una scheda video (ma vedremo che potenzialmente è molto di più), volto a sottolineare la potenza del progetto, almeno nelle intenzioni di NVIDIA.

L'architettura Fermi è ovviamente protagonista del GTC di San José, evento organizzato da NVIDIA e supportato da un gran numero di partner. La Silicon Valley ospita dunque questa importante manifestazione, nella quale un folto pubblico ha atteso con impazienza le informazioni tanto sperate. Iniziamo col definire Fermi una piattaforma di calcolo, in quanto sarebbe riduttivo definirla una scheda video tout court. Una strada abbastanza chiara anche dalle recenti mosse di NVIDIA, che ha fatto di GPU Computing, di Cuda e del calcolo parallelo un'arma da mostrare ad ogni occasione. Il gaming passa quindi da primadonna a coprotagonista nei ventagli di utilizzo di NVIDIA Fermi e per convincere gli scettici NVIDIA mette in mostra numeri decisamente importanti, che vedremo nelle pagine seguenti.


Jen-Hsun Huang, CEO di NVIDIA, mostra per la prima volta una scheda Tesla basata su architettura Fermi

NVIDIA, da qualche tempo, manifesta l'intenzione di essere considerata un'azienda attiva nel visual computing e nel calcolo parallelo, come testimoniano gli sforzi nel campo dell'intrattenimento domestico, nella grafica 3D professionale, passando per l'automotive, così come nel campo mobile o nelle applicazioni in campo medico, metereologico e via dicendo. Se le scelte interne di progettazione alla base delle attuali schede della famiglia Tesla, nome che indica le proposte NVIDIA per il GPU Computing, risalgono a vari anni fa, è dal 2006 che sentiamo parlare attivamente da parte del produttore americano di architetture video destinate alla elaborazione non solo di pixel ma anche di calcoli tipicamente destinati ai processori.

Nel mese di Novembre 2006, infatti, NVIDIA ha presentato le proprie schede video della serie GeForce 8800, architetture a shader unificati che se da un lato introducevano per la prima volta il supporto hardware alle API DirectX 10, dall'altra ponevano le basi proprio per la serie di architetture video della serie Tesla. Questi prodotti sono stati presentati, come prima generazione, a Giugno 2007, seguiti circa 1 anno dopo dalla seconda generazione di prodotti Tesla basati su architettura GT200, con debutto pressoché contemporaneo a quello delle proposte per sistemi desktop destinate ai videogiocatori.

L'ambito del GPU Computing è per NVIDIA fondamentale: se le vendite di soluzioni Tesla non hanno al momento rappresentato una fonte di fatturato di peso nel bilancio dell'azienda americana, è evidente come tutti gli sforzi tecnologici compiuti da NVIDIA nelle ultime 2 architetture di GPU e in questa nuova indicata con il nome di Fermi mirino proprio a fornire uno strumento di elaborazione parallela che sia sempre più performante e capace di prendere il posto di cluster di tradizionali CPU.

Quanto è potenzialmente grande e ricco il mercato delle soluzioni GPU Computing? Secondo le stime di NVIDIA parecchio: nel corso dei prossimi 18 mesi NVIDIA prevede che le soluzioni HPC (High Performance Computing) nelle quali le proprie soluzioni possano prendere il posto di tradizionali CPU raggiungano un controvalore di oltre 1 miliardo di dollari:  200 milioni per i Supercomputer, 150 milioni per le università, 250 milioni per i dipartimenti di difesa, 230 milioni nell'ambito finanziario e 300 milioni per le ricerche legate alla sismica. Come ben sanno gli appassionati le GPU non possono sostituire appieno una tradizionale architettura di processore in ogni ambito di utilizzo; d'altro canto esistono numerosi scenari applicativi nei quali un cluster di GPU permette di ottenere prestazioni estremamente più elevate ad una frazione di costo d'acquisto e livello di consumo di un tradizionale cluster di CPU.

 
^