Il punto di vista Intel su CUDA

Il punto di vista Intel su CUDA

Pat Gelsinger prevede un futuro senza troppi successi per CUDA e in generale per le elaborazioni GPGPU non puramente x86

di pubblicata il , alle 08:22 nel canale Schede Video
IntelCUDA
 

In occasione di un evento per i 40 anni dall'apertura di Intel, Pat Gelsinger ha rilasciato alcune dichiarazioni su quello che potrà essere, a suo avviso, il futuro delle elaborazoni GPU Computing e in particolare del ruolo rivestito da linguaggi di programmazione come CUDA.

Per Gelsinger, e di conseguenza per Intel, l'approccio alla programmazione via GPU deve necessariamente passare attraverso architetture x86, così da rendere l'ambiente il più possibile neutro ai programmatori abituati a programmare per i processori.

Uno dei principali limiti nell'utilizzo delle GPU per elaborazioni di GPU Computing è la necessità di dover riadattare il proprio codice affinché possa venir elaborato correttamente dalla scheda video. Per raggiungere questo tipo di risultato nel modo più trasparente possibile per il programamtore NVIDIA ha sviluppato CUDA, un linguaggio molto simile a quello C con il quale un programmatore può scrivere applicazioni direttamente per la GPU.

Gelsinger ha argomentato la propria affermazione partendo da presupposto che l'evoluzione informatica non ha mai premiato soluzioni che siano, in misura più o meno ampia, di tipo chiuso. Tutto quello che richiede ai programmatori di imparare ed utilizzare nuovi linguaggi viene difficilmente accettato e utilizzato in modo massiccio, anche nel momento in cui le nuove tecniche permettono di ottenere livelli di scalabilità delle prestazioni di 10 o 20 volte superiori rispetto ad un approccio tradizionale.

In alcuni casi specifici i benefici prestazionali che possono essere ottenuti giustificano abbondantemente i costi legati alla riprogrammazione e all'adozione di un nuovo modello di programmazione, ma in generale la storia dell'evoluzione informatica ha sempre premiato gli standard di mercato in termini di programmazione. Un esempio citato è quello dell'architettura Cell, che avrebbe douto rivoluzionare l'approccio alla programmazione ma che dopo anni dalla presentazione ha trovato limitati ambiti di utilizzo rispetto alle tradizionali architetture x86.

Un approccio di questo tipo da parte di Intel, del resto, non deve sorprendere: le architetture Larrabee saranno basate su core in grado di elaborare codice x86 in modo nativo. E' quindi illogico pensare che Intel possa promuovere l'utilizzo di linguaggi di programmazione più o meno customizzati per utilizzare una GPU per elaborazioni di calcolo parallelo.

Fonte: CustomPC.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

28 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
massidifi03 Luglio 2008, 08:48 #1
Dichiarazione del tutto scontata...
Marclenders03 Luglio 2008, 08:48 #2
Alla intel sono solo Nvidiosi
Mercuri003 Luglio 2008, 08:53 #3
Alla lntel hanno ragione per metà: CUDA tra due anni nessuno sentirà più parlare, ma

Un approccio di questo tipo da parte di Intel, del resto, non deve sorprendere: le architetture Larrabee saranno basate su core in grado di elaborare codice x86 in modo nativo. E' quindi illogico pensare che Intel possa promuovere l'utilizzo di linguaggi di programmazione più o meno customizzati per utilizzare una GPU per elaborazioni di calcolo parallelo.


... ci vorranno comunque linguaggi di programmazione specifici per la programmazione degli stream processor. E' illogico pensare che si possa usare un'approccio multithreading tradizionale per robe con 64+ unità di calcolo "da GPU".
Marclenders03 Luglio 2008, 09:05 #4
a parte gli scherzi penso che le GPGPU "Tradizionali" di Ati ed Nvidia saranno usate solo per quelle particolari applicazioni che riescono a beneficiare al massimo di questa tecnologia... vedi il calcolo scientifico
DarKilleR03 Luglio 2008, 09:22 #5
bhè forse è anche per questo motivo che nel GPGPU ATI è un pelo in vantaggio (non dico come publicità che CUDA ultimamente si legge anche nei muri dei cessi alle università...
Però è un linguaggio OpenSource...e se non sbaglio si basa su X86 giusto?

Qualcuno può confermare quello che ho sentito?
Opteranium03 Luglio 2008, 09:26 #6

secondo me hanno la CUDA di paglia..

;-)
goldorak03 Luglio 2008, 09:43 #7
Niente coda di paglia ma solo un avvertimento che il futuro si trova in x86.
Cuda non salvera' Nvidia se Intel porta al completamento il progetto larrabee.
I prossimi 2-3 anni saranno veramente interessanti, sopratutto sul versante grafico con l'arrivo a grandi passi del ray tracing in realtime per i videogames.
liviux03 Luglio 2008, 10:00 #8
Originariamente inviato da: goldorak
Niente coda di paglia ma solo un avvertimento che il futuro si trova in x86.

Il passato e il presente, certamente. Ma sul futuro non mi sbilancerei.
Il punto di forza di Intel consiste nell'enorme massa di applicazioni e strumenti legati al suo set di istruzioni CISC. Ma non esiste una simile massa di software massicciamente parallelo basato su x86: dovranno inventare qualche estensione tipo "SSE5" per sfruttare numeri consistenti di core (diciamo da 32 in su). E per farlo il codice dovrà essere di tipo vettoriale, non multithreaded. A questo punto, dovendo reimplementare da zero adottando nuove librerie e perfino nuovi linguaggi, che vantaggio avreste scegliendo un set di istruzioni parzialmente basato su estensioni di estensioni di estensioni di un'architettura CISC di trent'anni fa? Piuttosto punterei su qualcosa di nuovo e pensato fin dal principio per il calcolo vettoriale.
Non ho idea di quanto CUDA sia aperto o chiuso, ma si sente fortemente l'esigenza di uno standard aperto e dubito che possa essere l'ennesima mutazione di x86 ad imporsi.
bLaCkMeTaL03 Luglio 2008, 10:03 #9
intel lancia ufficialmente il guanto di sfida ad nVIDIA, fra tre/cinque anni vedremo se nVIDIA chiude baracca e se ne ritorna a casa o se intel prende una bella batosta in ambito grafico.
Comunque vada, IMHO queste sfide "intelettuali" porteranno benefici nel ns. settore.
goldorak03 Luglio 2008, 10:05 #10
Originariamente inviato da: liviux
Il passato e il presente, certamente. Ma sul futuro non mi sbilancerei.
Il punto di forza di Intel consiste nell'enorme massa di applicazioni e strumenti legati al suo set di istruzioni CISC. Ma non esiste una simile massa di software massicciamente parallelo basato su x86: dovranno inventare qualche estensione tipo "SSE5" per sfruttare numeri consistenti di core (diciamo da 32 in su). E per farlo il codice dovrà essere di tipo vettoriale, non multithreaded. A questo punto, dovendo reimplementare da zero adottando nuove librerie e perfino nuovi linguaggi, che vantaggio avreste scegliendo un set di istruzioni parzialmente basato su estensioni di estensioni di estensioni di un'architettura CISC di trent'anni fa? Piuttosto punterei su qualcosa di nuovo e pensato fin dal principio per il calcolo vettoriale.
Non ho idea di quanto CUDA sia aperto o chiuso, ma si sente fortemente l'esigenza di uno standard aperto e dubito che possa essere l'ennesima mutazione di x86 ad imporsi.


Ti dice niente il progetto Larrabee ?
Mamma mia, molti dormono e non si accorgono ancora che il gigante incombe. Il risveglio sara' devastante per Nvidia, un po' meno per ATI che e' gia' inglobata in AMD.

Guarda cosa dicono nei blog della Intel : http://blogs.intel.com/research/200...come_advice.php

Increasingly, we are discussing how to scale performance to core counts that we aren’t yet shipping (but in some cases we’ve hinted heavily that we’re heading in this direction). Dozens, hundreds, and even thousands of cores are not unusual design points around which the conversations meander. Over time, I find that developers migrate their thinking from the first kind of discussion to the second.


Quando parlano di migliaia di core stanno facendo riferimento a core x86.
E dove le trovi migliaia di core x86 ? Sull'equivalente delle schede grafiche moderne.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^