View Full Version : Uno stream processor dedicato da AMD
Redazione di Hardware Upg
15-11-2006, 10:09
Link alla notizia: http://www.hwupgrade.it/news/server/19232.html
AMD annuncia la disponibilità della propria prima soluzione per il calcolo GP-GPU; alla base la GPU R580 adottata dalle schede Radeon X1900 e X1950
Click sul link per visualizzare la notizia.
paulgazza
15-11-2006, 10:19
Bah, mi sembra semplicemente una scheda video con driver orientati al GPGPU
Paganetor
15-11-2006, 10:21
bello! :)
solo mi domando una cosa: una GPU è progettata per eseguire bene determinati calcoli, quindi è molto veloce proprio nell'eseguire quei calcoli specifici. Una CPU sarà più lenta, ma è "general purpose"...
quali sono le applicazioni nelle quali l'architettura di una GPU è vincente? o è solo una questione di ottimizzazione del programma che la utilizza, visto che è comunque un processore N volte più veloce di una CPU?
farinacci_79
15-11-2006, 10:26
...SI DIA INIZIO ALLE DANZE!
HO L'IMPRESSIONE CHE TORRENZA SEGNERà IL RITORNO DI AMD ALL'APICE DELLE PRRESTAZIONI.
Per il momento è troppo giovane e costosa come architettura per proporla al di fuori di workstation dedicate e server, ma in linea teorica siamo di fronte ad una modularità che permette una flessibilità molto elevata, non chè il raggiungimento di prestazioni ottime.
Finalmente, con l'introduzione di una VGA su socket, spariscono i problemi di banda di collegamento e colli di bottiglia vari e si può sfruttare la GPU in ambito multicore assieme alla/alle CPU, quindi beneficiando dell'estrema potenza raggiunta da questi chip ben oltre la "semplice" gestione del 3D e dei flussi video.
SpyroTSK
15-11-2006, 10:29
Non ho capito bene, sarebbe tipo una quadro? O.o'
Gerardo Emanuele Giorgio
15-11-2006, 10:30
fra poco la cpu diventerà il northbridge della GPU :D
Paganetor
15-11-2006, 10:32
@Gerardo Emanuele Giorgio: LOL! :D
PhoEniX-VooDoo
15-11-2006, 10:35
Vedremo...per intanto "TORRENZA" come nome fa ca..il..ca :asd:
Cybor069
15-11-2006, 10:38
Incredibile hanno riinventato l'architettura di Amiga (sigh)
Vabbeh, stavolta l'ho sparata un pò grossa :-)
finalmente modi e strumenti per poter utilizzare la potenza d'elaborazione messa a disposizione dalle GPU!
coschizza
15-11-2006, 10:43
bello! :)
solo mi domando una cosa: una GPU è progettata per eseguire bene determinati calcoli, quindi è molto veloce proprio nell'eseguire quei calcoli specifici. Una CPU sarà più lenta, ma è "general purpose"...
quali sono le applicazioni nelle quali l'architettura di una GPU è vincente? o è solo una questione di ottimizzazione del programma che la utilizza, visto che è comunque un processore N volte più veloce di una CPU?
http://www.gpgpu.org/
questo è un sito che parla di questo, cioe dei programmi algaritmi ecc che possono trarre grandi benefici dallo sfruttamento delle gpu
se leggi gli articoli e recensioni della nuova nvidia G80 vedrai:
http://www.anandtech.com/video/showdoc.aspx?i=2870&p=8
come anche loro hanno fatto un sdk (che chiamano CUDA http://developer.nvidia.com/object/cuda.html) specifico, ma nel loro caso hanno anche il supporto hardware della nuova gpu che per questi compiti è molto ma molto piu performante e comodo da programmare (anche perche è stata progettata fare specificamente questi compiti) della controparte amd almeno fino all'arrivo della r600, il vantaggio sta principalmente nel fatto che la nuova g80 supporta gli shader delle direct10 che introducono migliorie in questo campo, principalmente:
-supporto dei valori interi nei calcoli dentro la gpu
-supporto hardware migliorato per codice con molti salti
-possibilità di utilizzare gli shader non solo per generare pixel o vertex ma poter ottenere dei valori intermedi, altrimenti oggi come oggi per fare un banale 1+1 tramile la gpu devi passare per l'intera pipeline della gpu e lavorare su valori in virgola mobile anche se non era necessario.
-molti piu buffer per le costanti e variabili degli shader
-lunghezza virtualmente illimitata della lunghezza del codice
e poi molti altri ancora
sfruttare le gpu per calcoli general purpone è ancora molto complicato ma dovendo utilizzare codice con elaborazione parallela su dati in stream gli incrementi rispetto cpu dual o quad core moderne possono essere su ordine di 10-100x superiori
capitan_crasy
15-11-2006, 11:37
EDIT
Thread sbagliato! :doh:
La MS aveva fatto un SDK che si appoggiava sulle DX9 (e quindi indipendente dalla scheda grafica). Con una 7800 GTX si erano ottenuti risultati fino a 18 volte più veloci di un P4 3 GHz (ma anche risultati 0,7 volte veloci... E' chiaro che in quel caso non si usa la GPU)
coschizza
15-11-2006, 13:16
La MS aveva fatto un SDK che si appoggiava sulle DX9 (e quindi indipendente dalla scheda grafica). Con una 7800 GTX si erano ottenuti risultati fino a 18 volte più veloci di un P4 3 GHz (ma anche risultati 0,7 volte veloci... E' chiaro che in quel caso non si usa la GPU)
mi confermi che è questo l'sdk che citavi?
lo avevo provato gia moltissimo tempo fa la verisone 1.0 ma non ero stato in grado di utilizzarlo per mie carenze di programmazione
ora (dopo aver letto la tua post) ho notato che (non credo casualmente) è appena uscita la versione 1.1, evidentemente visto che anche gli altri si stanno muovendo in questa direzione non vuole restare scoperta su questa grande possibilità di sviluppo tramite gpu
se qualcuno la prova potrebbe dirci se funziona grazie :)
http://research.microsoft.com/research/downloads/Details/25e1bea3-142e-4694-bde5-f0d44f9d8709/Details.aspx?CategoryID=
eta_beta
15-11-2006, 14:10
ho cercato di ricevere i pacchetti sia di ati che di nvidia
ma non ho avito niente
leoneazzurro
15-11-2006, 14:28
La MS aveva fatto un SDK che si appoggiava sulle DX9 (e quindi indipendente dalla scheda grafica). Con una 7800 GTX si erano ottenuti risultati fino a 18 volte più veloci di un P4 3 GHz (ma anche risultati 0,7 volte veloci... E' chiaro che in quel caso non si usa la GPU)
No, anche in quel caso si usava la GPU. Semplicemente il codice era meno adatto alle capacità della 7800 GTX (pesante uso di branching). ;)
Le nuove schede invece dovrebbero avere meno problemi, anche se a seconda del codice utilizzato le prestazioni possono comunque variare di un ordine di grandezza.
LoneRunner
15-11-2006, 15:42
Così le schede madri con 3 PCI-Express 16x avranno un senso... :D
A questo punto possiamo montare direttamente su socket su mobo la Gpu, ed eliminiamo l'unità di virgola mobile della CPU.
Mi suona tipo 386sx con coprocessore matematico... :asd:
george_p
15-11-2006, 16:25
Ciao,
scusate ma mi sono un pò perso, questo tool permette miglioramenti anche in ambito di grafica 3D ad es. con programmi come cinema4d che utilizzano le OpenGL?
Ciao
george
chaosbringer
15-11-2006, 16:40
A me fa ancora uno strano effetto vedere una radeon marchiata amd... mi ci devo ancora abituare.
C'è da augurarsi che con l'utilizzo sempre più "generico" delle gpu (tanta potenza e c'è chi ci gioca e basta :rolleyes: ), complice anche l'acquisizione da parte di amd e conseguente cambio di strategie migliorino il supporto driver delle loro schede anche ai s.o. non microsoft...
...o sono io un illuso?
The_Killer
15-11-2006, 19:46
molto, molto interessante!
almeno si riuscirebbe a sfruttare un po' le VGA da 500€ anche in ambito workstation.
sarebbe fantastico riuscire a gestire la GPU come un altro core... :sborone:
DarKilleR
15-11-2006, 20:10
bhe intel una capacità di calcolo in virgola mobile...ce l'ha se mette assieme 20 conroe ;P
Cmq saranno interessanti tali risvolti in questo futuro anche a breve termine.
jappilas
15-11-2006, 21:11
C'è da augurarsi che con l'utilizzo sempre più "generico" delle gpu (tanta potenza e c'è chi ci gioca e basta :rolleyes: ), complice anche l'acquisizione da parte di amd e conseguente cambio di strategie migliorino il supporto driver delle loro schede anche ai s.o. non microsoft...
...o sono io un illuso?una cosa che potrebbe accadere con relativa probabilità è una separazione delle parti corrispondenti alle funzionalità di basso livello (ad es impostare risoluzione e refresh), e quelle relative agli shaders, e quelle grafiche "legacy" (dal tracciamento di linee, e filling di aree in 2D, alle operazioni su vertici e rasterizzazione di poligoni 3D, tutte operazioni che le schede grafiche attuali eseguono emulandole tramite comandi in shader languange nativo )
data la convergenza delle GPU verso la programmabilità totale, non vedrei impossibile, dopo tale "modularizzazione", una standardizzazione (certo, non in tempi brevi, ma magari, in qualche anno...) della ISA di basso livello degli shader processor
marcoland
15-11-2006, 23:33
Moddarla in una FireGL si può? Oppure semplicemente non è conveniente?
JohnPetrucci
16-11-2006, 02:19
Si va verso la direzione giusta per sfruttare finalmente come si deve le schede video.
IMHO queste soluzione torrenza potrebbero stroncare sul nascere il futuro del CELL, che finirà presto nel dimenticatoio o più probabilmente nel bidone della monnezza indifferenziata. LOOL
Parere assolutamente personale basata però su una evidente maggiore flessibilità della soluzione AMD (non inveitemi)
Scrambler77
16-11-2006, 09:18
Ho il sospetto che se k8l non dovesse rendere come deve, AMD si sposterà dal mercato CPU per dedicarsi alle architetture GPU di fascia alta... :D
Blackmag
16-11-2006, 22:03
Sarebbe possibile assemblare un pc con questa scheda video più una tipo la x1300 e far si che la 1300 gestisca fasi in cui mi serve potenza di calcolo nella grafica a piccole dosi e magari la capacità di calcolo mi serva per simulazioni di calcolo affidate quindi a questa scheda; mentre poi se per esempio gioco la x1300 venga assistita degnamente da questa?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.