View Full Version : Dual GPU con chip Radeon anche per HIS
Redazione di Hardware Upg
30-05-2006, 09:49
Link alla notizia: http://www.hwupgrade.it/news/skvideo/17527.html
HIS prepara il debutto di una propria scheda video Gemini, dotata di due GPU Radeon X1600XT operanti in parallelo sullo stesso PCB
Click sul link per visualizzare la notizia.
Se va benone al pari di una X1900XTX la prendo :D
ripper71
30-05-2006, 10:08
....se va al pari di una x1900, è molto meglio prendere una x1900 !!!
Max Power
30-05-2006, 10:09
Il tempo delle 3DFX è passato, sono inutili questi tentativi di imitazione :O
Costerà un botto di soldi e andrà meno di una X1900XTX... Purtroppo 2 gpu non significa doppia potenza ma solo doppio consumo, doppio calore, doppio rumore (beh questo è da verificare) per avere un 30% in più di prestazioni...
Ne vale la pena? Io dico di no! 3dfx insegna...
...certo che se facessero una versione con due X1900XTX... ;)
ReverendoMr.Manson
30-05-2006, 10:28
Eh si son de coccio la Rage Fury MAXX chi se la ricorda??? Andava più lenta di una Creative’s 3DBlaster Annihilator Pro GeForce 256 nonostante avesse il doppio della RAM (64 contro 32)
:rolleyes:
Spellsword
30-05-2006, 10:36
...certo che se facessero una versione con due X1900XTX...
dovremmo mettere il pc in cantina isolata acusticamente, con aria condizionata, e cambiare il contratto di potenza con l'enel.. LOL
seriamente, penso che sia proprio inutile una dual X1600
Nicky Grist
30-05-2006, 10:39
Se non sbaglio il rage fury era un chip senza T&L. In quel momento Nvidia tirò fuori dal cappello la prima GPU e fu un colpo devastante. Iniziò la nuova generazione di chip video....che ricordi :-)
Ati rimase un pochino indietro, impossibile quindi confrontare il GeForce 256 con la Rage Fury MAXX. Anche se in quel momento era quello il mercato.
Eh si son de coccio la Rage Fury MAXX chi se la ricorda??? Andava più lenta di una Creative’s 3DBlaster Annihilator Pro GeForce 256 nonostante avesse il doppio della RAM (64 contro 32)
:rolleyes:
Ti dò ragione, però la Ati r.f.maxx fù un tentativo di contrastare la supremazia da parte della nvidia su Ati.
Ati raddoppiando le GPU, voleva risparmiare tempo e denaro, i risultati furono però abbastanza deludenti.
Qui di seguito riporto dei benchmark:
"Abbiamo eseguito i test su di un Pentium III 750 MHz con 128 MB di RAM. Per il Direct 3D abbiamo usato 3DMark 99 MAX. Alla risoluzione di 1024x768 pixel a 16-bit, la ATI ha ottenuto un punteggio di 5693, meno dei 6178 ottenuti dalla Creative GeForce DDR, mentre a 32-bit ha ottenuto 5265 punti, contro i 5760 di Creative. Per testare le prestazioni in OpenGL abbiamo usato Quake III Arena, sempre a 1024x768 pixel. La ATI MAXX era ancora più lenta della Creative DDR a 16-bit, con 49.8fps contro 71fps. Comunque, confrontando questi dati con altri, bisogna notare che la Voodoo3 3000, ha ottenuto solo 36.3fps in questo tipo di test."
X Max Power
E' verissimo che sono delle imitazioni della vecchia 3dfx ma va letta in una chiave diversa. Lo SLI e compagnia bella servono per permettere agli sviluppatori di possedere HW di potenza per poter sviluppare i giochi del futuro. Si deve pensare che in 3 anni di sviluppo di un game escono + o - 12 revisioni delle schede video. Lo SLI e affini quindi e' una tecnologia nata per lo sviluppo, poi il mercato ha fatto danno includendolo nella fascia consumer.
L'unico vero vantaggio per il consumatore e' che magari dopo 1-2 anno riesci a trovare ancora una scheda uguale alla tua e spendendo "poco" riesci a far continuare la tua macchina per un altro annetto.
ronthalas
30-05-2006, 10:49
La Fury Maxx era basata su R128Pro, che non aveva ancora il T&L, debuttato coi GeForce e le Radeon. e confrontare una R128Pro con una GeForce è come chiedere alla prima cose che non sa fare, e alla seconda come un'offesa personale...
Il R128Pro va confrontato con le TNT2... no?
mrbender666
30-05-2006, 10:56
SI.......
Nicky Grist
30-05-2006, 10:57
appunto
VIKKO VIKKO
30-05-2006, 10:57
credo che comunque per valutare l'utilità di questa scheda si debba sapere prima il prezzo
spannocchiatore
30-05-2006, 11:02
la kyro non ha il tnl e va da dio. semplicemente era più lenta e 2 gpu insieme non servivano a molto. la nvidia andava semplicemente più veloce.
mrbender666
30-05-2006, 11:05
io scrivo poco qui pero' leggermi pagine di commenti di questo tipo mi fa venire voglia di cambiare sito di news....... :(((((((((
gropiuz73
30-05-2006, 11:05
scusate l'ignoranza... ma ha senso ancora comprare ora un dx9 per questi prezzi? non è polemica... ma una domanda vera...
ciao
heavymetalforever
30-05-2006, 11:05
Comunque c'e' da dire anche una cosa:
Ati in generale fino all'uscita dei primi catalyst (che mi sembra risalissero alla 8500) faceva schifo causa supporto driver inesistente, i driver se c'erano erano acerbi come mai visto, mentre Nvidia aveva già tirato fuori i detonator (e non dico altro)....
Anche il Kyro II era un chip senza T&L, ma poteva contare su un supporto driver degno di nota e infatti quake III schizzava che era una bellezza, altro che nvidia.... mi ricordo che ai tempi era paragonato a un geforce 2 pro, beh io l'ho avuta e raggiungeva anche livelli di una ultra.
Quando poi facevi i bench come il 3dmark 2000 che si appoggiava al t&l perdevi, ma nei giochi faceva la sua figura, anche a livello di immagine (che bello Rune "pulito" dalla Kyro II, era graficamente spettacolare !!!)
Questo per dire che soluzioni Dual GPU sono sempre ben accette.... a patto di essere sfruttate degnamente via driver.
A me non pare poco avere una scheda così che non richieda necessariamente avere un'architettura basata su chipset Ati Crossfire....
Ciao
VIKKO VIKKO
30-05-2006, 11:13
io scrivo poco qui pero' leggermi pagine di commenti di questo tipo mi fa venire voglia di cambiare sito di news....... :(((((((((
perchè? °__°
La Rage Fury Maxx perdeva il confronto con la Geforce DDR, questo perché montava 64mb 128bit SDR 6ns se non ricordo male. Ai tempi il balzo in avanti di nVidia non fu certo il T&L, ma l'utilizzo di ram DDR. Infatti la vecchia TNT2 Ultra aveva prestazioni simili alla prima Geforce SDR se non appunto nei bench T&L (e si parlava di bench, i giochi T&L ci hanno messo un anno ad arrivare). C'è da aggiungere che anche sul singolo chip, la rage128pro non teneva il passo con una TNT2 per questione di driver appunto, ma erano altri tempi.
io scrivo poco qui pero' leggermi pagine di commenti di questo tipo mi fa venire voglia di cambiare sito di news....... :(((((((((
Mhm, fino ad ora non ho visto flame, polemiche, trollate e quant'altro.
Riguardo alla news. Il mio parere e' : "specchio per le allodole". Non credo possa ottenere le prestazioni di una 1900XT/7900GT/GTX, e anche fosse si raggiungerebbero consumi e calore da dissipare probabilmente maggiori (quindi maggior rumore). E poi senza degli ottimi driver non sarebbe nemmeno sfruttata.
ReverendoMr.Manson
30-05-2006, 11:46
Si si ora ricordo la storia del T&L cmq la questione di fondo resta la stessa, utilizzare 2 gpu di fascia media per cantrastare una di fascia alta. Dico io mettete 2 x1900XT e non 2 x1600XT :O
Io sono del parere che se il parallelismo è ben progettato questo potrebbe essere il futuro: ripartire a progettare un DSP da zero è impossibile considerata la complessità di quelli attuali: già oggi per progettarli si utilizzano componenti preprogettati che vengono interconnessi: immagino che un giorno si avranno + DSP interconnessi tra loro: queste a mio modesto parere sono delle grezze e grossolane prime esperienze di questo tipo, ma non sono da disprezzare... personalmente non commecializzerei certi prodotti più simili a prototipi che a modelli destinati a qualche mercato, ma quelle sono scelte delle società; l'importante è sperimentare in questo senso! Poi sono concorde alla vostra linea di pensiero: la potenza di un DSP sta nella fase di PREPROGETTAZIONE in cui viene SPESSO pensato per lavorare da solo: il parallelismo è un'opzione che non viene ancora pensata più di tanto a priori, quindi quando si implementa l'aumento di prestazioni resta sempre contenuto comunque... sarebbe giusto distinguere in maniera più evidente le due cagegorie: DSP dedicati al parallelismo e non, anche per il mercato delle schede video...
Pikitano
30-05-2006, 11:50
Mhm, fino ad ora non ho visto flame, polemiche, trollate e quant'altro.
Scusa, e questo ti sembra una cosa negativa? :confused:
A me sembra invece segno che il forum è frequentato da gente seria che cerca di avere un dialogo aperto e costruttivo :mano:
3dfx insegna...?????????????
Insegna come era possibile implementare 4 GPU in parallelo con prestazioni e Antialiasing da Urlo, vedasi la Voodoo 5 6000 che possiedo, basta studiare i progetti dall'inizio e non prendere GPU singole per poi cercare di riprogettare il tutto....
Scusa, e questo ti sembra una cosa negativa? :confused:
A me sembra invece segno che il forum è frequentato da gente seria che cerca di avere un dialogo aperto e costruttivo :mano:
Credo che lo stesse dicendo per contrastare quello che ha detto bender...
Una domanda, solamente di natura tecnica: mettendo due di queste schede su una mobo crossfire si hanno vantaggi o viene sfruttata solo quella principale?
E poi ci devono anche essere i giochi che le sfruttano no?
Come per le attuali CPU, non tutti i giochi o programmi supportano il dual core giusto?
mentalrey
30-05-2006, 13:23
Concordo in toto con Urmanf
Scusa, e questo ti sembra una cosa negativa? :confused:
A me sembra invece segno che il forum è frequentato da gente seria che cerca di avere un dialogo aperto e costruttivo :mano:
... rispondevo ad un altro post, leggi il quot che ho fatto.
Bisogna ricordare che per raddoppiare le prestazioni del sistema bisogna raddoppiare le prestazioni di ogni singolo componente ... e non solo della scheda video :O
Rammento che 2 6600gt in sli andavano come una 6800gt ... che di fatto erano la metà di una 6800gt (8 vs 16 pipe). E vi assicuro che una 6800gt consuma proprio il doppio ... dunque smettiamola con la storia del consumo.
Secondo me potrebbe essere un prototipo per la prossima generazione di GPU che cosi' come avvenuto per i processori migrerà presto al multi processor... avremmo quindi sistemi dual core e schede gpu dual processor.. ovviamente questo non porta ad un raddoppio delle prestazioni ma ad un incremento sensibile del lavoro eseguibile nell'unità di tempo ...
O magari si passera' a schede con gpu e processore per calcoli fisici cosi' come anticipato da asus...
Attenzione che per fare un X1900 servono 4 X1600 e non 2!!
Inoltre bisogna anche overcloccarli perche' X1900 gira a piu' di 600Mhz
mikepedo
30-05-2006, 21:17
Io non capisco una cosa: xk ATI e Nvidia non riescono con le attuali schede, affiancando 2 chip, a raggiungere prestazioni più o meno doppie??? Posso capire non usando i filtri, ma a risoluzioni tipo 1600x1200 con tutti i filtri al massimo la cosa è strana!
Eppure io ho la 3dfx Voodoo5 6000 che va esattamente il doppio di una Voodoo5 5500 ed il quadruplo di una Voodoo4... testato personalmente! Ovvio in situazioni limite per la scheda video...
E vi posso pure assicurare che se la Voodoo5 6000 fosse stata commercializzata, 5 e rotti anni fa avrebbe fatto scalpore con i giochi di allora: ricordo che andava in voga Unreal Tournament: beh in Glide è fluido a 1024x768 con FSAA 8X...
Quando giocai a Mafia, ho preferito usare il PC con la 5500 che la Radeon 8500... massima fluidità a 1024x768 FSAA 2X...
UT2003 con la 6000 era fluido a 1024x768 32 bit FSAA 2X...
RTCW con la 6000 volava... Q3 idem...
Tutto questo per dire che una scheda multi GPU ha IMHO tantissimo potenziale, basta saperlo titare fuori!
JohnPetrucci
30-05-2006, 21:23
....se va al pari di una x1900, è molto meglio prendere una x1900 !!!
Concordo in pieno.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.