View Full Version : R680: dual GPU su singolo PCB da AMD
Redazione di Hardware Upg
16-11-2007, 13:00
Link alla notizia: http://www.hwupgrade.it/news/skvideo/r680-dual-gpu-su-singolo-pcb-da-amd_23286.html
In concomitanza con il lancio delle nuove piattaforme Spider emergono le prime informazioni sulla prossima generazione di schede video AMD top di gamma
Click sul link per visualizzare la notizia.
AndreaG.
16-11-2007, 13:17
Bello il nome! 3870 x2! x2 come per i processori :asd:
3DMark79
16-11-2007, 13:19
Non voglio immaginare i consumi di queste configurazioni! :(
ThePunisher
16-11-2007, 13:21
L'ultima spiaggia.
ghiltanas
16-11-2007, 13:22
L'ultima spiaggia.
:rotfl:
HackaB321
16-11-2007, 13:23
Secondo voi quanto consumerà una scheda del genere?
Un 50% in più di 2 3870?
pippomostarda
16-11-2007, 13:24
Non voglio immaginare i consumi di queste configurazioni! :(
i chip rv670 sono costruiti con un processo produttivo a 55nm, quindi i consumi sono di gran lunga inferiori a r600. Mi pare invece una buona idea, tanto che anche nvidia la sta seguendo...
ThePunisher
16-11-2007, 13:24
:rotfl:
Perchè ridi? :D
pippomostarda
16-11-2007, 13:26
Secondo voi quanto consumerà una scheda del genere?
Un 50% in più di 2 3870?
direi almeno un 30% in MENO rispetto a due 3870...
PsyCloud
16-11-2007, 13:26
consumeranno MILLE MILA watt
nonikname
16-11-2007, 13:27
L'unica scheda interessante di questa generazione AMD è solo la 3850...
La cosa stana è che non ci siano 4 vga 3870x2 sulla stessa mobo !!! se volevano impressionare i polli almeno potevano farlo bene....
Dalle statistiche steam risulta che la percentuale mondiale di sistemi dual vga targati ATI raggiunge l '1% del totale ... e avendo provato io stesso , sulla pelle , cosa vuol dire crossfire ... posso conprendere il perchè di questo risultato...
Fra questa 3870x2 e una 8850GX2 (dualGPU e PCB) con due 8800gt in sli , il risultato del mercato è altamente prevedibile... sempre che nvidia decida di commercializzare una vga dual gpu... ;)
donfranco77
16-11-2007, 13:28
Bisogna vedere poi nel concreto quanto rendono...ricordo che il quad-sli di 2 7950gx2 era alquanto sotto tono
Non voglio immaginare i consumi di queste configurazioni! :(
Perché? RV670 è più parco nei consumi pure rispetto ad nVidia!
Secondo voi quanto consumerà una scheda del genere?
Un 50% in più di 2 3870?
Ma semmai un 50% in meno rispetto a due schede. Il perché è semplice, molte sezioni non sono ridondanti, quindi si adottano una sola volta per tutto il pcb. Forse con quel 50% mi sono tenuto largo (ovvero ottimista), ma hanno il tempo per effettuare qualche altra piccola ottimizzazione, oltre all'ottimo lavoro già svolto in questi ultime mesi per diminuire drasticamente il consumo.
e avendo provato io stesso , sulla pelle , cosa vuol dire crossfire ... posso conprendere il perchè di questo risultato...
Quale generazione hai provato? Vedi che negli ultimi due anni le cose sono cambiate totalmente ;)
AnonimoVeneziano
16-11-2007, 13:35
Mmm, sto RV670 mi ricorda un po' il VSA100.
Cioè un chip da mettere in combinazioni con altri per rendere prestazioni alte.
Chissà se vedremo una Radeon 6000 :D
Ciao
Bisogna vedere poi nel concreto quanto rendono...ricordo che il quad-sli di 2 7950gx2 era alquanto sotto tono
Ma infatti una soluzione quad è un inutile spreco di soldi. Sono da adottare solo in quelle applicazioni scientifiche che riescono a sfruttarle. E a quel punto non so quale diventi poi il collo di bottiglia: nel senso che forse è meglio avere un'altra macchina in più.
Le soluzioni SLI o CF che dir si voglia invece, se ben sfruttate dalle applicazioni e supportate attivamente dal produttore, posso dare ottimi risultati.
Certo che alla fine il conto da fare è sempre quello con il portafogli.
DevilsAdvocate
16-11-2007, 13:37
Ecco a cosa servivano gli alimentatori da 1000 Watt, a fare spazio ai
sistemi con 4 schede dual in crossfire per un totale di 8 GPU!!!!
(Scherzi a parte.... ma 4 schede dual GPU quanto consumano anche solo
in idle mentre uso applicazioni Office o navigo/guardo un videoclip sul PC??!?)
loperloper
16-11-2007, 13:38
@nonikname:
il fatto che non ci siano fisicamente 4 vga è dovuto solo alla presenza di due gpu su singolo pcb a loro volta collegate in crossfire. per questo si definisce comunque quad crossfire. la stessa cosa accadde con le 7950 che avendo due gpu in coppia erano considerate quad sli. ;)
Andrea deluxe
16-11-2007, 13:41
in questo momento ATI e AMD sono al caffe' dopo la frutta:muro:
questo lascia intendere che non sarà possibile utilizzare 4 di queste schede video in parallelo tra di loro, con 8 GPU collegate in Crossfire sullo stesso sistema.
Allora non la voglio.
loperloper
16-11-2007, 13:44
cmq non c'è che dire, stiloso il dissy (almeno qualcosa di "carino" lo fanno dai) :asd:...
Tuvok-LuR-
16-11-2007, 13:48
Mmm, sto RV670 mi ricorda un po' il VSA100.
Cioè un chip da mettere in combinazioni con altri per rendere prestazioni alte.
O forse "l'ultimo chip di un'azienda"? :D
sono convinto che R680 non sia questa cosa qua.... questo è rv670 x2.... il codice Rxxx viene dato sempre al "chip" in uso....
ghiltanas
16-11-2007, 13:49
Perchè ridi? :D
l'ultima spiaggi mi ha fatto ridere...rende proprio l'idea della situazione ati in questo momento.
AwayFromHead
16-11-2007, 13:49
i chip rv670 sono costruiti con un processo produttivo a 55nm, quindi i consumi sono di gran lunga inferiori a r600. Mi pare invece una buona idea, tanto che anche nvidia la sta seguendo...
nvdia nn sta seguendo un bel niente... ha adottato il dual gpu su singolo pcb prima di ati.
L'ultima spiaggia.
non è affatto l'ultima spiaggia, anzi al momento sembra una soluzione sensata, dato che ati nn riesce a superare nvidia con un singolo gpu propone soluzioni dual gpu che probabilmente saranno allo stesso livello di una 8800gtx a ma prezzi inferiori :O
in questo momento ATI e AMD sono al caffe' dopo la frutta:muro:
perchè? consideri il dual gpu una soluzione arretrata? se si caro mio sei arretrato tu.....:muro:
tutto dipende dai costi a noi utenti finali.....
Andrea deluxe
16-11-2007, 13:58
nvdia nn sta seguendo un bel niente... ha adottato il dual gpu su singolo pcb prima di ati.
non è affatto l'ultima spiaggia, anzi al momento sembra una soluzione sensata, dato che ati nn riesce a superare nvidia con un singolo gpu propone soluzioni dual gpu che probabilmente saranno allo stesso livello di una 8800gtx a ma prezzi inferiori :O
perchè? consideri il dual gpu una soluzione arretrata? se si caro mio sei arretrato tu.....:muro:
Carissimo, ti rendi conto che ati non e' riuscita a fare una sk che vada come una 8800gtx a distanza di 1 anno dalla sua uscita?
ti rendi conto che una soluzione dual gpu non e' efficente nella realta' come sulla carta?
ti rendi conto che i driver ati sfoggiano difetti grafici con determinati giochi e freezano con altri?
ti rendi conto che i nuovi processori che stanno uscendo possono compere con intel solo tramite la guerra dei prezzi!
ti rendi conto che adesso ATI e AMD sono al caffe'?
ti rendi conto della marea di cavolate che hai scritto?
poi quella sui driver... comica veramente...
ghiltanas
16-11-2007, 14:01
nvdia nn sta seguendo un bel niente... ha adottato il dual gpu su singolo pcb prima di ati.
non è affatto l'ultima spiaggia, anzi al momento sembra una soluzione sensata, dato che ati nn riesce a superare nvidia con un singolo gpu propone soluzioni dual gpu che probabilmente saranno allo stesso livello di una 8800gtx a ma prezzi inferiori :O
perchè? consideri il dual gpu una soluzione arretrata? se si caro mio sei arretrato tu.....:muro:
prima si fa una scheda unica seria POI si pensa al multi gpu.NN che per sopperire alla propria inefficienza si rimedia con 2 o + schede in parallelo
Andrea deluxe
16-11-2007, 14:03
amico,
io 6 mesi fa avevo un 3800x2 oc @ 2700mhz e una x1900xtx 512mb!
quindi non rispondete guardando la mia firma!
Andrea deluxe
16-11-2007, 14:05
poi quella sui driver... comica veramente...
vai sui th dei vari need for speed, lost planet e crysis
prima si fa una scheda unica seria POI si pensa al multi gpu.NN che per sopperire alla propria inefficienza si rimedia con 2 o + schede in parallelo
guarda che nvidia ha fatto lo stesso con la 7900 che non stava dietro alla x1950xtx... e facendo costare il tutto mooooooolto di più.
Qua si parla di mercato.
2 schede da 150 euro, totale 300, che vanno come la concorrente da 400 a me pare una mossa decisamente valida, considerando il rumore e o consumi in idle.
Tuvok-LuR-
16-11-2007, 14:06
Ragazzi il punto è che quì si legge che R680, ovvero l'ultra chip che doveva riportare ATI a competere nella fascia alta non è altro che un doppio RV670. Io non sò se è un errore ma se è vero significa che non hanno nient'altro in serbo e sappiamo già come andrà a finire con le nuove schede nVidia dietro l'angolo
nvdia nn sta seguendo un bel niente... ha adottato il dual gpu su singolo pcb prima di ati.
in teoria non è esatto ciò che dici Ati e 3dfx sono venute fuori prima di nvidia con il multigpu
:D
vai sui th dei vari need for speed, lost planet e crysis
datti una svegliata bello.
Need for speed: metodo scadente da parte di EA per ricreare le ombre. EA non ha mai rilasciato patch a un suo errore.
Lost Planent: è bastata una release dei driver per risolvere i problemi. Ah il gioco non era ancora uscito visto lo sviluppo congiunto con NVIDIA
Crysis: la qualità delle immagini renderizzate dalle Ati è superiore....anche grazie ai continui beta dei FW che per una manciata di FPS tranciavano ombre e LOD...
Non trolleggiare. :rolleyes:
gianni1879
16-11-2007, 14:10
sono convinto che R680 non sia questa cosa qua.... questo è rv670 x2.... il codice Rxxx viene dato sempre al "chip" in uso....
si qualcuno mi ha detto che quello non è il R680 (dovrebbe essere monolitico ma mancano conferme), ma una semplice Gemini stile HD2600XT, però non c'è nulla di certo ancora e le voci parlano di R680=RV670X2.
Non resta che aspettare gennaio
Andrea deluxe
16-11-2007, 14:11
datti una svegliata bello.
Need for speed: metodo scadente da parte di EA per ricreare le ombre. EA non ha mai rilasciato patch a un suo errore.
Lost Planent: è bastata una release dei driver per risolvere i problemi. Ah il gioco non era ancora uscito visto lo sviluppo congiunto con NVIDIA
Crysis: la qualità delle immagini renderizzate dalle Ati è superiore....anche grazie ai continui beta dei FW che per una manciata di FPS tranciavano ombre e LOD...
Non trolleggiare. :rolleyes:
alora sai che devi fare tu.....
comprarti una bella 3870x2 e giocare a crysis a 20fps
L'HD 3870 X2 non dovrebbe costare più di due RV670, possibilmente meno per renderla competitiva, dunque intorno ai 400€. Ad ogni modo le soluzioni Dual GPU, come la 7950 GX2 ha dimostrato, soffrono di limiti che neanche i nuovi driver sistemano.
In primis, come giustamente detto dall'"altro" Hal2001 (:p), il risultato non è mai pari alla somma esatta bensì ad un 150% (100% della prima GPU e 50% della seconda). In secundis alcuni titoli/applicazioni non sfruttano, se non in modo irrilevante, la seconda GPU, a causa di engine/codice non ottimizzati per questo.
Tuvok-LuR-
16-11-2007, 14:13
veramente la 7950gx2 andava benissimo, ed esattamente quanto uno SLI di 7900GT
si qualcuno mi ha detto che quello non è il R680 (dovrebbe essere monolitico ma mancano conferme), ma una semplice Gemini stile HD2600XT, però non c'è nulla di certo ancora e le voci parlano di R680=RV670X2.
Non resta che aspettare gennaio
basta levare i dissipatori... ma è logico... non puoi chiamare una scheda R680.... queste sono cose giornalistiche ...tipo fudzilla e company...
Visto che AMDati stampa sui die il codename... si fa presto... ma qua già si sa.... sono due rv670 "gemini style".... niente a che vedere con un eventuale R680...
E poi per dio... RV670 è FASCIA MEDIA!
Radeon Value 670... per chi non sapesse il significato di RV....
Tuvok-LuR-
16-11-2007, 14:16
Però tutto questo fà riflettere...se ATI tira fuori questo coso significa che R680 (sempre che non sia =RV670x2) non è proprio dietro l'angolo
veramente la 7950gx2 andava benissimo, ed esattamente quanto uno SLI di 7900GT
I limiti dello SLi sono palesi; poi quell'indicativamente 150% può essere visto bene o male, dipende dai punti di vista. A parer mio lo SLi e il CF non valgono il costo, ma è una mia personale opinione.
basta levare i dissipatori... ma è logico... non puoi chiamare una scheda R680.... queste sono cose giornalistiche ...tipo fudzilla e company...
Visto che AMDati stampa sui die il codename... si fa presto... ma qua già si sa.... sono due rv670 "gemini style".... niente a che vedere con un eventuale R680...
E poi per dio... RV670 è FASCIA MEDIA!
Radeon Value 670... per chi non sapesse il significato di RV....
Ma insisti? "Non ti è mai venuto in mente che sei tu a sbagliare, e non tutto il resto del mondo?" (cit.).
Andrea deluxe
16-11-2007, 14:18
comunque difendere ati in questo momento e' da folli, e dico che saro' il primo a prendermi una ati quando tirera' fuori il mostro!
Andrea deluxe
16-11-2007, 14:19
I limiti dello SLi sono palesi; poi quell'indicativamente 150% può essere visto bene o male, dipende dai punti di vista. A parer mio lo SLi e il CF non valgono il costo, ma è una mia personale opinione.
Ma insisti? "Non ti è mai venuto in mente che sei tu a sbagliare, e non tutto il resto del mondo?" (cit.).
quotone
io son curioso di vedere come va :).
I limiti dello SLi sono palesi; poi quell'indicativamente 150% può essere visto bene o male, dipende dai punti di vista. A parer mio lo SLi e il CF non valgono il costo, ma è una mia personale opinione.
Ma insisti? "Non ti è mai venuto in mente che sei tu a sbagliare, e non tutto il resto del mondo?" (cit.).
Possibilissimo che io sbaglio.
Dammi una foto senza dissy della hd3870x2 dove si vede uno dei due die ( :D ) con scritto su R680 e ti darò ragione!
:rolleyes:
Curioso di vedere come va. Sinceramente mi sono rotto le scatole di schede di fascia media uscite in tutte le salse, e di schede attuali top che fanno 30 fps a crysis (Forse). Ogni progetto che vada piu forte , benvenga. Vedremo i bench.
è molto probabile che r680 non esca, da un punto di vista commerciale potrebbe non avere molto senso (r700 è previsto x la metà del 2008)
tutto sta nel vedere se questa scheda multigpu sarà posizionabile sul mercato ad un prezzo decente (400euro) confrontandola con la controparte nvidia (sempre nella stessa fascia di prezzo).
non capisco poi come si possa mettere in relazione il multigpu nvidia con quello ati, dato che sono già 2 architetture in single poco paragonabili figuriamoci in modalità dual.. i driver faranno anche li una buona fetta del lavoro.
E finiamola di paragonare le schede video in base alle nostre personalissime "convinzioni" le schede video si paragonano sulla base del prezzo disponibile all'uscita con ciò che è disponibile sul mercato.
è molto probabile che r680 non esca da un punto di vista commerciale potrebbe non avere molto senso (r700 è previsto dopo la metà del 2008)
tutto sta nel vedere se questa scheda multigpu sarà posizionabile sul mercato ad un prezzo decente (400euro) confrontandola con la controparte nvidia (sempre nella stessa fascia di prezzo).
non capisco poi come si possa mettere in relazione il multigpu nvidia con quello ati, dato che sono già 2 architetture in single poco paragonabili figuriamoci in modalità dual.. i driver faranno anche li una buona fetta del lavoro.
E finiamola di paragonare le schede video in base alle nostre personalissime "convinzioni" le schede video si paragonano sulla base del prezzo disponibile all'uscita con ciò che è disponibile sul mercato.
esatto tant'è che con le ATI non è "necessario" un supporto da parte del gioco e dei driver per un determinato gioco. Una volta che il driver è stabile funziona in una delle 3 modalità bene o male con tutti i giochi....
Ci sarà il gioco dove si vedrà il 120%, quello con il 100% (xfire non va) ma anche quello con il 190% ...
Darkgift
16-11-2007, 14:34
Non è l'ultima spiaggia....è il futuro......ormai siamo ai 55 nm....era inevitabile ricorrere al multicore anche in ambito gpu...nvidia fara lo stesso......non ci sono alternative....come per i processori siamo arrivati ai limiti delle temperature....vedi 8800 gt e hd 3870 sui 100° in full load.......il multi è l'unica strada. Lo dimostra il fatto che per ati passare a 55nm su hd 3800 non ha comportato temperature ridotte rispetto a nvidia con 8800 gt (65 nm)...anche se sono diverse le frequenze...... infatti sia 3800 che 8800 gt..nonostante il processo produttivo hanno temp molto alte.
gianni1879
16-11-2007, 14:35
veramente la 7950gx2 andava benissimo, ed esattamente quanto uno SLI di 7900GT
perchè questa invece dovrebbe andare male???
andrà esattamente come un CF di 3870.
Ati ha lavorato molto sullo sviluppo di buoni driver per il CF, i 7.10 ne sono un buon esempio.
Tuvok-LuR-
16-11-2007, 14:36
perchè questa invece dovrebbe andare male???
andrà esattamente come un CF di 3870.
Ati ha lavorato molto sullo sviluppo di buoni driver per il CF, i 7.10 ne sono un buon esempio.
non mi sembra di aver mai sostenuto il contrario :S
Più leggo i commenti e più non capisco se questo sia un forum di discussione o un forum di diffamazione.
Sembra che qualcuno ci provi gusto ad insultare AMD e chiunque esprima un giudizio non negativo sull'azienda.
Io, e insultatemi pure, credo una cosa:
Amd è in difficoltà, è innegabile, ha fallito con r600 (varie HD 2x00) e non è riuscita ad impressionare con la HD3870. E su questo direi che potremmo essere d'accordo tutti, o quasi.
Ma ha al momento la scheda migliore, in rapporto prezzo/prestazioni, nella fascia dove c'è la maggioranza di mercato. Certo, ovvio che ancora dobbiamo aspettare 8800GT da 256MB ma al momento la HD3850 è la scheda migliore nella fascia più ambita. In soldoni questo significa che potrebbero venderne parecchie.
gianni1879
16-11-2007, 15:00
basta levare i dissipatori... ma è logico... non puoi chiamare una scheda R680.... queste sono cose giornalistiche ...tipo fudzilla e company...
Visto che AMDati stampa sui die il codename... si fa presto... ma qua già si sa.... sono due rv670 "gemini style".... niente a che vedere con un eventuale R680...
E poi per dio... RV670 è FASCIA MEDIA!
Radeon Value 670... per chi non sapesse il significato di RV....
si per tradizione Ati RVXXX è stato sempre un chip di fascia media ed effettivamente non avrebbe senso chiamare un pcb R680! Per questo pure io sono propenso a pensare che siano due cose distinte.
gianni1879
16-11-2007, 15:03
non mi sembra di aver mai sostenuto il contrario :S
scusa mi sa che avevo capito male il tuo concetto :)
Più leggo i commenti e più non capisco se questo sia un forum di discussione o un forum di diffamazione.
Sembra che qualcuno ci provi gusto ad insultare AMD e chiunque esprima un giudizio non negativo sull'azienda.
Io, e insultatemi pure, credo una cosa:
Amd è in difficoltà, è innegabile, ha fallito con r600 (varie HD 2x00) e non è riuscita ad impressionare con la HD3870. E su questo direi che potremmo essere d'accordo tutti, o quasi.
Ma ha al momento la scheda migliore, in rapporto prezzo/prestazioni, nella fascia dove c'è la maggioranza di mercato. Certo, ovvio che ancora dobbiamo aspettare 8800GT da 256MB ma al momento la HD3850 è la scheda migliore nella fascia più ambita. In soldoni questo significa che potrebbero venderne parecchie.
Non ti stupire, fa trend insultare e coprirsi dietro all'attuale leadreship del mercato.
Più che altro senza nemmeno guardare i bench, piuttosto di niente si attaccano i consumi, magari commenti fatti da persone che hanno i SUV come automobile, col parabufali in pieno centro, che fa il consumo che fanno 100 schede video in parallelo. Vabbè. Aspettiamo i bench, poi si potrà dire se sarà buona o meno.
Qualsiasi cosa si veda che spinga in là l'attuale limite della potenza elaborativa, ormai ferma da un anno, ben venga.
Se il prezzo sarà allettante (quanto la GTS G92 o anche meno) e il quantitativo di memoria di almeno un GB, potrebbe diventare una bella scheda da comprare.
Decisamente interessante.
Il TDP di 2xHd3870 è 2x105W (210W).
Non credo che siano riusciti a tagliare chissà cosa nei consumi.
Cmq, dagli e dagli, alla fine si torna sempre sulla stessa strada:
Voodoo5
Ati Rage Maxx
XGI Volari
7800GT dual
7900GX2
x1950Pro Dual
Ce ne fosse anche solo 1 di queste che ha avuto un minimo di successo.
E proprio vero che la storia non insegna niente ;-)
Einhander
16-11-2007, 15:28
Ricordo a tutti che su ogni nintendo wii e xbox 360 c'e' dentro una ati e al momento tutte e due le console vendono piu' di play3 singolarmente,anzi di recente la ps3 s'e' un po' ripresa...
Cmq penso che le casse di ati sotto il punto di vista hardware nn e'd etto che piangano necessariamente,dato che se hanno perso sul versante desktop stanno guadagnando-e a nche molto considerando il processo produttivo e il costo relativamente basso delle schede che montano le console-sul fronte delle console e delle schede video integrate nei chip grafici di alcuni televisori e htpc di terzi...
E cmq l'approccio single e soprattutto dual gpu e' estremamente differente tra nvidia e ati,la 7950x2erano due schede una sopra l'altra in sli qui si parla del medesimo pcb il che oltre che ridurre i costi presumo aumenti pure le prestazioni in combinazione al processo produttivo che vantano le schede video ati...per nn parlare dei consumi..quindi nn e' detto che l'approccio dual gpu sia sbagliato anzi vanno di piu' in teoria e fanno meno casino di una scheda top singola...
A vederla bene il futuro delle schede video lo vedo nel multi gpu integrato e nel processore piu' scheda video in un unico pcb...un po' come i processori insomma...consumano di meno-forse- vanno di piu'-è probabile-costano di meno-sicuro-fanno meno casino-strasicuro- quindi nnc apisco perche' parlarne male era in fondo questo lo scopo originario di nvidia e ati quando diedero vita al primo prototipo di sli\xfire o almeno questo e' l'unico modo in cui hanno senso tali proposte per un azienda-a parte il celodurismo :D -
Mercuri0
16-11-2007, 15:35
in questo momento ATI e AMD sono al caffe' dopo la frutta
Veramente il fatto che AMD avrebbe usato l'approccio multi-gpu si sapeva sin da agosto! (AMD Tech Day)
http://www.beyond3d.com/content/articles/89/2
Anzi se ho capito bene AMD sta spingendo con Microsoft perché il supporto multi GPU si integri bene anche con le DirectX10 & 11.
Il multi GPU non è "l'ultima spiaggia" ma una precisa strategia che AMD aveva da mesi, e che consente anche di ridurre molto i costi: invece di produrre la "super GPU" polpettone ne affianco 2 della stessa linea produttiva delle schede mainstream.
Chiaramente quanto questa renderà nell'immediato dipende dall'efficienza dei driver a cui stanno lavorando.
Piuttosto: questa scheda si potrà montare su MB non crossfire? Io credo di si :D
x.vegeth.x
16-11-2007, 15:51
a quando? non me ne faccio niente delle info se non so quando usciranno, visto che entro natale voglio avere già comprato
Più leggo i commenti e più non capisco se questo sia un forum di discussione o un forum di diffamazione.
Sembra che qualcuno ci provi gusto ad insultare AMD e chiunque esprima un giudizio non negativo sull'azienda.
Io, e insultatemi pure, credo una cosa:
Amd è in difficoltà, è innegabile, ha fallito con r600 (varie HD 2x00) e non è riuscita ad impressionare con la HD3870. E su questo direi che potremmo essere d'accordo tutti, o quasi.
Ma ha al momento la scheda migliore, in rapporto prezzo/prestazioni, nella fascia dove c'è la maggioranza di mercato. Certo, ovvio che ancora dobbiamo aspettare 8800GT da 256MB ma al momento la HD3850 è la scheda migliore nella fascia più ambita. In soldoni questo significa che potrebbero venderne parecchie.
ma dove? ma cosa stai sparando? :D
AndreaG.
16-11-2007, 16:19
Il TDP di 2xHd3870 è 2x105W (210W).
Non credo che siano riusciti a tagliare chissà cosa nei consumi.
Cmq, dagli e dagli, alla fine si torna sempre sulla stessa strada:
Voodoo5
Ati Rage Maxx
XGI Volari
7800GT dual
7900GX2
x1950Pro Dual
Ce ne fosse anche solo 1 di queste che ha avuto un minimo di successo.
E proprio vero che la storia non insegna niente ;-)
no gurda, la 5500 a parte il costo esorbitante, andava bene coi giochi e non faceva bestemmiare con i drivers, finchè ci sono stati :asd: che poi 3dfx sia fallita e nvidia non abbia dato supporto è un'altra storia...
AwayFromHead
16-11-2007, 16:58
Carissimo, ti rendi conto che ati non e' riuscita a fare una sk che vada come una 8800gtx a distanza di 1 anno dalla sua uscita?
ti rendi conto che una soluzione dual gpu non e' efficente nella realta' come sulla carta?
ti rendi conto che i driver ati sfoggiano difetti grafici con determinati giochi e freezano con altri?
ti rendi conto che i nuovi processori che stanno uscendo possono compere con intel solo tramite la guerra dei prezzi!
ti rendi conto che adesso ATI e AMD sono al caffe'?
una soluzione dual gpu nn è efficiente?? se hai un po di memoria puoi benissimo ricordare come le 7950gx2 surclassarono ai loro tempi le 7900gtx e neanche di poco...
e poi che centrano i processori amd??? :mc:
solo x precisare nn sono un fanboy ati ne di nvidia, mi piace la concorrenza....
x Andrea G: non ho parlato di prestazioni. Ho parlato di successo commerciale.
La 5500 è stata un flop come tutte le altre schede che ho indicato.
Dopo quella scheda 3dfx ha chiuso i battenti
(ma il discorso è ben più complesso, e si rischia di andare OT)
Poi, ognuno può fare quello che vuole, ma ritengo queste schede multi gpu un'inutile complicazione costruttiva, come tutte quelle che le hanno precedute.
Ho ignobilmente criticato 1.5 anni fa (anche su questo sito) la soluzione 2x7900GX2 di Nvidia, non vedo perchè per Amd debba avere un trattamento di riguardo :-)
Mc_Sturl4
16-11-2007, 18:29
Speriamo che ciò non sia premonitore di un fallimento come fu per la sempre gloriosa 3dfx.
Demin Black Off
16-11-2007, 19:11
Uhm, speriamo non sia un scheda ALI-Limited.
serious.max
16-11-2007, 19:39
Se anche nVidia ha intenzione di proporre qualcosa del genere vuol dire che la soluzione non è proprio da buttare... aspettiamo i bench :D
leoneazzurro
16-11-2007, 20:11
Si prega di terinare i flames qui.
Non ha senso discutere sulla "grossezza" della propria scheda.
La 5500 è stata un flop come tutte le altre schede che ho indicato.
Si ma ci sono state motivazioni differenti: la prima ATi non aveva supporto per il kernel NT5.0 che si sarebbe affacciato da lì a poco con Windows2000 e sul quale videogiocatori e aziende si spostarono molto rapidamente (io addirittura la misi come macchina di produzione all'uscita della beta2 visto la superiorità e la stabilità rispetto ai predecessori). L'azienda non volle investire nello sviluppo di nuovi driver e morì lì. La Voodoo5 5500 invece era tutt'altro, il VSA100 era lo stesso impiegato anni prima, e non era al passo con i concorrenti e con i tempi!
Ma per vendere vendette, e pure bene, il punto è che l'azienda aveva bisogno di liquidità dopo la cazzata (fatta in buona fede) di acquistare fabbriche ed aziende per produrre tutto da sola. Se Rampage fosse arrivato in tempo magari la storia sarebbe stata diversa da quella che abbiamo vissuto negli ultimi anni. Ma lo chi lo può sapere.
Le soluzioni multi-gpu sono il futuro, c'è poco da controbattere, circa 3 anni fa, con Raffaele Fanizzi e fek provammo ad immaginare uno scenario del genere, ma i tempi ancora erano prematuri, e la discussione finì lì, adesso con Fusion (di AMD) sappiamo che c'è molto da vivere in tal senso ;)
Non ha senso discutere sulla "grossezza" della propria scheda.
E di cosa dovremmo discutere? :D
leoneazzurro
16-11-2007, 21:17
E di cosa dovremmo discutere? :D
Intendo fare a gara a chi ce l'ha più lungo. Inutile.
La fidelizzazione ad una marca è comprensibile, l'evangelizzazione meno.
X Sp4rr0W:
Bella risposta.... molto argomentata! Mi hai proprio convinto, del resto il tuo discorso non fa una grinza!!
Comunque, giusto per curiosità, mi trovi una scheda che ADESSO costa meno di 150€ e che va di più della HD3850??
killer978
17-11-2007, 08:57
Uhm, speriamo non sia un scheda ALI-Limited.
Non credo dovrebbe consumare quanto una HD2900XT forse anche meno ;)
killer978
17-11-2007, 08:59
X Sp4rr0W:
Bella risposta.... molto argomentata! Mi hai proprio convinto, del resto il tuo discorso non fa una grinza!!
Comunque, giusto per curiosità, mi trovi una scheda che ADESSO costa meno di 150€ e che va di più della HD3850??
Se poi aggiungi il fatto che la 3850 va quanto una GTS320 :D x me è un ottima scheda ed AMD non poteva fare di mejo in così poco tempo
ThePunisher
17-11-2007, 09:27
Se poi aggiungi il fatto che la 3850 va quanto una GTS320 :D x me è un ottima scheda ed AMD non poteva fare di mejo in così poco tempo
Così poco tempo?
Intendi in soli 12 mesi?
Non ci vedo niente di male: si chiama economia di scala.
Produco più processori che 'possono' essere utilizzati ANCHE in configurazioni multi-gpu. Una linea di produzione per le schede gpu-single (magari con frequenze + eleveate ecc) l'altra destinata a configurazioni SLI/CF on-board.
E' abbastanza logico pensare che:
1. ho da progettare/produrre UNA sola scheda per 2 (o n) GPU
2. installare UNA sola scheda senza smanettare con bridge/bios ecc è senz'altro più semplice
3. AMD ha un pochino di esperienza nella progettazione di CPU multi processor e forse più di me e voi ne sa...
4. E' necessario 'differenziarsi' il più possibile dagli altri competitor (e se non erro Intel sta studiano una GPU basta su n-core riprogrammabili...meglio avere una soluzione a portata di mano, non si sa mai)
5. Se poi anche Nvidia vuole seguire la stessa strada un motivo ci sarà - lo stesso che è capitato con le CPU ovvero incrementi di potenza da una genereazione all'altro sempre meno significativi che non giustificano (e non vengono giustificati dagli utenti) nel prezzo!
Insomma invece di avere una GPU multi core si utilizza il 'vecchio e collaudato ed economico' metodo della schede multi GPU...
PS: Nvidia e Amd possono anche inventarsi una scheda grafica che mi fa il caffè...ma l'idea che si debba passare ad un 'nuovo' sistema operativo per sfruttare a fondo le nuove caratteristiche hardware mi fa un pochino BEEP BEEP BEEP....
Mercuri0
17-11-2007, 10:06
Produco più processori che 'possono' essere utilizzati ANCHE in configurazioni multi-gpu. Una linea di produzione per le schede gpu-single (magari con frequenze + eleveate ecc) l'altra destinata a configurazioni SLI/CF on-board.
Zi... AMD ci sta lavorando da tanto tempo (ne parlava all'ultimo tech-day) e se la cosa va in porto mi sa che non vedremmo più GPU specifiche per schede da 500€. Almeno ATI.
PS: Nvidia e Amd possono anche inventarsi una scheda grafica che mi fa il caffè...ma l'idea che si debba passare ad un 'nuovo' sistema operativo per sfruttare a fondo le nuove caratteristiche hardware mi fa un pochino BEEP BEEP BEEP....
Io ho deciso che faccio il tifo per OpenGL. Informandomi a proposito su siti specializzati ho scoperto che:
- I giochi attuali sono sostanzialmente DX9 adattati a qualche effetto DX10 (quando non sono solo operazioni di marketing). E questo si sapeva. :) E fino a che non vedrò giochi solo DX10 credo sarà cosi.
- L'Unreal Engine 3 di Epic e il Tech 5 di Id Software (che saranno la base dei giochi del futuro prossimo) sono pensati DX9 su win :mbe: , anche se progettati per essere multipiattaforma.
- Le specifiche OpenGL 3.0 sono in fase di finalizzazione e saranno supportate da tutte le schede con SM3.0. Per l'Unreal Engine e Tech 5 è prevista una versione OpenGL 3.0.
- Qualche mese dopo dovrebbero uscire le OpenGL 3.1 o 2 con supporto alle SM4.0, cioè "DX10".
Quindi in sostanza, se MS non ci mette lo zampino (:mad: )e Vista non si diffonde troppo -in modo da essere conveniente per gli sviluppatori - si potrebbero giocare i giochi con effetti "DX10" su XP tramite OpenGL. :sperem:
(in realtà lo SM4.0 è usato anche dalle OpenGL 2.1 tramite estensioni... il discorso però è che la cosa deve convenire agli sviluppatori)
p.s. oltre a fatto che i giochi per Linux le OpenGL 3.x le useranno di sicuro, stanno lavorando alle DX10 anche per Linux. Chissà a che punto sono... se i driver grafici cominciano ad essere decenti è la volta buona che installo wine :cool:
killer978
17-11-2007, 12:23
Così poco tempo?
Intendi in soli 12 mesi?
Ciao Fra :D
No io parlo dall'uscita di R600 ad oggi!!! ;) ovviamente loro hanno lavorato su R600 cercando di migliorarlo, x fare una nuova GPU ci vuole + tempo ;) che poi R600 sia partito male sin dalla nascita questo è un altro paio di maniche
MiKeLezZ
24-11-2007, 20:08
Sicchè questo R680 è il nome di una scheda, e non di un chip, e in particolare di quella scheda formata da due chip RV670 (a mo' di Gemini).
Interessante!
:-)
:-)
Scrambler77
25-11-2007, 01:50
Sicchè questo R680 è il nome di una scheda, e non di un chip, e in particolare di quella scheda formata da due chip RV670 (a mo' di Gemini).
Interessante!
:-)
:-)
:asd:
zoruketto
04-01-2008, 00:39
ciao raga.....tutto chiaro ma....notizie sui costi?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.