PDA

View Full Version : ATI R680, alcune immagini


Redazione di Hardware Upg
10-01-2008, 14:47
Link alla notizia: http://www.hwupgrade.it/news/skvideo/ati-r680-alcune-immagini_23828.html

Il CES di Las Vegas è stata l'occasione per osservare da vicino la nuova scheda video ATI di fascia alta che arriverà sugli scaffali a fine mese

Click sul link per visualizzare la notizia.

deck
10-01-2008, 14:56
E i benchmark?

Faustinho DaSilva
10-01-2008, 14:59
non vedo l'ora sono ansioso!!!

Faustinho DaSilva
10-01-2008, 14:59
i bench arriveranno a fine mese hi hi hi

v1nline
10-01-2008, 15:02
va bene anche come tunnel del vento per collaudi aerodinamici

giovanbattista
10-01-2008, 15:03
guardi quelli di un cross di due 3870 e ti fai un'idea...i risultati credo sia leggermente superiori avendo meno problemi di bus e latenze.

Zande
10-01-2008, 15:05
ecco i bench (non posso garantire la veridicità, ma parrebbero obiettivi)

http://www.xtremesystems.org/forums/showthread.php?t=172533

bench presi da qui

http://www.itocp.com/thread-1667-1-1.html

giovanbattista
10-01-2008, 15:06
http://www.legitreviews.com/article/605/1/

eccovi la pappa pronta non centrano embarghi, basta usare la testa e un motore di ricerca

Errik89
10-01-2008, 15:07
non vedo l'ora di vedere come vanno, sperando che non sia un nuovo flop...

giovanbattista
10-01-2008, 15:11
X v1nline l'importante è che la rumorosità sia contenuta e questo è di solito inversamente proporzionale rispetto alle dimensioni della ventola x questo io ne metterei una anche più grande ;)

Genocide85
10-01-2008, 15:14
a giudicare da sti test nn ci siamo proprio...

M4R1|<
10-01-2008, 15:17
@ Genocide85:

ma sei capace di leggere che sono a 2560x1600 oppure nn ci vedi?

e cmq se vedi in basso ci sono i test con la ultra e un [email protected] e nn con un [email protected] che ne fa più di 2000 in meno quindi.........

Faustinho DaSilva
10-01-2008, 15:21
a giudicare da sti test nn ci siamo proprio...

@ Genocide85:

ma sei capace di leggere che sono a 2560x1600 oppure nn ci vedi?

e cmq se vedi in basso ci sono i test con la ultra e un [email protected] e nn con un [email protected] che ne fa più di 2000 in meno quindi.........

quoto in pieno:D anche se è roba nn ufficiale, nn provata cmq m sembra un buon risultato su 3dmark

se83
10-01-2008, 15:23
sembra una bomba sta scheda... a quanto ne so nn dovrebbe sciupare nemmeno tanto come watt(ampere)...

un crossfire con questa scheda è :eek:

Faustinho DaSilva
10-01-2008, 15:24
sembra una bomba sta scheda... a quanto ne so nn dovrebbe sciupare nemmeno tanto come watt(ampere)...

un crossfire con questa scheda è :eek:

di questo nn sono sicuro imho si assestera sui consumi di una 2900 cmq la good news rimane che i driver sono già pronti...

se83
10-01-2008, 15:26
di questo nn sono sicuro imho si assestera sui consumi di una 2900 cmq la good news rimane che i driver sono già pronti...


rispetto ad una 8800gt, che è quella che ho io, credo consumi molto meno no???

Zande
10-01-2008, 15:26
si è vero...sembrerebbe formidabile, specie se è vero il prezzo di cui si vocifera, ma visti i pregressi aspetto ad esultare o altro.... tuttavia qualcosa all'orizzonte si muove :)

Faustinho DaSilva
10-01-2008, 15:30
rispetto ad una 8800gt, che è quella che ho io, credo consumi molto meno no???

nn credo che consumi di meno di una gt... una 3870 normale ha gli stessi consumi +/- ma questa nn lo so... nn credo, poi magari sono smentito:D

Faustinho DaSilva
10-01-2008, 15:31
si è vero...sembrerebbe formidabile, specie se è vero il prezzo di cui si vocifera, ma visti i pregressi aspetto ad esultare o altro.... tuttavia qualcosa all'orizzonte si muove :)

il range era 300/400$ dalle slide di amd...

Errik89
10-01-2008, 15:31
nn credo che consumi di meno di una gt... una 3870 normale ha gli stessi consumi +/- ma questa nn lo so... nn credo, poi magari sono smentito:D
se la 3870 normale consuma circa 110w penso che questa arriverà a 180/190w... poco meno di una hd2900xt e tanto quanto una 8800ultra!

Mparlav
10-01-2008, 15:31
Non darei così scontato che questa scheda offra latenze inferiori rispetto a 2x Hd3870 in Crossfire.
C'è da considerare che è stato inserito il chip Plex per "splittare" le linee Pci-e, che di suo, ne aggiunge.

Imho, avrà le stesse prestazioni delle 2 schede in crossfire con uno scarto davvero minimo.

Il punto è vedere se c'è almeno un risparmio economico, tale da giustificarne l'acquisto. Se fosse minimo, preferirei prendere le 2 schede separate che saranno più facili da rivendere al successivo upgrade.

_morghan_1968
10-01-2008, 15:31
da quello che ho capito io...
quei bench non sono relativi alla scheda recensita...

Errik89
10-01-2008, 15:32
il range era 300/400$ dalle slide di amd...
penso si assesterà sui 350$, cioè 300€. Se costa 300€ e i driver vanno bene sarà mia.

HackaB321
10-01-2008, 15:32
Scomodi i connettori di alimentazione verso il basso

X666X
10-01-2008, 15:35
ma non è troppo lunga? voglio vedere in quanti case riuscirà ad entrare, e poi per l'alimentazione?? a 8 pin ? :fagiano:

HackaB321
10-01-2008, 15:37
è lunga quanto una gtx

Faustinho DaSilva
10-01-2008, 15:39
Scomodi i connettori di alimentazione verso il basso

quoto

Faustinho DaSilva
10-01-2008, 15:40
ma non è troppo lunga? voglio vedere in quanti case riuscirà ad entrare, e poi per l'alimentazione?? a 8 pin ? :fagiano:

1X6pin
1X8pin
come la 2900

X666X
10-01-2008, 15:41
è lunga quanto una gtx

uff meglio, a guardalo pensavo di +, cmq ti dò ragione scomodi i connettori verso il basso, ma quello da 8 perchè non lo hanno fatto da 6, non capisco ste cose :muro:

Faustinho DaSilva
10-01-2008, 15:42
uff meglio, a guardalo pensavo di +, cmq ti dò ragione scomodi i connettori verso il basso, ma quello da 8 perchè non lo hanno fatto da 6, non capisco ste cose :muro:

per farti cambiare alimentatore:D

X666X
10-01-2008, 15:44
per farti cambiare alimentatore:D


1X6pin
1X8pin
come la 2900


si ma si collegano tutti e due?

cioè quella da 8 pin su che alimentatori si trova?

peppecbr
10-01-2008, 15:45
io sono tentato , il discorso è pure un'altro non tutti hanno un x38 con 2 linee pci-express a 16x...

quindi chi si ritrova una mobo con un solo 16x questa mi sembra la scelta più sensata , così risparmia 200€ per una mobo x38 che oltre al 16x altro non offre...

se il prezzo sarà inferiore a 2 x3870 la prendo di sicuro ;)

l'unica nota dolente è la ventola... insomma a me sembra come quella della 3870 [che io ho] e vi posso assicurare che con una sola gpu deve stare settata almeno al 45° per avere temperature umane , anche se devo dire la verità a questa velocità è inudibile..

però contate la stessa ventola che deve raffreddare 2 gpu , 40+40 fa 80% ed a 80% la ventola della mia 3870 è un reattore :cry:

per non parlare che la gpu più vicino alla ventola sarà più raffreddata e quella più lontana si becca il calore pure della sorella :stordita:

noto dalle foto che non ci sono neanche heatpipe... almeno su questa le potevano mettere , è stato fatto tutto in economia... e sicuramente si avranno problemi di temp... quindi 350€ + 2 dissipatori compatibili per raffreddarla meglio arriviamo a 400€ e passa... :cry:

spero di sbagliarmi e di rivendere la mia e prendermi questa :sofico:

Faustinho DaSilva
10-01-2008, 15:50
si ma si collegano tutti e due?

cioè quella da 8 pin su che alimentatori si trova?

si devi collegarli tutti e 2. cmq questa problematica è stata affrontata sul tread hd2900xt.
Per gli alimentatori devi farti un giro e spluciare nelle caratteristiche e c'e scritto che moduli offrono, quello che ho in firma ne ha 3 a 6pin e 3 a 8pin ad esempio

~Mr.PartyHut~
10-01-2008, 15:54
Bene :)
Tra poco si potrà surfare su una scheda video :|

HackaB321
10-01-2008, 15:56
io sono tentato , il discorso è pure un'altro non tutti hanno un x38 con 2 linee pci-express a 16x...

quindi chi si ritrova una mobo con un solo 16x questa mi sembra la scelta più sensata , così risparmia 200€ per una mobo x38 che oltre al 16x altro non offre...

Vero


l'unica nota dolente è la ventola... insomma a me sembra come quella della 3870 [che io ho] e vi posso assicurare che con una sola gpu deve stare settata almeno al 45° per avere temperature umane , anche se devo dire la verità a questa velocità è inudibile..

però contate la stessa ventola che deve raffreddare 2 gpu , 40+40 fa 80% ed a 80% la ventola della mia 3870 è un reattore :cry:

per non parlare che la gpu più vicino alla ventola sarà più raffreddata e quella più lontana si becca il calore pure della sorella :stordita:

noto dalle foto che non ci sono neanche heatpipe... almeno su questa le potevano mettere , è stato fatto tutto in economia... e sicuramente si avranno problemi di temp... quindi 350€ + 2 dissipatori compatibili per raffreddarla meglio arriviamo a 400€ e passa... :cry:

spero di sbagliarmi e di rivendere la mia e prendermi questa :sofico:

Aspetta le versioni dei vari partner, tipo questa:

http://www.frageek.com/files/images/11995362625584e43c4bv0.jpg

baronz
10-01-2008, 15:56
dai bench sembrerebbe che AMD stia inboccando la strada giusta :) speriamo bene !

Dexther
10-01-2008, 16:00
ancora co sti 6+8 pin? ................... uff....

Titanium555
10-01-2008, 16:02
che si sappia con questa scheda bisogna abilitare la modalità cross per rilevare i due chip oppure non c'è ne bisogno visto che ho il chipset nvidia ed in quel caso avrei problemi in quanto dovrei cambiare scheda madre e non mi và....

IlNiubbo
10-01-2008, 16:05
Sono proprio curioso, sarei proprio contento se questa scheda tenesse testa alle nvidia, sia dal punto di vista delle prestazioni che dei costi!

edit: non avevo aggiornato le pagine del forum :D

Lud von Pipper
10-01-2008, 16:06
Se il bench cinese è corretto finalmente si potranno utilizzare i megaLCD Dell e Samsung per giocare senza limitazioni! :sbav:

Il connettore a 8 pin dovrebbe funzionare come sulla X2900, quindi si può inserirci un comune 6pin con il limite di non poter overcloccare.

Per la questione SLI Xfire oppure scheda integrata con due GPU la battaglia si farà sulla compatibilità: chi ha avuto una 7950X2 può confermare che questa scheda era piuttosto indigesta alla maggior parte dei giochi, e al momento le 38xx non sono il massimo per la retrocompatibilità.
L'SLI inoltre da molti problemi di riconoscimento, e sarebbe utile poter utilizzare questa scheda anche come singola GPU (tenendo spenta la seconda unità) in modo da farla riconoscere come semplice HD3870

Bisognerà anche verificare le prestazioni con i filtri, dove AMD/ATI non brilla molto con le ultime schede.

bernh
10-01-2008, 16:09
Mi sa che ho trovato la mia nuova scheda! Guardacaso facco il compleanno il 10 Febbraio! :-)

Se andra bene come pare da queste prime indiscrezioni(anche se so che non sono affidabili) e se costerà meno di 350€ potrei fare la pazzia..... cioè farla fare a qualcun'altro come regalo per il compleanno!! hihi :-)

Crux_MM
10-01-2008, 16:09
No commenti sulla grandezza..è un sample!
:D

Faustinho DaSilva
10-01-2008, 16:19
Se il bench cinese è corretto finalmente si potranno utilizzare i megaLCD Dell e Samsung per giocare senza limitazioni! :sbav:
cut
Bisognerà anche verificare le prestazioni con i filtri, dove AMD/ATI non brilla molto con le ultime schede.

se giochi ad alte risoluzioni nn dovresti avere bisogno di filtrare tanto...:D

MarkManson
10-01-2008, 16:20
stavolta finalmente ati farà le scarpe a nvidia.....Era ora ke si smuovesse qualcosa....

giovanbattista
10-01-2008, 16:20
sarei curioso di vedere la potenza che è in grado di sprigionare un sistema con 3 o 4 di queste vga (se si possono utilizzare) solo x vedere i risultati.....già credo che non prenderò mai una doppia vga figuraimoci 4*2 (8gpu), penso che pure crysis (e di riflesso tutti i prossimi giochi) lo puoi mettere a palla a 1900*1200 ed oltre....

Faustinho DaSilva
10-01-2008, 16:23
sarei curioso di vedere la potenza che è in grado di sprigionare un sistema con 3 o 4 di queste vga (se si possono utilizzare) solo x vedere i risultati.....già credo che non prenderò mai una doppia vga figuraimoci 4*2 (8gpu), penso che pure crysis (e di riflesso tutti i prossimi giochi) lo puoi mettere a palla a 1900*1200 ed oltre....

solo cf a 2 sk ergo 4gpu.
i risultati spero siano buoni nella premessa c stanno

MiKeLezZ
10-01-2008, 16:24
inutile

notare che schifo di accrocchio:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5066&Itemid=1

http://img124.imageshack.us/img124/9153/3870x2nudenl1.jpg

alla faccia di chi diceva fosse un dualcore

il 2008 sarà triste per quanto riguarda nuove schede

HackaB321
10-01-2008, 16:25
che si sappia con questa scheda bisogna abilitare la modalità cross per rilevare i due chip oppure non c'è ne bisogno visto che ho il chipset nvidia ed in quel caso avrei problemi in quanto dovrei cambiare scheda madre e non mi và....

La scheda funziona anche se il chipset non supporta cf

HackaB321
10-01-2008, 16:29
inutile

notare che schifo di accrocchio:


alla faccia di chi diceva fosse un dualcore

il 2008 sarà triste per quanto riguarda nuove schede

:rotfl: (per la nuova firma non l'avevo ancora vista)

mickyjenny
10-01-2008, 16:33
stavolta finalmente ati farà le scarpe a nvidia.....Era ora ke si smuovesse qualcosa....


Penso che questo farebbe piacere a tutti noi (tranne ai fanboy nvidia chiaramente :D) però non dimenticare la 9800GX2... la 3870 X2 bisognerà confrontarla a quella e non alla 8800 ultra.

maurischio
10-01-2008, 16:33
inutile

notare che schifo di accrocchio:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5066&Itemid=1

http://img124.imageshack.us/img124/9153/3870x2nudenl1.jpg

alla faccia di chi diceva fosse un dualcore

il 2008 sarà triste per quanto riguarda nuove schede

me se non è nemmeno la stessa scheda descritta nell'articolo di hwupgrade....
quella che hai postato tu ha l'alimentazione 2x6 pin, e l'altra 6+8, quindi potrebbero tranquillamente aver ribaltato tutto.
inoltre, non è mica facile far stare 2 schede video (perchè di questo si tratta) nello spazio che occupa una 8800gtx

edit, dimenticavo, r700 è già in tape out, quindi probabilmente già nel 3° quadrimestre potremmo vedere qualcosa, altro che tristezza di schede

halduemilauno
10-01-2008, 16:35
inutile

notare che schifo di accrocchio:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5066&Itemid=1

http://img124.imageshack.us/img124/9153/3870x2nudenl1.jpg

alla faccia di chi diceva fosse un dualcore

il 2008 sarà triste per quanto riguarda nuove schede

sappiamo da tempo che sarebbe stata cosi. cmq per quanto riguarda le prestazioni a 1280x1024 al 3d mark 2006 con un 6600(forse q) oc a 3300 la scheda ha ottenuto 17414. e ricordo anche la slide ufficiale che diceva un + 15% rispetto alla 8800ultra.
e dato che l'equivalente nvidia pare vada ancora ben di + non mi pare poi tanto triste.
;)

Mparlav
10-01-2008, 16:36
Il massimo sono 4 gpu o schede. 4x2 gpu non è contemplato.
La 3870 X2 ha un solo connettore per il bridge.
La 3870/3850/2900XT/2900Pro, invece, ne hanno 2, per poter connettere 4 schede su 4 slot.

Cmq già per 4 gpu dobbiamo vedere come andranno i driver.
Sono certo che per il 3dmark06 si prodigheranno come hanno sempre fatto :-)

Ma io voglio vederli nei giochi. Al CES hanno fatto vedere la scheda in azione su Cod4 con dei driver beta probabilmente, ma ricordiamoci che con gli attuali driver il Crossfire non funziona in quel gioco. Nulla vieta che possa accadere nuovamente in futuro con altri giochi.
E questa la nota dolente, che continua a farmi preferire, in ogni caso, una singola scheda con una gpu.

Per la lunghezza della scheda, sample o no, il pcb è intorno ai 9.5-10", e non mente ;-)

Per la cronaca, non mi sembra tanto più corto della 9800 gx2 vista nei gg scorsi.

MiKeLezZ
10-01-2008, 16:38
me se non è nemmeno la stessa scheda descritta nell'articolo di hwupgrade....
quella che hai postato tu ha l'alimentazione 2x6 pin, e l'altra 6+8, quindi potrebbero tranquillamente aver ribaltato tutto.
inoltre, non è mica facile far stare 2 schede video (perchè di questo si tratta) nello spazio che occupa una 8800gtx

edit, dimenticavo, r700 è già in tape out, quindi probabilmente già nel 3° trimestre potremmo vedere qualcosa, altro che tristezza di schede

Preferisci questa immagine ?

http://img132.imageshack.us/img132/173/c3bc5d62f7a6757b367db09ah9.jpg

http://www.dinoxpc.com/News/news.asp?ID_News=13657

de gustibus ... :-)

Tovarisch
10-01-2008, 16:39
Scomodi i connettori di alimentazione verso il basso

La foto è girata! :D

I connettori sono nella parte alta come tutte!

HackaB321
10-01-2008, 16:40
Penso che questo farebbe piacere a tutti noi (tranne ai fanboy nvidia chiaramente :D) però non dimenticare la 9800GX2... la 3870 X2 bisognerà confrontarla a quella e non alla 8800 ultra.

Beh come prestazioni dovrebbe essere più vicina alla ultra, dato che la GX2 sarà composta da due GTS 512 e avrà risultati con ogni probabilità superiori (e infatti Nvidia la fa uscire pur con il dual pcb al solo scopo di riprendersi la leadership). La battaglia si farà come sempre sul prezzo con un occhio anche ai consumi (la 9800GX2 dovrebbe essere imbattibile da questo punto di vista)

MiKeLezZ
10-01-2008, 16:43
Beh come prestazioni dovrebbe essere più vicina alla ultra, dato che la GX2 sarà composta da due GTS 512 e avrà risultati con ogni probabilità superiori (e infatti Nvidia la fa uscire pur con il dual pcb al solo scopo di riprendersi la leadership). La battaglia si farà come sempre sul prezzo con un occhio anche ai consumi (la 9800GX2 dovrebbe essere imbattibile da questo punto di vista)la battaglia si fa sul prezzo ?
perchè, non mi vorrete mica far credere che queste schede oltre a farle recensire e prendersi la barretta più lunga delle altre, servano a qualcos'altro ...

HackaB321
10-01-2008, 16:45
la battaglia si fa sul prezzo ?
perchè, non mi vorrete mica far credere che queste schede oltre a farle recensire e prendersi la barretta più lunga delle altre, servano a qualcos'altro ...

Beh almeno un pò dipenderà da quanto devo sborsare per la barretta un pò più lunga. E poi la scelta dipendente dal prezzo può anche essere all'interno di ati tra questa e 2 3870.

HackaB321
10-01-2008, 16:48
La foto è girata! :D

I connettori sono nella parte alta come tutte!

Come girata?
Con la scheda nel case quei connettori vanno orientati verso il basso perchè non li hanno orientati di lato come in tutte le altre?

http://www.hwupgrade.it/immagini/ati_r680_1.jpg

mickyjenny
10-01-2008, 16:49
Beh come prestazioni dovrebbe essere più vicina alla ultra, dato che la GX2 sarà composta da due GTS 512 e avrà risultati con ogni probabilità superiori (e infatti Nvidia la fa uscire pur con il dual pcb al solo scopo di riprendersi la leadership). La battaglia si farà come sempre sul prezzo con un occhio anche ai consumi (la 9800GX2 dovrebbe essere imbattibile da questo punto di vista)

Si, io intendevo come tipologia di scheda. Come prestazioni sarà come tu hai detto... poi chiaramente il rapporto prestazioni-prezzo confronterà la 3870X2 con la 8800 Ultra, vedendo vincitrice la prima (350-400 contro i quasi 600 della scheda Nvidia).

Tovarisch
10-01-2008, 16:51
Ma io voglio vederli nei giochi. Al CES hanno fatto vedere la scheda in azione su Cod4 con dei driver beta probabilmente, ma ricordiamoci che con gli attuali driver il Crossfire non funziona in quel gioco. Nulla vieta che possa accadere nuovamente in futuro con altri giochi.
E questa la nota dolente, che continua a farmi preferire, in ogni caso, una singola scheda con una gpu.



Perché sei così convinto che questa scheda venga vista dal sistema operativo come un crossfire?

Se sono stati furbi quelli di AMD/ATI, sarà vista come una scheda sola. Ha infatti un solo connettore PCIe e una sola uscita video che va direttamente al monitor.

L'applicazione (gioco) non dovrebbe neanche accorgersi che sono 2 GPU.


Altrimenti cosa ci sta a fare quel chippone tra le 2 GPU, sempre che le foto non siano completamente "tarocche"?

D4N!3L3
10-01-2008, 16:55
Dai bench sembra davvero una bella scheda, speriamo che AMD si riprenda, ultimamente preferisco NVIDIA ma mi mancano i vecchi tempi con un po' di concorrenza, quando c'era più scelta. Se poi AMD si riprende avremo anche più uscite e gare a chi fa la scheda migliore, altrimenti potremmo dover aspettare per mesi prima di vedere qualcosa.
Intanto aspetto riscontri e bench su questa, e ovviamente spero che si sappia al più presto qualcosa anche della GX2. :D

Faustinho DaSilva
10-01-2008, 16:57
Si, io intendevo come tipologia di scheda. Come prestazioni sarà come tu hai detto... poi chiaramente il rapporto prestazioni-prezzo confronterà la 3870X2 con la 8800 Ultra, vedendo vincitrice la prima (350-400 contro i quasi 600 della scheda Nvidia).

quoto, sul prezzo diciamo che sarà + conveniente la prima:D (e probabilmente sulla qualità delle immagini)

MiKeLezZ
10-01-2008, 16:57
Perché sei così convinto che questa scheda venga vista dal sistema operativo come un crossfire?

Se sono stati furbi quelli di AMD/ATI, sarà vista come una scheda sola. Ha infatti un solo connettore PCIe e una sola uscita video che va direttamente al monitor.

L'applicazione (gioco) non dovrebbe neanche accorgersi che sono 2 GPU.


Altrimenti cosa ci sta a fare quel chippone tra le 2 GPU, sempre che le foto non siano completamente "tarocche"?Non cambia una mazza, il chippone non è altro che una specie di southbridge "azzoppato", con solo la funzionalità del CrossFire.

Prima le due schede facevano:
slot 16x|
||||||||<-----> chipset (crossfire complaint) <-----> ram
slot 16x|

Ora fanno:
bus 8x|
|||||||<--> chipset (crossfire on chip) <--> slot 16x <-----> ram
bus 8x|

Per me è pure peggio

ciao

Tovarisch
10-01-2008, 16:58
Come girata?
Con la scheda nel case quei connettori vanno orientati verso il basso perchè non li hanno orientati di lato come in tutte le altre?

http://www.hwupgrade.it/immagini/ati_r680_1.jpg

Forse non ci capiamo......
Io pensavo ti lamentassi che fossero sul lato inferiore della scheda, vicino al PCB della MB, una volta montata.

Tu invece mi pare ti lamenti perchè montata in un classico case tower, sono rivolti verso il pavimento del case, a scheda montata.

E' cosi?

Faustinho DaSilva
10-01-2008, 16:59
Forse non ci capiamo......
Io pensavo ti lamentassi che fossero sul lato inferiore della scheda, vicino al PCB della MB, una volta montata.

Tu invece mi pare ti lamenti perchè montata in un classico case tower, sono rivolti verso il pavimento del case, a scheda montata.

E' cosi?

penso di si: gli altri vanno verso l'esterno del case nn verso il basso del case cmq alla fine della fiera cambia ben poco imho

Mparlav
10-01-2008, 17:00
Sì che sono convinto, perchè in rete è disponibile la schermata del Pannello di Controllo, dove compaiono 2 schede (o meglio 4, perchè erano su una Mb x38)
Il gioco ed i driver vedranno questa scheda allo stesso modo di 2x HD3870.
Quindi se nei driver il profilo del gioco non funziona in Crossfire, la HD3870 X2 avrà le stesse prestazioni di una singola Hd3870.

Ricordatevi che sono già uscite le 2600XT dual e le x1950Pro dual su singolo PCB, con chip Plex.
Quindi il sistema è già stato testato, collaudato e recensito :-)

peppecbr
10-01-2008, 17:01
Non cambia una mazza, il chippone non è altro che una specie di southbridge "azzoppato", con solo la funzionalità del CrossFire.

Prima le due schede facevano:
slot 16x|
||||||||<-----> chipset (crossfire complaint) <-----> ram
slot 16x|

Ora fanno:
bus 8x|
|||||||<--> chipset (crossfire on chip) <--> slot 16x <-----> ram
bus 8x|

Per me è pure peggio

ciao

cmq dai test C.F. su 2 3870 il 16x + 16x e 8x+8x è la stessa cosa...

se hanno fatto questo vuol dire che non si sfrutta niente di più :sofico:

VeG
10-01-2008, 17:02
Vedo bene un bel Quad Crossfire :eek:

Tovarisch
10-01-2008, 17:04
Non cambia una mazza, il chippone non è altro che una specie di southbridge "azzoppato", con solo la funzionalità del CrossFire.



Per me è pure peggio

ciao

Come configurazione hardware, se fosse così, hai ragione.
Ma io contestavo il fatto che i giochi si accorgessero del crossfire (vedi Crysis ed altri che vanno quasi uguali con 1 o 2 schede).

Per me il S.O. vedrà una scheda sola e quindi non ci dovrebbero essere limitazioni anche nei giochi che vanno male con crossfire.

Faustinho DaSilva
10-01-2008, 17:04
Vedo bene un bel Quad Crossfire :eek:

peccato il "vincolo" delle 4 gpu
2X 3870x2
4X 3870

cmq se fosse possibile il quad crossfire di 3870x2 fa male al portafoglio hihihi

MiKeLezZ
10-01-2008, 17:07
cmq dai test C.F. su 2 3870 il 16x + 16x e 8x+8x è la stessa cosa...

se hanno fatto questo vuol dire che non si sfrutta niente di più :sofico:il punto non è tanto l'8x piuttosto che il 16x, ma la lunghezza del tragitto da fare e la quantità di nodi in cui l'informazione deve passare: non vedo risparmio, c'è anzi la scocciatura di dover alimentare un altro chip (che dalle dimensioni immagino ciucci sui 10W)
rispetto al crossfire classico si perde inoltre la possibilità di veicolare 4 monitor e di togliere una scheda se ci si rompe le palle del dual gpu ...
per quel che vale imho abbiamo perso fin troppo tempo a parlare di questa cacata
ciao

HackaB321
10-01-2008, 17:07
Forse non ci capiamo......
Io pensavo ti lamentassi che fossero sul lato inferiore della scheda, vicino al PCB della MB, una volta montata.

Tu invece mi pare ti lamenti perchè montata in un classico case tower, sono rivolti verso il pavimento del case, a scheda montata.

E' cosi?

Esatto. E' più scomodo inserire i cavi che vengono dall'ali. E non ne vedo il perchè. Comunque è solo una scheda sample le versioni dei partner magari saranno diverso

Tovarisch
10-01-2008, 17:09
Sì che sono convinto, perchè in rete è disponibile la schermata del Pannello di Controllo, dove compaiono 2 schede (o meglio 4, perchè erano su una Mb x38)
Il gioco ed i driver vedranno questa scheda allo stesso modo di 2x HD3870.


Allora è una vera porcata questa scheda.
Giusto un esercizio di masterizzazione del PCB. :ncomment:

MiKeLezZ
10-01-2008, 17:12
Come configurazione hardware, se fosse così, hai ragione.
Ma io contestavo il fatto che i giochi si accorgessero del crossfire (vedi Crysis ed altri che vanno quasi uguali con 1 o 2 schede).

Per me il S.O. vedrà una scheda sola e quindi non ci dovrebbero essere limitazioni anche nei giochi che vanno male con crossfire.c'è poco da travisare, questa scheda -E'- un crossfire di due gpu (che tu le schede le metti su uno slot meccanico e poi le colleghi con un chipset sulla motherboard, oppure le metti su un pcb e le colleghi con un chipset sempre sullo stesso pcb, è ininfluente), ed è vista come tale
per fare quello che intendi te si dovrebbe implementare un frame buffer comune, uno scheduler, etc... ovvero è quello che succede quando si creano le nuove gpu (intese come il microchip centrale), con in più l'enorme svantaggio di distanziare i componenti logici di parecchi cm, la rottura di palle del doppio chip, e via dicendo
questa scheda è solo un accrocchio -poca spesa tanta resa- (poi il tanta resa è tutto da vedere) per buttare fumo sugli occhi di chi non capisce queste cose, che vede quindi "un'unica scheda che va tanto veloce"
ciao

Tovarisch
10-01-2008, 17:15
c'è poco da travisare, questa scheda -E'- un crossfire di due gpu (che tu le schede le metti su uno slot meccanico e poi le colleghi con un chipset sulla motherboard, oppure le metti su un pcb e le colleghi con un chipset sempre sullo stesso pcb, è ininfluente), ed è vista come tale
per fare quello che intendi te si dovrebbe implementare un frame buffer comune, uno scheduler, etc... ovvero è quello che succede quando si creano le nuove gpu (intese come il microchip centrale), con in più l'enorme svantaggio di distanziare i componenti logici di parecchi cm, la rottura di palle del doppio chip, e via dicendo
questa scheda è solo un accrocchio -poca spesa tanta resa- (poi il tanta resa è tutto da vedere) per buttare fumo sugli occhi di chi non capisce queste cose, che vede quindi "un'unica scheda che va tanto veloce"
ciao

A questo punto ti quoto completamente

Mparlav
10-01-2008, 17:26
Il chip Plex non consuma molto, per fortuna. Il TDP è circa 5W, quindi praticamente "spento" rispetto ai 2 Rv670 da 105W di TDP che gli stanno accanto :-)
Però, come già feci notare alle prime indiscrezioni della R680, il chip Plex adottato da Amd ha cmq un suo costo.
Ho trovato una vecchia pubblicazione dell'estate scorsa che parlava di 50$ per quantitativi di 1000 pezzi.
Certo Amd sta' risparmiando su un PCB e sul dissy, e ovviamente spunterà un prezzaccio dalla Plex sull'ordinativo, ma resto del parere che la 3870X2 potrebbe non essere tanto più economica di 2x HD3870 (che si trovano a 185+185 euro qui in Italia).
Poi magari sarò smentito.

D'altronde, le precedenti 2600XT dual e x1950Pro dual costavano più del doppio delle singole schede.

HackaB321
10-01-2008, 17:30
c'è poco da travisare, questa scheda -E'- un crossfire di due gpu (che tu le schede le metti su uno slot meccanico e poi le colleghi con un chipset sulla motherboard, oppure le metti su un pcb e le colleghi con un chipset sempre sullo stesso pcb, è ininfluente)

Senza dubbio. E anche se funzionerà su schede mamme che non supportano il cf sarà gestita dai driver del crossfire (quindi se un gioco in cf va come su scheda singola per problemi driver le prestazioni con questa saranno le stesse della 3870).

wijjyu
10-01-2008, 17:32
se la 9800 gx2 l'hanno definita una scatola nera allora questa è una scatola rossa :D :D ma non facciamone una disputa politica....

innovatore
10-01-2008, 18:19
cmq su questa scheda si può ottenere molto con l'ottimizzazione dei driver guadagnando in prestazioni molto di + rispetto alle serie precedenti cosa fattibile tra un paio di mesi . quindi qualsiasi test ora lo vedo ancora prematuro

MiKeLezZ
10-01-2008, 18:22
cmq su questa scheda si può ottenere molto con l'ottimizzazione dei driver guadagnando in prestazioni molto di + rispetto alle serie precedenti cosa fattibile tra un paio di mesi . quindi qualsiasi test ora lo vedo ancora prematurofra un po' di mesi uscirà la nuova architettura e al produttore poco interesserà di far aumentare i margini prestazioni di schede per lui non più appetibili commercialmente
d'altronde questa non è certo la prima scheda dual sli o dual crossfire, e non mi pare che nessuno oggigiorno vada a comprarsi la 7800gx2 piuttosto che una 8800gt.
c'est la vie
ciao

bs82
10-01-2008, 18:46
9000 e rotti punti al 3dmark a 2560. va circa il 20% in più di una 8800ultra (vedi bench del crossfire di 2 3870) e costerà poco meno del doppio di 2 hd3870... quindi almeno 100 euro in meno di una ultra al costo attuale... notevole...

Giullo
10-01-2008, 18:59
io non capisco tanto accanimento contro questa scheda ... due 3870 in cf consumano quanto una ultra e vanno decisamente meglio (dove i driver supportano l'applicazione in cf chiaramente) ... sicuramente il prezzo inciderà sul successo o meno della scheda, ma se già costa un 10% in meno di 2 3870 sarà un ottimo acquisto

appleroof
10-01-2008, 19:22
Se il bench cinese è corretto finalmente si potranno utilizzare i megaLCD Dell e Samsung per giocare senza limitazioni! :sbav:

Il connettore a 8 pin dovrebbe funzionare come sulla X2900, quindi si può inserirci un comune 6pin con il limite di non poter overcloccare.

Per la questione SLI Xfire oppure scheda integrata con due GPU la battaglia si farà sulla compatibilità: chi ha avuto una 7950X2 può confermare che questa scheda era piuttosto indigesta alla maggior parte dei giochi, e al momento le 38xx non sono il massimo per la retrocompatibilità.
L'SLI inoltre da molti problemi di riconoscimento, e sarebbe utile poter utilizzare questa scheda anche come singola GPU (tenendo spenta la seconda unità) in modo da farla riconoscere come semplice HD3870

Bisognerà anche verificare le prestazioni con i filtri, dove AMD/ATI non brilla molto con le ultime schede.

non per fare lo :cool: ma è più di un anno che lo faccio, a meno che non ti riferisci ai 30" da 2560 x 1600

per il resto, il rischio con queste schede (hai citato la 7950gx2 e aggiungo la 9800gx2) sono i driver: se vanno male, hai le prestazioni di una scheda avendo speso molto di più però :rolleyes:

bs82
10-01-2008, 19:34
il fatto è che c'è gente che ancora non ha capito che TUTTI i giochi possono andare con il crossfire, anche se privo di profilo.

Ci sono ben 3 modalità di rendering e non tutte necessitano di profilo per funzionare.

Defragg
10-01-2008, 19:53
Ma con R680 ogni GPU ha i suoi 512Mb di VRAM oppure è 1Gb di VRAM condivisa?

Defragg
10-01-2008, 19:57
non per fare lo :cool: ma è più di un anno che lo faccio, a meno che non ti riferisci ai 30" da 2560 x 1600

Credo si riferisca ai 2560x1600. ;)
per il resto, il rischio con queste schede (hai citato la 7950gx2 e aggiungo la 9800gx2) sono i driver: se vanno male, hai le prestazioni di una scheda avendo speso molto di più però :rolleyes:

Si ma qui dice: Stando a quanto dichiarato dal personale ATI, lo sviluppo driver sarebbe già ultimato
Sembra promettere qualche cosa. :boh:
Voglio vedere come si comporteranno, sono curioso.

appleroof
10-01-2008, 20:02
il fatto è che c'è gente che non ha ancora capito che esiste pur sempre un problema di ottimizzazione dei driver (molto più difficili per r600 e derivati rispetto a g80 e derivati, già in singola gpu, figuriamoci), che alla fine rende il CF uguale allo SLI anche da questo punto di vista, in sostanza

appleroof
10-01-2008, 20:03
Credo si riferisca ai 2560x1600. ;)


Si ma qui dice: Stando a quanto dichiarato dal personale ATI, lo sviluppo driver sarebbe già ultimato
Sembra promettere qualche cosa. :boh:
Voglio vedere come si comporteranno, sono curioso.

anche io ;)

Defragg
10-01-2008, 20:13
il fatto è che c'è gente che non ha ancora capito che esiste pur sempre un problema di ottimizzazione dei driver (molto più difficili per r600 e derivati rispetto a g80 e derivati, già in singola gpu, figuriamoci), che alla fine rende il CF uguale allo SLI anche da questo punto di vista, in sostanza

Un'appunto doveroso da fare :p:
A mio avviso il Crossfire è preferibile, soprattutto vista la compatibilità con i chipset Intel che sono fantastici.

appleroof
10-01-2008, 20:24
Un'appunto doveroso da fare :p:
A mio avviso il Crossfire è preferibile, soprattutto vista la compatibilità con i chipset Intel che sono fantastici.

bè, ognuno ha i suoi gusti :)

personalmente vedo come và una conf. CF o SLI e poi decido, al di là dei chipset ecc. così come in generale guardo come và una vga e poi decido di prenderla: per me non cambia nulla da questo punto di vista

da dire che finora sli e cf hanno più promesso che mantenuto, per cui direi che queste soluzioni per ora non mi dicono nulla, però può darsi che siamo all'inizio di una nuova stagione per queste soluzioni, vedremo...

MiKeLezZ
10-01-2008, 20:40
Ma con R680 ogni GPU ha i suoi 512Mb di VRAM oppure è 1Gb di VRAM condivisa?ogn i gpu ha i suoi 512MB come si può vedere dalle foto
il totale è 1GB, ma di fatto ne sono disponibili solo 512MB

MenageZero
10-01-2008, 20:47
c'è poco da travisare, questa scheda -E'- un crossfire di due gpu (che tu le schede le metti su uno slot meccanico e poi le colleghi con un chipset sulla motherboard, oppure le metti su un pcb e le colleghi con un chipset sempre sullo stesso pcb, è ininfluente), ed è vista come tale
per fare quello che intendi te si dovrebbe implementare un frame buffer comune, uno scheduler, etc... ovvero è quello che succede quando si creano le nuove gpu (intese come il microchip centrale), con in più l'enorme svantaggio di distanziare i componenti logici di parecchi cm, la rottura di palle del doppio chip, e via dicendo
questa scheda è solo un accrocchio -poca spesa tanta resa- (poi il tanta resa è tutto da vedere) per buttare fumo sugli occhi di chi non capisce queste cose, che vede quindi "un'unica scheda che va tanto veloce"
ciao

quoto, ma suppongo lo stesso discorso si potrà fare per la(prossima?) ventura 9800gx2 sostituendo "crossfire" con "sli" (anzi magari la contro parte nv avrà un pcb in più e consumerà anche un po' di più; :asd: ma probabilmente andrà anche di più trattandosi di 2 x rv670 vs 2 x g92)

cmq, guardando in generale il panorama gpu mi sembra che l'aspetto "novità in arrivo" si prospettia d ora alquanto deludente per diciamo forse la prima metà di quest'anno ...

... r700 & derivati non si sa quando usciranno, non ci sono più annunci né rumors riguardo chip di famiglia r6xx implementanti quelle fantomatiche "correzzioni in hw" che avrebbero dovuto migliorare le prestazioni di questa arch. ...

... poi, se non ho capito male io le ultime news in circolazione, gli attesi nuovi chip nv D9E e D9P (o questi erano i nomi in codice delle schede ?) o sono stati rimandati a data da destinarsi o erano semplicemente dei g92(o derivati molto diretti & castrati per il D9P/gf9600) in varie salse ed allestimenti

M4R1|<
10-01-2008, 20:54
inutile

notare che schifo di accrocchio:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=5066&Itemid=1

http://img124.imageshack.us/img124/9153/3870x2nudenl1.jpg

alla faccia di chi diceva fosse un dualcore

il 2008 sarà triste per quanto riguarda nuove schede

:rolleyes: :rolleyes: :rolleyes:
prima di giudicare impare ad aspettare bench / info maggiori sulla realizzazione / ecc...

ma ti è mai andato qualcosa oppure ce l'hai con tutto?

Faustinho DaSilva
10-01-2008, 21:00
ogn i gpu ha i suoi 512MB come si può vedere dalle foto
il totale è 1GB, ma di fatto ne sono disponibili solo 512MB

xke ne sarebbero disponibili 512???

Paskyno
10-01-2008, 21:03
Chissa quanto scaldera il secondo processore nel pcb.....

MiKeLezZ
10-01-2008, 21:07
xke ne sarebbero disponibili 512???Per lo stesso motivo per cui un CrossFire di due HD3870 da 512MB cadauna non porta il totale di memoria disponibile a 1GB, ma resta 512MB
Il CrossFire/SLI rispetto la scheda singola spreca metà RAM

MenageZero
10-01-2008, 21:19
ogn i gpu ha i suoi 512MB come si può vedere dalle foto
il totale è 1GB, ma di fatto ne sono disponibili solo 512MB

Per lo stesso motivo per cui un CrossFire di due HD3870 da 512MB cadauna non porta il totale di memoria disponibile a 1GB, ma resta 512MB
Il CrossFire/SLI rispetto la scheda singola spreca metà RAM

:eek: non essendomi interessato mai molto a queste tecnologie, non sapevo proprio che un sli/cf usa la ram di una solo scheda (sicuro sicuro ?)

però per la scheda singola con 2 gpu sembra esserci qualcosa che non torna... mettere cmq 512MB di ram che non servono a nulla, oltre che illogico in sé, aumenta i consumi dell'accrocchio(va be', forse di poco rispetto al resto), aumenta i costi di produzione e, o riduce il margine di guadagno o costringe a vendere a prezzi più alti a parità di gaudagno unitario, rischiando di ottenere volumi di vendita inferiori al max possibile e inferiore guadagno totale... :wtf:

Mercuri0
10-01-2008, 21:30
fra un po' di mesi uscirà la nuova architettura e al produttore poco interesserà di far aumentare i margini prestazioni di schede per lui non più appetibili commercialmente
d'altronde questa non è certo la prima scheda dual sli o dual crossfire, e non mi pare che nessuno oggigiorno vada a comprarsi la 7800gx2 piuttosto che una 8800gt.
:mbe:

Ma R700 di AMD si vocifera sarà sempre multi GPU (crossfire) per la fascia alta (ma con lo switch pci express integrato)

L'andazzo è fare multi GPU, come per i processori multi-core, e a me pare sensatissimo da tutti i punti di vista.
E' ovvio che ci vorrà software ottimizzato, e lo sarà. Il direct 10 prevede già un AFR superiore ai 3 del Directx9, e non è detto che solo di AFR si parlerà.

Mercuri0
10-01-2008, 21:32
non essendomi interessato mai molto a queste tecnologie, non sapevo proprio che un sli/cf usa la ram di una solo scheda (sicuro sicuro ?)

Non è che usa la RAM di una solo scheda -.-
Deve copiare lo stesso contenuto in etrambe. :)

Di certo se davvero faranno sistemi multi-gpu su singola scheda con più di 2 GPU, di questa cosa dovranno venirne a capo.

MenageZero
10-01-2008, 21:53
:mbe:

Ma R700 di AMD si vocifera sarà sempre multi GPU (crossfire) per la fascia alta (ma con lo switch pci express integrato)

L'andazzo è fare multi GPU, come per i processori multi-core, e a me pare sensatissimo da tutti i punti di vista.
E' ovvio che ci vorrà software ottimizzato, e lo sarà. Il direct 10 prevede già un AFR superiore ai 3 del Directx9, e non è detto che solo di AFR si parlerà.

se sarà la direzione migliore anche per le gpu o no non ne ho idea, ma ok "fare multi GPU, come per i processori multi-core", benone ...

ma se non iniziano a fare anche, come le cpu, multicore on-die(o al limite, se riuscissero a "contenere" cmq i consumi, dei package multichip) spazzando via gli attuali accrocchi multi-chip e/o multi-pcb e facendo in modo che effettivamente esternamente risulti una singola gpu che può usare al meglio tutta la ram dedicata, personalmente la vedo magra a continuare con sli/cf e chip "sparsi" ...

Non è che usa la RAM di una solo scheda -.-
Deve copiare lo stesso contenuto in etrambe. :)

Di certo se davvero faranno sistemi multi-gpu su singola scheda con più di 2 GPU, di questa cosa dovranno venirne a capo.
ah ecco... scusate l'ignoranza su sli/cf :stordita:
(cmq, che spreco !!)

MenageZero
10-01-2008, 21:56
:mbe:

Ma R700 di AMD si vocifera sarà sempre multi GPU (crossfire) per la fascia alta (ma con lo switch pci express integrato)

L'andazzo è fare multi GPU, come per i processori multi-core, e a me pare sensatissimo da tutti i punti di vista.
E' ovvio che ci vorrà software ottimizzato, e lo sarà. Il direct 10 prevede già un AFR superiore ai 3 del Directx9, e non è detto che solo di AFR si parlerà.

si era anche vociferato che fosse multi-core stile cpu ...
... se multi-<qualcosa> deve essere, :sperem: nelle prime "vociferazioni" :sofico:

thommy87
10-01-2008, 22:24
c

thommy87
10-01-2008, 22:25
son stufo di schede video son soldi buttati

Mercuri0
10-01-2008, 22:30
si era anche vociferato che fosse multi-core stile cpu ...
... se multi-<qualcosa> deve essere, :sperem: nelle prime "vociferazioni" :sofico:
La differenza tra multi core e multi chip è abbastanza labile: I core quad sono multidie e nessuno s'è lamentanto, anzi, tutti a sfottere (giustamente) AMD per il suo approccio on-die coi suoi quad.

All'utente interessano prezzo e prestazioni (includendo anche dimensioni, affidabilità e consumi)

Certo questo di R680 è già un gran risultato, considerando che nVidia ha bisogno di una superficie doppia di PCB (2 schede), e chissà quanta potenza, per fare la stessa cosa.

Il problema della doppia RAM è un problema semplicemente di costi e spazio: è ovvio che non puoi cominciare ad usare più di 2 GPU se devi moltiplicare anche la RAM. Come anche il problema di usare un controller PciExpress esterno o integrato come si dice sia r700... A noi che ce frega?

Altra cosa tragica è il supporto software e i driver. Come ho detto prima, le DX10 contengono novità, ma per quel che mi riguarda da utente: se vogliono vendermi multi-GPU, i driver e giochi devono funzionare multi-GPU, e immagino lo sappiano anche loro :)

Poi possono metterci anche 5Giga di RAM diviso 10 GPU, basta che la scheda abbia un buon prezzo e funzioni bene :P

retnI W
10-01-2008, 22:33
Non giudicherei affatto male l' R680.

Sotto il profilo prestazionale le due 8800 GTS in SLI che dovrebbero chiamarsi 9800GX2 (mah..sta gestione delle nomenclature è alquanto strana) saranno certamente più veloci di una HD 3870X2 ma dovrebbero costare un 50% in più della proposta ATI (a rigor di logica costando la GTS già una 50% in più della HD) e se consideriamo che ATI risparmia su varie componenti la forbice pecuniarea salirebbe ancora. Se una HD 3870 consuma già un pelo meno della 8800 GT (non me ne voglia MiKeLezZ :D), senza dubbi una 9800GX2 se sarà a 55 nm potrebbe rimanere competitiva ma se rimane a 65 credo che sui consumi non ci sarà storia.
Come al solito negli ultimi tempi ATI dovrà puntare tutto sul prezzo e le premesse per una scheda superiore "generalmente alla concorrenza ci sono tutte.

Faustinho DaSilva
10-01-2008, 22:42
Non giudicherei affatto male l' R680.

Sotto il profilo prestazionale le due 8800 GTS in SLI che dovrebbero chiamarsi 9800GX2 (mah..sta gestione delle nomenclature è alquanto strana) saranno certamente più veloci di una HD 3870X2 ma dovrebbero costare un 50% in più della proposta ATI (a rigor di logica costando la GTS già una 50% in più della HD) e se consideriamo che ATI risparmia su varie componenti la forbice pecuniarea salirebbe ancora. Se una HD 3870 consuma già un pelo meno della 8800 GT (non me ne voglia MiKeLezZ :D), senza dubbi una 9800GX2 se sarà a 55 nm potrebbe rimanere competitiva ma se rimane a 65 credo che sui consumi non ci sarà storia.
Come al solito negli ultimi tempi ATI dovrà puntare tutto sul prezzo e le premesse per una scheda superiore "generalmente alla concorrenza ci sono tutte.

quoto

NvidiaMen
10-01-2008, 22:56
Capisco lo scetticismo di molti nel non accogliere soluzioni con approccio multichip, ma occorre sottolineare che gli attuali processi produttivi (rispettivamente di 55nm e 65nm) non permettono ad oggi nè ad ATi nè a nVidia di produrre soluzioni one-chip tecnicamente superiori a quel che hanno potuto sino ad ora realizzare. Tuttavia occorre sottolineare che il futuro delle GPU è multi-thread (Intel lo ha già apertamente dichiarato), per cui i drivers dovranno "abituarsi" a gestire sempre maggiormente parallelismi sia che si tratti di più chip che di più cores (o minicores...), anche perchè la complessità degli applicativi videoludici aumenta sempre più... basti pensare che con DX11 il calcolo della fisica verrà finalmente spostato sulle GPU che, a parità di tempo, crescono molto più rapidamente delle CPU in quanto a prestazioni e scalabilità.
Circa la 9800GX2 la vedo un pò dura per nVidia riuscire a gestire due GPU a 65nm su due PCB su di un'unica scheda.... il calore da smaltire e la potenza assorbita (2 PCI-E da 6pin più uno da 8pin) (http://www.fudzilla.com/index.php?option=com_content&task=view&id=5084&Itemid=1)faranno di questa scheda più un prototipo automobilistico da 1000cv da provare sul deserto del Texas che un fiammante Ferrari da sfoggiare in autostrada...
In attesa di G100 e di R700 certamente più propense al risparmio energetico (in grado di spegnere in idle i minicores inutilizzati), R680 sarà la scheda più potente in circolazione dopo un lunghissimo dominio, conservativo architetturalmente parlando, ma pur sempre un dominio di nVidia con la sua 8800GTX.
NM.

Critterix
10-01-2008, 22:56
Da questi test sembra che il crossfire vada meglio dell'SLI...

http://www.hwstation.net/forum/showthread.php?t=189

E poi volevo sapere da chi parla di questa scheda come di un brutto accrocchio, che ne pensate della 9800gx2? All'Nvidia non si sono sprecati per niente...

Mi rendo conto che Nvidia se la prende comoda proprio per la mancanza di concorrenza, ma fra 9800gx2 e HD3870x2, quest'ultima mi sembra un po' più umana...


Bye

MiKeLezZ
10-01-2008, 23:03
R680 sarà la scheda più potente in circolazione dopo un lunghissimo dominio, conservativo architetturalmente parlando, ma pur sempre un dominio di nVidia con la sua 8800GTX.Dimentichi 9800GX2? Le prime indiscrezioni dal CES 08 hanno già detto che andrà di piùE poi volevo sapere da chi parla di questa scheda come di un brutto accrocchio, che ne pensate della 9800gx2? Di male in peggio, ma la particolarità di questa scheda è che per taluni doveva esser "super rivoluzionaria, dotati di multi-core tipo hypertransport etc etc" ... della 9800gx2 si è sempre saputo fosse la solita cacata dual pcb

NvidiaMen
10-01-2008, 23:13
Dimentichi 9800GX2? Le prime indiscrezioni dal CES 08 hanno già detto che andrà di piùDi male in peggio, ma la particolarità di questa scheda è che per taluni doveva esser "super rivoluzionaria, dotati di multi-core tipo hypertransport etc etc" ... della 9800gx2 si è sempre saputo fosse la solita cacata dual pcb
Ciao MiKeLezZ. La 9800GX2 non la ho affatto dimenticata non per nulla l'ho paragonata al prototipo da 1000cv...;)
Il problema è però che in definitiva, rispetto a questa più normale 3870x2, si tratterà di una scheda off-limits sia nei consumi, che nel calore prodotto e quindi nella rumorosità senza tra l'altro garantire il supporto a dx10.1... Insomma una schifezza di prodotto se confrontato a G100 che dovrebbe vedere la luce dopo un mese e mezzo rispetto a quest'azzardo di nome 9800x2. A questo somma il fatto che l'SLI scala di meno in prestazioni rispetto al Crossfire e la frittata è servita...
NM.

realista
10-01-2008, 23:38
il crossfire quando venne esibito inizialmente.. RICORDO BENISSIMO che aveva tra i suoi punti a favore una maggiore scalabilita e una qualita indiscussa.. he era l'applicare il crossfire ad OGNI applicazione. ho anche una rivista a casa mia vekkiotta che lo dice! il crossfire non necessita..( o perlomeno che io sappia non lo necessitaVA) di profili driver come per lo sli che funziona solo con i giochi e non le applicazioni professionali.

quindi.. perche dite che il cross non va con certi giochi....devo pensare che il cross abbia copiato nvidia inserendo i profili per ogni gioco?....una volta non era cosi...e RICORDIAMOCI DELLE FONDAMENTALI caratteristiche. lo sli fa un frame 1 skeda 1 frame l'altra.... o m pare che divide lo schermo in 2 zone. il cross.. invece divide l oschermo in una scakkiera abbastanza densa e fa lavorare alternatamente le gpu per ogni scacco..( come in una dama...1gpu quelli neri e una gpu quelli bianchi,anche se il paragone bianco e nero non c'entra!)

Mercuri0
11-01-2008, 00:06
Di male in peggio, ma la particolarità di questa scheda è che per taluni doveva esser "super rivoluzionaria, dotati di multi-core tipo hypertransport etc etc" ... della 9800gx2 si è sempre saputo fosse la solita cacata dual pcb

:mbe: Francamente discutere del "si sapeva" e del "si diceva" mi pare ridicolo.

E poi curiosamente io, come tanti, ero più informato su R680 che sulla 9800gx2. Si ipotizzava che R680 fosse multi GPU già da qualche mese, forse sin dall'uscita delle 3xxx.
(ot: stranamente le notizie su internet e sui forum circolano in modo esasperatamente lento. sigh, tiriamo avanti a grassetto e faccine)

Mentre la 9800gx2 se ho capito bene è proprio il D9E.
sito a caso da google:
http://www.vbcportal.eu/index.php?ind=news&op=news_show_single&ide=3180

S'è sempre saputo che il D9E fosse la "solita cacata dual PCB"? :confused:
A me a dire il vero pareva la cosa più verisimile, ma non c'erano notizie a riguardo, la gente invece sparava cose improponibili (2.5x della ultra) per una scheda che doveva uscire a febbraio.

"G100" non si sa chi se lo sia inventato. Non ci sono notizie da nVidia su questa sigla.
http://www.dailytech.com/What+a+Mess+Nextgeneration+NVIDIA+Codenames+Revealed/article9506.htm

HyperTransport o PcExpress cambia poco se la banda è sufficiente per quel che deve fare. (qualcuno s'è pure fatto il conto su Beyond3D)

Ma questi sono problemi degli sviluppatori, a noi interessa solo che funzioni bene.


...
Mi sa che non sei aggiornato ^^'' (non so i dettagli neanche io, ma so che anche il CrossFire funzioni sopratutto con l'alternate frame rendering, e credo che la scacchiera non la usi più nessuno)

Wing_Zero
11-01-2008, 00:44
ragazzi ma che v'e' preso ?? ^^ vi siete esagitati tutti x le foto ed i bench dell'R680?? :)

Dalla mia parte vedo piu' punti negativi che positivi...vediamo di fare chiarezza:

1) iniziamo dalla sostanza (i bench) 9500 punti al 3dmark a 2560x1600.
guardate qua: :read: http://xtreview.com/images/8800-ultra-review/3d2006.PNG
l'8800GTX ne fa 7500.
2 GPU, consumi piu' elevati, e fare, sul 3dmark "solo" 2000 punti in piu' ? (senza contare che il 3dmark e' sempre stato ultimamente piu' generoso di punti verso ati :P nn rispecchiando le effettive prestazioni della scheda vs Nvidia) non mi sembra sto successone.

2) Sicuramente positivo il fatto di aver usato per la prima volta un singlo pcb per 2 chip video

3)Questo approccio mi sembra cmq sia poco utile, visto che c'e' cmq un grande spreco di risorse , 2 GPU, la necessita' di un bridge, ed un miglioramento delle prestazioni notevole SOLO ALLE ALTE RISOLUZIONI.
Le gpu di per se hanno gia un architettura altamente parallela, quindi ad ogni nuova gpu e' come se avessimo gia una sorta di multicore!
Prima, qualcuno ha detto che gli stessi dati vengono copiati in entrambe le ram: niente di piu' falso. le 2 gpu renderizzano parti diverse dello schermo e gli stessi dati nn vengono copiati in maniera ridonandante in entrambe le ram.

4) integrazione hardware su di un unico pcb RESA INUTILE dal fatto che le 2 gpu vengo sfruttate solo attraverso DRIVER(crossfire)! Cioe' vi rendete conto di che spreco e'? COme abbiamo avuto tutti la possibilita' di vedere, alle risoluzioni fino a 1600x1200 il CF (e lo sli) apportano miglioramni marginali, 30% quando va bene, gli incrementi si hanno ad alte risoluzioni(quasi un raddoppio delle prestazioni) risoluzioni che meno dell'1% della gente utilizza
Avrei capito se avessero usato un bus tipo HT del k10, ma cosi'...bah...

5)Prezzo: se si assesta sotto i 300 euro allora potrebbe diventare un affare (sempre che nvidia nn abbassi il prezzo della ultra) altrimenti la vedo una scelta da sconsigliare VISTO I NUMEROSI BUG E PROBLMI DRIVER LE l'R670 HA!
non penso proprio che cn questa scheda si riesca a giocare a crysis a 2500o 1980 sempre sopra i 30fps. IMHO sara' molto piu' prestazionale una 8800GTX o ultra.

Bah vedremo...sn molto scettico, in sostanza l'r600 e' nato male, soffre di grossi bug,(vedi quello dell'AA), ein molto giochi (vedy crysis) ha un calo delle prestazioni enorme rispetto al pariprezzo nvidia.
Con questa scheda nn penso cambiara' molto visto che il CF da un vantaggio prestazionale risicato giocando a risoluzioni umane (quelle che usano tutti).
Ed ad risoluzione alte, cn i nuovi giochi, nn si e' cmq in grando di farli giocare decentemente.

Saluti
Wing

MiKeLezZ
11-01-2008, 00:51
2) Sicuramente positivo il fatto di aver usato per la prima volta un singlo pcb per 2 chip videoPer la prima volta?
Ragazzi qua scopriamo l'acqua calda
La Dual 6600GT non se la ricorda nessuno?
http://www.neoseeker.com/Articles/Hardware/Reviews/gigabyte3d1/
E la Dual 6800?
http://www.pcstats.com/articleview.cfm?articleid=1901&page=2
C'è anche una Gemini X1600
Ciao

Wing_Zero
11-01-2008, 00:56
Per la prima volta?
Ragazzi qua scopriamo l'acqua calda
La Dual 6600GT non se la ricorda nessuno?
http://www.neoseeker.com/Articles/Hardware/Reviews/gigabyte3d1/
E la Dual 6800?
http://www.pcstats.com/articleview.cfm?articleid=1901&page=2
C'è anche una Gemini X1600
Ciao

orca :doh: mi ero dimenticato!!! ^^
c'avevo infatti un flash di una scheda singolo pcb 2 gpu con pcb blu!!
probabilmente qualcosa della gigabyte! :P
allora un altro punto a sfavore ^^

P.S.:
daccordissimo cn la tua sign ^^ l'8800gt in alcuni giochi va anche un 30% meglio della 3870. unica cosa:
la 3870 consuma MENO della 8800gt IN LOAD
http://www.hwupgrade.it/articoli/skvideo/1843/consumo.png :read:

enjoymarco
11-01-2008, 01:05
Per la prima volta?
Ragazzi qua scopriamo l'acqua calda
La Dual 6600GT non se la ricorda nessuno?
http://www.neoseeker.com/Articles/Hardware/Reviews/gigabyte3d1/
E la Dual 6800?
http://www.pcstats.com/articleview.cfm?articleid=1901&page=2
C'è anche una Gemini X1600
Ciao

ti sfugge qualcosa mi sa.. qualcosa mooolto vecchio a 2 chip
http://www.tomshardware.com/1999/12/30/ati_rage_fury_maxx_review/

e persino a 4 chip :ave:
http://tweakers.net/meuktracker/6600/3dfx-voodoo-3-4-5-alpha-8-(sfft).html

altro che 6600gt :asd:

enjoymarco
11-01-2008, 01:14
L'unico problema IMHO rimane la possibilità di poterla usare al 100% con tutti i giochi, perchè come calore e consumi e soprattutto performance ci siamo.
Quello che conta davvero alla fine sono prestazioni, consumi e compatibilità: i problemi su come si arrivi a questo, sono aria fritta :ciapet:

MenageZero
11-01-2008, 01:18
La differenza tra multi core e multi chip è abbastanza labile: I core quad sono multidie e nessuno s'è lamentanto, anzi, tutti a sfottere (giustamente) AMD per il suo approccio on-die coi suoi quad.

All'utente interessano prezzo e prestazioni (includendo anche dimensioni, affidabilità e consumi)

Certo questo di R680 è già un gran risultato, considerando che nVidia ha bisogno di una superficie doppia di PCB (2 schede), e chissà quanta potenza, per fare la stessa cosa.

Il problema della doppia RAM è un problema semplicemente di costi e spazio: è ovvio che non puoi cominciare ad usare più di 2 GPU se devi moltiplicare anche la RAM. Come anche il problema di usare un controller PciExpress esterno o integrato come si dice sia r700... A noi che ce frega?

Altra cosa tragica è il supporto software e i driver. Come ho detto prima, le DX10 contengono novità, ma per quel che mi riguarda da utente: se vogliono vendermi multi-GPU, i driver e giochi devono funzionare multi-GPU, e immagino lo sappiano anche loro :)

Poi possono metterci anche 5Giga di RAM diviso 10 GPU, basta che la scheda abbia un buon prezzo e funzioni bene :P

io di amd non sfotterei certo il fatto che produca (attualmente poche) cpu quad-on-die, anche se certo non è questo che le permetterà di tornare a passarsela bene. cmq non è affatto questo tipo di contrapposizione che mi riferivo, multi-core on-die vs multi-chip package stile k10 vs c2;

sia che guardiamo al c2 che al k10, non siamo certo di fronte a due o più periferiche che devono essere gestite "in sincrono" via drv e che comunicano tra loro tramite un bus esterno parte del sistema che sta intorno; entrambi costituiscono una risorsa "monolitica" che lo sheduler del s.o. riesce a fornire ai layer sw superiori sempre in maniera trasparente e che non necessita di drv con particolare design ed ottimizzazione per il fatto che l'hw sia multi-core

mi pare che fino ad oggi un sli o cf di sue gpu non si sia mai dimostrato una soluzione efficente e fruibile totalmente alla pari di una (ipotetica o meno) gpu che possa essere considerata "il doppio" del modello usato in parallelo con una gemella,

semplicemente da questo sorgono i miei dubbi sul fatto che, se il multi-gpu
(ammesso e non concesso che il "semplice" aumentare il num. delle opportune unità inetrne alla gpu e riprogettare le arch., come si è sempre fatto, non dia più i risultati migliori) deve essere la starda maestra per aumentare la potenza di calcolo nella grafica, insistere in questo modo con sli/cf/pci-e sia la maniera migliore di percorrerla... :boh:

inoltre non so se r680 meriti l'appellativo di "già un gran risultato", ok consumerà meno dell 9800gx2, ok sono riusciti ad usare un solo pcb, ma dal pdv meramente tecnologico non c'è nulla di nuovo sotto il sole, e concettualmente alla fine siamo ancora alla 7950GX2(o come caspita si chiamava): infilare un sli/cf in un qualcosa che stia attaccato ad un solo connettore pci-e e venderti la "scheda singola" più veloce del mercato ... (e se non ricordo male, addirittura qialcosa del genere la aveva già fatta 3dfx con il suo canto del cigno - una stecca colossale tra l'altro, l'arch. era troppo arretrata rispetto alla gf o alla radeon, se già c'era - voodoo 5000 o 6000 boh... )

bene il fatto che rv670 sia dx10.1, una conformità ad una specifica più aggiornata fa sempre "piacere" e fa sempre "longevità"(in teoria), ma degli engine che sfrutteranno pesantemente le peculiarità degli sm4.1 quando arriveranno ?
tutt'ora mi pervade l'impressione, magari sbagliata, che al momento manchino anche dei "veri engine/giochi dx10" (prendiamo crysis: gli effetti riservati in teoria all'accoppiata vista+dx10 si possono avere anche su xp modificando dei file di configurazione, e dalle prove che ho fatto con la demo, a parità di hw e impostazioni del gioco non sono riscito a notare su vista apprezzabili miglioramenti in fps o qualità visiva)...
quando ci saranno giochi per giocare al meglio con i quali una gpu 10.0 non basterà, spero di sbagliarmi, ma temo che non solo g92 ma anche rv670 sarà obsoleto per giocare in un certo modo, causa l'essere ormai largamente superati, gli attuali gioiellini, prima di tutto in capacità di elaborazione, dai successori... (a quel punto si suppone che, se non sono co***oni, anche in nv si saranno messi in pari con le specifiche :sofico:)

... senza contare che nel presente l'arch. r6xx ha il diifettuccio di soffrire nella prestazione velocistica rispetto alla concorrenza, e questo tra le altre cose mette in ombra il, al momento più che altro teorico, punto a favore "sì ma ati è dx10.1"

MiKeLezZ
11-01-2008, 01:28
unica cosa:
la 3870 consuma MENO della 8800gt IN LOAD
http://www.hwupgrade.it/articoli/skvideo/1843/consumo.png :read:Per le misurazioni -reali- dei consumi, meglio guardare altre recensioni, và ...

Nello specifico questo è il consumo in più, in LOAD, misurato per la ATI HD3870 :
+5W: http://www.anandtech.com/showdoc.aspx?i=3151&p=11
+4W: http://bios.techpowerup.com/reviews/Sapphire/HD_3870/23.html
+3W: http://www.bit-tech.net/hardware/2007/11/30/rv670_amd_ati_radeon_hd_3870/17
+2W: http://www.firingsquad.com/hardware/amd_rv670_performance_preview/page16.asp

Ma IMHO l'unica vera misurazione a cui affidarsi a occhi chiusi è questa (che poi è più o meno anche il risultato della media di tutte le precedenti misurazioni) :
+3W: http://www.xbitlabs.com/articles/video/display/gainward-bliss-8800gt_5.html

p.s. prima di dire "eh ma 3W in più non sono una mazza" (che poi è vero) ricordarsi che la HD3870: ha prestazioni inferiori, usa GDDR4 invece che GDDR3, adotta i 55nm invece dei 65nm.

Questo giusto per mettere i puntini sulle i ... non che poi sia così importante.

MenageZero
11-01-2008, 01:35
Per la prima volta?
Ragazzi qua scopriamo l'acqua calda
La Dual 6600GT non se la ricorda nessuno?
http://www.neoseeker.com/Articles/Hardware/Reviews/gigabyte3d1/
E la Dual 6800?
http://www.pcstats.com/articleview.cfm?articleid=1901&page=2
C'è anche una Gemini X1600
Ciao

vabbè, diciamo per la prima volta su 1 pcb 2 gpu moderne e di fascia alta o medio-alta (come struttura del chip, adesso non mi rimarcare che come prestazioni e prezzo rv670 non è nella stessa fascia dei g80 top ;)

... e se escludiamo 3dfx ed alcuni modelli di epoca pre-radeon della stessa ati, "rage-qualcosa" credo (ma allora i chip grafici non si chiamavano gpu :O :asd:)

MiKeLezZ
11-01-2008, 01:43
vabbè, diciamo per la prima volta su 1 pcb 2 gpu moderne e di fascia alta o medio-alta (come struttura del chip, adesso non mi rimarcare che come prestazioni e prezzo rv670 non è nella stessa fascia dei g80 top ;)

... e se escludiamo 3dfx ed alcuni modelli di epoca pre-radeon della stessa ati, "rage-qualcosa" credo (ma allora i chip grafici non si chiamavano gpu :O :asd:)E se dal mio cappello magico ti tirassi fuori una 7800GT Dual?

http://www.hartware.de/review_532.html

ASUS EXTREME N7800GT DUAL LIMITED EDITION

:read:

m_w returns
11-01-2008, 01:49
Se va come dicono me ne faccio 2....:sofico:

Solo che poi mi tocca spendere altri 120€ di Waterblock....ahahahahah 4 WB per 2 schede!!! Sono impazziti!!!

Io a sto punto attendo qualcosa da Nvidia, che di certo non sta a guardare e la sua 9800GX2 è già bella che pronta se vogliono! :O

MenageZero
11-01-2008, 01:52
E se dal mio cappello magico ti tirassi fuori una 7800GT Dual?

http://www.hartware.de/review_532.html

ASUS EXTREME N7800GT DUAL LIMITED EDITION

:read:

ma quanti caspita ne hanno fatti di questi accrocchi ? secondo me in molti ce li scordiamo xché alla fine "flop-avano" invece di fare storia ... :sofico:

cmq, se tu tirassi fuori dal cappello magico la suddetta, io ti "rispondessi" che (forse, chi azz se lo ricorda :asd:) non era un progetto ufficiale della casa-madre del chip e che le edizioni limitate non valgono a prescindere :O :D

Wing_Zero
11-01-2008, 01:58
L'unico problema IMHO rimane la possibilità di poterla usare al 100% con tutti i giochi, perchè come calore e consumi e soprattutto performance ci siamo.
Quello che conta davvero alla fine sono prestazioni, consumi e compatibilità: i problemi su come si arrivi a questo, sono aria fritta :ciapet:

infatti noistavamo discutendo di CONSUMI, PRESTAZIONI, e COMPATIBILITA' !!
non mi sembra che avevamo intavolato una discussione su come progettare l'area FET di alimentazione, o roba simile:D

e parlando puramente di prestazioni, quello che alla fine conta e sn d'accordissimo cn te, la 3870 va un 20% buono meno della 8800GT. ed 'e un dato di fatto.
Il CF a risoluzioni umane, (1280 o 1600) nn ha mai portato enormi incrementi prestazionali, quando andava bene si assestava su un 30 %...

Capirai quindi il mio scetticismo, nel pagare piu' di 300 euro per una scheda che alla fine va poco piu' di schede che costano molto meno.

Inoltre pensa che bello: ti arriva il giocono nuovo, corri a provarlo cn la tua fiammante R680 mah..."CACCHIO! Devi aspettare l'ottimizzazione driver con i prossimi catalyst! altrimenti rischi, come succede spesso, che vada addirittura peggio della singola scheda!!! "

Ovviamnete se ati mi smentisce sn piu' che contento, ma ste configurazioni CF nn mi piacciono proprio!

Ciao
Wing

MenageZero
11-01-2008, 01:58
Se va come dicono me ne faccio 2....:sofico:

Solo che poi mi tocca spendere altri 120€ di Waterblock....ahahahahah 4 WB per 2 schede!!! Sono impazziti!!!

Io a sto punto attendo qualcosa da Nvidia, che di certo non sta a guardare e la sua 9800GX2 è già bella che pronta se vogliono! :O

:mbe: guarda che con la 9800gx2 di meglio eventualmente ci cavi solo che potrebbe andare di più se le accoppiate rifletteranno i rapporti tra rv670/g92, le altre problematiche rimagono come minimo del tutto analoghe ...

m_w returns
11-01-2008, 01:59
:mbe: guarda che con la 9800gx2 di meglio eventualmente ci cavi solo che potrebbe andare di più, se accppiate rifletteranno i rapporti tra rv670/g92, le altre problematiche rimagono come minimo del tutto analoghe ...


a me quello interessa.... ;)

Wing_Zero
11-01-2008, 02:00
ma quanti caspita ne hanno fatti di questi accrocchi ? secondo me in molti ce li scordiamo xché alla fine "flop-avano" invece di fare storia ... :sofico:

cmq, se tu tirassi fuori dal cappello magico la suddetta, io ti "rispondessi" che (forse, chi azz se lo ricorda :asd:) non era un progetto ufficiale della casa-madre del chip e che le edizioni limitate non valgono a prescindere :O :D

vatte a dormi' che domani c'hai l'esame!!! :D

~Mr.PartyHut~
11-01-2008, 02:07
vatte a dormi' che domani c'hai l'esame!!! :D
Ingegneria a Fermo? :D:D
Io sono di PSG :D

Scusate l'OT :D

EMAXTREME
11-01-2008, 04:53
finalmente qualcosina di valido dai laboratori amd-ati sta uscendo

mickyjenny
11-01-2008, 09:13
Comunque potete disprezzare questa scheda quanto volete, quando uscirà avrà il miglior rapporto prestazioni-prezzo e venderà un bel po' fino a quando Nvidia non tirerà fuori qualcosa di superiore (considerando anche il fattore prezzo). :rolleyes:
Anche chi vorrà il massimo invece di prendere 2 8800 Ultra prenderà 2 3870X2, risparmiando un bel po' di soldi ed avendo prestazioni simili.
L'unica speranza è che Nvidia abbassi talmente i prezzi della ultra da renderla allettante ma credere di vedere una 8800 ultra sotto 400 Euro è come credere a babbo Natale. :)

Mister Tarpone
11-01-2008, 09:18
L'unica speranza è che Nvidia abbassi talmente i prezzi della ultra da renderla allettante ma credere di vedere una 8800 ultra sotto 400 Euro è come credere a babbo Natale. :)


mah.. una 8800GTX si trova già adesso sotto i 400€

e parlo di una zotac 630/2000... che la mandi tranquillamente oltre la ultra, come frequenze...

Mparlav
11-01-2008, 09:36
Vedo che la memoria sulle "dual gpu" fa' brutti scherzi :-)

Si vede un'innovazione in questa scheda che non c'è. Questa è la terza scheda che Ati/Amd fa' in questo modo, senza citare la Ati Rage Maxx.

Ho già citato e non a caso, le 2600XT dual (uscita a giugno-luglio 2006) e la x1950Pro dual (intorno ad aprile 2006).
Se la gente se l'è dimenticate è perchè sono state dei flop colossali come tutte le precedenti soluzioni che le hanno precedute.

Lo dico francamente: spero che anche HD3870 X2 e 9800 GX2 prendano la polvere sugli scaffali, perchè l'approccio multi gpu su singola scheda, sia con 1 che con 2 pcb, è sbagliato.
Se ci sono problemi di rese con gpu molto "grosse", si può passare ai dual e quad core, che è ben diverso.

La Hd3870 X2 e la 9800 GX2 saranno più economiche di 2 schede separate? Aspettiamo e vediamo, perchè come ho già detto, le precedenti dual gpu sono state tutte più costose (guardatevi i listini). Sarebbe un'inedito.
La x1950Pro dual è ancora in vendita in Germania:
http://geizhals.at/eu/?fs=x1950pro+dual&in=&x=0&y=0

economica vero? la singola x1950Pro 512Mb costa 133 euro.
Questa è cronaca, mica archeologia informatica :-)

E smettiamola di dire che i Crossfire non hanno bisogno del profilo nei driver, tanto quanto lo SLI.
Ci sono i bench e le recensioni che dimostrano il contrario.

Mister Tarpone
11-01-2008, 09:39
le 2600 gemini, già.... erano proprio 2 gpu in un unico pcb........

Faustinho DaSilva
11-01-2008, 09:39
Comunque potete disprezzare questa scheda quanto volete, quando uscirà avrà il miglior rapporto prestazioni-prezzo e venderà un bel po' fino a quando Nvidia non tirerà fuori qualcosa di superiore (considerando anche il fattore prezzo). :rolleyes:
Anche chi vorrà il massimo invece di prendere 2 8800 Ultra prenderà 2 3870X2, risparmiando un bel po' di soldi ed avendo prestazioni simili.
L'unica speranza è che Nvidia abbassi talmente i prezzi della ultra da renderla allettante ma credere di vedere una 8800 ultra sotto 400 Euro è come credere a babbo Natale. :)

he he he quoto. cmq di fatto ati sta puntando sul multigpu... quindi driver, compatibilità in game arriverà...

Mister Tarpone
11-01-2008, 09:48
he he he quoto. cmq di fatto ati sta puntando sul multigpu... quindi driver, compatibilità in game arriverà...

si però alla fine che te frega della ULtra???.. se a prezzi mooolto inferiori (meno di 400€) trovi una scheda (GTX OC) che va uguale.... :asd: o sbaglio??? :asd:


:confused:

ps: io cmq non le comprerei mai ste schede... :asd: preferirei una GTS 512 @ 280€... :asd:

Faustinho DaSilva
11-01-2008, 09:52
si però alla fine che te frega della ULtra???.. se a prezzi mooolto inferiori (meno di 400€) trovi una scheda (GTX OC) che va uguale.... :asd: o sbaglio??? :asd:


:confused:

quello è vero cmq t prendi un architettura cmq "datata", poi cmq sono scelte c'e chi preferisce andare sul sicuro aspettare prodotti maturi ed acquistarli, chi invece aspetta l'ultima uscita... cm anche sui marchi... chi nvidia chi ati... libero arbitrio nessuno ti obbliga:D

peppecbr
11-01-2008, 10:43
mi sto documentando un casino su sta scheda che mi attira di brutto pero :

La memoria installata è di 2x512Mb, il raffreddamento prevede un dual-slot con ventola derivata dalla 2900XT. L'alimentazione è doppio con due connessioni 6+8.
La R680 sarà sul mercato alla fine di Gennaio del 2008, con un prezzo compreso tra i 399 e 449 dollari

:cry: iniziamo a sparare 450€ per sta scheda resta sugli scaffali a vita :doh:

io la compro a 349€ questo è il prezzo giusto , se costerà oltre resto con la 3870 :rolleyes:

retnI W
11-01-2008, 11:34
Che senso ha cambiare la HD 3870? Se giochi a 1280 è ancora più una cavolata farlo. Cos'è che non riesci a far girare fluido con la tua scheda? Il mio consiglio è aspettare R700!

IlNiubbo
11-01-2008, 11:45
Per lo stesso motivo per cui un CrossFire di due HD3870 da 512MB cadauna non porta il totale di memoria disponibile a 1GB, ma resta 512MB
Il CrossFire/SLI rispetto la scheda singola spreca metà RAM

Mi sembra molto strano ciò che affermi. Non dico che sia sbagliato, perchè non so come funzioni il meccanismo. Mi pareva di aver sentito che con il Xfire e con lo sli una scheda calcola le righe dispari e l'altra quelle pari. Con che criterio si farebbero dirver per cui il chipset della seconda scheda utilizzi metà della propria memoria o addirittura solo quella della prima?

Inoltre se si da un occhiata qui (http://www.xtremesystems.org/forums/showthread.php?t=166820) sembrerebbe che i maggiori guadagni di prestazioni si hanno con le risoluzioni elevate, ovvero proprio quando serve più memoria video.

Ovvio che ci possono essere 1000 altre ragioni che non conosco, e se ci sono dimmele. :)

djseta
11-01-2008, 13:30
Non capisco una cosa, magari qualcuno mi può togliere il dubbio, ma avere 2 gpu su una singola scheda diventa una specie di crossfire oppure le 2 GPU lavorano insieme viste dal sistema come una singola GPU? Lo chiedo perchè se fosse come nella prima ipotesi (ovvero tipo crossfire) questa scheda ha davvero poco senso, mentre nella seconda avrebbe molto più senso.
Il motivo? Presto detto, sappiamo tutti dei problemi dei driver con SLI o Crossfire attivati come supporto ai vecchi giochi difficoltoso o impossibile.

Mparlav
11-01-2008, 13:41
Nelle 3 modalità di rendering supportate dal Crossfire, l'AFR (Alternate Frame Rendering) affida il rendering alternativamente alle 2 (in futuro 3 e 4) schede video.
La memoria video viene duplicata sulle schede.

Nello "scissor mode" lo schermo viene in 2 parti, in orizzontale o verticale (con 3 e 4 schede lo schermo dovrebbe essere diviso in 3 o 4 parti se ho ben capito, oppure sempre in 2 e le schede applicano una modalità ibrida scissor/afr).
Ogni scheda prende la sua parte di scena, quindi la memoria video non è duplicata. Il problema di questa modalità è il bilanciamento del carico di lavoro sulle 2 schede (un metà dello schermo non ha mai la complessità dell'altra), che comporta un calo di prestazioni, o se si preferisce, un incremento minore di prestazioni passando da 1 a 2 schede.

Nel supertiling mode, lo schermo viene diviso a scacchiera di quadrati di pochi pixel (16 o 32 non ricordo), ed ogni scheda renderizza la sua parte. Il bilanciamento del carico di lavoro è assai migliore dello "scissor mode" ed ogni scheda usa la sua memoria video. E' la modalità default per il Directx, ma comporta dei problemi con l'Opengl.

Concettualmente è tutto molto bello... quando funziona :-)

Wing_Zero
11-01-2008, 14:05
Ingegneria a Fermo? :D:D
Io sono di PSG :D

Scusate l'OT :D

in ancona, sia io che mio fratello ^^
Cmq te sei marco vero? :) mi hai venduto le ram mushkin ^^

Ciao
Wing

CaFFeiNe
11-01-2008, 15:17
ehm per chi non lo sapesse e asserisce che r700 sara' dual gpu.... a quanto ne so io sara' dual core....

è come il discorso dual cpu e dual core

dual cpu

1 cpu in uno slot, 1 in un altro quindi gia' questo peggiora le prestazioni perchè 2 socket diversi = distanza maggiore = piu' resistenza elettrica

ora il sistema multi cpu puo' essere di due tipi
simmetrico, in cui entrambi i processori possono accedere a tutta la memoria senza problemi
e NUMA dove ad ogni cpu viene data una piccola porzione di memoria di sistema che funge da cache... ed è privata per ogni processore ed il resto invece è condiviso


solitamente i sistemi multi cpu hanno prestazioni inferiori a quelli multicore per pochi semplici motivi

prendete due processori, ognuno con la propria cache, i propri registri prendete un dato.... ognuno lo elabora usando la propria cache (ricordo che la cache è molto piu' veloce della ram) e i propri registri, poi le parti di dati devono unirsi (tramite bus di sistema, e quindi tramite circuiti elettrici esterni piu' lunghi e spesso gia' trafficati di dati) per ricomporre il dato che ne risulta


multi core 1 cpu 2 core

prima di tutto... entrambi i core nello stesso processore equivale a maggiore velocita' gia' di suo... perchè la comunicazione tra i due core è molto piu' veloce, perchè si conta anche la distanza... vero che i dati non sono certo lenti nei loro spostamenti per i bus... pero' meno resistenza elettrica c'è meglio è e meno dati viaggiano per il bus di sistema meno è... quindi gia' distanza minore = velocita' maggiore
poi le attuali cpu dual e quad core hanno cache condivisa(di secondo o terzo livello poco importa... la differenza tra le due è importante ma in questa discussione inutile)... e questo migliora ancora di piu' le prestazioni.... e nel caso degli amd viene condiviso anche il memory controller...
tutto il resto rimane diviso
(dual core monolitico)

vi ricordate i pentium d? il peggior core2duo era superiore a quasi tutti i pentium d, cosi' come i pentium d non raggiungevano le prestazioni degli athlon x2....
i pentium d erano dei dual core, ma solo sulla carta, perchè il pentium d non nasceva dual core, era una fusione di due pentium 4... se vi ricordate la cache dei pentium D non era 2mb o 4mb ma era 2x1 o 2x2 cosi' avevano infatti memoria divisa
(dual core a doppio o singolo die)

poi vabbe' in quest'altro discorso sovvengono problemi di altro tipo.... hyperthreading etc.... introduzione di nuove istruzioni etc


cmq sara' questa la caratteristica principale di r700...

non sara' multi gpu ma multi core


ora non so come sara' l'architettura di r700 ma facendo varie ipotesi ne trovo 2 che potrebbero essere reali, se conosco bene amd dopo il suo sviluppo di processori nativi quad core e i suoi studi su fusion suppongo che utilizzeranno la prima

1)la gpu integrera' i due core, in comunicazione diretta tra loro tramite bus proprietario, con condivisione di tutto cio' che necessitano proprio come un dual core monolitico

e in questo caso il salto di prestazioni sara' innegabile

2) la gpu integrera' dentro di se i due core, cosi' come se fossero due cpu diverse, integrando nella stessa gpu anche il crossfire come mezzo di comunicazione e in questo caso sarebbe molto simile ai pentium D quindi molto simile ad un dual coro a doppio o singolo die
anche se adifferenza ad esempio dei pentium d non utilizzerebbe un bus gia' fin troppo trafficato come avveniva per gli intel che utilizzavano il bus di sistema

ovviamente la prima architettura sarebbe molto piu' performante... anche perchè non ci sarebbe il terzo incomodo che dovrebbe far comunicare i due core della gpu(chip xfire) e soprattutto consumerebbe meno corrente, e scalderebbe molto di meno

ma gia' la seconda architettura sarebbe molto piu' performante di qualunque sistema xfire o dual gpu attualmente sul mercato

in questo giocano molto anche i driver... in entrambi i casi la scheda verra' riconosciuta come singola, dato che alla fine cio' che esce dalla gpu non è piu' il risultato di due processori diversi...

Wing_Zero
11-01-2008, 15:45
ehm per chi non lo sapesse e asserisce che r700 sara' dual gpu.... a quanto ne so io sara' dual core....

è come il discorso dual cpu e dual core

dual cpu

1 cpu in uno slot, 1 in un altro quindi gia' questo peggiora le prestazioni perchè 2 socket diversi = distanza maggiore = piu' resistenza elettrica

ora il sistema multi cpu puo' essere di due tipi
simmetrico, in cui entrambi i processori possono accedere a tutta la memoria senza problemi
e NUMA dove ad ogni cpu viene data una piccola porzione di memoria di sistema che funge da cache... ed è privata per ogni processore ed il resto invece è condiviso


solitamente i sistemi multi cpu hanno prestazioni inferiori a quelli multicore per pochi semplici motivi

prendete due processori, ognuno con la propria cache, i propri registri prendete un dato.... ognuno lo elabora usando la propria cache (ricordo che la cache è molto piu' veloce della ram) e i propri registri, poi le parti di dati devono unirsi (tramite bus di sistema, e quindi tramite circuiti elettrici esterni piu' lunghi e spesso gia' trafficati di dati) per ricomporre il dato che ne risulta


multi core 1 cpu 2 core

prima di tutto... entrambi i core nello stesso processore equivale a maggiore velocita' gia' di suo... perchè la comunicazione tra i due core è molto piu' veloce, perchè si conta anche la distanza... vero che i dati non sono certo lenti nei loro spostamenti per i bus... pero' meno resistenza elettrica c'è meglio è e meno dati viaggiano per il bus di sistema meno è... quindi gia' distanza minore = velocita' maggiore
poi le attuali cpu dual e quad core hanno cache condivisa(di secondo o terzo livello poco importa... la differenza tra le due è importante ma in questa discussione inutile)... e questo migliora ancora di piu' le prestazioni.... e nel caso degli amd viene condiviso anche il memory controller...
tutto il resto rimane diviso
(dual core monolitico)

vi ricordate i pentium d? il peggior core2duo era superiore a quasi tutti i pentium d, cosi' come i pentium d non raggiungevano le prestazioni degli athlon x2....
i pentium d erano dei dual core, ma solo sulla carta, perchè il pentium d non nasceva dual core, era una fusione di due pentium 4... se vi ricordate la cache dei pentium D non era 2mb o 4mb ma era 2x1 o 2x2 cosi' avevano infatti memoria divisa
(dual core a doppio o singolo die)

poi vabbe' in quest'altro discorso sovvengono problemi di altro tipo.... hyperthreading etc.... introduzione di nuove istruzioni etc


cmq sara' questa la caratteristica principale di r700...

non sara' multi gpu ma multi core


ora non so come sara' l'architettura di r700 ma facendo varie ipotesi ne trovo 2 che potrebbero essere reali, se conosco bene amd dopo il suo sviluppo di processori nativi quad core e i suoi studi su fusion suppongo che utilizzeranno la prima

1)la gpu integrera' i due core, in comunicazione diretta tra loro tramite bus proprietario, con condivisione di tutto cio' che necessitano proprio come un dual core monolitico

e in questo caso il salto di prestazioni sara' innegabile

2) la gpu integrera' dentro di se i due core, cosi' come se fossero due cpu diverse, integrando nella stessa gpu anche il crossfire come mezzo di comunicazione e in questo caso sarebbe molto simile ai pentium D quindi molto simile ad un dual coro a doppio o singolo die
anche se adifferenza ad esempio dei pentium d non utilizzerebbe un bus gia' fin troppo trafficato come avveniva per gli intel che utilizzavano il bus di sistema

ovviamente la prima architettura sarebbe molto piu' performante... anche perchè non ci sarebbe il terzo incomodo che dovrebbe far comunicare i due core della gpu(chip xfire) e soprattutto consumerebbe meno corrente, e scalderebbe molto di meno

ma gia' la seconda architettura sarebbe molto piu' performante di qualunque sistema xfire o dual gpu attualmente sul mercato

in questo giocano molto anche i driver... in entrambi i casi la scheda verra' riconosciuta come singola, dato che alla fine cio' che esce dalla gpu non è piu' il risultato di due processori diversi...
Hai fatto un pasticcio enorme! delle considerazioni e dei confronti quantomeno imprecisi...vediamo se riesco a fare chiarezza....(senza offesa e', faccio sl costatazioni)

Ragazzi nn potete fare raffronti tra CPU e GPU. sono 2 fiolosofie di lavoro diverse.
Le GPU, sono fortemente parallele, con centinaia di piccoli core (stream processor) che lavorano in parallelo.

ORA:


Non confondete le cose! R700 ed R680 sn profondamente diversi, diciamo che ci sono 3 modi per creare schede con architettura parallela:

1) Architettura parallela ON DIE: quello che ' avvenuto fino ad oggi, aggiungendo Stream processor, nel package della GPU: sicuramente il metodo piu' funzionale e potente vista la velocita' di comunicazione di diversi ordini di grandezza superiore rispetto agli altri metodi. Questo comporta la creazione di un nuovo chip per ogni tipologia di scheda video.

2) Architettura parallela tramite BUS HARDWARE: quello che fara' amd con R700 2 GPU sullo stesso PCB collegate pero' da un bus hardware (e non software come il crossfire). prestazioni enormente migliori del CF ma sempre nonparagonabili all'integrazione on die. Creazione di un unico chip e poi utilizzo di uno o piu' modelli del chip a senconda della sk video.

3) Architettura parallela tramite SOFTWARE che sfrutta l bus di sitema: In pratica il Crossfire.Questo e' Quello che ha fatto amd con R680 con tutte le limitazioni del caso: necessitia di aggiungere un bridge, spreco di memoria, e banda passante in comune con il bus della scheda madre (! ). Decisamente il metodo preggiore per mettere un parallelo piu' unita' di calcolo.


Il fatto che R700 sara' multiGPU, collegate da BUS HARDWARE, e' solo un fattore che influenza le TECNICHE DI PRODUZIONE di amd e NIENT'ALTRO!

In un certo senso gia oggi le VPU delle schede video sono multicore! infatti se prende una 8600 con 32SP ed una 8800GTX con 128, e' come se la GTX fosse una QUAD CORE di 8600GT. Sono sempre architetture parallele.
AMD cosa ha pensato di fare?Invece di creare diversi chip, con diversi SP, ne produce uno (o due) e poi li schiaffa in parallelo con un BUS HARDWARE(HT)
La differenza rispetto a quanto avviene oggi e' minima, e' solo un fattore di scala di produzione che ha portato amd a questo approccio.

Quello che vi voglio far capire io e' che nn cambia nulla se amd creera' 1 GPU con 100 SP per poi metterne 2 in parallelo, rispetto ad esempio il D9E che ne avra' 200 di SP. Entrambe lavorano in maniera parallela, ma il D9E dovrebbe essere piu' prestazionale in quando gli SP sono ON DIE.
[Numeri e nomi li ho presi a caso, era solo per fare un esempio, nn patteggio ne per l'una ne per l'altra parte! W la concorrenza]

Ciao
Wing

Critterix
11-01-2008, 16:12
In un certo senso gia oggi le VPU delle schede video sono multicore! infatti se prende una 8600 con 32SP ed una 8800GTX con 128, e' come se la GTX fosse una QUAD CORE di 8600GT. Sono sempre architetture parallele.


Non so se qui hai ragione, ma la penso in maniera simile, quindi ti quoticchio...


Non confondete le cose! R700 ed R680 sn profondamente diversi, diciamo che ci sono 3 modi per creare schede con architettura parallela:

1)....

2) Architettura parallela tramite BUS HARDWARE: quello che fara' amd con R700 2 GPU sullo stesso PCB collegate pero' da un bus hardware (e non software come il crossfire). prestazioni enormente migliori del CF ma sempre nonparagonabili all'integrazione on die. Creazione di un unico chip e poi utilizzo di uno o piu' modelli del chip a senconda della sk video.

3) Architettura parallela tramite SOFTWARE che sfrutta l bus di sitema: In pratica il Crossfire.Questo e' Quello che ha fatto amd con R680 con tutte le limitazioni del caso: necessitia di aggiungere un bridge, spreco di memoria, e banda passante in comune con il bus della scheda madre (! ). Decisamente il metodo preggiore per mettere un parallelo piu' unita' di calcolo.



Vediamo se ho capito... Il chip che sta tra le 2 gpu della HD3870x2 quindi è una estensione del chipset della scheda madre? E se così fosse potrebbe rappresentare, almeno, un risparmio di lavoro e di bus di sistema? Nonché una ridotta latenza? :confused:

Lud von Pipper
11-01-2008, 16:13
Hai fatto un pasticcio enorme! delle considerazioni e dei confronti che fanno sl confusione" :P impigherei sl 3 ore a farti capire dv hai sbagliato e le baggianate che hai detto...(senza offesa e', faccio sl costatazioni)

Però si può spiegare a qualcuno dove sbaglia senza bisogno di additare i suoi ragionamenti come "baggianate" (anche perchè, se vuoi farlo, devi portare argomenti un pò più complessi che delle generiche considerazioni di merito tra GPU e CPU).
Impara a portare rispetto per il contributo degli altri, anche quando le loro considerazioni non sono del tutto corrette ed eviterai di scatenare flame inutili. :read:

Wing_Zero
11-01-2008, 16:23
Però si può spiegare a qualcuno dove sbaglia senza bisogno di additare i suoi ragionamenti come "baggianate" (anche perchè, se vuoi farlo, devi portare argomenti un pò più complessi che delle generiche considerazioni di merito tra GPU e CPU).
Impara a portare rispetto per il contributo degli altri, anche quando le loro considerazioni non sono del tutto corrette ed eviterai di scatenare flame inutili. :read:

ma baggianate dalle mie parti non e' un termine offensivo x nulla.
e' che ha detto un sacco di cose sbagliate. Qualcosina di architettura dei calcolcolatori penso di saperla visto che mi sn appena laureato in inggneria informatica.

devo portare argomenti piu' complessi? l'ho fatto, ho cercato di spiegare come funzionano le cose, ma nn sn entrato nello specifico altrimenti nn mi avrebbero seguiro la maggior parte delle persone...

Cmq per evitare disguidi edito. e nn era mia intenzione scatenare flame.

Wing_Zero
11-01-2008, 16:27
Vediamo se ho capito... Il chip che sta tra le 2 gpu della HD3870x2 quindi è una estensione del chipset della scheda madre? E se così fosse potrebbe rappresentare, almeno, un risparmio di lavoro e di bus di sistema? Nonché una ridotta latenza? :confused:

No no, nn e' cosi', quel bridge, serve solamente a far comunicare le 2 GPU sulla scheda ed il resto del pc, nn avendo un vero e proprio bus hardware che implmenta la comunicazione tra le 2 VPU.
La comunicazione poi e' gestita via software tramite il crossfire ed i driver ati, c he scambiano informazioni con ogni gpu tramite il bus pci-express della scheda madre.

In sostanza il bridge nn c'entra nulla col chipset della scheda madre o altro, diciamo che ragionando x schemi, fa da anello di congiunzione alle 2 GPU per essere gestitite dai DRIVER e comunicare tramite il BUS PCI EXPRESS (che e' enormente piu' lento di qualsiasi connessione fisica hardware tipo HT).

Mercuri0
11-01-2008, 18:35
2) Architettura parallela tramite BUS HARDWARE: quello che fara' amd con R700 2 GPU sullo stesso PCB collegate pero' da un bus hardware
Io mi aspetterei che r700 sia come r680 ma con lo switch PcExpress integrato nel chip. Dove hai trovato informazioni differenti?

Tra l'altro, se AMD volesse usare lo stesso single-chip di r700 anche per le schede di fascia media, ciascuno di "r700/2" dovrebbe integrare comunque un controller PcExpress (intero)

Lo step incrementale più logico per r700 mi sembra essere: dual-gpu in crossfire con switch PcExpress integrato nei chip.

Non mi aspetteri quacosa di tecnologicamente più figo, anche se ovviamente ci spero. :)

Entrambe lavorano in maniera parallela, ma il D9E dovrebbe essere piu' prestazionale in quando gli SP sono ON DIE.
:mbe: Ma il D9E non è la "scheda entusiast della serie 9000 in uscita a fine febbraio"... cioè la 9800gx2?
(che è addirittura multi-pcb, altro che on-die! :D )

1 cpu in uno slot, 1 in un altro quindi gia' questo peggiora le prestazioni perchè 2 socket diversi = distanza maggiore = piu' resistenza elettrica
A fare i pignoli non è un discorso di "resistenza" quanto di "capacità" e lunghezza delle interconnessioni. ;)

Però, anche qui, può darsi che la la banda dati messa a disposizione dell'approccio multi-chip sia già sufficiente, e non sia il collo di bottiglia per le prestazioni.

Al solito, questo possono saperlo solo gli ingegneri che devono scegliere i compromessi più opportuni: a noi ci interessano solo le prestazioni e il costo.

Wing_Zero
11-01-2008, 19:32
Io mi aspetterei che r700 sia come r680 ma con lo switch PcExpress integrato nel chip. Dove hai trovato informazioni differenti?

Tra l'altro, se AMD volesse usare lo stesso single-chip di r700 anche per le schede di fascia media, ciascuno di "r700/2" dovrebbe integrare comunque un controller PcExpress (intero)

Lo step incrementale più logico per r700 mi sembra essere: dual-gpu in crossfire con switch PcExpress integrato nei chip.

Non mi aspetteri quacosa di tecnologicamente più figo, anche se ovviamente ci spero. :)

Oddio spero che nn sia cosi', altrimenti la banda passante e la gestione delle 2 gpu affidate UNICAMENTE al software, lo renderebbe una cagata i mmane.
Adesso cerco la fonte ma avewvo letto che collegavano le 2 gpu tramite HT (come nei k10, k8, etc...)

:mbe: Ma il D9E non è la "scheda entusiast della serie 9000 in uscita a fine febbraio"... cioè la 9800gx2?
(che è addirittura multi-pcb, altro che on-die! :D )

NONO, assolutamente ^^ anche io facevo confusione!
la 9800gx2 nn e' altro che 2 GPU G92 in sli ^^ (G92=8800GT, 8800GTS 512).
il D9E e' il "G100" che nn si sa quando uscira purtroppo...(anche se nvidia la posso capire, perhce' buttare sul mercato un innovazione tecnologica come il D9E quando AMD nn e' ancora capace di contrastare il G92? sarebbe sprecato...)

A fare i pignoli non è un discorso di "resistenza" quanto di "capacità" e lunghezza delle interconnessioni. ;)

Però, anche qui, può darsi che la la banda dati messa a disposizione dell'approccio multi-chip sia già sufficiente, e non sia il collo di bottiglia per le prestazioni.

Al solito, questo possono saperlo solo gli ingegneri che devono scegliere i compromessi più opportuni: a noi ci interessano solo le prestazioni e il costo.

LA resistenza nn c'entra proprio ^^ qui si ragiona in termini di banda passante, e' quello che conta.

Mercuri0
11-01-2008, 23:17
Oddio spero che nn sia cosi', altrimenti la banda passante e la gestione delle 2 gpu affidate UNICAMENTE al software, lo renderebbe una cagata i mmane.
Non è mica detto. Prima stiamo a vedere come va r680.

NONO, assolutamente ^^ anche io facevo confusione!
la 9800gx2 nn e' altro che 2 GPU G92 in sli ^^ (G92=8800GT, 8800GTS 512).
il D9E e' il "G100" che nn si sa quando uscira purtroppo...(anche se nvidia la posso capire, perhce' buttare sul mercato un innovazione tecnologica come il D9E quando AMD nn e' ancora capace di contrastare il G92? sarebbe sprecato...)


Boh dall'ultimo comunicato nVidia
http://www.dailytech.com/What+a+Mess+Nextgeneration+NVIDIA+Codenames+Reveal%20ed/article9506.htm
D9E era la "piattaforma entusiast di fine febbraio", e a fine febbraio esce una scheda serie "9" enthusiast, ed è la 9800GX2. Ti aspetti qualcosa di più veloce nella serie 9?
Oppure che la serie 9 duri solo due mesi e qualcosa?

Comunque le sigle lasciano il tempo che trovano. Meglio continuare a chiamare "G100" il chip unico che dovrebbe superare una 9800GX2, così non ci sbagliamo, dato che G100 non ci sarà mai. :Prrr: (su beyond3d dicono che nvidia chiami quel chip "GT200"...)

A proposito della mancanza di concorrenza:
http://www.digitimes.com/mobos/a20071228PD207.html
nVidia avrebbe chiesto ai produttori di PCB di ridurre il numero di layer per diminuire il prezzo della 8800GT. Forse non ci si rende conto che dove conta (fascia di 8800GT in giù), la concorrenza c'è ed è serratissima, e se ne vedranno delle belle coi chipset con grafica integrata e Hybrid Crossfire/SLI di AMD & nVidia. :D

(Inolte questa cosa mi fa pensare che AMD abbia più margine di guadagno per pezzo sulle HD38xx che non nVidia sulle 8800xx)

Considerazione mia semiot: il superchippone da Ultra rischia di diventare antieconomico da produrre: + transistor richiedono + area (e quindi maggior costo per chip) o migliore processo produttivo, cioè più costi fissi che richiedono più volumi di vendita, che le "Ultra" potrebbero non avere.
Quanto tempo manca per cui questa equazione non torni?

MiKeLezZ
11-01-2008, 23:45
Dopo le varie rotture di cazzo che vi ho fatto... mi sa che mi faccio la HD3870 ...
La 8800GT costa 240e e necessita di un dissipatore aggiuntivo (+30e), se non per le temperature, quantomeno per il rumore, la HD3870 no, e viene invece 200e.
Cioè, a conti fatti ci sono 70e di differenza; NVIDIA andrà il 15%/20% in più, ma costa anche il 30%/40% in più (un po' come confrontare una 8800GTS rispetto una 8800GT).
Per il consumo, in idle sono 25W contro 40W, ovvero 15W di risparmio per ATI.
Se nell'arco della giornata uno tiene il PC 20 ore in idle (dal 3D) e 6 ore occupato al gioco (chiaro sono risultati non verificati per l'utente medio, ma è comunque veritiera la proporzione di 3:1), avrà come consumi parziali (dovuti agli scarti fra le due schede):
20*0+6*3 = 18Wh per ATI
20*15+6*0 = 300Wh per NVIDIA
Ovvero globalmente la soluzione NVIDIA fa spendere 0,3kWh in più al giorno (ad esser precisi, 300-18=282Wh)... non tanti, non pochi (2e al mese).
Consigli ...

sekuss
12-01-2008, 00:25
ma alla fine..........

quando sarenno commercializzate queste schede?????

soppretutto.......

quanto costeranno?????

Wing_Zero
12-01-2008, 01:37
Dopo le varie rotture di cazzo che vi ho fatto... mi sa che mi faccio la HD3870 ...
La 8800GT costa 240e e necessita di un dissipatore aggiuntivo (+30e), se non per le temperature, quantomeno per il rumore, la HD3870 no, e viene invece 200e.
Cioè, a conti fatti ci sono 70e di differenza; NVIDIA andrà il 15%/20% in più, ma costa anche il 30%/40% in più (un po' come confrontare una 8800GTS rispetto una 8800GT).
Per il consumo, in idle sono 25W contro 40W, ovvero 15W di risparmio per ATI.
Se nell'arco della giornata uno tiene il PC 20 ore in idle (dal 3D) e 6 ore occupato al gioco (chiaro sono risultati non verificati per l'utente medio, ma è comunque veritiera la proporzione di 3:1), avrà come consumi parziali (dovuti agli scarti fra le due schede):
20*0+6*3 = 18Wh per ATI
20*15+6*0 = 300Wh per NVIDIA
Ovvero globalmente la soluzione NVIDIA fa spendere 0,3kWh in più al giorno (ad esser precisi, 300-18=282Wh)... non tanti, non pochi (2e al mese).
Consigli ...

veramente dati alla mano il disipatore dell'8800GT non è rumoroso per nulla, non piu' del normale e molto meno dell 2900XT(poi dipende se vuoi un computer supersilenziosissimo):
http://www.xbitlabs.com/images/video/gainward-bliss-8800gt/bliss8800glh_noise_1m.gif
Ed inoltre costa 225 euro nuova e nn 240.

Io nel mercatino ho trovato una xfx alpha dog cloccata a 670(gpu)/1950(mem)/1700(shader!!) a 230 euro spedita.
Basta cercare..
E poi guarda questa qui, l'8800GT cloccata, a risoluzioni umane del tipo 1600 o 1280 e' veloce QUASI QUANTO una 8800gtx 768mb !!! :
:
http://www.xbitlabs.com/images/video/gainward-bliss-8800gt/cod4_4x.gif

la gainward 8800GT GLS del bench e' poco piu' clokkata della mia, ovvero: 700/2050/1750!
Occandola sta scheda sprigiona il suo vero potenziale!!! e' molto scalabile!!!
Secondo me, basta cercare e trovi il compromesso giusto!!!
Qui si parla dell'80% di prestazione in piu'!!! (8800GT occata contro 2900XT) e non del 30%!
Secondo me quei pochi euri in piu' sn ben investiti!! ^^
E cmq la alpha dog che ho io nuova costa 269 euro. la lasci alle frequenze sue e nn devi cambiare dissipatore!

Yoio
12-01-2008, 05:24
Oddio no! Ancora quel caxxo di doppio connettore 8+6 pin! NuOOOOO!

appleroof
12-01-2008, 12:38
Dopo le varie rotture di cazzo che vi ho fatto... mi sa che mi faccio la HD3870 ...
La 8800GT costa 240e e necessita di un dissipatore aggiuntivo (+30e), se non per le temperature, quantomeno per il rumore, la HD3870 no, e viene invece 200e.
Cioè, a conti fatti ci sono 70e di differenza; NVIDIA andrà il 15%/20% in più, ma costa anche il 30%/40% in più (un po' come confrontare una 8800GTS rispetto una 8800GT).
Per il consumo, in idle sono 25W contro 40W, ovvero 15W di risparmio per ATI.
Se nell'arco della giornata uno tiene il PC 20 ore in idle (dal 3D) e 6 ore occupato al gioco (chiaro sono risultati non verificati per l'utente medio, ma è comunque veritiera la proporzione di 3:1), avrà come consumi parziali (dovuti agli scarti fra le due schede):
20*0+6*3 = 18Wh per ATI
20*15+6*0 = 300Wh per NVIDIA
Ovvero globalmente la soluzione NVIDIA fa spendere 0,3kWh in più al giorno (ad esser precisi, 300-18=282Wh)... non tanti, non pochi (2e al mese).
Consigli ...

se vai nel tread della 8800gt ti renderai conto come non c'è alcuna necessità di cambiare dissi alla scheda, anche in caso di oc (umani, tralascio quelli esasperati), fermo restando che la 8800gt costa sempre un pò più della 3870 (ma và meglio)

Wing_Zero
12-01-2008, 12:53
se vai nel tread della 8800gt ti renderai conto come non c'è alcuna necessità di cambiare dissi alla scheda, anche in caso di oc (umani, tralascio quelli esasperati), fermo restando che la 8800gt costa sempre un pò più della 3870 (ma và meglio)

ed aggiungerei, come dimostrato dai bench sopra, in alcuni casi le prestazioni sn superiori del 70% . ^^

Defragg
12-01-2008, 14:59
ed aggiungerei, come dimostrato dai bench sopra, in alcuni casi le prestazioni sn superiori del 70% . ^^

Dove la vedi la HD3870? :mbe:

Mister Tarpone
12-01-2008, 15:01
Dove la vedi la HD3870? :mbe:

si ma tanto va uguale ad una 2900XT...

la 3870 è MIGLIORE eh!!! ma le prestazioni son rimaste + o - le stesse...

appleroof
12-01-2008, 15:02
si ma tanto va uguale ad una 2900XT...

la 3870 è MIGLIORE eh!!! ma le prestazioni son rimaste + o - le stesse...

quoto

Defragg
12-01-2008, 15:36
si ma tanto va uguale ad una 2900XT...

la 3870 è MIGLIORE eh!!! ma le prestazioni son rimaste + o - le stesse...

Ma appunto, è MIGLIORE, visto che costa molto meno, consuma molto meno, fà meno rumore. Mi pare che ci sia un bel po' di differenza su questo lato. ;)

Mister Tarpone
12-01-2008, 15:44
Ma appunto, è MIGLIORE, visto che costa molto meno, consuma molto meno, fà meno rumore. Mi pare che ci sia un bel po' di differenza su questo lato. ;)

Si è vero ;)
però lui aveva messo quei bench per far vedere la differenza di prestazioni...

ps: allora sei interessato alla 3870??? :confused: ;)

Mercuri0
12-01-2008, 17:19
Si è vero
però lui aveva messo quei bench per far vedere la differenza di prestazioni...

A dirla tutta il bench era sulla differenza di rumore. ^^''

Era:
veramente dati alla mano il disipatore dell'8800GT non è rumoroso per nulla, non piu' del normale e molto meno dell 2900XT(poi dipende se vuoi un computer supersilenziosissimo):

Ma mikelezz il confronto di rumore lo faceva 8800GT vs 3870.

Wing_Zero
12-01-2008, 17:37
A dirla tutta il bench era sulla differenza di rumore. ^^''

Era:


Ma mikelezz il confronto di rumore lo faceva 8800GT vs 3870.

a dirla tutta ma anche no -.-
Visto che sotto AVEVO postato ANCHE un BENCH per fare il raffronto di PRESTAZIONI.
Dove si vede che l'8800GT a 700/2000/1700 sfila un bel 70% di prestazioni in piu' alla 2900XT(che e' uguale alla 3870, anzi, in alcuni casi anche piu' veloce..)

Cmq la mossa vincente di nvidia e' stata quella di capire che era fondamentale che gli SP avessero una frequenza loro.
Infatti i risultati premiano sempre le soluzioni nvidia, cioe' 112-128 SP con 1,5-1,7ghz di frequenza.

Invece ati dalla sua ha preferito aumentare di molto il numero degli SP, 320, con frequenze pero' i n sincrono col clock della gpu (come e' stato sempre fatto fino alla geffo7, x1900, dove gli shader erano in sincrono con la freq della GPU) cioe' 700-750mhz.


Ciauz
Wing

Defragg
12-01-2008, 17:44
Si è vero ;)
però lui aveva messo quei bench per far vedere la differenza di prestazioni...

A dire la verità ne ha messo solo uno, e tra l'altro palesemente a favore di della scheda nVidia.
ps: allora sei interessato alla 3870??? :confused: ;)

Oltre che alla 3850 (verso il basso) e alla GTS512 (verso l'alto).
Queste ultime schede mi allettano una cifra.

Wing_Zero
12-01-2008, 17:49
A dire la verità ne ha messo solo uno, e tra l'altro palesemente a favore di della scheda nVidia.


Oltre che alla 3850 (verso il basso) e alla GTS512 (verso l'alto).
Queste ultime schede mi allettano una cifra.

veramente di nech ne ho messi 2 (ma che problemi avete nn vi si caricano le immagini?) uno per le prestazioni, ed uno per il rumore.
LA recensione e' presa da xbitlabs, che mi sembra una fonte piu' che affidabile, e cmq guardando le review in giro i delta di prestazioni sn sempre simili alla foto che ho postato...
Ho postato quel bench li xke' mostrava come la GT SCALA MOSTRUOSAMENTE le prestazioni con l'overclock, a differenza di altre schede.
Infatti nel bench da me riportato ci sono la GT@def, GT@OC e 2900XT@def.
Poi se te lo ritieni "palesemente a favore di nvidia" sn fatti tuoi. Tutti i bench che ho visto ricalcano quello che ho postato...se mi vuoi smentire con qualche altro bench fai pure...
Non e' colpa mia se la 8800GT va piu' veloce della 2900xt e'...

Ciao
wing

Defragg
12-01-2008, 17:51
veramente di nech ne ho messi 2 (ma che problemi avete nn vi si caricano le immagini?) uno per le prestazioni, ed uno per il rumore.


Nessun problema, si parlava delle prestazioni infatti. ;)