PDA

View Full Version : Dual GPU per NVIDIA: GeForce 9800 GX2 vista dall'interno


Redazione di Hardware Upg
29-01-2008, 13:13
Link alla notizia: http://www.hwupgrade.it/news/skvideo/24046.html

Nuove immagini aiutano a capire quale sarà la costruzione adottata per la nuova proposta NVIDIA top di gamma, con due GPU in parallelo

Click sul link per visualizzare la notizia.

NigthStalker_86
29-01-2008, 13:16
...che dovrebbe venir presentata nel corso del primo trimestre 2007.
Allora è :old: questa scheda video! :D

Johnny99
29-01-2008, 13:16
beh che dire....dovrò proprio cambiare la mia 8800 gts 640mb per questa bella bestiolina.
Speriamo che valga tutti i soldi che costerà ;)
ciao a tutti

mattix155
29-01-2008, 13:16
ke bel tostapane....apparte gli skerzi m aspettava qualkosa in piu da una soluzione del genere da parte d nvidia....avrei preferito una soluzione alla 3870x2,due gpu sullo stesso PCB

Faster_Fox
29-01-2008, 13:20
ke bel tostapane....apparte gli skerzi m aspettava qualkosa in piu da una soluzione del genere da parte d nvidia....avrei preferito una soluzione alla 3870x2,due gpu sullo stesso PCB

quoto.....i consumi credo saranno addiruttura superiori alla hd3870x2 visti i 2 pcb

St. Jimmy
29-01-2008, 13:21
mah...da quanto letto io direi che questa scheda ha di che farsi valere, ma dai vostri commenti sembra proprio da evitare :D

yume the ronin
29-01-2008, 13:21
sto giusto aspettando questa scheda per valutare un cambio della mia attuale e mi piacerebbe avere una scheda che incrementi in modo drastico le prestazioni delle 8800 ultra

en®
29-01-2008, 13:22
temo che sia illegale secondo il protocollo di kyoto,
scalderà più di casa mia, speriamo non rientri nell'ici per la seconda casa

Dexther
29-01-2008, 13:23
la voglio!!! :cry:

Willy_Pinguino
29-01-2008, 13:23
Se queste foto sono dei fake... complimentissimi ai fake-makers!!!

quel filino azzurro sull'ultima foto tenuto fermo con 2 gocce di colla a caldo... mmm... che nostalgia... chissà a cosa serve?

ve li ricordate i tempi in cui si smatitava gli slot A o si moddava con filetti del genere gli slot 1 e le voodoo???

Kharonte85
29-01-2008, 13:26
Carina l'idea della descrizione su quelle foto...bravi! :D

Misteri sul chip adottato ma se sara' una evoluzione di quello della 8800gts 512mb a livello prestazioni ci potremo aspettare abbastanza...il buco a forma di mezza falce scoperta nel pcb fa un po' impressione...

Please evitate i soliti commenti superficiali e di gridare al fake(vedi notizie precedenti), non bisogna per forza commentare se non ne sapete nulla di schede video :read:

sdjhgafkqwihaskldds
29-01-2008, 13:26
bella bestia.
... per appassionati disposti a spendere. non fa x me.

Daytona
29-01-2008, 13:30
Che cavolo è quel cavo azzurro " volante" attaccato con la colla!!!!!!

Ci stà come la nutella sul tonno!!!! :what:

yume the ronin
29-01-2008, 13:31
non bisogna per forza commentare se non ne sapete nulla di schede video :read:
io ne so poco ma vorrei almeno farmi un' idea, tutta quest' aria di "mistero" su queste nuove g92x2 nn contribuisce a chiarificarmi le cose eheh :D

è attualmente possibile fare una stima delle prestazioni, anche a braccio eh, in rapporto a uno sli di due 8800 ultra? devo aspettarmi pari prestazioni o addirittura oltre? :confused:

vorrei capire verso che scelta cominciare a orientarmi :)

ohmaigod
29-01-2008, 13:31
quanto è lunga?

Crysis90
29-01-2008, 13:38
Odio le soluzioni Dual-Chip, sono frenate dai driver e non rendono quindi al 100%, aspetto G100 (o come si chiamerà) fino ad allora mi tengo la mia 8800 GTX!

Kharonte85
29-01-2008, 13:41
io ne so poco ma vorrei almeno farmi un' idea, tutta quest' aria di "mistero" su queste nuove g92x2 nn contribuisce a chiarificarmi le cose eheh :D
La storia delle schede grafiche in parte si ripete, queste soluzioni Dual GPU non sono altro che un espediente immediato e dispendioso nei consumi per aumentare le prestazioni con la tecnologia corrente...questo di fatto vale sia per la soluzione AMD/ATI presentata ieri sia quella di cui si sta parlando adesso...in futuro, come successe per la 7950Gx2 (dual gpu di nvidia), la nuova top gamma surclassera' questa scheda grazie ad una evoluzione piu' marcata delle tecnologie...

è attualmente possibile fare una stima delle prestazioni, anche a braccio eh, in rapporto a uno sli di due 8800 ultra? devo aspettarmi pari prestazioni o addirittura oltre? :confused:

vorrei capire verso che scelta cominciare a orientarmi :)
Le prestazioni? Be' è lecito aspettarsi di vedere qualcosa di simile a quello che si è visto per la X2 a paragone con la scheda singola, ovvero un po' meno delle prestazioni di uno SLI di GTS 512mb...cosa devi orientarti dipende da quali esigenze hai e da quale scheda video possiedi al momento...

gioggio
29-01-2008, 13:44
dal punto di vista dell'ingegnerizzazione del pcb è una follia: gli costerà un fracco di soldi realizzarla...

spero che dimensionino più che adeguatamente il sistema di raffreddamento, perchè la vedo dura intervenire in un secondo momento con soluzioni aftermarket...

sarà anche un mostro di potenza ma non mi convince per niente...

Cocco83
29-01-2008, 13:45
Si però quella di ATI anche se non sarà regina delle prestazioni almeno è un singolo PCB con integrati i due core..... cioè NVidia ha avuto un bell'anno e mezzo come dite voi per ideare, progettare, e se questo è il risultato... ben venga G100, sarà la rinascita di ATI se questa scheda è tutto quello che riescono a fare...... Ovviamente non sarà così, era un provocazione ma questo è un taglia e cuci dell'ultimo minuto, questo è un insulto alla ingegnerizzazione a mio avviso ovviamente..... per non parlare dei consumi...... me ne aspetto di + di quelli ati perché qua sono due schede distinte unite, mentre in ATI sono solo due processori uniti

MadMax of Nine
29-01-2008, 13:53
Alla fine conviene aspettare G100... le GX2 non hanno mai sfondato ( apparte la bolletta :) )

Zannawhite
29-01-2008, 13:57
Sono deluso da nVidia !!!

Tutto questo tempo per affiancare 2 schede?
Un elogio è doveroso ad AMD per essere riuscita ad integrare 2 Gpu in una singola scheda :cincin:

mattix155
29-01-2008, 14:01
Sono deluso da nVidia !!!

Tutto questo tempo per affiancare 2 schede?
Un elogio è doveroso ad AMD per essere riuscita ad integrare 2 Gpu in una singola scheda :cincin:

Esatt.... un doveroso applauso ad ATI/AMD x la nuova soluzione ( a prescindere dalle restazioni )

sdjhgafkqwihaskldds
29-01-2008, 14:10
ad occhio sembra che tutto su una scheda non entra.... l'hanno appaninate per non fare un siluro da 40cm
ma la ventola non sarà un po' rumorosa? e manco si potrà sostituire il dissipatore

romeop
29-01-2008, 14:12
bene almeno vedremo un po' di concorrenza, ati che risale la china è proprio quello che ci voleva

halduemilauno
29-01-2008, 14:17
Carina l'idea della descrizione su quelle foto...bravi! :D

Misteri sul chip adottato ma se sara' una evoluzione di quello della 8800gts 512mb a livello prestazioni ci potremo aspettare abbastanza...il buco a forma di mezza falce scoperta nel pcb fa un po' impressione...

Please evitate i soliti commenti superficiali e di gridare al fake(vedi notizie precedenti), non bisogna per forza commentare se non ne sapete nulla di schede video :read:

quoto.
;)

AnonimoVeneziano
29-01-2008, 14:19
Come idea la AMDX2 mi piace di più.

yume the ronin
29-01-2008, 14:24
la nuova top gamma surclassera' questa scheda grazie ad una evoluzione piu' marcata delle tecnologie...

Le prestazioni? Be' è lecito aspettarsi di vedere qualcosa di simile a quello che si è visto per la X2 a paragone con la scheda singola, ovvero un po' meno delle prestazioni di uno SLI di GTS 512mb...cosa devi orientarti dipende da quali esigenze hai e da quale scheda video possiedi al momento...
eh il mio problema è che attualmente sono senza scheda video in pratica :D

ho in prestito una delle due hd2900xt della mia ragazza, ma la rivorrà indietro appena esce un gioco che le piaccia e che possa sfruttare bene col crossifre

io volevo giusto aspettare queste "nuove" soluzioni per decidermi a prendere una vga bella performante, ma sinceramente sia le ultime uscite di ATI che questi spoiler su nvida mi stan confondendo ancora di più le idee :doh:

come solitamente NON faccio quando sono indeciso, aspetterò ancora :D

Kikko_90
29-01-2008, 14:30
non la potevano fare un po piu lunga?? così mi c'entrava appena nel mio HTCP.. :asd: non ho parole.. schede sempre più lunghe.. di questo passo arriveremo ad avere delle portaerei tra le mani:muro:

Crux_MM
29-01-2008, 14:31
Hmmm..chissa quanto scalderà..forse è la volta buona che stacco i termosifoni!:D

Aspettiamo l'analisi delle prestazioni e poi parleremo..per ora è tutto campato in aria!:D

safendi
29-01-2008, 14:34
sarà brutta esteticamente ma mi sa che sta scheda spaccherà in 2 la 3870x2.

Mparlav
29-01-2008, 14:41
C'è da vedere se con G92-450 rispetto al G92-400 delle 8800GTS, avranno preferito dedicarsi ai consumi o alle prestazioni, cioè mettere un clock più conservativo a 550-600Mhz, ma vgpu più basso (tipo 1.1V), o lasciare 650Mhz e 1.2V, o addirittura salire di clock.
Cmq, la scelta di quel design "simil 280g al pepe" è ai limiti del "criminale".
Sono proprio curioso di vedere le temp in full load (o peggio, la rumorosità della ventola per garantire livelli accettabili)

In ogni caso, una scheda da evitare come la HD3870 X2: così non si va' da nessuna parte.
Meglio aspettare la nuova generazione se si vogliono le prestazioni.

Una nota: per chi credesse che la HD3870 X2 è "originale":

questa è una soluzione 6800Gt dual singolo Pcb
http://www.cdr.cz/picture_/24122/small

e questa una 7800Gt dual singolo pcb:
http://www.formulapc.net/forum/images/imagens/Asus/ASUS-7800GTXDUAL.jpg

Per rimanere sul recente.
Ma andando più indietro, come dimenticare la Ati Rage Maxx:
http://neurofire.dyndns.org/pc/vga_museum/pic/ati_rage_fury_maxx_front.jpg

e Voodoo 5 5500:
http://www.3dfx-altar.com/images/Voodoo5-5500-DVI-MAC.png

Zannawhite
29-01-2008, 14:46
....Una nota: per chi credesse che la HD3870 X2 è "originale":....................Il grosso elogio da fare a AMD è la commercializzazione non di un prototipo ma di una scheda video che chiunque potrà ordinare. ;)

Cocco83
29-01-2008, 14:47
Appunto.... cioè come mai una casa come nvidia passa dal singolo pcb multi core al doppio pcb monocore??? come mai in un anno e mezzo sanno fare solo questo? ovviamente solo per risparmiare sui costi di produzione, giriamo una scheda e facciamo solo il dissi ex novo...... proprio un bel lavoro

bernh
29-01-2008, 14:52
Sarà sicuramente di gran lunga superiore alla HD3870x2 come prestazioni, però.... boh!

Quanto costerà in più? Quanto spazio dentro al case occuperà in più? Quanto consumerà di più? Quanto scalderà di più?

Se a tutte queste domande ci fosse una risposta positiva allora ok, gran bella scheda che potrebbe anche costare 500€ valendoli tutti.

Ma se invece le risposte fossero negative, come apparentemente, ripeto, apparentemente potrebbe sembrare allora boh.... mi sa che il vantaggio a livello prestazionale, anche fosse del 50%, non giustificherebbe affatto la spesa!

Poi per carità.... se uno se la vuole comprare liberissimo di farlo.... io però mi tengo ancora la x1950GT, aspettando un calo di prezzo delle 3850/3870 e delle 8800GT.... probabilmente mi orienterò su una delle 3.... sempre che, al momento della scelta, non saltasse fuori qualche novità nel breve periodo!

Wikkle
29-01-2008, 14:52
Il bus memoria dovrebbe essere pari a 256 bit per ciascuna GPU, per una bandwidth massima teorica aggregata con memoria a 2 GHz di clock pari a 128 Gbytes al secondo;

:eek:


ma vieni!!!!! La voglio! :D

Sp4rr0W
29-01-2008, 14:52
ma in questo thread vi siete ammattiti?

Ma figurarsi se nVidia in 1 anno ha progettato solo questa scheda...

La verità è che nVidia sa benissimo che è in una situazione di superiorità.

Questa scheda è giusto un "test" che hanno fatto riprendendo le esperienze fatte con la 7950GX2.

La serie G100 ce l'hanno già pronta chissà da quando

E' AMD che fa ridere: c'hanno messo 1 anno per tirare fuori una scheda che va meno di una GTX, e da ex-possessore di schede ATI me ne rammarico...

Zannawhite
29-01-2008, 14:53
Comunque ragionando in maniera tranquilla ho la sensazione che sia solo un diversivo, a mio avviso qualcosa bolle in pentola di grosso :)

Non lapidatemi ma dopo un anno e mezzo credo che l'evoluzione G80-->G92 non abbia impiegato tutte le risorse di nVidia. A mio avviso, capendo la complessità decisamente molto più elevata di una Gpu, stanno tentando come nelle Cpu di fare una Gpu dual core su un unico chip.

E' solo una mia fantasia, ecco tutto. http://img476.imageshack.us/img476/8114/virgolettebk8.gif

Non mi http://img476.imageshack.us/img476/3424/schiaffomsnoi6.gif

gotta89
29-01-2008, 14:56
Come idea la AMDX2 mi piace di più.

anche a me piace di piu la soluzione amd... magari avrà un po meno prestazioni ma almeno hanno fatto veramente una schda singola con 2 gpu. nvidia ha semplicemente (per modo di dire) collegato 2 schede singole in sli senza passare per la mb... soluzione credo + facile ma meno innovativa... si dovranno aspettare i primi test comparativi sperando di poter usare driver accettabili...

ps: appena l'ho visto sono rimasto senza fiato.. (il buco per la ventola) non so cosa pensare...

presix
29-01-2008, 14:57
beh... direi che dopo tanto tempo possiamo tornare a dire: un punto a favore di ATI/AMD!

Questa scheda non si può vedere, è grandissima, consumerà un fottìo e costerà un occhio della testa!
Niente ottimizzazione, solo due 8800 GTS in SLI in una scheda!
Puoi benissimo comprarle separate due 8800 GTS!!!

Per me molto meglio la soluzione ATI/AMD con la 3870X2... brava AMD!

Sp4rr0W
29-01-2008, 15:23
beh... direi che dopo tanto tempo possiamo tornare a dire: un punto a favore di ATI/AMD!

Questa scheda non si può vedere, è grandissima, consumerà un fottìo e costerà un occhio della testa!
Niente ottimizzazione, solo due 8800 GTS in SLI in una scheda!
Puoi benissimo comprarle separate due 8800 GTS!!!

Per me molto meglio la soluzione ATI/AMD con la 3870X2... brava AMD!

si brava AMD c'hai messo un anno per fare una scheda che va meno della GTX :D

Mparlav
29-01-2008, 15:24
Tutte le schede che ho elencato non erano affatto prototipi, ma schede nelle intenzioni dei produttori, top di gamma, e tutte accumunate da un esiguo successo commerciale, così come 2600XT dual e 1950Pro Dual uscite entrambe l'anno scorso, nel medesimo design dell'attuale HD3870 X2.

gotta89
29-01-2008, 15:28
Tutte le schede che ho elencato non erano affatto prototipi, ma schede nelle intenzioni dei produttori, top di gamma, e tutte accumunate da un esiguo successo commerciale, così come 2600XT dual e 1950Pro Dual uscite entrambe l'anno scorso, nel medesimo design dell'attuale HD3870 X2.

quindi? io per adesso vedo che sui 200 euro te la sogni una 8800 mentre una 3870 con 512mb l'ho ordinata prima....

Zannawhite
29-01-2008, 15:28
Tutte le schede che ho elencato non erano affatto prototipi, ma schede nelle intenzioni dei produttori, top di gamma, e tutte accumunate da un esiguo successo commerciale, così come 2600XT dual e 1950Pro Dual uscite entrambe l'anno scorso, nel medesimo design dell'attuale HD3870 X2.In effetti...

link (http://images.google.it/images?hl=it&q=dual+gpu&btnG=Cerca+immagini&gbv=2)

Però vedo questo lancio della HD3870x2 molo altisonante.
Perchè queste schede dual Gpu sono passate molto inosservate?

Sp4rr0W
29-01-2008, 15:31
quindi? io per adesso vedo che sui 200 euro te la sogni una 8800 mentre una 3870 con 512mb l'ho ordinata prima....

e allora hai visto male, le trovi a 219 euri le 8800GT

blackshard
29-01-2008, 15:32
ma in questo thread vi siete ammattiti?

Ma figurarsi se nVidia in 1 anno ha progettato solo questa scheda...

La verità è che nVidia sa benissimo che è in una situazione di superiorità.

Questa scheda è giusto un "test" che hanno fatto riprendendo le esperienze fatte con la 7950GX2.

Un test? Venderanno un "test", per giunta a caro prezzo?


La serie G100 ce l'hanno già pronta chissà da quando

Certo. E siccome hanno g100 pronto da chissa' quando, fanno i test su architetture "vecchie" :D


E' AMD che fa ridere: c'hanno messo 1 anno per tirare fuori una scheda che va meno di una GTX, e da ex-possessore di schede ATI me ne rammarico...

Almeno quella scheda ha un senso: coprire la fascia top.
Questa scheda invece non ha nessun senso. E se l'approccio di ati può far storcere il naso, questo fa proprio vomitare... :tapiro: :tapiro:

Sp4rr0W
29-01-2008, 15:36
Un test? Venderanno un "test", per giunta a caro prezzo?

Certo. E siccome hanno g100 pronto da chissa' quando, fanno i test su architetture "vecchie" :D

Almeno quella scheda ha un senso: coprire la fascia top.
Questa scheda invece non ha nessun senso. E se l'approccio di ati può far storcere il naso, questo fa proprio vomitare... :tapiro: :tapiro:

Guarda che questa 9800GX2 è soltanto una manovra per vendere qualcosa in più...

La 3870X2 non è una minaccia per nVidia... se fosse stato così avrebbero tirato fuori G100 già adesso.

A nVidia basta ridurre il prezzo delle GTX sotto la 3870X2 e ne vendono un botto :D

M4R1|<
29-01-2008, 15:36
orrenda!!! e con un chip vecchio.

meglio aspettare la nuova generazione, che qui tra amd e nvidia ci stanno rifilando roba vecchia (certo poi c'è da dire che almeno amd nn spella i soldi come nvidia)

gotta89
29-01-2008, 15:38
3/4 sono da 256mb cmq l'unica a 219 è la peak che come marca non ho mai sentito comunque non voglio fare questioni

ps:

peak 8800gt SUPPORT DIRECTX • 10.0 SUPPORT OPENGL • 2.0 (booo...)

ati hd3870: dx 10.1 e Opengl 4.0

comunque non voglio fare questioni

Sp4rr0W
29-01-2008, 15:44
3/4 sono da 256mb cmq l'unica a 219 è la peak che come marca non ho mai sentito comunque non voglio fare questioni

ps:

peak 8800gt SUPPORT DIRECTX • 10.0 SUPPORT OPENGL • 2.0 (booo...)

ati hd3870: dx 10.1 e Opengl 4.0

comunque non voglio fare questioni


mah contento tu, io per pochi euro mi compro una scheda più performante :D

gotta89
29-01-2008, 15:52
scusa ma i test fatti su questo sito con che 8800gt sono fatti? peak? mi sa tanto che somigli a chainteck

blackshard
29-01-2008, 16:01
Guarda che questa 9800GX2 è soltanto una manovra per vendere qualcosa in più...

La 3870X2 non è una minaccia per nVidia... se fosse stato così avrebbero tirato fuori G100 già adesso.

Manovra è la parola giusta, infatti serve proprio a "manovrare" il mercato. Fatto sta che la 3870x2 è una minaccia per nvidia, dal momento che insidia le 8800gtx, e questo è il motivo per cui hanno presentato questa scheda, cioè mostrare che possono mantenere il top delle prestazioni. A caro prezzo, aggiungerei.


A nVidia basta ridurre il prezzo delle GTX sotto la 3870X2 e ne vendono un botto :D

Si potrebbe fare il discorso speculare: ad ati basta ridurre di prezzo le 3870x2 e ne vendono un botto. E' un bel discorso in potenza... ma la realtà sarà un'altra. Al momento il giudizio è puramente sulle scelte progettuali, visto che le prestazioni saranno tale e quali ad uno sli di 8800 GTS dal momento che sono di fatto due schede appiccicate assieme. Tanto vale comprarsi due 8800 GTS, almeno sono due schede separate...

Pait
29-01-2008, 16:05
http://img.clubic.com/photo/00F0000000044661.jpg

http://www.3dchip.de/Grafikkartenmodds/Grafixmodds/quantummercury.jpg

Mai nessuna come lei!

Mparlav
29-01-2008, 16:09
le dual gpu passano inosservate, per fortuna aggiungo io, perchè sono uno spreco.
Se vuoi più prezzo/prestazioni e prestazioni/consumi, devi fare i salti generazionali.
E' sempre stato così, non è che oggi sia diverso.

Piuttosto che spendere 400 euro, ma anche fossero 350, ed un consumo doppio della HD3870, preferisco aspettare RV770, qualcuno dice prima dell'estate, qualcuno dopo.
Che avrà prestazioni quanto meno analoghe a questa HD3870 X2 (ma soprattutto più costanti), ma con consumi e prezzo inferiore, oltre a funzionalità aggiuntive. Pensa solo al discorso "gestione" dell'AA, e vedi solo con questo, qual'è l'incremento possibile.
Non c'è nulla di "fantascientifico", i salti generazionali sono proprio questo.

Pari pari, lo stesso ragionamento con la 9800 GX2: resta sullo scaffale, e si pensa a G100.

Per chi deve fare oggi l'upgrade o il nuovo acquisto, la singola HD3850/3870 e 8800GT sono acquisti infinitamente migliori.

Mparlav
29-01-2008, 16:12
le dual gpu passano inosservate, per fortuna aggiungo io, perchè sono uno spreco.
Se vuoi più prezzo/prestazioni e prestazioni/consumi, devi fare i salti generazionali.
E' sempre stato così, non è che oggi sia diverso.

Piuttosto che spendere 400 euro per la HD3870 X2, ma anche fossero 350, ed un consumo doppio della HD3870, preferisco aspettare RV770, qualcuno dice prima dell'estate, qualcuno dopo.
Che avrà prestazioni quanto meno analoghe a questa HD3870 X2 (ma soprattutto più costanti), ma con consumi e prezzo inferiore, oltre a funzionalità aggiuntive. Pensa solo al discorso "gestione" dell'AA, e vedi solo con questo, qual'è l'incremento possibile.
Non c'è nulla di "fantascientifico", i salti generazionali sono proprio questo.

Pari pari, lo stesso ragionamento con la 9800 GX2: resta sullo scaffale, e si pensa a G100.

Per chi deve fare oggi l'upgrade o il nuovo acquisto, la singola HD3850/3870 e 8800GT sono acquisti infinitamente migliori.

Mparlav
29-01-2008, 16:14
le dual gpu passano inosservate, per fortuna aggiungo io, perchè sono uno spreco.
Se vuoi più prezzo/prestazioni e prestazioni/consumi, devi fare i salti generazionali.
E' sempre stato così, non è che oggi sia diverso.

Piuttosto che spendere 400 euro per la HD3870 X2, ma anche fossero 350, ed un consumo doppio della HD3870, preferisco aspettare RV770, qualcuno dice prima dell'estate, qualcuno dopo.
Che avrà prestazioni quanto meno analoghe a questa HD3870 X2 (ma soprattutto più costanti), ma con consumi e prezzo inferiore, oltre a funzionalità aggiuntive. Pensa solo al discorso "gestione" dell'AA, e vedi solo con questo, qual'è l'incremento possibile.
Non c'è nulla di "fantascientifico", i salti generazionali sono proprio questo.

Pari pari, lo stesso ragionamento con la 9800 GX2: resta sullo scaffale, e si pensa a G100.

Per chi deve fare oggi l'upgrade o il nuovo acquisto, la singola HD3850/3870 e 8800GT sono acquisti infinitamente migliori.

DarKilleR
29-01-2008, 16:14
più che altro io preferico l'approccio di ati su singolo PCB...queste sono veramente 2 schede in SLI collegate sulla stessa staffa -.-

comunque quoto in toto Mparlav....anche se poi vai a vedere i consumi le HD3870 X2 consumano "relativamente poco"...o cmq confrontabili con una 8800 Ultra..

Mparlav
29-01-2008, 16:15
Scusate per il triplo post: sto' avendo problemi con la linea.

ConRoe
29-01-2008, 16:21
secondo me G100/D9E sta gia nel cassetto... a mio parere questa è la risposta alla 3870X2 di AMD. immagino comunque che le temperature non siano proprio "piacevoli" però se fanno una cosa vuol dire che sanno (spero) quello che fanno :mbe: :D :D

bongo74
29-01-2008, 16:22
non ho mai capito chi questiona sui consumi della vga di fascia alta.

E' chiaro che sono "mirate" sul gioco pesante, il che vuole dire che puntano tutto sulle prestazioni e basta..

è come dire "la ferrari consuma tanto" è certo, ci credo.

Sono schede da usare 1-2 ore al giorno, non penso che uno giochi 15ore al giorno.

Per le attivita' normali basta una vga integrata e un sempron

K-206
29-01-2008, 16:30
nome di GeForce 9800 GX2 e che dovrebbe venir presentata nel corso del primo trimestre 2007..... siamo nel 2008 per chi non lo sapesse :-D

gianni1879
29-01-2008, 16:35
e allora hai visto male, le trovi a 219 euri le 8800GT

la prima dispomibile è a 230€ http://www.trovaprezzi.it/prezzo_schede-grafiche_8800gt_512.aspx

mentre per la HD3870 la prima disponibile è a 175€
http://www.trovaprezzi.it/categoria.aspx?libera=3870&id=28&prezzoMin=&prezzoMax=&sbox=sb

ci sono 55€ di differenza

tenendo fatto che sono tutte e due ottime vga.


Tornando alla news:
Curioso di veder i consumi e il costo, dato che sono due vga separate a tutti gli effetti, dubito che la venderanno a meno di 500€

e poi perchè chiamarla 9800? dato che monta lo stesso chip G92 che montano le attuali 8800GT/GTS?

leoneazzurro
29-01-2008, 16:35
Il grosso elogio da fare a AMD è la commercializzazione non di un prototipo ma di una scheda video che chiunque potrà ordinare. ;)

Come ha detto mparlav, di schede dual GPU ce ne sono state diverse, recentemente si possono ricordare le 7900-7950 GX2 da parte Nvidia e le X1950 Pro dual e HD2600 gemini da parte ATI.

beh... direi che dopo tanto tempo possiamo tornare a dire: un punto a favore di ATI/AMD!

Questa scheda non si può vedere, è grandissima, consumerà un fottìo e costerà un occhio della testa!
Niente ottimizzazione, solo due 8800 GTS in SLI in una scheda!
Puoi benissimo comprarle separate due 8800 GTS!!!

Per me molto meglio la soluzione ATI/AMD con la 3870X2... brava AMD!

E in che cosa la X2 sarebbe più ottimizzata? Per il bridge PCI-Express interno? O per il singolo PCB? Ma in sostanza, non si tratta in entrambi i casi di soluzioni ancora SLI/Crossfire "standard" con tutti i problemi/svataggi del caso (consumi, supporto drivers)? Non si possono anche in quel caso comprare 2 HD3870 separate? Insomma, evitiamo di flammare, mi raccomando


si brava AMD c'hai messo un anno per fare una scheda che va meno della GTX :D

Come sopra

quindi? io per adesso vedo che sui 200 euro te la sogni una 8800 mentre una 3870 con 512mb l'ho ordinata prima....

Idem, non stiamo giocando a chi ce l'ha più lungo (o, forse, in questo caso, corto)


Almeno quella scheda ha un senso: coprire la fascia top.
Questa scheda invece non ha nessun senso. E se l'approccio di ati può far storcere il naso, questo fa proprio vomitare... :tapiro: :tapiro:

Il senso è quello di riprendersi, anche solo figurativamente, il titolo di "singola scheda più veloce".

orrenda!!! e con un chip vecchio.

meglio aspettare la nuova generazione, che qui tra amd e nvidia ci stanno rifilando roba vecchia (certo poi c'è da dire che almeno amd nn spella i soldi come nvidia)

vecchio il G92? (che ha, ricordiamo, 2 mesi e mezzo)
Per cosa? Per il supporto DX 10.1? Il quale purtroppo, e dico purtroppo, non verrà usato da nessuno a parte qualche sviluppatore vicino ad ATI. E ripeto purtroppo perchè ci sono delle caratteristiche interessanti che potrebbero incrementare le prestazioni in DX10, soprattutto con l'AA.


3/4 sono da 256mb cmq l'unica a 219 è la peak che come marca non ho mai sentito comunque non voglio fare questioni

ps:

peak 8800gt SUPPORT DIRECTX • 10.0 SUPPORT OPENGL • 2.0 (booo...)

ati hd3870: dx 10.1 e Opengl 4.0

comunque non voglio fare questioni

Idem come sopra.

Ragazzi, mi raccomando, siate obiettivi (ed evitate le "frecciatine" alla parte avversa, si scade facilmente nel flame)

Wikkle
29-01-2008, 16:36
Per le attivita' normali basta una vga integrata e un sempron

oramai la gente che usa il pc solo per controllare la posta non esiste più... Tutti ci vogliono fare qualcosa in più...

Le vga integrate? :eek:
A fare poi?

mjordan
29-01-2008, 16:39
oramai la gente che usa il pc solo per controllare la posta non esiste più... Tutti ci vogliono fare qualcosa in più...

Le vga integrate? :eek:
A fare poi?

Non esiste piu'? Siamo sicuri? Guarda che i videogiochi non interessano mica a tutti. O anche prendendo tutti quelli a cui interessano, non è mica detto che siano interessati a quelli per PC. ;)
Riguardo alla scheda, io considero le serie GX2 un bell'esercizio di stile ma in fondo in fondo non mi dicono niente (e in questo ci metto anche lo SLI che alla fine è uno spreco di risorse, non sempre è utilizzabile e quando lo è non sempre dona l'incremento che ci si aspetta).

La serie 10, se mai si chiamerà così, sarà sicuramente piu' interessante.

Pierdo
29-01-2008, 16:56
bene almeno vedremo un po' di concorrenza, ati che risale la china è proprio quello che ci volevaEsatto! Sempre meglio una concorrenza serrata per noi consumatori... ;)

Cmq da profano, credo che stiano esagerando per consumi ed ingombro: ancora un pò di tempo e i case si trasformeranno in rack, con un boom di domande enel per potenziare i kw in casa! :D

La ATI con le 2 gpu su singola scheda credo abbia aperto la strada giusta, ovviamente chi vivrà vedrà...

Wikkle
29-01-2008, 16:58
Non esiste piu'? Siamo sicuri? Guarda che i videogiochi non interessano mica a tutti.

non stavo parlando di videogiochi, anzi...
intendo che molti si divertono anche per passatempo con programmi per modificare foto, video, musica.... penso che la vga integrata non lo permetta, oppure si?

Per guardare i video, la vga integrata basta?

D4N!3L3
29-01-2008, 17:30
Io vorrei tanto sapere qualcosa sulla roadmap di Nvidia, è davvero tediosa questa carenza di news. :rolleyes:

nickfede
29-01-2008, 17:36
AMD nel campo Vga stà risalendo la china e colmando il divario...inutile negarlo.......la 3850 e la 3870 sono delle OTTIME schede.....nella fascia bassa e media tocca a NVidia rincorrere......adesso pure nella fascia alta è messa molto bene........

Con quell'accrocchio di scheda NVidia non va da nessuna parte...a meno che non la metta in vendita ad un prezzo adeguato alla 3870X2 di AMD......
Si riprenderà il primato delle migliori prestazioni e basta.....è finito il tempo dei super-utili per NVidia............

All'opposto nel settore CPU è un dramma per AMD........

PS Le mie ultime 2 schede, compresa l'attuale sono targate NVidia

safendi
29-01-2008, 17:40
AMD nel campo Vga stà risalendo la china e colmando il divario...inutile negarlo.......la 3850 e la 3870 sono delle OTTIME schede.....nella fascia bassa e media tocca a NVidia rincorrere......adesso pure nella fascia alta è messa molto bene........

Con quell'accrocchio di scheda NVidia non va da nessuna parte...a meno che non la metta in vendita ad un prezzo adeguato alla 3870X2 di AMD......
Si riprenderà il primato delle migliori prestazioni e basta.....è finito il tempo dei super-utili per NVidia............

All'opposto nel settore CPU è un dramma per AMD........

PS Le mie ultime 2 schede, compresa l'attuale sono targate NVidia

ma un pò avventata questa frase, la 3870x2 x essere una dual è molto scadente dato che in certi scenari va come una 8800 gtx.

nickfede
29-01-2008, 17:44
ma un pò avventata questa frase, la 3870x2 x essere una dual è molto scadente dato che in certi scenari va come una 8800 gtx.


Ma il prezzo non conta più niente secondo te ??
E' il moneybench che conta (salvo per quel 1/2% di enthusiast)......

Mister Tarpone
29-01-2008, 17:53
Ma il prezzo non conta più niente secondo te ??
E' il moneybench che conta (salvo per quel 1/2% di enthusiast)......

esatto.. e se devo guardare il prezzo prestazioni preferisco una GTS 512 alla 3870X2.... ;)

Mercuri0
29-01-2008, 17:55
C'è da vedere se con G92-450 rispetto al G92-400 delle 8800GTS, avranno preferito dedicarsi ai consumi o alle prestazioni,
G92-450 dovrebbe essere un G92 selezionato (come le varie versioni A,B,etc di ogni componente elettronico) non certo una nuova versione del G92.
Ci manca facciano un chip apposta per una scheda come questa di cui produrranno si e no 2 esemplari.

peak 8800gt SUPPORT DIRECTX • 10.0 SUPPORT OPENGL • 2.0 (booo...)

ati hd3870: dx 10.1 e Opengl 4.0

OpenGl 4.0 :mbe: Ma se ancora devono finalizzare le specifiche del 3.0! :rolleyes:
Di sicuro la versione di OpenGL che supporterà la serie 3 della ati la supporterà anche la serie 8 della nvidia, su questo si può star sicuri! (per come sono organizzate le specifiche OpenGL). Le OpenGL 3.0 sono supportate dalle schede di due generazioni fa!

C
E in che cosa la X2 sarebbe più ottimizzata? Per il bridge PCI-Express interno? O per il singolo PCB? Ma in sostanza, non si tratta in entrambi i casi di soluzioni ancora SLI/Crossfire "standard" con tutti i problemi/svataggi del caso (consumi, supporto drivers)? Non si possono anche in quel caso comprare 2 HD3870 separate?

Anch'io penso che il fatto che la 9800GX2 usi 2 PCB non debba influire sulla scelta dell'utente. Lo spazio occupato da entrambe le X2 alla fine è sempre lo stesso.

Però è pure vero che la soluzione della 3870X2 consente costi di produzione decisamente più contenuti, e dimostra la necessità di una circuiteria esterna meno estesa (meno potenza assorbita?) per chip.

La 9800GX2 dovrà giustificare in qualche modo il suo costo di produzione con una potenza disumana :D ... Credo sia anche possibile che nVidia vendi i (presumo pochi) esemplari prodotti di 9800GX2 sottocosto o con margini risicatissimi, giusto per fare le scarpe alla 3870X2.

Inoltre con la 3870X2 AMD ha dimostrato di voler/poter puntare sull'approccio multi GPU, in prospettiva R700, mentre la 9800GX2 non ci anticipa nulla di nuovo.

p.s. Come dicevo altrove, immagino che la 9800GX2 sarà la punta di diamante della serie 9xxx, quindi sarebbe il caso che stacchi la 8800Ultra per benino, per avere uno spazio anche per una eventuale 9800GTX...

safendi
29-01-2008, 17:56
Ma il prezzo non conta più niente secondo te ??
E' il moneybench che conta (salvo per quel 1/2% di enthusiast)......

se intendi quello allora vai di 8800gt che è ancora migliore. o guardi una cosa o guardi l'altra. io no guardo il moneybench

halduemilauno
29-01-2008, 18:02
Ma il prezzo non conta più niente secondo te ??
E' il moneybench che conta (salvo per quel 1/2% di enthusiast)......

esatto.. e se devo guardare il prezzo prestazioni preferisco una GTS 512 alla 3870X2.... ;)

appunto. un rapporto P/P decisamente migliore per la 8800gts512.
;)

gotta89
29-01-2008, 18:03
scusate per la ca**ata del opengl 4.0 è stato un errore di battitura ovviamente...

Cocco83
29-01-2008, 18:05
ma in questo thread vi siete ammattiti?

Ma figurarsi se nVidia in 1 anno ha progettato solo questa scheda...

La verità è che nVidia sa benissimo che è in una situazione di superiorità.

Questa scheda è giusto un "test" che hanno fatto riprendendo le esperienze fatte con la 7950GX2.

La serie G100 ce l'hanno già pronta chissà da quando

E' AMD che fa ridere: c'hanno messo 1 anno per tirare fuori una scheda che va meno di una GTX, e da ex-possessore di schede ATI me ne rammarico...

ecco se la potevano evitare da nvidia come esercizio di taglia e cuci, amd e ati hanno i loro casini non hanno certo fatto i miliardi di nvidia

Mercuri0
29-01-2008, 18:06
appunto. un rapporto P/P decisamente migliore per la 8800gts512.
;)
:asd:
A proposito di prezzo/prestazioni c'è questo bel link per farsi un'idea.
http://www.yougamers.com/hardware/stats/3dmark06/priceandperformance/

Critterix
29-01-2008, 18:06
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=hd3870x2&prezzomin=-1&prezzomax=-1

Il prezzo mi sembra interessante
A partire da 395 euro

Considerando che la ultra parte da 559.90..
http://www.trovaprezzi.it/categoria.aspx?libera=8800+ultra&id=28&prezzoMin=&prezzoMax=&sbox=sb

Si lo so la gtx costa un po' meno, ma va anche meno in diversi giochi e poco più in altri

nickfede
29-01-2008, 18:12
appunto. un rapporto P/P decisamente migliore per la 8800gts512.
;)


per me sono pari......si va da un minimo del 20% alle risoluzioni minori al 30/35% a risoluzioni alte come prestazioni a vantaggio di ATI......il prezzo mi pare allineato..........

Cocco83
29-01-2008, 18:18
In germania ho letto nell'altro post a 375€.... alla fine non costa meno di una GTX ed è appena uscita.... La HD3870 su ebay si trova a anche a 169€

mjordan
29-01-2008, 18:24
non stavo parlando di videogiochi, anzi...
intendo che molti si divertono anche per passatempo con programmi per modificare foto, video, musica.... penso che la vga integrata non lo permetta, oppure si?

Per guardare i video, la vga integrata basta?

Ovvio che basta.

Kharonte85
29-01-2008, 18:26
eh il mio problema è che attualmente sono senza scheda video in pratica :D

ho in prestito una delle due hd2900xt della mia ragazza, ma la rivorrà indietro appena esce un gioco che le piaccia e che possa sfruttare bene col crossifre

io volevo giusto aspettare queste "nuove" soluzioni per decidermi a prendere una vga bella performante, ma sinceramente sia le ultime uscite di ATI che questi spoiler su nvida mi stan confondendo ancora di più le idee :doh:

come solitamente NON faccio quando sono indeciso, aspetterò ancora :D
:eek: :eek: :eek:

Aspetta (salta queste Dual gpu)...a meno che la tua ragazza non voglia giocare a Crysis e allora saresti fregato perche' li' il crossfire è una necessita' :sofico:

TheZeb
29-01-2008, 20:47
ancora un paio d'anni e vedremo le dual core su unico die :cool:

johnson
29-01-2008, 21:04
ancora un paio d'anni e vedremo le dual core su unico die :cool:

sarebbe anche ora...

Gho57
29-01-2008, 21:39
Vedendo le foto mi son venute in mente le care voodoo :(

dario fgx
29-01-2008, 21:43
bus a 256bit...
512mb per chip...
hmmm... si vede che questo dipende dall'impossibilità di complicare oltre la circuiteria visto il pcb risicato.
Poi un dissipatore per 2 gpu potenti e calde: supererà i 100°C abbondantemente!
Sono curioso di vedere se terze parti proporranno dissipatori per una simile soluzione.

SuperN1ubbo
30-01-2008, 03:41
Scusate, ma sento sempre parlare di CPU limited. :blah:
Ora, se una HD3870x2 va più di una Ultra, non oso immaginare dove schizzerà questa 9800 Gx2. :eek:

In tal caso che razza di processore occorrerà per spremerla a dovere? :asd:

Zannawhite
30-01-2008, 07:46
Scusate, ma sento sempre parlare di CPU limited. :blah:
Ora, se una HD3870x2 va più di una Ultra, non oso immaginare dove schizzerà questa 9800 Gx2. :eek:

In tal caso che razza di processore occorrerà per spremerla a dovere? :asd:Anche io nel 3D sulla HD3870x2 ho chiesto delucidazione del perchè a 1280x1024 con un QX6850: clock 3GHz, bus quad pumped 1.333 MHz,

Sappiamo tutti che 2 core dormono, ma da qui a dire che 2core non riescono a tenere dietro a 2 Gpu?? :mbe:

gianni1879
30-01-2008, 08:35
Anche io nel 3D sulla HD3870x2 ho chiesto delucidazione del perchè a 1280x1024 con un QX6850: clock 3GHz, bus quad pumped 1.333 MHz,

Sappiamo tutti che 2 core dormono, ma da qui a dire che 2core non riescono a tenere dietro a 2 Gpu?? :mbe:

il problema infatti è nella frequenza dei core, non nel numero ;)

Zannawhite
30-01-2008, 08:47
il problema infatti è nella frequenza dei core, non nel numero ;)Non riesco ancora a capire un concetto. Potrà essere Cpu Limited in casi di giochi "vecchi" che sfruttano un singolo core, ma in casi di giochi nuovi che ne sfruttano 2 ?

Allora per lo stesso ragionamento dovremmo essere Cpu Limited anche con una 8800 GTS/GT/GTX/Ultra visto che le prestazioni con quest'ultima differiscono di veramente poco.

DjLode
30-01-2008, 08:53
Dipende anche da cosa si sta testando. Esistono giochi cpu bound e altri gpu bound. Dire o meno quando si è cpu limited o meno non è un discorso che si possa fare in generale relativamente a tutto.

Mparlav
30-01-2008, 09:00
xMercurio0: quando mai ho scritto che G92-450 è un chip apposito?
E' ovvio che una revision d'aggiornamento del G92-400.
Il punto di domanda è se una revision fatta per lavorare ad un vgpu più basso del G92-400, quanto mai appropriato sua una dual gpu per problemi termici, oppure allo stesso vgpu, ma con clock più elevato.
O persino una revision fatta per gestire un controllo dinamico del clock come su RV670, visto che G92-400 non cala di clock nel passaggio al 2D.
Ci sono parecchi modi per indirizzare uno step produttivo, per semplificare, come ha fatto Intel con gli G0 rispetto ai B2.

Tra una ventina di giorni ne sapremo qualcosa, sempre che qualche produttore non incominci già ad adottare G92-450 sulle proprie 8800GTS.

Seblic
30-01-2008, 09:00
Vista la soluzione e visto i problemi che hanno dato le 7950gx2, sconsiglio la scheda per un motivo semplicissimo.
L'affidabilità.
Io ho avuto la 7950 e riscaldava come una bestia, ed il processore montato sotto un 30% in +.
In 4 mesi sostituita 2 volte sempre per lo stesso problema e cioè che il processore montato sotto surriscaldava.
Alla fine ho preso la 8800 gtx (anche perchè mi hanno proposto loro questa soluzione perchè da allora quante schede avrebbero dovuto sostituirmi?)

Eizo114
30-01-2008, 09:14
Premettendo che non mi frega della marca, ma guardo solo ilrisultato, leggevo i commenti di chi tira di qua e di la e di chi, come si diceva prima "lancia frecciatine".
Ma vi rendete conto di come si stanno mettendo le cose?
Una volta con 200carte ci si faceva una vga che come minimo t faceva giocare in tranquillita e almeno x piu di un anno, oggi sei fortunato se con 200 riesci a giocare a Crysis a 1280x1024....
Saranno belle ste schede, saranno potenti, saranno quel che vi pare ma io non ho 500 o piu euro. Si ok sn i modelli portavoce di un marchio, e che se le tengano a sti prezzi, ma e mai possibile che per poter giocare con tranquillita oggi come oggi c vuole un alimentatore bestiale, una vga che in estate rischia di friggere, una cpu tirata un dissipatore adeguato e magari prima di comprare la scheda video devo pure controllare il gioco a cui giochero' da quale casa e stato affiancato seno' rischio che poi non vada correttamente xke le scelte di marketing sn altre!
Il fatto e che nn c sn ne vincitori ne vinti, siamo solo delle marionette nelle loro mani, sanno che csn i gamers disposti a pagare!

Oltretutto x chi parla sempre e cmq a favore di un marchio, vorrei riportare l'attenzione di tutti sui record mondiali di 3dmark06, se notate un po la 8800 e la 2900 sn vicinissime come punteggi...
Detto cio' m sorge spontanea una domanda:
"Ma siamo sicuri che vi siano delle reali differenze o e solo una questione d driver?"
E soprattutto: "Un bel controllo antitrust no eh?" in genere in oligopolio non e possibile presentare sempre idee molto simili a distanza di poco tempo....
Saluti

whitedream
30-01-2008, 10:15
come prezzi a quanto si aggira? data d'uscita?? mmm...
per ati la vedo dura... le sue schede a doppio core superano di poco le schede nvidia di fascia alta con singolo core....

la domanda sorge spontanea: se invida mette due dei suoi core di fascia alta su una singola scheda video cosa accadra?

secondo me la risposta più sicura:
per ati saranno cazz.... ops... dolori!! :D

io ho preso una 8800 ultra proprio ieri e sto aspettando che arrivi.... dite che durerà qualche annetto? :)

blackshard
30-01-2008, 10:51
Non riesco ancora a capire un concetto. Potrà essere Cpu Limited in casi di giochi "vecchi" che sfruttano un singolo core, ma in casi di giochi nuovi che ne sfruttano 2 ?

Allora per lo stesso ragionamento dovremmo essere Cpu Limited anche con una 8800 GTS/GT/GTX/Ultra visto che le prestazioni con quest'ultima differiscono di veramente poco.

In generale si potrebbe dire di si. E' ovvio che poi dipende molto dal titolo che giochi, ma soprattutto a che risoluzione. In generale le schede di fascia highend, come le 3870x2, le gtx e le ultra vanno bene per alte ed altissime risoluzione (tipo 1920x1200 e 2560x1600). Confrontarle a risoluzioni inferiori forse non ha tanto senso, visto che comunque il peso del test sale sulla componente processore e scende sulla scheda video. E non ha neanche tanto senso comprare una gtx o una hd3870x2 per giocare a 1280.

Crysis poi è un capitolo completamente a parte, infatti nessun gioco mette in vera crisi la fascia medio-alta delle dx10 come Crysis o come Lost Planet, ma quest'ultimo ai miei occhi sembra più una tech demo che altro.

fr4nc35c0
30-01-2008, 11:16
beh molti di voi nn sembrano molto contenti di questa scelta da parte della nvidia....
avete dato un okkiata hai test della nuova x2 dell ati? la versione single gpu di questa nvidia tiene meravigliosamente testa alla nuova atix2 qnd raddoppaindo le gpu....beh.....ciao ati... e il premio alla scheda piu potente va ankora alla nvidia(con il minimo sforzo oltre tutto visto che nn sono diventati pazzi ad inserire le due gpu su un unico pcb)

...sono del parere che nn hanno optato per un unico pcb perche in futuro sanno gia che tireranno fuori una soluzione nn necessariamente migliore ma piu giusta secondo i loro obbiettivi....dopo tutto lo sviluppo di nuove architetture nn sono ricerche da qlc mese sono studi che surano anni.....

per concludere io confido in nvidia:D :D :D

skorpietto
30-01-2008, 11:57
chissà perchè non si gettano anche i produttori di schede video sul multicore su singola GPU... mah... sarebbe più semplice...

non sò!
30-01-2008, 13:30
ma avete visto il resto delle foto?!

http://www.amdplanet.it/tag/schede-video/news/20227/le-prime-immagini-della-nvidia-geforce-9800-gx2.html

ma quanto peserà?!
a mio parere si marca male!!!!non stanno andando nella giusta direzione nessuna delle due case....

quoto e riquoto il post di Eizo114 in merito a come si è modifica e si sta indirizzando il mercato!!!
ma d'altro canto non vedo molte soluzioni possibili visto che si dovrebbe fare una sola voce per farsi sentire

per ritornare sulle vga secondo me si deve andare verso dual gpu singolo chip come per le cpu soprattutto per i consumi

Cocco83
30-01-2008, 14:54
Premettendo che non mi frega della marca, ma guardo solo ilrisultato, leggevo i commenti di chi tira di qua e di la e di chi, come si diceva prima "lancia frecciatine".
Ma vi rendete conto di come si stanno mettendo le cose?
Una volta con 200carte ci si faceva una vga che come minimo t faceva giocare in tranquillita e almeno x piu di un anno, oggi sei fortunato se con 200 riesci a giocare a Crysis a 1280x1024....
Saranno belle ste schede, saranno potenti, saranno quel che vi pare ma io non ho 500 o piu euro. Si ok sn i modelli portavoce di un marchio, e che se le tengano a sti prezzi, ma e mai possibile che per poter giocare con tranquillita oggi come oggi c vuole un alimentatore bestiale, una vga che in estate rischia di friggere, una cpu tirata un dissipatore adeguato e magari prima di comprare la scheda video devo pure controllare il gioco a cui giochero' da quale casa e stato affiancato seno' rischio che poi non vada correttamente xke le scelte di marketing sn altre!
Il fatto e che nn c sn ne vincitori ne vinti, siamo solo delle marionette nelle loro mani, sanno che csn i gamers disposti a pagare!

Oltretutto x chi parla sempre e cmq a favore di un marchio, vorrei riportare l'attenzione di tutti sui record mondiali di 3dmark06, se notate un po la 8800 e la 2900 sn vicinissime come punteggi...
Detto cio' m sorge spontanea una domanda:
"Ma siamo sicuri che vi siano delle reali differenze o e solo una questione d driver?"
E soprattutto: "Un bel controllo antitrust no eh?" in genere in oligopolio non e possibile presentare sempre idee molto simili a distanza di poco tempo....
Saluti

Bè scusate ma se questo è vero, (ovvero la lotta tra 2900Xt e 8800 ultra al 3dmark) allora sì, concordo con chi dice che l'handicap sono solo i diriver o come sono stati programmati i giochi....

Tony.Montana
30-01-2008, 15:15
Bhà, l'unica cosa certa che sò è che la mia x1950xt, nonostante sia diventata ormai vecchiotta, è pur sempre una bomba di scheda e non mi dà mai problemi!

by_xfile™
31-01-2008, 21:14
Originariamente inviato da: mattix155
ke bel tostapane....apparte gli skerzi m aspettava qualkosa in piu da una soluzione del genere da parte d nvidia....avrei preferito una soluzione alla 3870x2,due gpu sullo stesso PCB
è per questo che preferisco ATI ;)

by_xfile™
31-01-2008, 21:34
io ho appena ordinato HD3870x2 spero che mi arrivi a breve :D
e neanche se me la regalano la vorrei una nvida , con tutte le rogne che mi a dato " vede retro nvida"

blackshard
31-01-2008, 21:53
beh molti di voi nn sembrano molto contenti di questa scelta da parte della nvidia....
avete dato un okkiata hai test della nuova x2 dell ati? la versione single gpu di questa nvidia tiene meravigliosamente testa alla nuova atix2 qnd raddoppaindo le gpu....beh.....ciao ati...

Cadiamo dalle nuvole?
Si parla di questo da un bel pezzo. Il fatto è che ATi non aveva un chip per la fascia high-end e per questo è stata costretta ad usare due chip su un'unica scheda per competere nella fascia altissima.


e il premio alla scheda piu potente va ankora alla nvidia(con il minimo sforzo oltre tutto visto che nn sono diventati pazzi ad inserire le due gpu su un unico pcb)

E secondo te quale è la soluzione migliore? Due pcb incollati assieme, con tutta la circuiteria di contorno duplicata, oppure due gpu su singola scheda senza la necessità di duplicare tutto il contorno?
IMHO sono due soluzioni di ripiego, ma giudico la proposta ATi molto più elegante.


...sono del parere che nn hanno optato per un unico pcb perche in futuro sanno gia che tireranno fuori una soluzione nn necessariamente migliore ma piu giusta secondo i loro obbiettivi....dopo tutto lo sviluppo di nuove architetture nn sono ricerche da qlc mese sono studi che surano anni.....

per concludere io confido in nvidia:D :D :D

Non hanno optato per un unico pcb perchè questa scheda è solo uno specchietto per le allodole. E forse anche per problemi di spazio/consumi/dissipazione. Resta il fatto che chi ha sale in zucca confronta 3870x2 e 8800GTX/Ultra, il bimbominkia che compra tutto al max con i soldi di papà prende l'aborto nvidia.

by_xfile™
31-01-2008, 22:01
prende l'aborto nvidia.
te la puoi tenete,
e son grande abbastanza da essere indipendente,
non mi servono gli spiccioli di papà per prendermi una SC video . ;)

Zannawhite
01-02-2008, 11:56
Anche io nel 3D sulla HD3870x2 ho chiesto delucidazione del perchè a 1280x1024 con un QX6850: clock 3GHz, bus quad pumped 1.333 MHz,

Sappiamo tutti che 2 core dormono, ma da qui a dire che 2core non riescono a tenere dietro a 2 Gpu?? :mbe:Qualcuno mi illumina, vorrei sinceramente capire se con il mio Q6600 a 2.4Ghz. sono Cpu limited.

safendi
01-02-2008, 12:13
Qualcuno mi illumina, vorrei sinceramnte capire se con il mio Q6600 a 2.4Ghz. sono Cpu limited.

io penso di si, ma anche con la 8800 secondo me. portalo almeno a 3.2 ghz che tanto ci arriva tranquillamente se è un g0,

Zannawhite
01-02-2008, 12:55
io penso di si, ma anche con la 8800 secondo me. portalo almeno a 3.2 ghz che tanto ci arriva tranquillamente se è un g0,Sì è un G0

Mi piacerebbe capire esattamente come può incidere 2.4@3.2Ghz. negli fps

Adesso lo tengo a 2.4Ghz. senza Speedstep e a 1.05volt quindi non scalda.

Keicchan
04-02-2008, 17:03
forse molti di voi dimenticano che la soluzione adottata ora da ATI non e' nulla di nuovo..

http://www.pcstats.com/articleimages/200503/Gigabyte3d1_opn.jpg

basta ricordare una nvidia geforce 6600gt dual ... prodotta da gigabyte

soluzione abbandonata quasi da subito.. la mia dfi LP 939 nel bios ancora riporta la voce da attivare per il funzionamento di questo tipo di skeda.

Eravamo agli antipodi dello sli e delle dual gpu...

DjLode
04-02-2008, 17:08
Rage Fury Maxx e Voodoo 5500. Questi sono gli albori non di certo la dual 6600 che di fatto è nata ieri l'altro.

SingWolf
06-02-2008, 16:42
Credo che sostituirò la mia gts acs3 edition con un paio di questi due mostri...
però credo che le gpu si surriscaldino troppo in quella posizione, non pensate ???

dileovalentino
19-02-2008, 21:38
magari non è un fake...pero quel filino azzurro tenuto con la colla a caldo effettivamente è strano......