View Full Version : NVIDIA GeForce 9800GX2 gioco al raddoppio
ThePunisher
19-03-2008, 07:59
per tutti quelli che stanno vacheggiando/aspettando una rece che vede contrapposte 9800gx2 con due 3870x2 in crossfire è gia uscito un bench che le fa vedere.
http://www.expreview.com/img/review/9800gx2/a3.png
e si tenga presente(oltre alla differenza di prezzo 550€ vs 700€)la presenza nel bench del 3d mark 2006 che diciamo inquina il risultato finale.
;)
ps per carità in attesa dell'analoga rece del nostro sito.
LOL! Very nice! Non mi spiego il risultato di Call of Juarez però... (stesso motore di Oblivion).
Samuele86
19-03-2008, 08:00
mah, non capisco cosa ti aspettavi...si sapeva da un tot che la gx2 sarebbe stata un semplice sli di gts512...non ci voleva mica la laurea a farsi di conti...va come uno sli di gts512 e costa uguale o meno che comprare due du queste ultime + mobo decente per lo sli...non dico che sia una scheda che il mercato richiedeva da tempo, anzi...però non riesco a concepire come la gente possa continuare a dire che è deludente, è esattamente quello che prometteva di essere, uno sli di gts 512...
beh mika tutti seguono i milioni di 3d presenti su hardware ke deve uscire...molti aspettano ke gli arrivi la mail e guardano le nuove notizie del giorno...
g.dragon
19-03-2008, 08:30
nn ho ben capito se è possibile mettere 3 di queste schede in parallelo(se è possibile senza calcolare il prezzo che supererebbe oltre i 1500)ma cosi facendo anche crysis schizzerebbe a valori incredibili con 6 gpu e 3 giga di ram(anche se buona parte di questa rimarebbe inutilizzata x molto tempo (quale gioco utilizza + di 512 mega xdxd??))cmq la mia domanda rimane la stessa è compatibile con il 3-sli???
halduemilauno
19-03-2008, 08:36
nn ho ben capito se è possibile mettere 3 di queste schede in parallelo(se è possibile senza calcolare il prezzo che supererebbe oltre i 1500)ma cosi facendo anche crysis schizzerebbe a valori incredibili con 6 gpu e 3 giga di ram(anche se buona parte di questa rimarebbe inutilizzata x molto tempo (quale gioco utilizza + di 512 mega xdxd??))cmq la mia domanda rimane la stessa è compatibile con il 3-sli???
si.
;)
uazzamerican
19-03-2008, 08:39
Che brutta strada è stata intrapresa.... O meglio, è stata propinata a noi utenti...
E poi molti di noi ridevano della inadeguatezza tecnica delle Voodoo-4 5 e 6 (?). Almeno allora per quella casa era l'unica strada percorribile e l'hanno fatto con coraggio...
Perchè ho la sensazione che gia abbiano nei lab schede per altre due generazioni piccole la metà, che consumano la metà e magari hanno prestazioni similari a sti mostri ?
AlexWolf
19-03-2008, 08:42
domandi per gli esperti:
io utilizzo un software per dimostrazioni 3d in realtime e avrei bisogno di uan scheda nvdia di ultimissima generazione ma so per certo che non sfrutterebbe la tecnologia SLI...a questo piunto mi viene da chiedermi se questa scheda essendo in realtà due accoppiate nello stesso Slot PCI-Ex, potrebbe fare al caso mio o se comunque non sfrutterei a pieno le sue potenzialità...
qualcuno puoi aiutarmi / sa rispondermi?
grazie e ciao!
Gabriyzf
19-03-2008, 08:57
quattro considerazioni.
1) nvidia col progetto g80 rivisto in tutte le salse sta facendo palate di miliardi, grazie esclusivamente alla incapacità di ati di proporre qualcosa di realmente superiore
2) la stagnazione nelle vga ormai dura da troppo tempo, ma tant'è, evidentemente g80 era veramente qualcosa di superiore
3) l'8800 gt è ancora la scelta migliore, visto che spesso sta davanti anche alla 3870x2, specie a risoluzioni umane (la maggior parte, come me, gioca ancora a 1280x1024) e probabilmente in futuro sarà ricordata come una delle vga che hanno fatto la storia, con un rapporto q/p e una longevità incredibili.
4) continuo a non capire perchè nvidia rilasci driver per la serie 9, che è architetturalmente identica alla serie 8 refresh, g92, per intenderci.
Considerando che con 300 e passa euro ti porti a casa una ps3 e con ancora meno una xbox 360 la vedo abbastanza inutile
domandi per gli esperti:
io utilizzo un software per dimostrazioni 3d in realtime e avrei bisogno di uan scheda nvdia di ultimissima generazione ma so per certo che non sfrutterebbe la tecnologia SLI...a questo piunto mi viene da chiedermi se questa scheda essendo in realtà due accoppiate nello stesso Slot PCI-Ex, potrebbe fare al caso mio o se comunque non sfrutterei a pieno le sue potenzialità...
qualcuno puoi aiutarmi / sa rispondermi?
grazie e ciao!
Non sono meglio le schede della serie Quadro? :confused:
Dovrebbero essere schede dedicate alla creazione di grafica 3D e non al gaming.
halduemilauno
19-03-2008, 09:28
quattro considerazioni.
1) nvidia col progetto g80 rivisto in tutte le salse sta facendo palate di miliardi, grazie esclusivamente alla incapacità di ati di proporre qualcosa di realmente superiore
2) la stagnazione nelle vga ormai dura da troppo tempo, ma tant'è, evidentemente g80 era veramente qualcosa di superiore
3) l'8800 gt è ancora la scelta migliore, visto che spesso sta davanti anche alla 3870x2, specie a risoluzioni umane (la maggior parte, come me, gioca ancora a 1280x1024) e probabilmente in futuro sarà ricordata come una delle vga che hanno fatto la storia, con un rapporto q/p e una longevità incredibili.
4) continuo a non capire perchè nvidia rilasci driver per la serie 9, che è architetturalmente identica alla serie 8 refresh, g92, per intenderci.
i punti 1 e 2 sono per quanto mi riguarda oro colato. il punto 3 forse intendevi dire 8800gts. in quanto ai driver è abitudine di nvidia dividerli per serie.
;)
Gabriyzf
19-03-2008, 09:33
i punti 1 e 2 sono per quanto mi riguarda oro colato. il punto 3 forse intendevi dire 8800gts. in quanto ai driver è abitudine di nvidia dividerli per serie.
;)
no, intendevo l'8800gt, come rapporto q/p il meglio che ci sia, imho.
per i driver, erano anni che erano unificati :mbe:
bonzuccio
19-03-2008, 10:28
Beh, allora io li leggo ancora in modo diverso : a crysis ( du palle ) invece, con un sli ci giochi eccome a 1680, cosa che non fai con una 3870x2 stando a quei frames... ;)
E 1680 è una risoluzione certamente più diffusa di 1920, visti i prezzi dei monitor 24' e la relativa diffusione a confronto coi più piccoli.
A 1680 hai 26hz di media per le dx10 e 38hz di media per le dx9
con 2 gtx in sli non ci giochi in dx9 ma hai bisogno della gx2,
nel caso invece delle dx10 non giochi con nessuna delle due, forse con 2 9800gx2 si riesce ad andare senza scatti
1000 euro
quattro considerazioni.
1) nvidia col progetto g80 rivisto in tutte le salse sta facendo palate di miliardi, grazie esclusivamente alla incapacità di ati di proporre qualcosa di realmente superiore
Pensa te che invece Ati sta proponendo R600 in tutte le salse. A detta di tutti R600 fa pietà eppure è ancora lì, e costringe tutte le volte Nvidia a proporre schede nuove con cui fare concorrenza ad Ati. Vista così fa tutt'altro effetto vero? ;)
2) la stagnazione nelle vga ormai dura da troppo tempo, ma tant'è, evidentemente g80 era veramente qualcosa di superiore
E se fosse che invece Nvidia è rimasta l'unica a credere in schede video di fascia alta mentre gli altri si stanno dedicando ad altri progetti? Se ti dico Fusion e Larrabee, fatti un giro, guarda cosa sono e vedi quante volte Nvidia compare nei progetti ;)
Se ti dico che è stata tagliata fuori completamente e sta cercando di farsi concorrenza da sola senza concorrenti che non hanno più voglia di investire, cambia la faccenda vero? ;)
Poi potete pure vederci il fatto che Nvidia è stra-iper-troppo-superiore a tutto il resto, io ci vedo solo il fatto che sta perdendo il treno del futuro, ma ovviamente ora mi darete del fanboy.
Pensa te che invece Ati sta proponendo R600 in tutte le salse. A detta di tutti R600 fa pietà eppure è ancora lì, e costringe tutte le volte Nvidia a proporre schede nuove con cui fare concorrenza ad Ati. Vista così fa tutt'altro effetto vero? ;)
E se fosse che invece Nvidia è rimasta l'unica a credere in schede video di fascia alta mentre gli altri si stanno dedicando ad altri progetti? Se ti dico Fusion e Larrabee, fatti un giro, guarda cosa sono e vedi quante volte Nvidia compare nei progetti ;)
Se ti dico che è stata tagliata fuori completamente e sta cercando di farsi concorrenza da sola senza concorrenti che non hanno più voglia di investire, cambia la faccenda vero? ;)
Poi potete pure vederci il fatto che Nvidia è stra-iper-troppo-superiore a tutto il resto, io ci vedo solo il fatto che sta perdendo il treno del futuro, ma ovviamente ora mi darete del fanboy.
Io ti do un bel quotone
MiKeLezZ
19-03-2008, 10:57
Pensa te che invece Ati sta proponendo R600 in tutte le salse. A detta di tutti R600 fa pietà eppure è ancora lì, e costringe tutte le volte Nvidia a proporre schede nuove con cui fare concorrenza ad Ati. Vista così fa tutt'altro effetto vero? ;)La realtà è che ATI nell'affanosa ricerca di competitività (fallita, secondo gli ultimi risultati del market share di VGA che vedono nvidia al 71% (http://www.hwupgrade.it/news/skvideo/quote-di-mercato-delle-gpu-desktop-a-favore-di-nvidia_24592.html)) sta svendendo le sue VGA di fascia alta-altissima a prezzi destinati a schede di fascia bassa. In effetti ha praticamente eliminato la sua fascia media e bassa.
Cosa succedesse se il 23 trovassimo le 8800GTS da 512MB nell'ovetto di Pasqua? Ecco, leggermente ingrandito, è più o meno quello che sta facendo ATI.
Te ci vedi un rilancio per il futuro? Io no.
Charlie-Brown
19-03-2008, 10:58
Bell'articolo, ho scelto anni fa HWupgrade come ref. per i suoi articoli come questo e mi sono spaventato quando stavate shiftando un pò troppo su giochi, e menate varie... bello vedere che le buone abitudini non vanno perse. ;)
Alessandro, alcuni spunti di miglioramento.
1. sarei curioso di vedere la piattaforma entusiast realistica più diffusa come si comporta, cioè 2 8800 GT in SLI. Questo sì sarebbe un bel paragone, specie in confronto alla singola Gt e rispondere anche al punto 2.
2. Costi ne vale la pena? Che ne dite di aggiungere una metrica Costi/benefici?
3. evidenziare lo status con le risoluzioni + diffuse ad oggi; lo "standard".
Salve!
:)
Phantom II
19-03-2008, 11:04
Scheda inutile per nVidia, che comunque non è nuova a uscite simili.
penso che se passa un mod ti sospenda... ci son già passato XD..... Per Ati se svende si vede che può permetterselo visto che per le finanze sono già messi male, evidentemente così ci guadagnano lo stesso........ o forse meglio guadagnare 100€ vendendo 100000 di pezzi o guadagnarne 50€ vendendo 1000000 di pezzi? Penso stiano facendo sti ragionamenti...
Cmq torno a dire che sulla slide di expreview la HD3870X2 fa 34 fps a 1680x1050 con 4xx aa (impostazioni immagino su high), qua fa 31fps a 1680x1050 senza aa e impostazioni high dx9
goldorak
19-03-2008, 11:12
La realtà è che ATI nell'affanosa ricerca di competitività (fallita, secondo gli ultimi risultati del market share di VGA che vedono nvidia al 71% (http://www.hwupgrade.it/news/skvideo/quote-di-mercato-delle-gpu-desktop-a-favore-di-nvidia_24592.html)) sta svendendo le sue VGA di fascia alta-altissima a prezzi destinati a schede di fascia bassa. In effetti ha praticamente eliminato la sua fascia media e bassa.
Cosa succedesse se il 23 trovassimo le 8800GTS da 512MB nell'ovetto di Pasqua? Ecco, leggermente ingrandito, è più o meno quello che sta facendo ATI.
Te ci vedi un rilancio per il futuro? Io no.
Ma se le schede ATI fanno tanto schifo rispetto alla schede Nvidia (a sentire parlare in molti), che necessita' ha quest'ultima di proporre schede di fascia alta a prezzi medi ? :fagiano:
Tanto la corona delle prestazioni e' in mano alla Nvidia, tanto gli hardcore gamers quelli che vogliono le prestazioni a tutti i costi comprano Nvidia, tanto quelli che non supportano i driver da schifo ATI comprano Nvidia.
Insomma chi e' che compra schede fallate da 180 € ATI ? Il mercato entry level non di certo, e quello degli hardcore gamers nemmeno quindi ? Che necessita' aveva la Nvidia di correre al riparo se le sue schede erano cosi' avanti alla concorrente mezzo morta da piu' di un anno ? :p
altra recensione... notare crysis :rolleyes:
http://www.overclockersclub.com/reviews/xfx_9800gx2/6.htm
goldorak
19-03-2008, 11:21
altra recensione... notare crysis :rolleyes:
http://www.overclockersclub.com/reviews/xfx_9800gx2/6.htm
Ma hanno usato il settaggio a medium, perche' non usano il high o very high ? :wtf:
Gabriyzf
19-03-2008, 11:23
E se fosse che invece Nvidia è rimasta l'unica a credere in schede video di fascia alta mentre gli altri si stanno dedicando ad altri progetti? Se ti dico Fusion e Larrabee, fatti un giro, guarda cosa sono e vedi quante volte Nvidia compare nei progetti ;)
Se ti dico che è stata tagliata fuori completamente e sta cercando di farsi concorrenza da sola senza concorrenti che non hanno più voglia di investire, cambia la faccenda vero? ;)
Poi potete pure vederci il fatto che Nvidia è stra-iper-troppo-superiore a tutto il resto, io ci vedo solo il fatto che sta perdendo il treno del futuro, ma ovviamente ora mi darete del fanboy.
non sono fanboy di nessuno dei due marchi ma solo del mio portafogli e in ati vedo una serie di errori nell'ultimo anno e mezzo, con rischi anche di fare una brutta fine finanziaria e di tirarsi dietro anche amd.
nvidia ha da tempo pronti i sostituti di g80-90 ma che motivo ha di tirarli fuori quando il suo unico concorrente non ha mezzi per superarla e le consente di guadagnare fette di mercato e utili su utili con il minimo sforzo?
la situazione attuale è questa, per il futuro vedremo...
altra recensione... notare crysis :rolleyes:
http://www.overclockersclub.com/reviews/xfx_9800gx2/6.htm
Si ma qui ognuno fa i suoi punteggi porca miseria, 40 fps li ho visti su 1600x1200 no AA e dettagli high e questi dicono che li fanno a dettagli medium a 1280x1024 quando io ne faccio poco meno alla stessa risoluzione a dettagli Very-High con la mia GTX. :muro:
Ma che stanno a dì?!?!? :doh:
Ma se di G100 non si sa neanche il nome o l'architettura.... alla faccia della serie già pronta.......
Per crysis non ti so spiegare come mai sia su medium però si vede bene che di divario non è che ce ne sia così tanto in tutti i giochi.....
Si ma qui ognuno fa i suoi punteggi porca miseria, 40 fps li ho visti su 1600x1200 no AA e dettagli high e questi dicono che li fanno a dettagli medium a 1280x1024 quando io ne faccio poco meno alla stessa risoluzione a dettagli Very-High con la mia GTX. :muro:
Ma che stanno a dì?!?!? :doh:
a me sorprendono i 43fps a 1680x1050, si toglie l'aa 2x e si mette su very high... si dovrebbe giocare credo a non 14fps come riportato da altri.....
sdjhgafkqwihaskldds
19-03-2008, 11:35
uhm si....è vero da oggi tutti giocano a 2560x1600 da quando regalano i monitor che lo vado a comprare proprio ora?:asd:
non è visualizzata la 1280 forse perchè non è adatta a questa scheda video?;)
Cmq Crysis a 1280 è uno spettacolo altro che le cazzate che spari tu....a è vero probabilmente giochi a 2560 scusa.
no ho una 7600gt, monitor 17", ali da 300w e case da mediacenter che userò credo per altri 2 anni viste le schifezze di giochi mirate al consumismo che stanno uscendo, il mio post era in chiave ironica :asd:
Gabriyzf
19-03-2008, 11:35
Ma se di G100 non si sa neanche il nome o l'architettura.... alla faccia della serie già pronta.......
vabbè, secondo te nvidia da quasi due anni non ha sviluppato più niente?
chissà che cosa avranno già preparato in gran segreto nei loro centri r&d in sostituzione di g80 e derivati...
goldorak
19-03-2008, 11:35
a me sorprendono i 43fps a 1680x1050, si toglie l'aa 2x e si mette su very high... si dovrebbe giocare credo a non 14fps come riportato da altri.....
Si ma in quella recensione hanno giocato con Crysis a medium. Lo sanno anche i sassi che il settaggio minimo per avere il Crysis e' l'opzione high (su shaders).
Con l'opzione medium (su shaders) Crysis e' solo un Far Cry migliorato.
Cavolo anch'io con la mia malandata 7900gs xxx riesco a giocarci con quei settaggi.
Per le schede top di gamma, Crysis va benchato rigorosamente con shaders su high (come minimo).
Futura12
19-03-2008, 11:36
Ma se di G100 non si sa neanche il nome o l'architettura.... alla faccia della serie già pronta.......
Per crysis non ti so spiegare come mai sia su medium però si vede bene che di divario non è che ce ne sia così tanto in tutti i giochi.....
uhm perchè secondo te Nvidia è stupida che ce lo viene a dire a noi....da mò che è completato il G100:doh:
sdjhgafkqwihaskldds
19-03-2008, 11:40
Ogni volta che viene fuori una scheda del genere sento sempre le solite ipocrisie:
1) VGA troppo costosa
2) VGA inutile
3) Sembra un carro funebre
4) Scalda troppo
5) Non vi sono innovazioni
6) Se la potevano risparmiare
7) Che delusione
ecc
:asd:
il commento più bello fin ora è quello di mikelezz che la paragona ad un UNI 5628-65 con connessione PCI-e
@kuru
:asd:
ho visto cos'e' l'uni ecc.ecc.:D
leoneazzurro
19-03-2008, 11:47
come da titolo: in vendita su xxx :)
prezzo ottimo se mi contattate... ;)
questa e la mia proposta in privato...
ma prima di chiedere pagamenti ecc..ecc.. mi devi darere la conferma che ti interessa cosi informo il mio rivenditore e se ne ha ancora disponibili la metto da parte per te .
mi dai i recapiti telefonici indirizzo ecc... effettui una ricarica postepay e io la compro e la faccio spedire da te .
contattatemi in privato se interessati
Visto che non si rispettano le più elementari regole, il BAN è d'obbligo.
gbonotti
19-03-2008, 11:50
altra recensione... notare crysis :rolleyes:
http://www.overclockersclub.com/reviews/xfx_9800gx2/6.htm
"This game is one of the most anticipated and system intensive games to be released to the gaming community"
A differenza di quanto, in molti pensano, io credo invece che crysis sia sviluppato male.
La sua pesantezza non credo derivi dal suo dettaglio grafico,paragonatelo a bioshock e COD4, e vedrete che questi ultimi hanno poco da invidiare al tanto declamto titolo crytek.
Dopo l'uscita di questo mostro di scheda da 550€, che lo fa girare "benino" al massimo dettaglio, credo di aver avuto conferma ai miei sospetti di vecchia data.
Sono contento di averne spesi meno della metà per la mia 8800 GTS 512,che mi permette di giocare al massimo con ogni titolo e benino a crysis (scendendo a qualche compromesso)
byez
"This game is one of the most anticipated and system intensive games to be released to the gaming community"
A differenza di quanto, in molti pensano, io credo invece che crysis sia sviluppato male.
La sua pesantezza non credo derivi dal suo dettaglio grafico,paragonatelo a bioshock e COD4, e vedrete che questi ultimi hanno poco da invidiare al tanto declamto titolo crytek.
Dopo l'uscita di questo mostro di scheda da 550€, che lo fa girare "benino" al massimo dettaglio, credo di aver avuto conferma ai miei sospetti di vecchia data.
Sono contento di averne spesi meno della metà per la mia scheda in firma,che mi permette di giocare al massimo con ogni gioco e benino a crysis (scendendo a qualche compromesso)
byez
io aspetto farcry 2... ok magari non avrà grafica ultramegaqualità come crysis ma magari sarà più giocabile :D
yume the ronin
19-03-2008, 11:56
io invece ritengo sempre più probabile l' acquisto di questa vga, magari nn subito, anche perchè nn se ne avverte la necessità per ora non essendoci giochi da "tirar a manetta"
però per me che ho l' x38 e voglio sfruttare il mio monitor 1920*1200 mi sembra un' ottima possibilità di passare alle più performanti e supportate schede nvidia, addirittura con uno "sli"
non la vedo inutile, ma solo molto costosa per quanto possa rendere coi giochi odierni
Evangelion01
19-03-2008, 11:58
"This game is one of the most anticipated and system intensive games to be released to the gaming community"
A differenza di quanto, in molti pensano, io credo invece che crysis sia sviluppato male.
La sua pesantezza non credo derivi dal suo dettaglio grafico,paragonatelo a bioshock e COD4, e vedrete che questi ultimi hanno poco da invidiare al tanto declamto titolo crytek.
Dopo l'uscita di questo mostro di scheda da 550€, che lo fa girare "benino" al massimo dettaglio, credo di aver avuto conferma ai miei sospetti di vecchia data.
Sono contento di averne spesi meno della metà per la mia scheda in firma,che mi permette di giocare al massimo con ogni gioco e benino a crysis (scendendo a qualche compromesso)
byez
Quoto. Chi ha una 8800 dalla gt 512 in su può tranquillamente aspettare il prossimo treno. :)
Futura12
19-03-2008, 12:00
Quoto. Chi ha una 8800 dalla gt 512 in su può tranquillamente aspettare il prossimo treno. :)
io pure aspetto la prossima fermata:asd: senza GT:p
ghiltanas
19-03-2008, 12:02
Quoto. Chi ha una 8800 dalla gt 512 in su può tranquillamente aspettare il prossimo treno. :)
:mano:
dio mio che scheda inutile!!! questa scheda era x sostituire le gtx e le ultra....ma chi le possiede fa prima a farsi uno sli con quelle...visto che vanno anche di più LOL (e che spende la metà ASD)
La realtà è che ATI nell'affanosa ricerca di competitività (fallita, secondo gli ultimi risultati del market share di VGA che vedono nvidia al 71% (http://www.hwupgrade.it/news/skvideo/quote-di-mercato-delle-gpu-desktop-a-favore-di-nvidia_24592.html)) sta svendendo le sue VGA di fascia alta-altissima a prezzi destinati a schede di fascia bassa. In effetti ha praticamente eliminato la sua fascia media e bassa.
Cosa succedesse se il 23 trovassimo le 8800GTS da 512MB nell'ovetto di Pasqua? Ecco, leggermente ingrandito, è più o meno quello che sta facendo ATI.
Te ci vedi un rilancio per il futuro? Io no.
Non vedo un rilancio nell'immediato futuro in quanto il mercato schede video per pc è per ammissione di molti in netto calo, ristagnazione. Ecco perchè vedo un futuro (sempre che ci arrivi a livello monetario :asd: ) nel 2009 o giù di lì roseo per Fusion (sempre che arrivi in tempo e a costi accessibili).
Per il resto è vero che Ati ha svenduto (usciamo questo termine anche se è difficile che sia andata in netta perdita sul progetto) le sue schede, ma ha costretto Nvidia a fare lo stesso. Poi che il progetto G80 (e derivati) sia più convincente, io non lo metto in dubbio. Ma è anche vero che fino a qualche tempo fa con 200€ non ti compravi certo schede paragonabili a quelle attuali. E se non ci fosse stata Ati con le sue svendite, forse ce le scordavamo per un altro bel pò.
Poi io non ho la sfera magica, ma se il progetto Fusion/Larrabee dovesse avere riscontri sufficientemente alti, Nvidia si troverebbe di fatto tagliata fuori. Vediamo poi se il futuro sarà o meno roseo :)
Drakon99
19-03-2008, 12:09
Dall'articolo:
"notiamo come invece sia salito a 128 il numero degli stream processor per ogni GPU, il cui numero è limitato a 112 nella versione GeForce 8800 GT. Più che ad un aumento degli stream processor però, è facile ipotizzare che nel chip in versione GeForce 8800 GT ne siano stati disabilitati 16"
Vi risulta che il G92 dell'8800GT abbia 128 SP di cui 16 sono disabilitati?
Se si, esiste una procedura per abilitarli? Sarebbe interessante.... :D :D
Futura12
19-03-2008, 12:10
dio mio che scheda inutile!!! questa scheda era x sostituire le gtx e le ultra....ma chi le possiede fa prima a farsi uno sli con quelle...visto che vanno anche di più LOL (e che spende la metà ASD)
secondo me fa prima a tenersene una sola:asd: chi ha preso la GTS 640 e la GTX quando sono uscite ha svoltato....1 anno e mezzo e ancora spingono a manetta....tutti i giochi:read:
La Ultra la considero solo una mezza follia
non sono fanboy di nessuno dei due marchi ma solo del mio portafogli e in ati vedo una serie di errori nell'ultimo anno e mezzo, con rischi anche di fare una brutta fine finanziaria e di tirarsi dietro anche amd.
Ripeto che Ati ha di fatto abbassato la soglia del rapporto prezzo/prestazioni. Se la vedi una cosa negativa :)
nvidia ha da tempo pronti i sostituti di g80-90 ma che motivo ha di tirarli fuori quando il suo unico concorrente non ha mezzi per superarla e le consente di guadagnare fette di mercato e utili su utili con il minimo sforzo?
la situazione attuale è questa, per il futuro vedremo...
Sei veramente sicuro che Nvidia o chi per lei abbia pronto qualcosa con cui sostituire G80/G92? Segui il discorso. Ho un prodotto convincente (G80) e in saccoccia il suo successore. Già il primo è superiore alla concorrenza, il secondo magari ancora di più. Per ammazzare la concorrenza non credi convenga tirare fuori il secondo prodotto? Oppure ritieni più conveniente far passare del tempo proponendo die shrink dello stesso e dando il tempo alla concorrente di progettare/riprogettare/correggere e alzare il tiro della sua prossima gpu?
...Ho un prodotto convincente (G80) e in saccoccia il suo successore. Già il primo è superiore alla concorrenza, il secondo magari ancora di più. Per ammazzare la concorrenza non credi convenga tirare fuori il secondo prodotto? Oppure ritieni più conveniente far passare del tempo proponendo die shrink dello stesso e dando il tempo alla concorrente di progettare/riprogettare/correggere e alzare il tiro della sua prossima gpu?
Io credo che preferire avere un competitor sufficientemente debole da poter seguire (e magari anticipare) le sue mosse con facilità, piuttosto che uno morto che possa essere acquisito da qualcuno potenzialmente molto più pericoloso, con più soldi e più possibilità.
i risultati della 3870x2 sono strani per essere ottenuti su quella configurazione con gli 8.3...
Alessio73
19-03-2008, 13:28
non le leggo 30 pagine di commenti, però già arrivando alla 3a vedo molte persone con l'idea chiara in mente....
meno male, qualcuno ancora si salva....
nvidia sta lavorando male male male
una 9800Gtx IDENTICA alla 8800GTS, se non per il connettore SLI per i fortunati possessori dei SUOI chipset.
la 9800x2 in sli da problemi sui chipset INTEL.... tralaltro.....
Assurdo Assurdo, si vede che hanno fatto i conti, gli conviene vendere più chipset e meno schede video... perchè non aprendo lo SLI ad intel ne vendono meno sicuramente.
Infatti molti si trovano benissimo con le soluzioni intel P35 X38 e ICH9R etc. e magari al calar dei prezzi una nuova 8800 da abbinare per provare più che altro mica perchè ne VALGA la pena, visto che sono anni che esistono soluzioni dual scheda video, e ancora non riescono a sfruttarle a dovere, SOMARI.
In più ci vuole un LAUREATO per fare le puttanate che fanno!!
la 9800 gtx potevano farla 384bit e 768MB però dopo andava più veloce di brutto della stupida 9800gx2 quindi l'hanno fatta uguale alla 8800gts.
Bho assurdo è assurdo
Deve avvenire l'evoluzione che è avvenuta nei processori
tra il P4 e il CoreDuo, prestazioni superiori e consumo calore NETTAMENTE inferiori.
Venduti a frequenze rilassate, non tirate per il collo, e crash per temperature e altre problematiche....
Efficenza architetturale, non obbrobri di accoppiamenti vari.
ASSURDO, Nvidia con la 8800 ha voluto spremere fino all'ultimo penny complimenti!
SPERO NON LA COMPRI NESSUNO.
non le leggo 30 pagine di commenti, però già arrivando alla 3a vedo molte persone con l'idea chiara in mente....
meno male, qualcuno ancora si salva....
nvidia sta lavorando male male male
una 9800Gtx IDENTICA alla 8800GTS, se non per il connettore SLI per i fortunati possessori dei SUOI chipset.
la 9800x2 in sli da problemi sui chipset INTEL.... tralaltro.....
Assurdo Assurdo, si vede che hanno fatto i conti, gli conviene vendere più chipset e meno schede video... perchè non aprendo lo SLI ad intel ne vendono meno sicuramente.
Infatti molti si trovano benissimo con le soluzioni intel P35 X38 e ICH9R etc. e magari al calar dei prezzi una nuova 8800 da abbinare per provare più che altro mica perchè ne VALGA la pena, visto che sono anni che esistono soluzioni dual scheda video, e ancora non riescono a sfruttarle a dovere, SOMARI.
In più ci vuole un LAUREATO per fare le puttanate che fanno!!
la 9800 gtx potevano farla 384bit e 768MB però dopo andava più veloce di brutto della stupida 9800gx2 quindi l'hanno fatta uguale alla 8800gts.
Bho assurdo è assurdo
Deve avvenire l'evoluzione che è avvenuta nei processori
tra il P4 e il CoreDuo, prestazioni superiori e consumo calore NETTAMENTE inferiori.
Venduti a frequenze rilassate, non tirate per il collo, e crash per temperature e altre problematiche....
Efficenza architetturale, non obbrobri di accoppiamenti vari.
ASSURDO, Nvidia con la 8800 ha voluto spremere fino all'ultimo penny complimenti!
SPERO NON LA COMPRI NESSUNO.
nvidia non è mica la caritas... pensano ai soldi come tutti :D
Vittorio_1987
19-03-2008, 13:38
nvidia non è mica la caritas... pensano ai soldi come tutti :D
eh non lo vogliono capire:D
Marko#88
19-03-2008, 13:41
beh mika tutti seguono i milioni di 3d presenti su hardware ke deve uscire...molti aspettano ke gli arrivi la mail e guardano le nuove notizie del giorno...
e allora non si dice che è deludente se non ci si aspetta nulla...se si seguono i 3d ufficiali si sa cosa aspettarsi bene o male...se non si seguono è inutile dire che è deludente visto che nvidia ha semplicemente rispettato ciò che già si sapeva...se poi uno non lo sapeva affari suoi...si può dire che costa troppo per le proprie tasche, che è una scheda inutile...ma non deludente visto che non fa ne più ne meno di quello che prometteva...;)
Vittorio_1987
19-03-2008, 13:42
e allora non si dice che è deludente se non ci si aspetta nulla...se si seguono i 3d ufficiali si sa cosa aspettarsi bene o male...se non si seguono è inutile dire che è deludente visto che nvidia ha semplicemente rispettato ciò che già si sapeva...se poi uno non lo sapeva affari suoi...si può dire che costa troppo per le proprie tasche, che è una scheda inutile...ma non deludente visto che non fa ne più ne meno di quello che prometteva...;)
ciao marco, oggi sei in forma:D
Marko#88
19-03-2008, 13:44
ciao marco, oggi sei in forma:D
appena tornato da scuola, mi devo ancora riprendere del tutto...:asd:
goldorak
19-03-2008, 13:47
nvidia non è mica la caritas... pensano ai soldi come tutti :D
eh non lo vogliono capire:D
Idem per la Intel nel campo processori, pero' almeno lei se e' accorta del vicolo cieco dell'architettura Netburst ed ha dato un taglio netto col passato introducendo una architettura realmente rivoluzionaria con enormi guadagni a tutti i livello rispetto al p4.
Alla Nvidia invece continuano iperterriti sulla strada Netburst a livello grafico.
Una scheda grafica che da sola consuma piu' di un intero pc :nonsifa:
Vittorio_1987
19-03-2008, 13:59
Idem per la Intel nel campo processori, pero' almeno lei se e' accorta del vicolo cieco dell'architettura Netburst ed ha dato un taglio netto col passato introducendo una architettura realmente rivoluzionaria con enormi guadagni a tutti i livello rispetto al p4.
Alla Nvidia invece continuano iperterriti sulla strada Netburst a livello grafico.
Una scheda grafica che da sola consuma piu' di un intero pc :nonsifa:
Si vede che non tutti gli utenti si fanno i nostri problemi e quindi c'è qualcuno che compra queste schede facendo guadagnare la nvidia che, accontentandosi, non si concentra sulla produzione di prodotti sufficientemente rivoluzionari:D ps vado a pranzo:D
mussosel79
19-03-2008, 14:09
questa scheda grafica mi delude parecchio pensavo qualcosa di nuovo invece vedo solo un restaling della 8800gts senza grossi miglioramenti , pensavo che la nuova 9800gx2 fosse qualcosa di inniovativo inve hanno preso due schede e le hanno messe in sli .
dopo vedendo il dissipatore e la mole della scheda siamo pazzi , stanno diventando sempre più grandi queste schede video e sopratutto il prezzo mi sembra molto alto per le prestazioni che mi dà
halduemilauno
19-03-2008, 14:12
Idem per la Intel nel campo processori, pero' almeno lei se e' accorta del vicolo cieco dell'architettura Netburst ed ha dato un taglio netto col passato introducendo una architettura realmente rivoluzionaria con enormi guadagni a tutti i livello rispetto al p4.
Alla Nvidia invece continuano iperterriti sulla strada Netburst a livello grafico.
Una scheda grafica che da sola consuma piu' di un intero pc :nonsifa:
ma intel con quella tecnologia non era competitiva con amd e quindi ha dovuto cambiare. nvidia è tutt'ora competitivissima gli è bastato mettere due chip g92 refresh di g80 di 16 mesi fa et voila il gioco è stato fatto. nvidia il suo core duo è gia in scaletta.
halduemilauno
19-03-2008, 14:16
questa scheda grafica mi delude parecchio pensavo qualcosa di nuovo invece vedo solo un restaling della 8800gts senza grossi miglioramenti , pensavo che la nuova 9800gx2 fosse qualcosa di inniovativo inve hanno preso due schede e le hanno messe in sli .
dopo vedendo il dissipatore e la mole della scheda siamo pazzi , stanno diventando sempre più grandi queste schede video e sopratutto il prezzo mi sembra molto alto per le prestazioni che mi dà
quale restilyng e grossi miglioramenti? la 9800gx2 è esattamente due 8800gts512 messe insieme. stop. due 8800gts512 vengono 550€ ed ecco la 9800gx2 a 550€ con il vantaggio di poter esser montata su tutte le schede madri del mondo.
Marko#88
19-03-2008, 14:19
quale restilyng e grossi miglioramenti? la 9800gx2 è esattamente due 8800gts512 messe insieme. stop. due 8800gts512 vengono 550€ ed ecco la 9800gx2 a 550€ con il vantaggio di poter esser montata su tutte le schede madri del mondo.
ormai non conta più nulla dirlo, l'avrò già detto anch'io due o tre volte...qua sembra che il mondo si aspettasse la vga del secolo...:muro:
goldorak
19-03-2008, 14:23
ma intel con quella tecnologia non era competitiva con amd e quindi ha dovuto cambiare. nvidia è tutt'ora competitivissima gli è bastato mettere due chip g92 refresh di g80 di 16 mesi fa et voila il gioco è stato fatto. nvidia il suo core duo è gia in scaletta.
Beh che non fosse competitiva restava da vedere. Anche con la grafica integrata Intel non e' competitiva (a livello prestazionale) ma vende piu' di Ati e Nvidia messe insieme. :p
Quindi non sono le prestazioni o meglio la mancaza di prestazioni dei p4 in confronto agli A64 ad avere spinto Intel alla ricerca di una nuova architettura. ;)
Beh se mettere x chip in sandwich significa essere competitiva non vedo l'ora di vedere l'equivalente della voodoo 5 6000. :sofico:
Non e' questa la strada per l'aumento delle prestazioni, magari non darai un peso alle mie parola ma Carmack che non e' proprio l'ultimo arrivato si e' espresso tanto volte contro le soluzioni multigpu. Secondo lui questa tendenza a aggregare gpu non e' ne' piu' ne' meno come allungare la pipeline nel p4 per poter scalare in frequenza. Poco importa se i consumi andavano alle stelle, se la prestazioni erano inferiore ai p3 etc... E una scelta sbagliata.
halduemilauno
19-03-2008, 14:23
ormai non conta più nulla dirlo, l'avrò già detto anch'io due o tre volte...qua sembra che il mondo si aspettasse la vga del secolo...:muro:
loro stanno li a vedere il colore, la forma. poi tutti detrattori dello sli ora tutti qui a dire non comprate questa fatevi lo sli.
curioso.
;)
halduemilauno
19-03-2008, 14:25
Beh che non fosse competitiva restava da vedere. Anche con la grafica integrata Intel non e' competitiva (a livello prestazionale) ma vende piu' di Ati e Nvidia messe insieme. :p
Quindi non sono le prestazioni o meglio la mancaza di prestazioni dei p4 in confronto agli A64 ad avere spinto Intel alla ricerca di una nuova architettura. ;)
Beh se mettere x chip in sandwich significa essere competitiva non vedo l'ora di vedere l'equivalente della voodoo 5 6000. :sofico:
Non e' questa la strada per l'aumento delle prestazioni, magari non darai un peso alle mie parola ma Carmack che non e' proprio l'ultimo arrivato si e' espresso tanto volte contro le soluzioni multigpu. Secondo lui questa tendenza a aggregare gpu non e' ne' piu' ne' meno come allungare la pipeline nel p4 per poter scalare in frequenza. Poco importa se i consumi andavano alle stelle, se la prestazioni erano inferiore ai p3 etc... E una scelta sbagliata.
netburst, p4 parlavi di cpu. e io ho citato il tuo esempio di cpu. che centra la grafica integrata di intel se qui si sta parlando di schede video.
leoneazzurro
19-03-2008, 14:28
Non vedo un rilancio nell'immediato futuro in quanto il mercato schede video per pc è per ammissione di molti in netto calo, ristagnazione. Ecco perchè vedo un futuro (sempre che ci arrivi a livello monetario :asd: ) nel 2009 o giù di lì roseo per Fusion (sempre che arrivi in tempo e a costi accessibili).
Per il resto è vero che Ati ha svenduto (usciamo questo termine anche se è difficile che sia andata in netta perdita sul progetto) le sue schede, ma ha costretto Nvidia a fare lo stesso. Poi che il progetto G80 (e derivati) sia più convincente, io non lo metto in dubbio. Ma è anche vero che fino a qualche tempo fa con 200€ non ti compravi certo schede paragonabili a quelle attuali. E se non ci fosse stata Ati con le sue svendite, forse ce le scordavamo per un altro bel pò.
Poi io non ho la sfera magica, ma se il progetto Fusion/Larrabee dovesse avere riscontri sufficientemente alti, Nvidia si troverebbe di fatto tagliata fuori. Vediamo poi se il futuro sarà o meno roseo :)
E' abbastanza OT, ma si vocifera che Nvidia voglia acquistare VIA che ha nel suo carnet di prodotti anche le CPU.
goldorak
19-03-2008, 14:39
E' abbastanza OT, ma si vocifera che Nvidia voglia acquistare VIA che ha nel suo carnet di prodotti anche le CPU.
Si ma si dice anche che Via non sia in procinto di rinnovare gli accordi per la licenza x86. E senza la licenza x86 mi chiedo cosa se ne fa la Nvidia della Via.
Non la potra' usare per entrare nel mercato delle cpu x86 ad alta prestazioni dove ci sono gia' due pesi massimi intel ed amd.
io invece ritengo sempre più probabile l' acquisto di questa vga, magari nn subito, anche perchè nn se ne avverte la necessità per ora non essendoci giochi da "tirar a manetta"
però per me che ho l' x38 e voglio sfruttare il mio monitor 1920*1200 mi sembra un' ottima possibilità di passare alle più performanti e supportate schede nvidia, addirittura con uno "sli"
non la vedo inutile, ma solo molto costosa per quanto possa rendere coi giochi odierni
se devi aspettare tanto vale che aspetti R700 spendi meno e "probabilmente" le prestazioni sono identiche se non superiori e migliori upgrade per il tipo di chipset che hai
:rotfl: :rotfl: :asd: ma LOL! Ma che cos'è??? ahahahha :rotfl: quto al 99% colui ke la paragonava ad un armandio... Perkè a me assomiglia + ad un tostapane :asd: poi con quello ke costa... c'è un tipo che ha detto che con 2 8800 gt hai prestazioni simili! QUOTO! intorno a 400€! é quello che farò io, infatti!
leoneazzurro
19-03-2008, 14:50
Si ma si dice anche che Via non sia in procinto di rinnovare gli accordi per la licenza x86. E senza la licenza x86 mi chiedo cosa se ne fa la Nvidia della Via.
Non la potra' usare per entrare nel mercato delle cpu x86 ad alta prestazioni dove ci sono gia' due pesi massimi intel ed amd.
Se l'acquisizione viene fatta in tempo utile, credo che la prima cosa che farà VIA sarà rinnovare la licenza. (Che poi, con cosa farebbe soldi VIA, visto che anche nei chipset è andata decisamente in ribasso, per usare un eufemismo...)
yume the ronin
19-03-2008, 14:50
se devi aspettare tanto vale che aspetti R700 spendi meno e "probabilmente" le prestazioni sono identiche se non superiori e migliori upgrade per il tipo di chipset che hai
e c' hai ragione anche tu, però qui mi sa di cane che si rincorre la coda, sto benedetto r700 dovrebbe arrivare a metà 2008, ma son sempre dei "forse" aggiunti a informazioni teorico-nebulose
bho, il desiderio di veder finalmente sfruttata la risoluzione 1920 mi rosicchia le caviglie, ma la sensazione di comprare un qualcosa che non è altro che un "misero" palliativo non mi abbandona più dal tempo dell' acquisto della 1950xtx :(
E' abbastanza OT, ma si vocifera che Nvidia voglia acquistare VIA che ha nel suo carnet di prodotti anche le CPU.
Lo so, l'ho letto qualche giorno fa e oggi su HwUp. E infatti ho commentato pure la news :)
Come detto avevo previsto (ma è logica non di certo chiaroveggenza) che per rimanere sul treno architettura cpu/gpu unificate, Nvidia non aveva grandi alternative e forse l'unica abbordabile è Via.
:rotfl: :rotfl: :asd: ma LOL! Ma che cos'è??? ahahahha :rotfl: quto al 99% colui ke la paragonava ad un armandio... Perkè a me assomiglia + ad un tostapane :asd: poi con quello ke costa... c'è un tipo che ha detto che con 2 8800 gt hai prestazioni simili! QUOTO! intorno a 400€! é quello che farò io, infatti!
anche meno le vendono a 180 neuri le 8800gt :D
Meglio 2 8800GTX dato che ora si trovano a 250 euro
halduemilauno
19-03-2008, 16:19
Meglio 2 8800GTX dato che ora si trovano a 250 euro
mo vaje a spiegà che serve la mamma sli.
Meglio 2 8800GTX dato che ora si trovano a 250 euro
... Ma perche'? Prendi 2 8800GTS a sto punto no? Vanno di piu'...
Vittorio_1987
19-03-2008, 16:31
mmm è bello notare come i commenti siano sempre diversi in questa discussione:mbe:
Be' la 8800GTS ha PP a 65nm invece che 90 come la GTX, adesso nn ricordo i bench, pero' mi sembra che vadano praticamente uguali... Poi, come sempre, potrei sbagliarmi
Marko#88
19-03-2008, 17:22
loro stanno li a vedere il colore, la forma. poi tutti detrattori dello sli ora tutti qui a dire non comprate questa fatevi lo sli.
curioso.
;)
Fin troppo vero...:)
Meglio 2 8800GTX dato che ora si trovano a 250 euro
Eccolo, un altro che non considera tutto e generalizza, come molti altri del resto...:doh:
mo vaje a spiegà che serve la mamma sli.
:asd:
chi si accontenta gode, a me una 8800gts 640 basta e avanza...
mi gustero' sta scheda almeno per tutto il 2008. :D
fino a che non cambio monitor!!!
Evangelion01
19-03-2008, 18:26
... Ma perche'? Prendi 2 8800GTS a sto punto no? Vanno di piu'...
In alcuni giochi va di più la gts, in altri la gtx...
con la differenza che tutte le vga con 512 mb di vram compresa la 9800gx2 saranno vram-limited più rapidamente, a differenza di quelle da 768 come la gtx o da 1 gb, come la 8800gt ( che però è meno bilanciata come potenza rispetto la gtx-ultra ) ;)
Questo lo si può vedere già oggi con i risultati di world in conflict, e la tendenza dei giochi è ovviamente quellla di necessitare di sempre maggiore ram video.
Potrei anche sbagliarmi, ma son sicuro che il tempo mi darà ragione. :)
Evangelion01
19-03-2008, 18:27
:rotfl: :rotfl: :asd: ma LOL! Ma che cos'è??? ahahahha :rotfl: quto al 99% colui ke la paragonava ad un armandio... Perkè a me assomiglia + ad un tostapane :asd: poi con quello ke costa... c'è un tipo che ha detto che con 2 8800 gt hai prestazioni simili! QUOTO! intorno a 400€! é quello che farò io, infatti!
Quel tipo ero io.. :D e due gt costano 350€ non 400... ;)
Futura12
19-03-2008, 18:33
In alcuni giochi va di più la gts, in altri la gtx...
con la differenza che tutte le vga con 512 mb di vram compresa la 9800gx2 saranno vram-limited più rapidamente, a differenza di quelle da 768 come la gtx o da 1 gb, come la 8800gt ( che però è meno bilanciata come potenza rispetto la gtx-ultra ) ;)
Questo lo si può vedere già oggi con i risultati di world in conflict, e la tendenza dei giochi è ovviamente quellla di necessitare di sempre maggiore ram video.
Potrei anche sbagliarmi, ma son sicuro che il tempo mi darà ragione. :)
secondo me ti sbagli....o almeno lo spero per la mia vga:sofico: se poi parli di 1680 ecc allora ti do ragione....ma a me non interessa:Prrr:
Evangelion01
19-03-2008, 18:38
secondo me ti sbagli....o almeno lo spero per la mia vga:sofico: se poi parli di 1680 ecc allora ti do ragione....ma a me non interessa:Prrr:
Beh, certo tutto il discosro è ovviamente legato alla risoluzione , ma chi ha schede top di gamma vorrà ovviamente utilizzarle a risoluzioni elevate, sarebbe assurdo prendersi una gx2 per giocare a 1280x768... :)
Futura12
19-03-2008, 18:41
Beh, certo tutto il discosro è ovviamente legato alla risoluzione , ma chi ha schede top di gamma vorrà ovviamente utilizzarle a risoluzioni elevate, sarebbe assurdo prendersi una gx2 per giocare a 1280x768... :)
chiaramente;)
Alessio73
19-03-2008, 18:49
non dico che nvidia è la caritas
ovvio che cerchi di guadagnare
però questa serie di schede soprattutto le 9800 sono una presa in giro, secondo me.
da evitare proprio per PREMIARE eventuali mosse più corrette ed equilibrate, per non incentivare le minestre riscaldate sotto altri nomi.
cmq. hanno ragione loro se noi compriamo... se noi non compriamo hanno torto... cerchiamo di documentarci sempre prima di un acquisto, visto che ormai farlo è semplice...
Ma scusate, nessuno ha pensato al fatto che con questa scheda si possono fare configurazioni esa-sli? :stordita: :eek: :sofico:
Beh, certo tutto il discosro è ovviamente legato alla risoluzione , ma chi ha schede top di gamma vorrà ovviamente utilizzarle a risoluzioni elevate, sarebbe assurdo prendersi una gx2 per giocare a 1280x768... :)
Tu pensa che io gioco a 1024 :asd:
A me non e' mai importato molto dei dettagli grafici, ma se compro una scheda ne compro una che duri un po' :) (salvo eccezioni legate alla compatibilita' con la scheda madre, vedi in mia firma (avevo una Asrock 775Dual-880Pro :( ))
Ma scusate, nessuno ha pensato al fatto che con questa scheda si possono fare configurazioni esa-sli? :stordita: :eek: :sofico:
Lo so, 6 GTX o GTS in SLI usando il triple SLI :D
michelgaetano
19-03-2008, 18:56
Non si era detto che erano max 4 schede, quindi 2 9800GX2? :stordita:
Marko#88
19-03-2008, 19:02
Non si era detto che erano max 4 schede, quindi 2 9800GX2? :stordita:
se prendi una scheda madre triple sli diventan sei...ma dubito che i driver supportino bene sta cosa, già 4 non sono supportate al meglio...e a volte nemmeno due a dire il vero...:asd:
michelgaetano
19-03-2008, 19:21
se prendi una scheda madre triple sli diventan sei...ma dubito che i driver supportino bene sta cosa, già 4 non sono supportate al meglio...e a volte nemmeno due a dire il vero...:asd:
concordo, imo implode :sofico:
che poi la ram rimane praticamente 512?! è uno schifo!
Quel tipo ero io.. e due gt costano 350 non 400... Bè nel mio caso per esattezza vengono 460 (230 + 230) perchè sono 2 8800 gt amp edition, se ne vuoi 2 normali ci stai dentro a 350€! sisi! :D
Io penso che i giochi che offrono prestazioni valide dai 1920 in su sono già vecchi.
Ho il presentimento che la nuova generazione di videogames metterà alle corde anche questo "panino" di vga. Temo che questa nuova generazione si avvicinerà sempre più a crysis come dettaglio grafico e interazione con l'ambiente.
...E ormai sappiamo bene che costo ha tale abbondanza di "realismo", in termini di hw. Basta vedere come si comporta la gx2 in World in Conflict (per non parlare di 3870x2 e le altre), forse l'unico game del lotto che più si avvicina a crysis come "realismo generale".
Samuele86
20-03-2008, 00:10
Bè nel mio caso per esattezza vengono 460 (230 + 230) perchè sono 2 8800 gt amp edition, se ne vuoi 2 normali ci stai dentro a 350€! sisi! :D
ma direi anke 300€ e sono zotac....comprese spese di spedizione.
E' tutta una presa per i fondelli, x2, x4, x6??? Se invece di comprare il modello successivo si comprasse a step di 2, le aziende sarebbero obbligate a sfornare modelli veramente più prestanti e non x2 al raddoppio delle frequenze e di tutto il materiale usato per l'assemblaggio...Già non sopportavo la HD3870x2 ma questa rasenta il ridicolo...ma dove le assemblano? Che con tutta quella roba saldata sulle due superfici come fanno a garantire i protocolli di Kyoto per lo smaltimento di silicio etc. etc.?
Soldi buttati, imparassero a fare dei veri investimenti anzichè sfornare modelli con 10Mhz in pìù ogni 24 ore e di raddoppiare tutto....Ve lo ricordate quando eravamo molto bimbi? E io ho una biglia...io due....io tre....Intanto i soldi sono i nostri. W Nvidia? W ATI? No! W l'utente finale!!!
Evangelion01
20-03-2008, 03:22
E' tutta una presa per i fondelli, x2, x4, x6??? Se invece di comprare il modello successivo si comprasse a step di 2, le aziende sarebbero obbligate a sfornare modelli veramente più prestanti e non x2 al raddoppio delle frequenze e di tutto il materiale usato per l'assemblaggio...Già non sopportavo la HD3870x2 ma questa rasenta il ridicolo...ma dove le assemblano? Che con tutta quella roba saldata sulle due superfici come fanno a garantire i protocolli di Kyoto per lo smaltimento di silicio etc. etc.?
Soldi buttati, imparassero a fare dei veri investimenti anzichè sfornare modelli con 10Mhz in pìù ogni 24 ore e di raddoppiare tutto....Ve lo ricordate quando eravamo molto bimbi? E io ho una biglia...io due....io tre....Intanto i soldi sono i nostri. W Nvidia? W ATI? No! W l'utente finale!!!
Guarda le config in firma... qualcuno qui sta a pensare al protocollo di kyoto secondo te? :asd: ( che poi kyoto non serve a una cippa, dovrebbero ridurre a 1/4 le emissioni di co2 , non del 5% o giù di li... la verità è che finchè le città non cominceranno a sparire sotto il mare la gente non aprirà gli occhi... purtroppo :nono: )
Chi più spende, meno spende...Ottobre 2006 1.600 € di computer e fino ad oggi ho cambiato solo la scheda video che tra l'altro ho cotto per fare lo sborone...ho visto gente cambiare ogni 10 mesi per spendere di meno e poi a calcoli fatti spendere di più...per questo discorso le schede di transizione faranno sempre schifo, tanti soldini per una manciata di frame in più. Deluso da Nvidia e pure da ATI. A che serve stò scatolone? Magari riuscirò a trovare più in là le 8800gt a 120€...questo è un affare non ste pizette dissipate a ventilatore!
Guarda le config in firma... qualcuno qui sta a pensare al protocollo di kyoto secondo te? :asd: ( che poi kyoto non serve a una cippa, dovrebbero ridurre a 1/4 le emissioni di co2 , non del 5% o giù di li... la verità è che finchè le città non cominceranno a sparire sotto il mare la gente non aprirà gli occhi... purtroppo :nono: )
Era solo una provocazione...di cose che non vanno ce ne sono...mi riferivo al fatto che si va verso la miniaturizzazione e questi fanno dei residence estivi da inserire nel case...mha! Quando arrivano le schede X2 la tecnologia attuale è arrivata al limite...Stò ancora aspettando le vere schede DX10...queste quando sfruttano le DX10 sembrano tornare indietro di qualche anno...DX9 150 frm, stesso gioco DX10 un terzo, forse. Hanno senso 600€ per sti aggeggi...la prossima scheda di ATI il corriere te la lascia giù che non ci passa dalle scale...e quella successiva di Nvidia ti fanno arrivare via cavo il segnale perchè sta su sette livelli con il portiere che smista le chiamate :)
comprare il top di gamma è sempre stato svantaggioso.. 600 euro per una scheda video sono assurdi... sarà che non amo giocare al pc ma lo trovo osceno..
ThePunisher
20-03-2008, 09:16
comprare il top di gamma è sempre stato svantaggioso.. 600 euro per una scheda video sono assurdi... sarà che non amo giocare al pc ma lo trovo osceno..
Sì, in effetti è piuttosto osceno... in ogni caso io potrei anche spenderli per un concentrato di tecnologia assoluta... in realtà invece questa scheda non è altro che due 8800GTS in un unico PCB... quindi più che tecnologica è un insulto alla tecnologia, senza contare i problemi di consumo e dissipazione che ne derivano. Cioè non è una vera nuova top di gamma perchè in realtà di veramente nuovo non c'è niente. Nel senso che se metti due 8800GTS 512 (o due 9800GTX) in SLI comunque ottieni lo stesso risultato e questa è una cosa che non condivido.
Piuttosto, ripeto, se volessi una top di gamma vera aspetterei come minimo lo shirnk a 55nm di luglio, nella speranza anche di un ulteriore supporto tecnologico (DX10.1).
Potete quando fate il confronto con 2 radeonx2 mettere anche la risoluzione 1280 x 1024? Che alla fine è quella che usa la maggiorparte di noi videogiocatori dopo che sono entrati in commercio gli lcd dai 17" in su.
E' tutto molto interessante ma non giochero' mai a una ris di 2560 px x non so quanto.
inoltre volevo vedere se con dx10 tutto sparato al max finalmente si riesce a superare la tanto per ora sognata soglia dei 30 fps su crysis
Potete quando fate il confronto con 2 radeonx2 mettere anche la risoluzione 1280 x 1024? Che alla fine è quella che usa la maggiorparte di noi videogiocatori dopo che sono entrati in commercio gli lcd dai 17" in su.
E' tutto molto interessante ma non giochero' mai a una ris di 2560 px x non so quanto.
inoltre volevo vedere se con dx10 tutto sparato al max finalmente si riesce a superare la tanto per ora sognata soglia dei 30 fps su crysis
veramente ormai è 1680x1050 la risoluzione più usata... 1280x1024 non la usa quasi più nessuno
azz allora sono rimasto indietro...
ma un gioco a quale ris gira meglio? in teoria a 1280 la scheda dovrebbe fare meno fatica vero?
azz allora sono rimasto indietro...
ma un gioco a quale ris gira meglio? in teoria a 1280 la scheda dovrebbe fare meno fatica vero?
beh no alla fine non è che stressi tanto di più la scheda video. se fai due calcoli:
1280x1024 = 1310720 pixels
1680x1050 = 1764000 pixels
ezekiel22
20-03-2008, 11:12
veramente ormai è 1680x1050 la risoluzione più usata... 1280x1024 non la usa quasi più nessuno
Questa è bella grossa, forse nessuno tra gli "enthusiast", che sono una sparuta minoranza sul totale :D
Questa è bella grossa, forse nessuno tra gli "enthusiast", che sono una sparuta minoranza sul totale :D
beh visti i prezzi dei 20 e dei 22'' ormai te li tirano dietro... in tutte le reviews hanno aggiunto 1680x1050 perchè ormai è molto diffusa come risoluzione...
Io i 17'' ormai li vedo solo negli uffici...
MiKeLezZ
20-03-2008, 11:42
beh visti i prezzi dei 20 e dei 22'' ormai te li tirano dietro... in tutte le reviews hanno aggiunto 1680x1050 perchè ormai è molto diffusa come risoluzione...
Io i 17'' ormai li vedo solo negli uffici...La 1280x1024 è anche quella dei 19", ancora piuttosto diffusi. Singolare sia equiparabile alla 1440x900 dei nuovi 19" wide.
Chiaro che se invece andiamo a prendere il target di utenti che si prenderanno (o si sono presi da poco) il PC nuovo, la 1680x1050 è d'obbligo... soprattutto nella recensione di una 9800GX2.
Evangelion01
20-03-2008, 12:15
comprare il top di gamma è sempre stato svantaggioso.. 600 euro per una scheda video sono assurdi... sarà che non amo giocare al pc ma lo trovo osceno..
mah, anche il fatto che "600€ euro per una scheda video sono assurdi" va preso con le dovute considerazioni. Quando un anno e passa fa presi la gtx a 550€, anche a me sembrava di spendere comunque troppo per una vga... ma lo feci con la speranza di avere un pc duraturo nel tempo. Adesso a distanza di tutto questo tempo, dovessi tornare indietro ,nonostante la cifra "folle" rifarei la spesa.:p
Il concetto di troppo va visto sotto molteplici punti di vista. imho la 9800 costa davvero troppo, ma non in sè, quanto perchè un sli di gt o gts costa meno e offre le stesse prestazioni e inoltre c'è la 3870x2 che nonostante le prestazioni un po' inferiori costa quasi la metà. Poi il "troppo" è relativo alle tasche dell' acquirente. :D
consul3000
20-03-2008, 12:54
c'è la 3870x2 che nonostante le prestazioni un po' inferiori costa quasi la metà.
ma come, dai test la 3870x2 va la metà fra un pò...
cioè mi spiegate, sta 3870x2 come sta messa rispetto alla 9800gx2 in definitiva?
Bhairava
20-03-2008, 12:59
ma come, dai test la 3870x2 va la metà fra un pò...
cioè mi spiegate, sta 3870x2 come sta messa rispetto alla 9800gx2 in definitiva?
Non è dato saperlo. Dalle recensioni n'altro pò e la 3870x2 diventa pari a una matrox da 32mb. :rolleyes:
ma come, dai test la 3870x2 va la metà fra un pò...
cioè mi spiegate, sta 3870x2 come sta messa rispetto alla 9800gx2 in definitiva?
Io spero che i test che ho visto postati da un utente non siano reali, perche' se no la tristezza e' tanta... La scheda a doppia GPU nvidia va DI PIU' (20% circa) di DUE schede doppia GPU di ATI? Ovvero uno sli contro un doppio crossfire va di piu'? Spero proprio di no...
goldorak
20-03-2008, 13:07
Non è dato saperlo. Dalle recensioni n'altro pò e la 3870x2 diventa pari a una matrox da 32mb. :rolleyes:
Ma manco quella, la G400maxx va dippiu' di una 3870x2 non lo sapevi ? :stordita: :sofico:
Bhairava
20-03-2008, 13:08
Ma manco quella, la G400maxx va dippiu' di una 3870x2 non lo sapevi ? :stordita: :sofico:
Ehm....m'era sfuggito :stordita:
ThePunisher
20-03-2008, 13:10
Io spero che i test che ho visto postati da un utente non siano reali, perche' se no la tristezza e' tanta... La scheda a doppia GPU nvidia va DI PIU' (20% circa) di DUE schede doppia GPU di ATI? Ovvero uno sli contro un doppio crossfire va di piu'? Spero proprio di no...
Dai risultati del 3DMark sembrerebbe proprio di no. Purtroppo nei test dei game la fanno da padrone anche i drivers e NVIDIA mi sembra proprio si impegni di più a livello di singolo titolo per quanto riguarda il supporto.
michelgaetano
20-03-2008, 13:23
Dai risultati del 3DMark sembrerebbe proprio di no. Purtroppo nei test dei game la fanno da padrone anche i drivers e NVIDIA mi sembra proprio si impegni di più a livello di singolo titolo per quanto riguarda il supporto.
Per favore, il 3d mark è una cavolata, basti pensare i punteggi che fanno i quad core uando poi vengono "pestati" dai dual core nei giochi
ThePunisher
20-03-2008, 13:25
Per favore, il 3d mark è una cavolata, basti pensare i punteggi che fanno i quad core uando poi vengono "pestati" dai dual core nei giochi
Ovvio, se i giochi non sono ottimizzati... sono quelli una cavolata al limite... sveglia.
michelgaetano
20-03-2008, 13:28
Ovvio, se i giochi non sono ottimizzati... sono quelli una cavolata al limite... sveglia.
Toh, non si sapeva. Sì, sono sveglio.
Ma basarsi sul 3d mark non ha senso, li hai visti i record? Sbaglio o erano 2 2900XT in crossfire? E sappiamo bene le prestazioni delle 2900 rispetto a HD3870/8800 etc.
Evangelion01
20-03-2008, 13:41
Ovvio, se i giochi non sono ottimizzati... sono quelli una cavolata al limite... sveglia.
Ma fammi capire, tu ritieni più attendibile il 3dmark piuttosto che le applicazioni reali ? :asd:
Cioè, testi una vga X con 10 giochi e questa va più veloce di una vga Y in tutti i test; poi fai il test col 3dmark dove la vga Y è più veloce della X.... e le tue conclusioni sono che la vga Y è più veloce della vga X ?!?!?
Omg... mai sentito parlare di metodo sperimentale? :mbe:
ThePunisher
20-03-2008, 13:44
Toh, non si sapeva. Sì, sono sveglio.
Ma basarsi sul 3d mark non ha senso, li hai visti i record? Sbaglio o erano 2 2900XT in crossfire? E sappiamo bene le prestazioni delle 2900 rispetto a HD3870/8800 etc.
Sbagli di brutto... attualmente sono 2 3870X2 in Crossfire. E presto saranno 2 9800GX2 in SLI.
Ma fammi capire, tu ritieni più attendibile il 3dmark piuttosto che le applicazioni reali ? :asd:
Cioè, testi una vga X con 10 giochi e questa va più veloce di una vga Y ; poi fai il test col 3dmark dove la vga Y è più veloce della X.... e le tue conclusioni sono che la vga Y è più veloce della vga X ?!?!?
Omg... mai sentito parlare di metodo sperimentale? :mbe:
Non è questione di attendibilità.
Il 3DMark è programmato seriamente e sfrutta l'hardware.
I giochi sono programmati con le chiappe e spesso non sfruttano l'hardware, soprattutto quad core o GPUX2.
Quindi se vuoi valutare la potenza dell'hardware, certo, il 3DMark è più affidabile. Punto.
Marko#88
20-03-2008, 13:44
Ovvio, se i giochi non sono ottimizzati... sono quelli una cavolata al limite... sveglia.
quindi è meglio giocare ai 3d mark? :asd:
Marko#88
20-03-2008, 13:46
Sbagli di brutto... attualmente sono 2 3870X2 in Crossfire. E presto saranno 2 9800GX2 in SLI.
Non è questione di attendibilità.
Il 3DMark è programmato seriamente e sfrutta l'hardware.
I giochi sono programmati con le chiappe e spesso non sfruttano l'hardware, soprattutto quad core o GPUX2.
Quindi se vuoi valutare la potenza dell'hardware, certo, il 3DMark è più affidabile. Punto.
ma per favore...se praticamente ogni edizione è pro ati oppure pro nvidia...il 3dmark è un indice vago (che uso moltissimo ma non per questo lo reputo per forza iper attendibile) con cui misurare le prestazioni di un sistema...ma il vero banco prova alla fine sono i giochi...
ThePunisher
20-03-2008, 13:46
quindi è meglio giocare ai 3d mark? :asd:
No, però forse è meglio buyare un pò di logica.
Poi ovvio che uno sceglie la scheda video che va meglio nei giochi, magari perchè questi ottimizzati meglio per questa e i driver ottimizzati meglio. Ma questo non ti fa concludere su quanto potente è l'hardware.
michelgaetano
20-03-2008, 13:46
Sbagli di brutto... attualmente sono 2 3870X2 in Crossfire. E presto saranno 2 9800GX2 in SLI.
Bon, rifatti al 3d mark e gioca con 2 2900/HD3870.
ThePunisher
20-03-2008, 13:47
ma per favore...se praticamente ogni edizione è pro ati oppure pro nvidia...il 3dmark è un indice vago (che uso moltissimo ma non per questo lo reputo per forza iper attendibile) con cui misurare le prestazioni di un sistema...ma il vero banco prova alla fine sono i giochi...
LOL... per favore? Ovvio... se un'edizione è importata a favore di maggior utilizzo shading (per esempio) può favorire un architettura che va meglio in quell'ambito, che sia ATI o NVIDIA è solo questione di etichette e di come hanno sviluppato l'architettura. Non a caso ci sono i TEST singoli sempre all'interno del 3DMark incentrati uno nel pixelling, un altro nello shading e così via (proposti spesso anche da HWU stessa), proprio per non essere sviati dai soli test generali.
ThePunisher
20-03-2008, 13:48
Bon, rifatti al 3d mark e gioca con 2 2900/HD3870.
Eh? Io ho un NVIDIA nel case. Forse non hai neanche letto.
michelgaetano
20-03-2008, 13:51
Eh? Io ho un NVIDIA nel case. Forse non hai neanche letto.
No, non parlavo di fanboysmo. E smettila di provocare dicendo che non leggo ciò che scrivi.
Se però il record del mondo lo detiene una coppia di schede inferiore a molte altre presenti (SLI di 8800 gt, gtx, gts, ultra etc), ecco dimsotrato quanto vale l'infallibile 3d mark.
Piccola opinione da utente non enthusiast (o come cavolo si scrive) :)
Piuttosto che spendere 550-600 euro per una scheda top appena uscita e poi per 2 anni non cambiarla... (e vorrei vedere...)
preferisco cambiare una scheda di fascia media (200 euro) all'anno, e quindi 200+200=400 oppure prendermele usate "fresche" sul mercatino :D sempre fascia media.
Come ho fatto negli ultimi 2 anni, 1900xt e 8800gts640 150+160=310 euri che rispetto alla spesa iniziale sono circa la metà, e mi sono goduto i giochi (magari non al massimo ultra iper :D ) sul mio 19" a 1440x900 (che e' ancora taaaaaaaaaaanto diffuso) comprato 1 anno fa.
l'ho detto non sono un enthusiast e quindi questa e' la MIA situazione, c'e' anche chi si accontenta di meno...
Poi e' logico che chi ha i soldini li puo' spendere come vuole, ma questo target di schede le vedo solo per gente che ha monitor da 24"-30" :boh: e vuole giocare come si deve.... sono pochi (nessuno di quelli che conosco) ma e' giusto che si possano godere i loro giochi preferiti anche loro... :D
Io questa 9800GX2 non la prenderei, ma per chi ha un bel pc con 1 solo slot pci-ex ha il suo perchè! Di sicuro non e' un salto tecnologico, e' piuttosto un prodotto che porterà euro nelle tasche di Nvidia, ma non i miei (di euro) :D
ciao ;)
Marko#88
20-03-2008, 13:53
LOL... per favore? Ovvio... se un'edizione è importata a favore di maggior utilizzo shading (per esempio) può favorire un architettura che va meglio in quell'ambito, che sia ATI o NVIDIA è solo questione di etichette e di come hanno sviluppato l'architettura. Non a caso ci sono i TEST singoli sempre all'interno del 3DMark incentrati uno nel pixelling, un altro nello shading e così via (proposti spesso anche da HWU stessa), proprio per non essere sviati dai soli test generali.
non è solo per il tipo di test....
No, non parlavo di fanboysmo. E smettila di provocare dicendo che non leggo ciò che scrivi.
Se però il record del mondo lo detiene una coppia di schede inferiore a molte altre presenti (SLI di 8800 gt, gtx, gts, ultra etc), ecco dimsotrato quanto vale l'infallibile 3d mark.
Ecco appunto. ;)
michelgaetano
20-03-2008, 13:54
Io questa 9800GX2 non la prenderei, ma per chi ha un bel pc con 1 solo slot pci-ex ha il suo perchè! Di sicuro non e' un salto tecnologico, e' piuttosto un prodotto che porterà euro nelle tasche di Nvidia, ma non i miei (di euro) :D
ciao ;)
Quello che dici è giusto, però il prezzo non è proprio conforme :)
Con 100 euro in meno prendo due 8800 gts e le metto in SLI,vendo la mobo e ne prendo una che lo SLI lo supporta.
La proposta nVidia è ottima per chi ha un solo slot, però il prezzo andrebbe limato (se due 8800 gts tanno 460 €, non si può davvero arrivare a 550! :D)
Evangelion01
20-03-2008, 13:58
Sbagli di brutto... attualmente sono 2 3870X2 in Crossfire. E presto saranno 2 9800GX2 in SLI.
Non è questione di attendibilità.
Il 3DMark è programmato seriamente e sfrutta l'hardware.
I giochi sono programmati con le chiappe e spesso non sfruttano l'hardware, soprattutto quad core o GPUX2.
Quindi se vuoi valutare la potenza dell'hardware, certo, il 3DMark è più affidabile. Punto.
Vorrei capire cosa intendi per "potenza" ...
Intanto che il 3dmark sia programmato seriamente è tutto da dimostrare. Secondariamente se stiamo ai suoi risultati, la 2900xt è più veloce della 8800gtx, quando invece è risaputo che è il contrario. Ci sono giochi poi che sono sviluppati male, ma altri che scalano benissimo su tutte le config, come cod4 per es. e che non si possono certo definire "programmati male" . Scusa, quale miglior test esiste se non le applicazioni reali ( in questo caso i vg) ? Ma poi, solitamente si osserva una casitica per affermare x > y con un certo margine di sicurezza, non è che fai un test e da li capisci tutto... perchè altrimenti hai preso la 8800gtx, che stando al 3dmark è più lenta della 2900 e costa pure di più? ;)
Oltretutto io il 3dmark lo uso e ho ottenuto risultati molto variabili anche solo deframmentando gli hd...
Cerchiamo di essere seri : il 3dmark può dare un' idea di massima, ma non a caso i siti che come questo pubblicano comparative non le basano solo su quello, ma almeno su 7-8 test , da cui si può davvero capire quale vga sia più veloce. Altrimenti farebbero solo il 3d mark risparmiando pure tempo, ma è chiaro che i risultati che ne verrebbero fuori non rispecchierebbero affatto le reali prestazioni.
Pagliatek
20-03-2008, 13:59
Prestazioni a parte a me sembrano volgarmente 2 9600 una sull'altra , una spece di sli nativo e basta.
Nvidia a paura ( ingiustificata ) del dual core ati e si rifugia in soluzioni frettolose e grossolane, e a che prezzi poi !!!
michelgaetano
20-03-2008, 14:01
Vorrei capire cosa intendi per "potenza" ...
Intanto che il 3dmark sia programmato seriamente è tutto da dimostrare. Secondariamente se stiamo ai suoi risultati, la 2900xt è più veloce della 8800gtx, quando invece è risaputo che è il contrario. Ci sono giochi poi che sono sviluppati male, ma altri che scalano benissimo su tutte le config, come cod4 per es. e che non si possono certo definire "programmati male" . Scusa, quale miglior test esiste se non le applicazioni reali ( in questo caso i vg) ? Ma poi, solitamente si osserva una casitica per affermare x > y con un certo margine di sicurezza, non è che fai un test e da li capisci tutto... perchè altrimenti hai preso la 8800gtx, che stando al 3dmark è più lenta della 2900 e costa pure di più? ;)
Oltretutto io il 3dmark lo uso e ho ottenuto risultati molto variabili anche solo deframmentando gli hd...
Cerchiamo di essere seri : il 3dmark può dare un' idea di massima, ma non a caso i siti che come questo pubblicano comparative non le basano solo su quello, ma almeno su 7-8 test , da cui si può davvero capire quale vga sia più veloce. Altrimenti farebbero solo il 3d mark risparmiando pure tempo, ma è chiaro che i risultati che ne verrebbero fuori non rispecchierebbero affatto le reali prestazioni.
:mano:
la 2900 che va meglio della 8800 gtx mi ha sempre fatto sorridere :D
Prestazioni a parte a me sembrano volgarmente 2 9600 una sull'altra , una spece di sli nativo e basta.
Nvidia a paura ( ingiustificata ) del dual core ati e si rifugia in soluzioni frettolose e grossolane, e a che prezzi poi !!!
Ma che paura, è puro Marketing: detenere la scheda video più veloce sul mercato. Che poi già lo deteneva, perchè la Ultra rimane inavvicinata, e la 3870X2 sono due schede (così come la GX2 nVidia).
Evangelion01
20-03-2008, 14:09
Tornando alla gx2, non la prenderei mai per 2 motivi : sconveniente rapporto prezzo - prestazioni, e vga vram-limited cosiderando la potenza dei 2 chip. imho avrebbero dovuto dotarla 2 gb di vram totale, visto che l' andazzo dei giochi odierni è quello di richiedere sempre più memoria video. Basta guardare world in conflict... 512mb attaulmente su vga di questa fascia possono risultare castranti. Figuriamoci più in là...
Evangelion01
20-03-2008, 14:13
Quello che dici è giusto, però il prezzo non è proprio conforme :)
Con 100 euro in meno prendo due 8800 gts e le metto in SLI,vendo la mobo e ne prendo una che lo SLI lo supporta.
La proposta nVidia è ottima per chi ha un solo slot, però il prezzo andrebbe limato (se due 8800 gts tanno 460 €, non si può davvero arrivare a 550! :D)
Ma poi con le gt a 170€ l' una mi chiedo chi davvero possa voler fare un sli di gts 512 o comprare sta gx2... a quel punto cambio anche mobo e risparmio lo stesso potendo comunque contare su una piattaforma aggiornata e con prestazioni pressochè uguali a meno prezzo. Cmq si vede già l 'andazzo : avevo detto che il prezzo sarebbe sceso rapidamente ( in quanto a 550€ la gx2 è palesemente fuori mercato ) : guardate su trovaprezzi quanto costa oggi ! Ieri il minimo era 550€, oggi 519€. ;) E vedrete quanto scenderà ancora....
goldorak
20-03-2008, 14:16
Tornando alla gx2, non la prenderei mai per 2 motivi : sconveniente rapporto prezzo - prestazioni, e vga vram-limited cosiderando la potenza dei 2 chip. imho avrebbero dovuto dotarla 2 gb di vram totale, visto che l' andazzo dei giochi odierni è quello di richiedere sempre più memoria video. Basta guardare world in conflict... 512mb attaulmente su vga di questa fascia possono risultare castranti. Figuriamoci più in là...
Vero sulla ram limitata ma pecca anche il bus a 256bit.
Su una vera top di gamma avrebbero dovuto usare minimo minimo 768MB per gpu e un bus a 320 bit come aveva fatto piu' di 1 anno fa con la 8800Ultra. :rolleyes:
Queste 9800gx2 che sono in tutto e per tutto schede di fascia top (stando alla dichiarazioni Nvidia) sono castrate artificialmente sia sul quantitativo totale di ram che per l'uso sconsiderato di un bus non piu' all'altezza per gestire i filtri ad altissime risoluzione. Non a caso andate a vedere di quanto si assotiglia la differenza prestazionale tra la 9800gx2 e la 8800Ultra ad alte risoluzioni. Si passa circa ad un 10% di differenza e non dovrebbe essere cosi'.
Evangelion01
20-03-2008, 14:21
Vero sulla ram limitata ma pecca anche il bus a 256bit.
Su una vera top di gamma avrebbero dovuto usare minimo minimo 768MB per gpu e un bus a 320 bit come aveva fatto piu' di 1 anno fa con la 8800Ultra. :rolleyes:
Queste 9800gx2 che sono in tutto e per tutto schede di fascia top (stando alla dichiarazioni Nvidia) sono castrate artificialmente sia sul quantitativo totale di ram che per l'uso sconsiderato di un bus non piu' all'altezza per gestire i filtri ad altissime risoluzione. Non a caso andate a vedere di quanto si assotiglia la differenza prestazionale tra la 9800gx2 e la 8800Ultra ad alte risoluzioni. Si passa circa ad un 10% di differenza e non dovrebbe essere cosi'.
Infatti... probabilmente la scelta di nvidia è stata dettata dalla volontà di mantenere i prezzi bassi ( poi vabbè, sulla novità ci marciano tutti, ma date tempo qualche mese e vedrete che calo :asd: ), e dal fatto che cmq anche 2 gt in sli superano la 3870x2 in prestazioni. Diciamo che la gtx-ultra ha retto e regge benissimo perchè è una vga eqilibrata in tutte le caratteristiche, mentre la gx2 ha molta potenza grezza, ma mal eqilibrata : un po' come mettere il motore di ua bugatti veyron nel telaio di una tigra....
p.s. il bus della ultra è 384bit. ;)
goldorak
20-03-2008, 14:26
Infatti... probabilmente la scelta di nvidia è stata dettata dalla volontà di mantenere i prezzi bassi ( poi vabbè, sulla novità ci marciano tutti, ma date tempo qualche mese e vedrete che calo :asd: ), e dal fatto che cmq anche 2 gt in sli superano la 3870x2 in prestazioni. Diciamo che la gtx-ultra ha retto e regge benissimo perchè è una vga eqilibrata in tutte le caratteristiche, mentre la gx2 ha molta potenza grezza, ma mal eqilibrata : un po' come mettere il motore di ua bugatti veyron nel telaio di una tigra....
p.s. il bus della ultra è 384bit. ;)
Si si, ho fatto male l'addizione 256+128.:doh: Sono 384 bit e' vero. :D
michelgaetano
20-03-2008, 14:38
un po' come mettere il motore di ua bugatti veyron nel telaio di una tigra....
porca misera :sofico:
ATI RADEON HD3870 X2 1GB DDR3 2DVI HDTV/HDCP 320,00 €
SCHEDA VIDEO CLUB 3D NVIDIA 9800GX2 1GB 519,65 €
Leadtek GF8800GTS 512MB 235,90 €
Questi i prezzi più bassi in rete...
Non ho capito perchè fino all'uscita della 9800gx2 la HD3870x2 andava meglio di tutte le altre, ora è sotto a tutte.
E' solo questione di marketing, altro che test sui giochi e 3dmark vari.
Le limitazioni ci sono via sofware
Per vedere se i giochi girano meglio su Nvidia o su ATI basta scaricare la demo e vedere che logo compare, capito?
Quando faranno un accordo softwarehouse/AMD-ATI allora all'avvio del gioco ci sarà un bel logo ATI e tutti a comprare ATI. Sveglia.
Se qualcuno vi pagaste milioni di euros, voi limitereste il vostro gioco via software per le schede video concorrenti? Io credo proprio di si.
Bhairava
20-03-2008, 17:45
ATI RADEON HD3870 X2 1GB DDR3 2DVI HDTV/HDCP 320,00 €
SCHEDA VIDEO CLUB 3D NVIDIA 9800GX2 1GB 519,65 €
Leadtek GF8800GTS 512MB 235,90 €
Questi i prezzi più bassi in rete...
Non ho capito perchè fino all'uscita della 9800gx2 la HD3870x2 andava meglio di tutte le altre, ora è sotto a tutte.
E' solo questione di marketing, altro che test sui giochi e 3dmark vari.
Le limitazioni ci sono via sofware
Per vedere se i giochi girano meglio su Nvidia o su ATI basta scaricare la demo e vedere che logo compare, capito?
Quando faranno un accordo softwarehouse/AMD-ATI allora all'avvio del gioco ci sarà un bel logo ATI e tutti a comprare ATI. Sveglia.
Se qualcuno vi pagaste milioni di euros, voi limitereste il vostro gioco via software per le schede video concorrenti? Io credo proprio di si.
Infatti è proprio così. E' importante sostenere ATI, solo perchè la concorrenza è fondamentale per avere prezzi competitivi.
ATI RADEON HD3870 X2 1GB DDR3 2DVI HDTV/HDCP 320,00 €
SCHEDA VIDEO CLUB 3D NVIDIA 9800GX2 1GB 519,65 €
Leadtek GF8800GTS 512MB 235,90 €
Questi i prezzi più bassi in rete...
Non ho capito perchè fino all'uscita della 9800gx2 la HD3870x2 andava meglio di tutte le altre, ora è sotto a tutte.
E' solo questione di marketing, altro che test sui giochi e 3dmark vari.
Le limitazioni ci sono via sofware
Per vedere se i giochi girano meglio su Nvidia o su ATI basta scaricare la demo e vedere che logo compare, capito?
Quando faranno un accordo softwarehouse/AMD-ATI allora all'avvio del gioco ci sarà un bel logo ATI e tutti a comprare ATI. Sveglia.
Se qualcuno vi pagaste milioni di euros, voi limitereste il vostro gioco via software per le schede video concorrenti? Io credo proprio di si.
Più che limitare per la scheda concorrente credo che lo cerchino di ottimizzare per quella affiliata fregandosene del supporto della concorrente cercando solo di fare in modo che con la concorrenza almeno giri ma niente di più.
Povera ATI :( , spero che avvenga un miracolo e che si riprenda anche se io seguo Nvidia ormai da un bel po', spero veramente che tornino sulla cresta dell'onda, non chiedo di meglio che un po' di competizione a suon di innovazioni tecnologiche e schede una più potente dell'altra che si bevano qualunque gioco a qualunque risoluzione. :D
credo che quando si faranno cpu e gpu attaccate (nome fiusion) nvidia rimarra nella mexxa fino al collo!!!! Li secondo me ati risorgera
michelgaetano
20-03-2008, 19:25
credo che quando si faranno cpu e gpu attaccate (nome fiusion) nvidia rimarra nella mexxa fino al collo!!!! Li secondo me ati risorgera
Molto Nostradamus :sofico:
Bhairava
20-03-2008, 19:29
credo che quando si faranno cpu e gpu attaccate (nome fiusion) nvidia rimarra nella mexxa fino al collo!!!! Li secondo me ati risorgera
E il giorno in cui ATI creerà un gpu atomica a 10 core in un die pronto per la fusione dell'idrogeno, con proezione olografica integrata.....quel giorno Nvidia sarà spacciata! :D
Futura12
20-03-2008, 19:32
E il giorno in cui ATI creerà un gpu atomica a 10 core in un die pronto per la fusione dell'idrogeno, con proezione olografica integrata.....quel giorno Nvidia sarà spacciata! :D
non credo:asd: anche perchè una singola GPU starà al prezzo di un Audi A4:asd::O e faranno muffa per anni sugli scaffali:asd:
michelgaetano
20-03-2008, 19:37
non credo:asd: anche perchè una singola GPU starà al prezzo di un Audi A4:asd::O e faranno muffa per anni sugli scaffali:asd:
ma che avete capito, anche le Audi A4 avranno le gpu atomiche ATi:sofico:
minchia stiam delirando :asd:
Futura12
20-03-2008, 19:39
ma che avete capito, anche le Audi A4 avranno le gpu atomiche ATi:sofico:
minchia stiam delirando :asd:
:asd: + che altro è Ati che sta delirando:ciapet:
Bhairava
20-03-2008, 19:54
:asd: + che altro è Ati che sta delirando:ciapet:
No Ati sta cercando di innovare, speriamo che faccia un buon R700.
No Ati sta cercando di innovare, speriamo che faccia un buon R700.
Quoto, quoto e ancora quoto!
sempre piu' contento della mia 8800 GTS 512!
remag501
20-03-2008, 22:15
costa 600 dollari. Mio fratello rientra in italia tra 2 settimane. Al cambio attuale fanno 374 eruo. Inutile dirvi che non vedo l'ora che passino in 1 istante :-)
buona pasqua a tutti
No Ati sta cercando di innovare, speriamo che faccia un buon R700.
speriamo, in teoria in base ai miei ultimi acquisti sarebbe il turno di Ati :D
( X850XTPE-7800GTX-X1950XTX-8800GTS- ? )
costa 600 dollari. Mio fratello rientra in italia tra 2 settimane. Al cambio attuale fanno 374 eruo. Inutile dirvi che non vedo l'ora che passino in 1 istante :-)
buona pasqua a tutti
che culo :-)
ma che computer ci vuole per giocare a crysis in dx10 fluido?
un 8core, 16gb ram, 4 sli 8800 ultra 4gb ?
goldorak
30-03-2008, 21:05
ma che computer ci vuole per giocare a crysis in dx10 fluido?
un 8core, 16gb ram, 4 sli 8800 ultra 4gb ?
No, Crysis non sfrutta i multicore quindi ne basta uno.
Per le schede video, boh penso che un quad sli con schede di terza generazione dx 10 forse consentiranno di giocare a 1280x1024 con filtri a palla. :p Insomma di tempo ne deve ancora trascorrere.
bah chissenefrega di crysys. appena esce far cry 2 mi sa che ce ne dimenticheremo per un pezzo :D
al momento con una 8800gt giochi a tutto...
No, Crysis non sfrutta i multicore quindi ne basta uno.
Per le schede video, boh penso che un quad sli con schede di terza generazione dx 10 forse consentiranno di giocare a 1280x1024 con filtri a palla. :p Insomma di tempo ne deve ancora trascorrere.
Ho letto (non mi ricordo se su questo forum o altrove) che esiste una patch di terzi per sfruttare crysis con dualcore...bufala?
No, Crysis non sfrutta i multicore quindi ne basta uno.
Per le schede video, boh penso che un quad sli con schede di terza generazione dx 10 forse consentiranno di giocare a 1280x1024 con filtri a palla. :p Insomma di tempo ne deve ancora trascorrere.
Ho letto (non mi ricordo se su questo forum o altrove) che esiste una patch di terzi per sfruttare crysis con dualcore...bufala?
realista
03-04-2008, 21:16
questa scheda è un mostro...
Dark Zero
06-04-2008, 12:43
Ma per usare la 9800 gx2 la scheda madre deve avere l'nforce?
michelgaetano
06-04-2008, 13:09
Ma per usare la 9800 gx2 la scheda madre deve avere l'nforce?
Non deve essere nVidia, quindi niente nForce :)
Il vero vantaggio è lì :D
RoUge.boh
06-04-2008, 13:26
Non deve essere nVidia, quindi niente nForce :)
Il vero vantaggio è lì :D
infatti e comnpatibile con tutto...
Dark Zero
06-04-2008, 14:10
Beh ma allora e proprio una cosa buona!:D
alex oceano
14-04-2008, 18:56
ottima scheda! ma la differenza tra una scheda 8800gt e una 9800gx 2 nel benkmark di crysis alla risoluzione di 1680x1050 è di 14,4 per 8800gt e 26,8 per la 9800gx 2 consideriamo che la più potente costa ben 350 € in più doveva fare una maggiore differenza
pl[U]s.NOXx
14-04-2008, 19:38
ottima scheda! ma la differenza tra una scheda 8800gt e una 9800gx 2 nel benkmark di crysis alla risoluzione di 1680x1050 è di 14,4 per 8800gt e 26,8 per la 9800gx 2 consideriamo che la più potente costa ben 350 € in più doveva fare una maggiore differenza
Tetris sfrutta la scheda video meglio di crysis. e con questo ho detto tutto
Frenky_minkia
14-04-2008, 20:32
s.NOXx;22016419']Tetris sfrutta la scheda video meglio di crysis. e con questo ho detto tutto
lol
s.NOXx;22016419']Tetris sfrutta la scheda video meglio di crysis. e con questo ho detto tutto
:mbe: non è che hai detto tutto, hai semplicemente detto una ca@@@@@, e te ne accorgerai quando sarai consapevole di cosa riesce a muovere il cryengine, evidentemente non sei ancora pronto :O , è un motore molto più evoluto di quello che puoi pensare, e come tale, richiede delle schede video nuove, all'altezza, non come quella sorta di dieshrink di G80 risalente al 2006 che risponde al nome di G92, e questo vale anche per ati e ;)
pl[U]s.NOXx
14-04-2008, 20:41
certo è per quello che la mia scheda video arriva a 60 gradi con cod4 e sta sui 50 con crysis. mica perche è ottimizzato coi piedi, ma vaaaaaaaaaaaaa
Evangelion01
14-04-2008, 20:45
Non deve essere nVidia, quindi niente nForce :)
Il vero vantaggio è lì :D
Vero e unico direi... visto il prezzo del nuovo costano meno 2 gt in sli e vanno praticamente uguali... :doh:
Su trovapacchi la gx2 costa minimo 430€ , mentre 2 gt le trovi anche a 300€... con 130€ di differenza faccio prima a vendermi la mobo e prenderne 1 di punta che supporti anche l' sli. :)
oltretutto se vuoi sboronare puoi farti un sli di 8800gts512 o un o di 8800gt da 1gb, e spendi meno lo stesso. :p
pl[U]s.NOXx
14-04-2008, 20:54
Vero e unico direi... visto il prezzo del nuovo costano meno 2 gt in sli e vanno praticamente uguali... :doh:
Su trovapacchi la gx2 costa minimo 430€ , mentre 2 gt le trovi anche a 300€... con 130€ di differenza faccio prima a vendermi la mobo e prenderne 1 di punta che supporti anche l' sli. :)
oltretutto se vuoi sboronare puoi farti un sli di 8800gts512 o un o di 8800gt da 1gb, e spendi meno lo stesso. :p
si ma prova te a mettere 4 gt in quad sli (che nn credo esista se non per le soluzioni quadro). con le gx2 puoi teoricamente arrivare a 4 gpu. sono sistemi enthusiast non per gente "normale"
s.NOXx;22017652']certo è per quello che la mia scheda video arriva a 60 gradi con cod4 e sta sui 50 con crysis. mica perche è ottimizzato coi piedi, ma vaaaaaaaaaaaaa
quando giochi con crysis, a quanto ti stà la percentuale di utilizzo della gpu?
io ne ho due, e stanno entrambe al 99%, e la quantità di calore sviluppata, è la stessa di un 3dmark, o di un cod4... evidentemente hai la scheda video buggata ;) , o magari i driver ;) , o forse quei 2 gb di ram che vedo in firma, sono insufficienti a far girare crysis senza swap, e quando swappa, procio e video calano nella percentuale di utilizzo, magari giochi costantemente swappando e non te ne sei mai accorto :O :asd:
e cmq lascia che mi congratuli, sei geniale, hai inventato un nuovo metodo per vedere la percentuale di utilizzo della gpu in base alla temperatura ;)
ma perchè invece non controlli l'utilizzo con everest o gpu-z? è più sensato, fidati ;)
Evangelion01
14-04-2008, 21:07
s.NOXx;22017904']si ma prova te a mettere 4 gt in quad sli (che nn credo esista se non per le soluzioni quadro). con le gx2 puoi teoricamente arrivare a 4 gpu. sono sistemi enthusiast non per gente "normale"
Si, ok non puoi fare il quad - sli ( inutile come si evince anche dall' ultima rece di hwupgrade ), ma 300€ per un sistema sli non è poi così "enthusiast" come sembra, visto che all' epoca solo per la vga in firma spesi più di 500€...
300€ sono considerabili adeguati a vga di fascia medio - alta. :p
pl[U]s.NOXx
14-04-2008, 23:35
Si, ok non puoi fare il quad - sli ( inutile come si evince anche dall' ultima rece di hwupgrade ), ma 300€ per un sistema sli non è poi così "enthusiast" come sembra, visto che all' epoca solo per la vga in firma spesi più di 500€...
300€ sono considerabili adeguati a vga di fascia medio - alta. :p
no bhe 300 euro è fascia alta (io penso che la 8800gts si alta) mentre al di sopra c'è il top gamma (in cui vedo la 9800/8800gtx) poi ci sono i vari esercizi di stile come la ultra e la gx2.
per snake.
mi scuso se ho detto cose sbagliate, anche se continuo a credere di aver ragione :D sta di fatto che la 9800gx2 dovrebbe fare piu del doppio degli fps di una 8800gt in crysis(cavolo, è formata da due SV ognuna piu potente della 8800gt di un buon 20%) , consentendo una perfetta esperienza anche in dx10 a risoluzioni umane. sta di fatto che questo non accade, percio mi sembra strano che crysis riesca a sfruttare bene e al max le potenzialita di questa bestia di scheda.
s.NOXx;22021059']no bhe 300 euro è fascia alta (io penso che la 8800gts si alta) mentre al di sopra c'è il top gamma (in cui vedo la 9800/8800gtx) poi ci sono i vari esercizi di stile come la ultra e la gx2.
per snake.
mi scuso se ho detto cose sbagliate, anche se continuo a credere di aver ragione :D sta di fatto che la 9800gx2 dovrebbe fare piu del doppio degli fps di una 8800gt in crysis(cavolo, è formata da due SV ognuna piu potente della 8800gt di un buon 20%) , consentendo una perfetta esperienza anche in dx10 a risoluzioni umane. sta di fatto che questo non accade, percio mi sembra strano che crysis riesca a sfruttare bene e al max le potenzialita di questa bestia di scheda.
il fatto è proprio questo... è sì una bestia di scheda... ma per giochi pre-crysis diciamo...
di fatto crysis rappresenta una nuova generazione di giochi... che decisamente necessita di una nuova architettura video... e non del solito G92 ulteriormente dieshrinkato a 55nm o messo doppio su una scheda video singola...
generalmente una generazione di gpu durava meno di un anno... qui con questo G80 si stà andando avanti quasi 2 anni... è come pretendere di giocare a Far Cry con una ati 9800xt, (se qualcuno si ricorda, per girare ci girava, ma con compromessi, eppure la 9800xt era una "bestia" per l'epoca, e si è dovuto attendere appena la generazione successiva con le x800 per giocarci bene)
il problema e' che qui la generazione successiva e' questa sottospecie di 8800gtx rimoddata per sembrare nuova..... perche parliamoci chiari chi come me ha gia una 8800gtx per avere lo stesso tipo di caratteristiche praticamente gli conviene comprarsi un'altra e fare sli.... con un NOTEVOLE risparmio in euro
il rapporto qualita'/prezzo arriverebbe alle stelle.....
altra pecca non da poco per i suoi utenti destinatari.... non sara' facilmente possibile raffreddarla a liquido questa 9800gx2...
e questa e' una pecca non da poco ! visto che fa 85° gradi !quindi a dir poco non si puo' ockare ......... diciamola tutta... la nvidia per 1 anno di lavoro che hanno avuto per progettare le nuove serie di schede video.... ha fatto una schifezza... e la cosa piu brutta e' che non esiste niente di meglio....
Evangelion01
24-04-2008, 00:22
altra pecca non da poco per i suoi utenti destinatari.... non sara' facilmente possibile raffreddarla a liquido questa 9800gx2...
e questa e' una pecca non da poco ! visto che fa 85° gradi !quindi a dir poco non si puo' ockare ......... diciamola tutta... la nvidia per 1 anno di lavoro che hanno avuto per progettare le nuove serie di schede video.... ha fatto una schifezza... e la cosa piu brutta e' che non esiste niente di meglio....
Non solo... che dissy aftermerket ci metti su una cosa simile? Nessuno in commercio è montabile, così si è obbligati a tenere quello stock, con tutti i limiti del caso... :rolleyes:
altra pecca non da poco per i suoi utenti destinatari.... non sara' facilmente possibile raffreddarla a liquido questa 9800gx2...
e questa e' una pecca non da poco ! visto che fa 85° gradi !quindi a dir poco non si puo' ockare ......... diciamola tutta... la nvidia per 1 anno di lavoro che hanno avuto per progettare le nuove serie di schede video.... ha fatto una schifezza... e la cosa piu brutta e' che non esiste niente di meglio....
Si in effetti sta 9800GX2 e' un po' obsoleta, cioe' la volevo comprare ma poi visto i vari test e risultati che sono di pokissimo superiori allo sli delle mie 2 8800GT che ho pagato molto meno di uan 9800GX2 , consumano meno e scaldano meno, dopo tutte queste considerazione ho lasciato li dove stava la 9800GX2^^
Evangelion01
29-04-2008, 18:14
Si in effetti sta 9800GX2 e' un po' obsoleta, cioe' la volevo comprare ma poi visto i vari test e risultati che sono di pokissimo superiori allo sli delle mie 2 8800GT che ho pagato molto meno di uan 9800GX2 , consumano meno e scaldano meno, dopo tutte queste considerazione ho lasciato li dove stava la 9800GX2^^
Hai fatto benissimo... :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.