View Full Version : Benchmark GeForce 6600 GT
Thunder82
10-08-2004, 17:57
http://bbs.gzeasy.com/index.php?showtopic=223360
http://bbs.gzeasy.com/uploads/post-5-1092032522.png
6600 GT
500MHz
128-bit
128MB GDDR3
P216
US$199
6600
300MHz
128-bit
128MB DDR1
P229
US$149
Niente male...
Thunder82
10-08-2004, 17:59
http://www.hardware4you.sm/nucleus/media/1/20040810-B_GEF_6600_F_S.jpg
questa penso sia la liscia... il dissipatore è ridicolo, dovrebbe essere a 0.11 micron in teoria?
Originariamente inviato da Thunder82
http://www.hardware4you.sm/nucleus/media/1/20040810-B_GEF_6600_F_S.jpg
questa penso sia la liscia... il dissipatore è ridicolo, dovrebbe essere a 0.11 micron in teoria?
Mhhh... imho fake... il dissy e' lo stesso che usavano per le GeForce2 Ultra.. :eek::D
Con memoria old type? Mhhh..
Thunder82
10-08-2004, 18:10
Originariamente inviato da Simon82
Mhhh... imho fake... il dissy e' lo stesso che usavano per le GeForce2 Ultra.. :eek::D
Con memoria old type? Mhhh..
potrebbe essere la liscia :)
memorie da 600MHz ci sono non BGA
e un chip a 0.11 micron a 300MHz non scalda una miseria ;)
torgianf
10-08-2004, 20:28
davvero niente male....
se con i filtri si comporta bene potrebbe essere un ottimo acquisto,ad un prezzo imho molto buono
Dark Schneider
10-08-2004, 20:42
La GeForce 6600 GT è una scheda che da qlc giorno mi tira...nel senso che mi piacerebbe provare cosa offre il mercato medio...chissà se non me la prendo per curiosità e la rivendo. :D
Cmq mi sembra un po' strana una cosa: i 128 bit di bus. Non credo che una scheda simile sia in grado di fare 8000...con un bus simile...daii...dev'esserci qlc errore. Infatti si parla di 256 bit di bus.
Cmq vedo che sennò le altre specifiche tornano...come sapevo dalle mie informazioni........memorie a 1200 Mhz. :)
Dark Schneider
10-08-2004, 21:03
http://news.mydrivers.com/pages/images/20040809102744_24493.jpg
http://news.mydrivers.com/pages/images/20040809140836_72441.jpg
http://news.mydrivers.com/pages/images/20040809140937_87241.jpg
si ma in pratica andrebbe come la 6800 liscia... il che mi puzza non credo nvidia sfornerebbe 2 prodotti dalle stesse prestazioni con 100$ di differenza...
Dark Schneider
10-08-2004, 21:08
Originariamente inviato da Braccop
si ma in pratica andrebbe come la 6800 liscia... il che mi puzza non credo nvidia sfornerebbe 2 prodotti dalle stesse prestazioni con 100$ di differenza...
La 6800 liscia va qlc in più...;)
Cmq non è detto che la 6800 liscia rimanga al lungo sul mercato IMHO!! ;)
E' cmq non 2 prodotti....è la 6600 GT che sarà più prestante grazie alle sue frequenze: 500/1200.
La 6600 liscia andrà meno...è 300/900.
No ma infatti, mi sembra tutto a dir poco strano!!!
Tratto da Hardware4u:
"nVidia NV43 (GeForce 6600GT) con frequenza di clock di 500 MHz, 128 MB di memoria GDDR3 a 128bit. Sarà inolte disponibile una versione con 128 Mb di memoria GDDR a 128bit che costerà circa 150 dollari contro i 200 della sorella maggiore."
Cioè sia 6600 che 6600GT sono a 128bit, 128mb di ram.....come è possibile che faccia 8000 punti quasi come la 6800Liscia?????? :eek: :eek: :eek: :eek:
Bisogna chiarire bene su sta scheda, o è una superfarlokkata il bench, oppure questa diventa la nuova 4200!!!!....propendo più per la prima però. :rolleyes:
Dark Schneider
10-08-2004, 21:14
Originariamente inviato da Koji
No ma infatti, mi sembra tutto a dir poco strano!!!
Tratto da Hardware4u:
"nVidia NV43 (GeForce 6600GT) con frequenza di clock di 500 MHz, 128 MB di memoria GDDR3 a 128bit. Sarà inolte disponibile una versione con 128 Mb di memoria GDDR a 128bit che costerà circa 150 dollari contro i 200 della sorella maggiore."
Cioè sia 6600 che 6600GT sono a 128bit, 128mb di ram.....come è possibile che faccia 8000 punti come la 6800Liscia?????? :eek: :eek: :eek: :eek:
Bisogna chiarire bene su sta scheda, o è una superfarlokkata il bench, oppure questa diventa la nuova 4200!!!!....propendo più per la prima però. :rolleyes:
Penso sia semplicemente un errore. Fino a ieri si parlava di bus a a 256 bit. Ok la bonta dell'architettura NV4x...ma mi sembra esagerato un risultato simile con un simile bus.
O forse al tizio ancora non vengono rilevate correttamente alcune info...quali il bus.
Originariamente inviato da Thunder82
http://www.hardware4you.sm/nucleus/media/1/20040810-B_GEF_6600_F_S.jpg
questa penso sia la liscia... il dissipatore è ridicolo, dovrebbe essere a 0.11 micron in teoria?
EDIT: Mi sa che ha ragione Simon82, sembra un fake. :rolleyes:
Originariamente inviato da Dark Schneider
La 6800 liscia va qlc in più...;)
Cmq non è detto che la 6800 liscia rimanga al lungo sul mercato IMHO!! ;)
E' cmq non 2 prodotti....è la 6600 GT che sarà più prestante grazie alle sue frequenze: 500/1200.
La 6600 liscia andrà meno...è 300/900.
intendevo 2 prodotti nel senso la 6800 liscia e la 6600gt...
Mi correggo: per me è tutto un colossale fake, dall'immagine, al bench, ai dati tecnici... :sofico: :rolleyes:
Thunder82
10-08-2004, 21:21
Originariamente inviato da Koji
No ma infatti, mi sembra tutto a dir poco strano!!!
Tratto da Hardware4u:
"nVidia NV43 (GeForce 6600GT) con frequenza di clock di 500 MHz, 128 MB di memoria GDDR3 a 128bit. Sarà inolte disponibile una versione con 128 Mb di memoria GDDR a 128bit che costerà circa 150 dollari contro i 200 della sorella maggiore."
Cioè sia 6600 che 6600GT sono a 128bit, 128mb di ram.....come è possibile che faccia 8000 punti quasi come la 6800Liscia?????? :eek: :eek: :eek: :eek:
Bisogna chiarire bene su sta scheda, o è una superfarlokkata il bench, oppure questa diventa la nuova 4200!!!!....propendo più per la prima però. :rolleyes:
beh tieni conto che la 6800 liscia ha sì 12 pipeline, ma ha una frequenza di soli 325MHz, mentre questa ha 8 pipeline ma viaggia a ben 500MHz... se fai i conti del fillrate vedrai che la 6600GT ne ha di più... rimane l'incognita delle memorie... 128bit o 256?
Originariamente inviato da Thunder82
beh tieni conto che la 6800 liscia ha sì 12 pipeline, ma ha una frequenza di soli 325MHz, mentre questa ha 8 pipeline ma viaggia a ben 500MHz... se fai i conti del fillrate vedrai che la 6600GT ne ha di più... rimane l'incognita delle memorie... 128bit o 256?
Sì bisogna allora aspettare info ufficiali, cmq....ok le frequenze, ma 8 pipe contro 12, 256bit contro 128 (così sembra per ora) dovrebbero aumentare le prestazioni e non di poco.
Certo che, se fosse tutto vero, di 6800liscie non ne venderanno più.
Originariamente inviato da Thunder82
http://www.hardware4you.sm/nucleus/media/1/20040810-B_GEF_6600_F_S.jpg
Un momento, me ne sono accorto solo adesso........ma è pci-express???????? :O :O
Thunder82
10-08-2004, 21:49
Originariamente inviato da Koji
Sì bisogna allora aspettare info ufficiali, cmq....ok le frequenze, ma 8 pipe contro 12, 256bit contro 128 (così sembra per ora) dovrebbero aumentare le prestazioni e non di poco.
Certo che, se fosse tutto vero, di 6800liscie non ne venderanno più.
ti ho già detto che oltre alle pipe con tano i MHZ!!!!!!!
Non continuiamo a ragionare solo con le pipeline dai... il fillrate dipende anche dalla frequenza
Thunder82
10-08-2004, 21:49
Originariamente inviato da Koji
Un momento, me ne sono accorto solo adesso........ma è pci-express???????? :O :O
sì
Sawato Onizuka
10-08-2004, 22:00
quindi presumibilmente la 6600 series uscirà solo PCI-E per fare rimanere la 6800 liscia nel segmento AGP ... marketing :mc:
altrimenti finiva 6600 GT = 9500 pro
6800 liscia = 9500 che si può provare a soft-moddare 6800@16x1
mh :sofico:
Dark Schneider
10-08-2004, 22:05
Originariamente inviato da Thunder82
beh tieni conto che la 6800 liscia ha sì 12 pipeline, ma ha una frequenza di soli 325MHz, mentre questa ha 8 pipeline ma viaggia a ben 500MHz... se fai i conti del fillrate vedrai che la 6600GT ne ha di più... rimane l'incognita delle memorie... 128bit o 256?
Esatto la GeForce 6600 GT può predisporre di un Fillrate di 4000 che non è poco. :)
Certo resta il fatto che la 6800 liscia andrà cmq un po' di più IMHO e magari la maggior complessità del chip video (E' il NV40) la renderà cmq una scheda superiore.
Cmq staremo a vedere:
6800 liscia: Fillrate 3900
6600 GT: Fillrate 4000
Ci siamo...più che altro ripeto la differenza la farà il fatto che uno è il chip NV40...l'altro una versione Light. :)
Cmq sono molto interessato. :)
Thunder82
10-08-2004, 22:09
intanto chi ha una 6800 potrebbe provare i driver 65.62 beta :D
61.77 Official Drivers
# 3DMark03 - NoAA/NoAF 8329
# 3DMark03 - NoAA/16AF 6574
# 3DMark03 - 8xAA/NoAF 3210
65.xx Beta Drivers (July 2004 Build)
# 3DMark03 - NoAA/NoAF 9101
# 3DMark03 - NoAA/16AF 7603
# 3DMark03 - 8xAA/NoAF 3453
Dark Schneider
10-08-2004, 22:11
Originariamente inviato da Sawato Onizuka
quindi presumibilmente la 6600 series uscirà solo PCI-E per fare rimanere la 6800 liscia nel segmento AGP ... marketing :mc:
altrimenti finiva 6600 GT = 9500 pro
6800 liscia = 9500 che si può provare a soft-moddare 6800@16x1
mh :sofico:
La 6600 GT sarà utilizzabile anche con le schede madri AGP. ;)
Thunder82
10-08-2004, 22:11
Originariamente inviato da Dark Schneider
La 6600 GT sarà utilizzabile anche con le schede madri AGP. ;)
poi avendo il processo a 0.11 micron salirà come un'assassina e non consumerà quasi niente :)
Dark Schneider
10-08-2004, 22:13
Originariamente inviato da Koji
Sì bisogna allora aspettare info ufficiali, cmq....ok le frequenze, ma 8 pipe contro 12, 256bit contro 128 (così sembra per ora) dovrebbero aumentare le prestazioni e non di poco.
Certo che, se fosse tutto vero, di 6800liscie non ne venderanno più.
Tieni conto che nVidia potrebbe anche decidere di non produrre più 6800 lisce(qlc voce c'è sempre stata in passato), una volta che ha raggiunto il perfetto affinamento nel produrre schede da 16 Pipeline. :)
Dark Schneider
10-08-2004, 22:18
Originariamente inviato da Thunder82
poi avendo il processo a 0.11 micron salirà come un'assassina e non consumerà quasi niente :)
Infatti sono molto curioso di vedere questo processo produttivo a 0.11 micron. :)
Poi la versione GT con le GDDR3 a 1200 Mhz. Sarei curioso della banda passante. Solo che dipende...se è a 128 bit o 256 bit il bus.
Thunder82
10-08-2004, 22:22
Originariamente inviato da Dark Schneider
Infatti sono molto curioso di vedere questo processo produttivo a 0.11 micron. :)
Poi la versione GT con le GDDR3 a 1200 Mhz. Sarei curioso della banda passante. Solo che dipende...se è a 128 bit o 256 bit il bus.
Beh 1200MHz a 128 bit è un bel po' di banda passante, non sono mica noccioline! Ha quasi la stessa banda della 6800 liscia che ha 700MHz di memorie a 256bit!
1200MHz a 128bit sono 19.2 GB/s, poi aggiungici algoritmi di risparmio della banda ecc...
Sawato Onizuka
10-08-2004, 22:32
Originariamente inviato da Thunder82
intanto chi ha una 6800 potrebbe provare i driver 65.62 beta :D
ho aperto un topic in sezione apposita
se avrò tempo li proverò come ho fatto con i 62.01 (che mi ispiravano e mi ispirano pure 'sti 65.xx )
:D
Dark Schneider
10-08-2004, 22:39
Originariamente inviato da Thunder82
Beh 1200MHz a 128 bit è un bel po' di banda passante, non sono mica noccioline! Ha quasi la stessa banda della 6800 liscia che ha 700MHz di memorie a 256bit!
1200MHz a 128bit sono 19.2 GB/s, poi aggiungici algoritmi di risparmio della banda ecc...
In effetti non mi son andato a fare il calcolino per la banda. Anche a 128 bit in effetti per essere una scheda di fascia media..di banda ne ha parecchia....praticamente 20 Gb di banda.
A questo punto potrebbe anche essere che è a 128 bit. :)
Cmq questa scheda non ricordo se sarà presentata al Quakecon...sta di fatto che verrà mostrata in Pc con Doom 3 d quanto ho letto. :)
Originariamente inviato da Simon82
Mhhh... imho fake... il dissy e' lo stesso che usavano per le GeForce2 Ultra.. :eek::D
Con memoria old type? Mhhh..
Very fake :D
Le probabilità poi sono molto elevate :D
Dark Schneider
10-08-2004, 22:53
Originariamente inviato da pandyno
Very fake :D
Le probabilità poi sono molto elevate :D
Infatti quella è sicuramente fake..si vede che è modificata. :D
Però le immagini che ho messo di Guru 3d...quelle dovrebbe essere vere.
Originariamente inviato da Thunder82
poi avendo il processo a 0.11 micron salirà come un'assassina e non consumerà quasi niente :)
oltre i 500 Mhz dichiarati? Mah, difficile, non sono pochi per un chip con così tanti transistor come NV4x e quindi con chissà quanti parassitismi che bloccano l'ascesa in frequenza ;)
Originariamente inviato da Thunder82
ti ho già detto che oltre alle pipe con tano i MHZ!!!!!!!
Magari, le pipe aumentano l'efficienza molto + della frequenza di lavoro dato che aumentando esse si RIPARTISCE il lavoro. E direi che ormai è una soluzione obbligata - dovunque -
Cmq ben venga una scheda così, ci voleva qualcosa di appetibile entro i 200 euro :)
Dark Schneider
11-08-2004, 00:37
Originariamente inviato da lowenz
oltre i 500 Mhz dichiarati? Mah, difficile, non sono pochi per un chip con così tanti transistor come NV4x e quindi con chissà quanti parassitismi che bloccano l'ascesa in frequenza ;)
Spetta...ricordati che NV43 è una versione "light" del NV40. Quindi non penso proprio che integri 222 milioni di transistor. Forse chessò un 130 sarà(l'ho sparata lì).
Originariamente inviato da Dark Schneider
222 milioni di transistor
se ci penso che ce ne sono così tanti mi viene già il mal di testa :D
Originariamente inviato da Dark Schneider
Spetta...ricordati che NV43 è una versione "light" del NV40. Quindi non penso proprio che integri 222 milioni di transistor. Forse chessò un 130 sarà(l'ho sparata lì).
Infatti. Il senso del NV43 è proprio quello di fare un chip con 8 pipe fisiche, non con 16 di cui 8 disabilitate. Così facendo si riduce di molto la complessità del chip, aumentando la resa e diminuendo i costi.
Dark Schneider
11-08-2004, 02:41
Originariamente inviato da lowenz
se ci penso che ce ne sono così tanti mi viene già il mal di testa :D
Eheh a chi lo dici...io quando ho aperto la scatola ed ho preso in mano la scheda mi son detto "madò..che è sta cosa? sta cosa c'ha 222 milioni di transistor?":eek: :D
Originariamente inviato da Dark Schneider
Eheh a chi lo dici...io quando ho aperto la scatola ed ho preso in mano la scheda mi son detto "madò..che è sta cosa? sta cosa c'ha 222 milioni di transistor?":eek: :D
ma ci puoi fare il caffè e telefonare??:D :sofico: ma io mi chiedo: se avessero fatto nv40 con pari numero di transistor di x800 sarebbe rimasta indietro invece di essere +o- alla pari come sempre???:)
Spectrum7glr
11-08-2004, 09:50
Originariamente inviato da bubbo87
ma ci puoi fare il caffè e telefonare??:D :sofico: ma io mi chiedo: se avessero fatto nv40 con pari numero di transistor di x800 sarebbe rimasta indietro invece di essere +o- alla pari come sempre???:)
perdonami ma con questo cosa vuoi dire?allora seguendo il tuo ragionamento si potrebbe riblatare il discorso: e se ATI avesse fatto una scheda con le stesse frequenze di quella di Nvidia avrebbe presazioni molto inferiori? la realtà è che si tratta di scelte progettuali: Nvidia ha presentato un progetto decisamente nuovo (e notevolmente più complesso...ed i transistor ne sono un'indiretta conferma) mente ATI ha deciso di sviluppare ulteriormente il progetto della precedente serie di schede.
comunque tronano in topic direi che non ci sarebbe da meravigliarsi se la nuova generazione di schede Nvidia di categoria medio-alta fosse superiore allle schede top di gamma (9800pro e 5900) di generazione precedente...è quello che a suo tempo successe nel raffronto 9500pro vs 4600ti (o 4800 nella versione 8x): si trattava anche allora di un progetto radicalmente nuovo (derivato dalle 9700pro) che anche a frequenze inferiori si dimostrava superiore al precdente punto di riferimento di categoria.
Nel caso di Ati le X600 (che hanno prestazioni inferiori alle 9800pro) invece pagano il fatto di essere comunque dei derivatri delle 9700/9800 ed a frequenze inferiori c'è poco da fare: rimangono indietro
Quante vertex unit integra la 6600 ?
Dark Schneider
11-08-2004, 10:33
Originariamente inviato da bubbo87
ma ci puoi fare il caffè e telefonare??:D :sofico: ma io mi chiedo: se avessero fatto nv40 con pari numero di transistor di x800 sarebbe rimasta indietro invece di essere +o- alla pari come sempre???:)
Con i SE non si va da nessuna parte. Ognuno dei due produttori ha fatto le sue scelte. Il NV40 è attualmente il chip video più avanzato in circolazione. Se non avesse i 222 milioni non sarebbe il NV40 ma un altro tipo di architettura. Hanno integrato 222 milioni proprio perchè volevano fare questa GPU.
Se poi a te piacciono i SE, allora chiediti cosa sarebbe successo SE NV40 con questa architettura funzionasse alle stesse frequenze delle X800. ;)
Cmq è meglio tornare IN topic e parlare del NV43. ;)
Originariamente inviato da Dark Schneider
La 6600 GT sarà utilizzabile anche con le schede madri AGP. ;)
Sicuro al 100% ? Visto che dopo le vacanze (e sottolineo DOPO ;) ) se mi avanzano dindini vorrei cambiare la mia scheda ed ero orientato su una 6800 liscia.
Dark Schneider
11-08-2004, 10:40
Originariamente inviato da Spectrum7glr
comunque tronano in topic direi che non ci sarebbe da meravigliarsi se la nuova generazione di schede Nvidia di categoria medio-alta fosse superiore allle schede top di gamma (9800pro e 5900) di generazione precedente...è quello che a suo tempo successe nel raffronto 9500pro vs 4600ti (o 4800 nella versione 8x): si trattava anche allora di un progetto radicalmente nuovo (derivato dalle 9700pro) che anche a frequenze inferiori si dimostrava superiore al precdente punto di riferimento di categoria.
Nel caso di Ati le X600 (che hanno prestazioni inferiori alle 9800pro) invece pagano il fatto di essere comunque dei derivatri delle 9700/9800 ed a frequenze inferiori c'è poco da fare: rimangono indietro
Si praticamente può anche essere che la 6600 GT sarà come potenza bene o male come le ex top. Ma il vantaggio è che si basano su un architettura più nuova e con ampi margini di miglioramento in futuro rispetto alle vecchie top. :)
Il tuo esempio con la 9500 Pro calza bene. :)
Anche se ho la sensazione...poi mi sbaglierò...ma la 6600 GT mi sa che sarà anche superiore. :) 4000 di Fillrate non è poco assolutamente. Poi in effetti anche con un bus a 128 bit...se le ram sono a 1200 Mhz...la banda praticamente è di quasi 20 GB...mica noccioline. Quindi forse nemmeno risentirebbe dell bus inferiore. :)
forse NV43 avrà quasi gli stessi transistor del fratello maggiore, in modo che entro il 1°-2° trimestre del prossimo anno nvidia converta facilmente l'nv40 a 0.11micron con le restanti aggiunte.
Dark Schneider
11-08-2004, 10:41
Originariamente inviato da Ren
Quante vertex unit integra la 6600 ?
Non si sà. Ma credo almeno 4. :)
Dark Schneider
11-08-2004, 10:44
Originariamente inviato da Ren
forse NV43 avrà quasi gli stessi transistor del fratello maggiore, in modo che entro il 1°-2° trimestre del prossimo anno nvidia converta facilmente l'nv40 a 0.11micron con le restanti aggiunte.
No vabbè personalmente lo escludo. A nVidia costa produrre per ben due fasce lo stesso chip da 222 milioni di transistor. Ma poi tieni conto che ha 8 Pipeline. Ma probabilmente 8 Pipeline fisiche...non 16 con 8 disabilitate, proprio perchè così gli viene a costare meno e possono aumentare di brutto le frequenze. :)
Dark Schneider
11-08-2004, 10:50
Originariamente inviato da WLF
Sicuro al 100% ? Visto che dopo le vacanze (e sottolineo DOPO ;) ) se mi avanzano dindini vorrei cambiare la mia scheda ed ero orientato su una 6800 liscia.
Guarda da quello che so la 6600 GT dovrebbe essere l'unica AGP 8X con HSI. :)
Cmq fai bene a decidere dopo le vacanze. Vedrai che se ne saprà di più e conosceremo le reali prestazioni rispetto alla 6800 liscia. :)
halduemilauno
11-08-2004, 12:09
http://www.guru3d.com/newsitem.php?id=1762
;)
Dark Schneider
11-08-2004, 12:52
Quindi dovrebbero essere confermati il bus a 128 bit. La 6600 GT pare che tra l'altro sia un 20% superiore alla 9800XT. Il che mi pare davvero ottimo. :)
Senza considerare poi il margine di miglioramento che la scheda avrà essendo più nuova. :)
imho sta scheda è esattamente mezza 6800lutra cloccata però a 500mhz, come la 5700 era mezza 5900 e la 5600 mezza 5800.
dico mezza parlando di pipe, bus e vertex unit
argh sto bus a 128bit! :)
influenzerà tipo con un 40% di prestazioni in meno? :))
X Dark Schneider :)
Se deciderai di provarne una tienimi in lista, magari te la ricompro io :).
Io a questo punto mi chiedo se non convenga orientarsi sulla 6800 SE :rolleyes: questa scheda credo sia migliore rispetto alla 6600 GT anche se tutte e 2 hanno 8 pipeline la 6800 SE ha 256 bit rispetto i 128 bit della 6600GT anche se dovremmo sapere le frequenze esatte per core e memorie delle 2 schede però pensavo che se hanno frequenze uguali un eventuale overclock riuscirà meglio sulla 6800 SE ovviamente se le schede saranno allineate nel prezzo (ma penso di si) :confused: .
Dark Schneider
11-08-2004, 13:51
Originariamente inviato da checo
imho sta scheda è esattamente mezza 6800lutra cloccata però a 500mhz, come la 5700 era mezza 5900 e la 5600 mezza 5800.
dico mezza parlando di pipe, bus e vertex unit
Però alla fine se è prestante è prestante!! :D
Dark Schneider
11-08-2004, 13:58
Originariamente inviato da Amk
argh sto bus a 128bit! :)
influenzerà tipo con un 40% di prestazioni in meno? :))
X Dark Schneider :)
Se deciderai di provarne una tienimi in lista, magari te la ricompro io :).
Eheh ok. Cmq non lo so...però forse più in là dovrei avere l'occasione di provarne una. Staremo a vedere. :)
Il bus a 128 bit si magari potrà sembrare un po' una brutta cosa. Ma in realtà tu devi considerare anche la frequenza delle memorie e quindi la banda passante. :)
Praticamente 1200 Mhz su bus a 128 bit significa 19.2 GB!!
Quindi o facevano memorie con frequenze inferiori e bus a 256 bit...perchè sennò se ci pensi abbinare bus a 256 bit + 1200 Mhz di frequenza in una scheda di fascia MEDIA...significa 38.4 GB di banda.....cioè più di una 6800 Ultra.
Quindi è vero il bus a 128 bit..ma è anche vero che hanno bilanciato bene perchè hanno messo frequenze alte. :)
Poi figurati se OC..di conseguenza aumenti ancora di più la banda. :)
Dark Schneider
11-08-2004, 14:12
Originariamente inviato da Murdorr
Io a questo punto mi chiedo se non convenga orientarsi sulla 6800 SE :rolleyes: questa scheda credo sia migliore rispetto alla 6600 GT anche se tutte e 2 hanno 8 pipeline la 6800 SE ha 256 bit rispetto i 128 bit della 6600GT anche se dovremmo sapere le frequenze esatte per core e memorie delle 2 schede però pensavo che se hanno frequenze uguali un eventuale overclock riuscirà meglio sulla 6800 SE ovviamente se le schede saranno allineate nel prezzo (ma penso di si) :confused: .
La 6800LE da quanto ho letto qlc settimana fa non sarà messa in vendita. Ma verranno ad esempio preinstallate ad esempio in Pc pre-configurati in vendita. :) Ma come scheda singola no.
Cmq la 6800LE ho visto tempo fa un articolino...era tipo una 9800 Pro. Praticamente la 6800 LE è una 6800 liscia con 8 Pipeline...ha le stesse frequenze della liscia.
Un Fillrate ovviamente inferiore....ed inferiore rispetto alla 6600 GT. Più che altro è però un NV40 contro il NV43. Questo è vero. Però...
Penso sia meglio preferire una 6600 GT ad una 6800 LE IMHO. :)
Originariamente inviato da Dark Schneider
Eheh ok. Cmq non lo so...però forse più in là dovrei avere l'occasione di provarne una. Staremo a vedere. :)
Il bus a 128 bit si magari potrà sembrare un po' una brutta cosa. Ma in realtà tu devi considerare anche la frequenza delle memorie e quindi la banda passante. :)
Praticamente 1200 Mhz su bus a 128 bit significa 19.2 GB!!
Quindi o facevano memorie con frequenze inferiori e bus a 256 bit...perchè sennò se ci pensi abbinare bus a 256 bit + 1200 Mhz di frequenza in una scheda di fascia MEDIA...significa 38.4 GB di banda.....cioè più di una 6800 Ultra.
Quindi è vero il bus a 128 bit..ma è anche vero che hanno bilanciato bene perchè hanno messo frequenze alte. :)
Poi figurati se OC..di conseguenza aumenti ancora di più la banda. :)
bene, non oso immaginare allora la prossima geforce con bus a 256 e processo produttivo a 0.11 :)
@ Dark Schneider
Sei sicuro che la 6800LE non verrà commercializzata??? sarebbe un gran peccato toglierla dal mercato essendo potuta essere un altra valida alternativa (e sopratutto avrebbe contribuito ad abbassare i prezzi delle 6600GT e lisce ) :cry: .
Dark Schneider
11-08-2004, 15:13
Originariamente inviato da Murdorr
@ Dark Schneider
Sei sicuro che la 6800LE non verrà commercializzata??? sarebbe un gran peccato toglierla dal mercato essendo potuta essere un altra valida alternativa (e sopratutto avrebbe contribuito ad abbassare i prezzi delle 6600GT e lisce ) :cry: .
Non è che non verrà commercializzata, è che sarà destinato al mercato OEM. Inizialmente avevo letto delle ipotesi dei prezzi a cui sarebbe stata proposta, ma poi di recente ho letto che sarà per il mercato OEM. Può capitare che se compri un pc pre-configurato te la ritrovi lì insomma. :)
Ma secondo me non è così una grossa "perdita". Nel senso che da quello che ho visto...e se la 6600 GT è quella che si dice...la 6800LE è prestazionalmente inferiore alla 6600 GT.
Io ho visto qlc tempo fa un articoletto della 6800LE: 320/700 8 Pipeline.
Quindi un Fillrate di 2560 e banda 22.4 GB e le prestazioni erano da 9800 Pro..e a volte superiore alla 9800xt.
Adesso forse da come si legge su Guru3D forse alla 6800Le ritoccano le memorie a 650 Mhz invece di 700 Mhz...quindi 20.8 GB di banda.
La 6600 GT ha un Fillrate pari a 4000 ed una banda passate di 19.2 GB. E' pare che questa scheda mediamente è sopra alla 9800XT di un 20%.
Ovviamente non è solo una questione di Fillrate: molto probabilmente la 6800LE riesce ad avere quei risultati lì perchè la GPU è il NV40...con meno Pipeline, ma stesse unità vertex(6) e frequenze abbastanza ridotte..ma pur sempre NV40. Probabilmente un NV43 che è meno complesso come GPU ed è una versione un più "light" del NV40...alle frequenze della 6800LE andrebbe abbastanza meno.
Quindi per recuperare questo "gap" tecnologico (oddio che poi NV43 mantiene in realtà tutte le tecnologie del NV40..semplicemente è una versione "light" di esso) hanno aumentato di molto la potenza del Fillrate così da essere simile alla 6800LE. Anzi...in realtà hanno dato alla 6600 GT quel "poco" di potenza in più da renderlo più veloce della 6800 LE. Perchè ripeto se è mediamente un 20% superiore di una 9800xt allora è meglio. :)
Certo c'è sempre il fatto che magari sblocchi le altre Pipeline nella 6800LE...ma poi questo è un altro discorso...
IMHO la 6600 GT se è quella che si dice è una scheda validissima. :)
Senza ombra di dubbio sarà valida la 6600GT ma appunto io intendevo prendere in considerazione anche la 6800SE come fascia media pensando allo sblocco a 12 o addirittura 16 pipeline (nel migliore dei casi) e alla banda passante della memoria di 256 bit, sarebbe un buon acquisto sui 180 Euro non credi dark? ;) .
Dark Schneider
11-08-2004, 16:18
Originariamente inviato da Murdorr
Senza ombra di dubbio sarà valida la 6600GT ma appunto io intendevo prendere in considerazione anche la 6800SE come fascia media pensando allo sblocco a 12 o addirittura 16 pipeline (nel migliore dei casi) e alla banda passante della memoria di 256 bit, sarebbe un buon acquisto sui 180 Euro non credi dark? ;) .
Ma è incasinato poi. Cioè tieni conto che la sigla 6800 è sinonimo di Fascia Alta.
La 6800LE ha prestazioni da fascia media. E' la fascia media c'è la 6600.
Ma poi tu pensa che casino con:
- 6800 Ultra
- 6800 GT
- 6800
- 6800LE
- 6600 GT
- 6600
e poco dopo arriverà anche la fascia bassa ossia il NV44, alias 6200 e sicuramente ci saranno 2 versioni: GT e liscia.
8 schede.
Se ci fai caso è troppo incasinato..e praticamente ci sarebbe una notevole difficoltà nell'inserire questi prodotti all'interno delle fasce e a mettere i prezzi.
- 6800 Ultra: 550 euro in su
- 6800 GT: 450 euro in su
- 6800: 330 euro in su
- 6600 GT: 220-250 euro (a seconda delle marche..anche se occhio che i primi pezzi che arriveranno sicuro starà sui 260-270..per poi abbassarsi di lì a poco)
- 6600: 170-200
- 6200 GT: 100-130
- 6200: 80-100
La 6800LE praticamente dovrebbe stare tra 6600 GT e 6600 liscia.....ma non c'è spazio.
[Dark Schneider]
La 6800LE praticamente dovrebbe stare tra 6600 GT e 6600 liscia.....ma non c'è spazio.
Mah Dark io non la vedo poi così tragica una scheda in + o una in - voglio dire fino ad oggi siamo stati abituati con 80 versioni differenti di una stessa scheda video con cambiamenti minimi e prezzi diversi (sia da ATI che da NVIDIA) e adesso ci mettiamo paura per 8 schede invece di 7? ;) dai potrebbero metterla in commercio benissimo e io spero propio di trovare un bel chip NV40 con la possibilità magari di poter far funzionare 12 pipeline in una bella 6800LE :D .
Altra cosa se la 6800LE praticamente dovrebbe stare tra 6600 GT e 6600 liscia il suo prezzo dovrebbe essere sui 180 - 190 Euro .
Dark Schneider
11-08-2004, 17:12
Originariamente inviato da Murdorr
Mah Dark io non la vedo poi così tragica una scheda in + o una in - voglio dire fino ad oggi siamo stati abituati con 80 versioni differenti di una stessa scheda video con cambiamenti minimi e prezzi diversi (sia da ATI che da NVIDIA) e adesso ci mettiamo paura per 8 schede invece di 7? ;) dai potrebbero metterla in commercio benissimo e io spero propio di trovare un bel chip NV40 con la possibilità magari di poter far funzionare 12 pipeline in una bella 6800LE :D .
Altra cosa se la 6800LE praticamente dovrebbe stare tra 6600 GT e 6600 liscia il suo prezzo dovrebbe essere sui 180 - 190 Euro .
Ma non è facile piazzarla, prorpio perchè più schede ci sono e più è impossibile effettuare dei tagli.
Tra un paio di mesi ad esempio la fascia alta ad esempio sicuro subirà un taglio...con le 6800 Ultra sui 500 euro...e le GT sui 400.
Già ci sono voci da tempo che nVidia vuole togliere addirittura anche la 6800 liscia dal mercato e lasciare solo la GT e Ultra nell'alta.
I tagli nella fascia media come li fai a fare se i prezzi rimangono troppo alti a causa di un elevato numero di schede? La 6600 GT e 6800LE praticamente allo stesso prezzo. I prezzi rimangono immobili...non si riesce a tagliare. La 6800LE per nVidia è solo una scheda inutile e costosa da piazzare sul mercato. Costosa perchè si tratta sempre di chip video da 16 Pipeline e 222 milioni di transistor solo con 8 Pipeline disabilitate. Ma il costo di produzione per nVidia risulta lo stesso sia per la 6800 Ultra e sia per la 6800LE. Per di più nVidia tieni conto che una volta affinata la produzione cercherà di distribuire schede da 16 Pipeline attive...tieni conto che la 6800LE è uno un chip da 16 Pipeline non uscito bene di fabbrica e quindi per guadagnarci qlcsina(perchè sennò ci perdono soltanto se un chip esce male) e non "buttare" la vendono ad 8 Pipeline. Ma una volta affinata la produzione...non ha senso produrre anche chip da 222 milioni di transistor a cui disabilitare le 8 Pipeline. Costa troppo a nVidia. Praticamente si ritroverebbe a soddisfare l'utenza sia nella fascia alta e sia nella media con un chip video NV40. Se poi tieni conto che è nella fascia media in cui i produttori fanno più guadagni, capirai che a nVidia conviene produrre un chip video meno costoso da produrre (NV43) ed avere ottimi guadagni. Se vende un NV40 nella fascia media oltre che a vendere lo stesso quantitativo di schede NV43...si ritroverebbe ad un guadagno minore, perchè il costo di produzione è identico a quello di fascia alta essendo il medesimo chip. ;)
Cmq ultimamente ho notato che i prodotti che negli USA costano 199 dollari...qua vengono sempre sui 220-230 una volta stabilizzati i prezzi. Ecco perchè ho messo questo prezzo alla GT e alla liscia un 180-200. :)
flavix25
11-08-2004, 17:21
si hanno notizie se questa scheda supporta come la sorella magire lo sli?
magari 2x6600gt in sli che battono una 6800ultra
e soprattutto con un prezzo inferire
Originariamente inviato da flavix25
si hanno notizie se questa scheda supporta come la sorella magire lo sli?
magari 2x6600gt in sli che battono una 6800ultra
e soprattutto con un prezzo inferire
dovrebbe.....
e come si fa però per alimentarle? Ciuciano non poco, + di una Ultra singola sicuramente :muro:
the_dark_shadow
11-08-2004, 18:41
Originariamente inviato da Koji
No ma infatti, mi sembra tutto a dir poco strano!!!
Tratto da Hardware4u:
"nVidia NV43 (GeForce 6600GT) con frequenza di clock di 500 MHz, 128 MB di memoria GDDR3 a 128bit. Sarà inolte disponibile una versione con 128 Mb di memoria GDDR a 128bit che costerà circa 150 dollari contro i 200 della sorella maggiore."
Cioè sia 6600 che 6600GT sono a 128bit, 128mb di ram.....come è possibile che faccia 8000 punti quasi come la 6800Liscia?????? :eek: :eek: :eek: :eek:
Bisogna chiarire bene su sta scheda, o è una superfarlokkata il bench, oppure questa diventa la nuova 4200!!!!....propendo più per la prima però. :rolleyes:
troppo strano
:sofico:
Dark Schneider
11-08-2004, 18:45
Originariamente inviato da lowenz
dovrebbe.....
e come si fa però per alimentarle? Ciuciano non poco, + di una Ultra singola sicuramente :muro:
No ma è solo per le soluzioni pci-express che si possono fare ste cose.
Cmq non dimenticarti che sta scheda non consumerà molto...è a 0.11 micron,eh? :)
Dark Schneider
11-08-2004, 18:47
Originariamente inviato da the_dark_shadow
troppo strano
:sofico:
Non così strano invece. Ha una frequenza delle memorie di 1200 Mhz...anche se sta su bus a 128 bit...la banda viene quasi di 20 GB...mica poco per una fascia media. :)
halduemilauno
11-08-2004, 18:47
Originariamente inviato da Koji
No ma infatti, mi sembra tutto a dir poco strano!!!
Tratto da Hardware4u:
"nVidia NV43 (GeForce 6600GT) con frequenza di clock di 500 MHz, 128 MB di memoria GDDR3 a 128bit. Sarà inolte disponibile una versione con 128 Mb di memoria GDDR a 128bit che costerà circa 150 dollari contro i 200 della sorella maggiore."
Cioè sia 6600 che 6600GT sono a 128bit, 128mb di ram.....come è possibile che faccia 8000 punti quasi come la 6800Liscia?????? :eek: :eek: :eek: :eek:
Bisogna chiarire bene su sta scheda, o è una superfarlokkata il bench, oppure questa diventa la nuova 4200!!!!....propendo più per la prima però. :rolleyes:
la 6800 liscia è 300/700 la 6600 GT è 500/1200.
ciao.
;)
Originariamente inviato da Dark Schneider
No ma è solo per le soluzioni pci-express che si possono fare ste cose.
Cmq non dimenticarti che sta scheda non consumerà molto...è a 0.11 micron,eh? :)
tutta la serie NV4x può essere montata su schede AGP (tramite bridging) e PCI-Express e il chip NV4x supporta poi IN SE' la possibilità dello SLI. Quindi non è un problema grosso :)
Un core che viaggia a 500 Mhz e delle ram a 1200 Mhz non consumano tanto? Mmmmmmmmmm vedremo.
0.11 poi porta con sè problemi di parassitismi INTERNI al singolo transistore (aumentano le correnti di perdita del canale del MOSFET).....non sono tutte rose e fiori eheh ;)
the_dark_shadow
11-08-2004, 19:13
Originariamente inviato da Dark Schneider
Non così strano invece. Ha una frequenza delle memorie di 1200 Mhz...anche se sta su bus a 128 bit...la banda viene quasi di 20 GB...mica poco per una fascia media. :)
per niente poco;)
Da Guru3D, linkato prima da halduemilauno (ma perchè non hal2001? :D :D)
The GT version is of course slightly faster but here's an interesting fact, it will also be SLI compatible .
;)
halduemilauno
11-08-2004, 19:28
Originariamente inviato da lowenz
Da Guru3D, linkato prima da halduemilauno (ma perchè non hal2001? :D :D)
The GT version is of course slightly faster but here's an interesting fact, it will also be SLI compatible .
;)
è un'idea. la farò presente all'amministratore.
ciao.
:) :)
Dark Schneider
11-08-2004, 19:59
Originariamente inviato da lowenz
tutta la serie NV4x può essere montata su schede AGP (tramite bridging) e PCI-Express e il chip NV4x supporta poi IN SE' la possibilità dello SLI. Quindi non è un problema grosso :)
Un core che viaggia a 500 Mhz e delle ram a 1200 Mhz non consumano tanto? Mmmmmmmmmm vedremo.
0.11 poi porta con sè problemi di parassitismi INTERNI al singolo transistore (aumentano le correnti di perdita del canale del MOSFET).....non sono tutte rose e fiori eheh ;)
Si ma lo SLI solo per le schede madri PCI Express. Non per le AGP. ;)
Poi tieni conto che NV43 è un po' meno complesso e 0.11 micron andrà sicuro benissimo. Alla fine se hanno adottato questo processo oltre ai vantaggi...hanno pensato anche a come "combattare" gli svantaggi"! :)
Originariamente inviato da Dark Schneider
Ma è incasinato poi. Cioè tieni conto che la sigla 6800 è sinonimo di Fascia Alta.
La 6800LE ha prestazioni da fascia media. E' la fascia media c'è la 6600.
Ma poi tu pensa che casino con:
- 6800 Ultra
- 6800 GT
- 6800
- 6800LE
- 6600 GT
- 6600
e poco dopo arriverà anche la fascia bassa ossia il NV44, alias 6200 e sicuramente ci saranno 2 versioni: GT e liscia.
8 schede.
E che manca ancora all'appello anche l'NV41.:D
the_dark_shadow
11-08-2004, 21:32
Originariamente inviato da MaBru
E che manca ancora all'appello anche l'NV41.:D
qualkuna verrà eliminata:D
Dark Schneider
11-08-2004, 22:37
Originariamente inviato da MaBru
E che manca ancora all'appello anche l'NV41.:D
Eheh!! IMHO NV41 è la 6800 liscia. :) Se uscirà...
C'erano voci a Taipei di questa soluzione a 12 Pipeline. IMHO non è altro che la 6800 liscia con 12 Pipeline fisiche, invece di 16 con 4 disabilitate. :)
Originariamente inviato da Dark Schneider
Si ma lo SLI solo per le schede madri PCI Express. Non per le AGP. ;)
Infatti quello che dicevo era valido per le 6600 GT PCI Express
Originariamente inviato da Dark Schneider
Eheh!! IMHO NV41 è la 6800 liscia. :) Se uscirà...
C'erano voci a Taipei di questa soluzione a 12 Pipeline. IMHO non è altro che la 6800 liscia con 12 Pipeline fisiche, invece di 16 con 4 disabilitate. :)
:eek: :D
Ma poi che vada il 20% più di una 9800XT, non sarà che si basano solo su Doom3???....sappiamo bene il vantaggio delle schede nvidia. :rolleyes:
Non so ma sono convinto che sta scheda non possa essere così potente come fanno credere. :mc:
Originariamente inviato da Koji
Non so ma sono convinto che sta scheda non possa essere così potente come fanno credere. :mc:
Infatti. Se fosse così performante e costasse quello che si dice sarebbe la miglior scheda per rapporto prezzo/prestazioni.
Ma meglio attendere almeno una reference board e l'RV410 per fare delle comparazioni.
Dark Schneider
12-08-2004, 12:17
Originariamente inviato da Koji
Ma poi che vada il 20% più di una 9800XT, non sarà che si basano solo su Doom3???....sappiamo bene il vantaggio delle schede nvidia. :rolleyes:
Non so ma sono convinto che sta scheda non possa essere così potente come fanno credere. :mc:
Vabbè che il 3d mark è sempre il 3d mark....però se fa punteggi sui 7000 o 8000...una certa potenza ce l'ha.
Dark Schneider
12-08-2004, 12:20
Originariamente inviato da MaBru
Infatti. Se fosse così performante e costasse quello che si dice sarebbe la miglior scheda per rapporto prezzo/prestazioni.
Ma meglio attendere almeno una reference board e l'RV410 per fare delle comparazioni.
Mi sa che l'RV410 anche fa 7000 si diceva al 3d mark 2003.
La RV410 è la solita 9800 con in più il 3Dc e con frequenze un po' più tirate per via del processo a 0.11 micron.
Originariamente inviato da Dark Schneider
La RV410 è la solita 9800 con in più il 3Dc e con frequenze un po' più tirate per via del processo a 0.11 micron.
L'RV410 credo non sia altro che un Mobility Radeon 9800 senza la circuiteria per il risparmio energetico e con un clock maggiorato, tipo 450/400.
Dark Schneider
12-08-2004, 13:13
La mobility? Ma sei sicuro?
the_dark_shadow
12-08-2004, 13:23
Originariamente inviato da Dark Schneider
La mobility? Ma sei sicuro?
quoto, sei sicuro?
:confused:
Originariamente inviato da the_dark_shadow
quoto, sei sicuro?
:confused:
Non penso di andarci molto distante...;)
the_dark_shadow
12-08-2004, 14:00
Originariamente inviato da Koji
Ma poi che vada il 20% più di una 9800XT, non sarà che si basano solo su Doom3???....sappiamo bene il vantaggio delle schede nvidia. :rolleyes:
Non so ma sono convinto che sta scheda non possa essere così potente come fanno credere. :mc:
beh sicuramente meglio della 9800 spero
Dark Schneider
12-08-2004, 14:09
Originariamente inviato da MaBru
Non penso di andarci molto distante...;)
Ahh in quel senso. Mi credevo che il radeon mobility era l'RV410...quando invece è R420. :D
Cmq appunto l'R420 mobile se ci hai fatto caso è una 9800 (8 pipeline e 4 unità vertex..non 6) con in più il 3Dc..ovviamente frequenze mi pare diverse.
Pure sto RV410...alla fine se guardi a cosa propone Ati nella fascia alta...se vai a castrare la fascia alta per ottenere fascia media...ti ritrovi con la 9800..con un aggiunta del 3Dc..un aumento di frequenze, ma pur sempre una 9800.
Originariamente inviato da Dark Schneider
Vabbè che il 3d mark è sempre il 3d mark....però se fa punteggi sui 7000 o 8000...una certa potenza ce l'ha.
Hai ragione, e guarda che spero veramente che sià così veloce, però prima vorrei vedere qualche review completa, non solo 3dmerd e doom3...mi sembra strano che nvidia faccia uscire a distanza di pochissimo tempo una scheda da fascia media che insidia la sua stessa fascia alta...in fondo la 6800liscia sta arrivando adesso in volumi sul mercato.
Ma se veramete è cosi' vicina alla 6800liscia, vorrà dire che risparmierò un bel pò sull'acquisto che farò a settembre. ;)
Dark Schneider
12-08-2004, 16:45
Originariamente inviato da Koji
Hai ragione, e guarda che spero veramente che sià così veloce, però prima vorrei vedere qualche review completa, non solo 3dmerd e doom3...mi sembra strano che nvidia faccia uscire a distanza di pochissimo tempo una scheda da fascia media che insidia la sua stessa fascia alta...in fondo la 6800liscia sta arrivando adesso in volumi sul mercato.
Ma se veramete è cosi' vicina alla 6800liscia, vorrà dire che risparmierò un bel pò sull'acquisto che farò a settembre. ;)
La 6800 liscia cmq è migliore. Perchè cmq ha 12 Pipeline ed è una NV40, quindi chip video più complesso. Tra l'altro anche il numero di unità Vertex è 6 come nelle sorelle. Probabilmente questo 6600 GT ne avrà 4.
Però ha un Fillrate molto alto considerando che è di fascia media: 4000 contro i 3900 della 6800 liscia. Questi 500 Mhz di Core fanno e a mio parere come velocità pura sarà parecchio veloce.
Poi però non è solo una questione di fillrate...NV43 è cmq una versione "light" del NV40. Bisogna vedere anche com si comporta con i filtri ad esempio. :)
halduemilauno
12-08-2004, 17:02
http://www.nvnews.net/previews/geforce_6600_series/6600gtfront_fs.jpg
gran bella scheda.
http://www.nvnews.net/previews/geforce_6600_series/
Originariamente inviato da Dark Schneider
La 6800 liscia cmq è migliore. Perchè cmq ha 12 Pipeline ed è una NV40, quindi chip video più complesso. Tra l'altro anche il numero di unità Vertex è 6 come nelle sorelle. Probabilmente questo 6600 GT ne avrà 4.
Però ha un Fillrate molto alto considerando che è di fascia media: 4000 contro i 3900 della 6800 liscia. Questi 500 Mhz di Core fanno e a mio parere come velocità pura sarà parecchio veloce.
Poi però non è solo una questione di fillrate...NV43 è cmq una versione "light" del NV40. Bisogna vedere anche com si comporta con i filtri ad esempio. :)
Infatti, diciamo che per essere una scheda di fascia media è molto, molto buona, però è sicuramente inferiore alla 6800 liscia.
Cmq se la confrontiamo con la concorrenza, X600XT, direi che Ati si deve preoccupare e non poco, la differenza tra le due penso non sarà una questione di pochi frame, quando si avranno i bench con altrre schede la X600 le prenderà. ;)
6600 GT
500MHz Core clock
1Ghz DDR3 128-bit bus memoria
128MB GDDR3
Supporta la modalità SLI per PCI Express
US$199
http://www.3dchips-fr.com/images/news/res_1092301587.jpg
6600
300MHz Core Clock
128-bit bus memoria
128MB DDR1
US$149
http://www.3dchips-fr.com/images/news/res_1092296858.jpg
buone le ram....samsung da 2,0ns;)....diciamolo...questa volta ati che era data per vincente l'ha presa un pò nel
[email protected] sue schede non vanno male ma ha sbagliato prezzi e collocamenti...per esempio, a battersi con la 6800gt doveva metterci la x800xt non la pro che è svantaggiata dall'avere 12 pipe...per il top va ok x800xt pe e 6800ultra;)...la x800pro doveva combattere contro la 6800liscia e la strabatte:)
Dark Schneider
12-08-2004, 17:20
Originariamente inviato da Koji
Infatti, diciamo che per essere una scheda di fascia media è molto, molto buona, però è sicuramente inferiore alla 6800 liscia.
Cmq se la confrontiamo con la concorrenza, X600XT, direi che Ati si deve preoccupare e non poco, la differenza tra le due penso non sarà una questione di pochi frame, quando si avranno i bench con altrre schede la X600 le prenderà. ;)
La X600XT poi non è altro che una 9600xt un po' pompata.
Dark Schneider
12-08-2004, 17:40
Originariamente inviato da bubbo87
buone le ram....samsung da 2,0ns;)....diciamolo...questa volta ati che era data per vincente l'ha presa un pò nel
[email protected] sue schede non vanno male ma ha sbagliato prezzi e collocamenti...per esempio, a battersi con la 6800gt doveva metterci la x800xt non la pro che è svantaggiata dall'avere 12 pipe...per il top va ok x800xt pe e 6800ultra;)...la x800pro doveva combattere contro la 6800liscia e la strabatte:)
Non è questione che ha sbagliato Ati i prezzi ed i collocamenti.
Semplicemente Ati paga la sua scelta "conservativa" fatta nella fascia alta, che ha raddoppiato si le caratteristiche della sua scheda precedente (o quasi..nel caso della X800XT è più vera) con qlc miglioria aggiunta tipo il 3Dc. Non a caso è un po' soprannominato R300x2. Se tu adesso vai a castrare un po' la fascia alta per ottenere modelli per la fascia media e bassa....alla fine ti ritrovi con gli stessi modelli di prima, quindi chessò 9800, 9600. Adesso magari più in là farà uscire qlc versione RV4xx che magari saranno appunto delle schede che in realtà 9600 e 9800 con frequenze un po' più alte e con chessò il 3Dc che proviene dall'R420. Però personalmente non mi sembrano schede attraenti. Nel senso che cmq se magari un possesore di 9600xt o 9800 vuole prendere uno di questi prodotti di fascia media o bassa...alla fine non conviene e non ha senso. Perchè si ritroverebbero con la stessa scheda di prima con il 3Dc...ma IMHO un motivo non valido per cambiare scheda...è troppo poco. Quelli che si comprano le X800 almeno hanno anche la potenza maggiore come "guadagno" e quindi almeno è già più sensato l'acquisto, ma l'utente di fascia inferiore....IMHO no.
nVidia invece ha progettato una architettura nuova e quindi adesso presenterà un intera Gamma Nuova rispetto alla precedente Gamma FX che ricoprerà fascia bassa, media, alta basata proprio sull'architettura nuova.
Originariamente inviato da Dark Schneider
Non è questione che ha sbagliato Ati i prezzi ed i collocamenti.
Semplicemente Ati paga la sua scelta "conservativa" fatta nella fascia alta, che ha raddoppiato si le caratteristiche della sua scheda precedente (o quasi..nel caso della X800XT è più vera) con qlc miglioria aggiunta tipo il 3Dc. Non a caso è un po' soprannominato R300x2. Se tu adesso vai a castrare un po' la fascia alta per ottenere modelli per la fascia alta e bassa....alla fine ti ritrovi con gli stessi modelli di prima, quindi chessò 9800, 9600. Adesso magari più in là farà uscire qlc versione RV4xx che magari saranno appunto delle schede che in realtà 9600 e 9800 con frequenze un po' più alte e con chessò il 3Dc che proviene dall'R420. Però personalmente non mi sembrano schede attraenti. Nel senso che cmq se magari un possesore di 9600xt o 9800 vuole prendere uno di questi prodotti di fascia media o bassa...alla fine non conviene e non ha senso. Perchè si ritroverebbero con la stessa scheda di prima con il 3Dc...ma IMHO un motivo non valido per cambiare scheda...è troppo poco. Quelli che si comprano le X800 almeno hanno anche la potenza maggiore come "guadagno" e quindi almeno è già più sensato l'acquisto, ma l'utente di fascia inferiore....IMHO no.
nVidia invece ha progettato una architettura nuova e quindi adesso presenterà un intera Gamma Nuova rispetto alla precedente Gamma FX che ricoprerà fascia bassa, media, alta basata proprio sull'architettura nuova.
quoto in tutto e credo però che ati però tirerà fuori qualcosa dal cilindro perchè non penso che si voglia far mettere troppo i piedi in testa da nvidia;)...io sono uno neutrale e per me una o l'altra non cambia, infatti sono sempre passato da una all'altra senza problemi... almeno, visto che ho preso una ati spero che faccia qualcosa:sperem:..non voglio aver preso una bidonata...almeno un annetto mi deve durare:(
flavix25
12-08-2004, 17:49
meglio cosi perchè se anche ati avesse prodorro un nuovo cip del tutto rivoluziuonario come nvidia io avrei dovuto buttare la mia 5900xt invece cosi facendo ati permette a chi come me ha preso schede della vecchia fascia media/alta di poter sperare ancora in una lunga vita:D :D :D :D :D :D
9infatti tutto cio che girerà su x600 sulla mia andra meglio!:cool: :cool: :cool: :cool: :cool: :cool:
ati sa volta hai fatto ride!!!!!!!!!!!!!!!!!!!!!!!!!
Originariamente inviato da flavix25
meglio cosi perchè se anche ati avesse prodorro un nuovo cip del tutto rivoluziuonario come nvidia io avrei dovuto buttare la mia 5900xt invece cosi facendo ati permette a chi come me ha preso schede della vecchia fascia media/alta di poter sperare ancora in una lunga vita:D :D :D :D :D :D
9infatti tutto cio che girerà su x600 sulla mia andra meglio!:cool: :cool: :cool: :cool: :cool: :cool:
ati sa volta hai fatto ride!!!!!!!!!!!!!!!!!!!!!!!!!
mi sembri molto di parte eh:rolleyes:
in questo campo non puoi permetterti di sbagliare niente o di sederti un po' che la concorrenza ti morsica le chiappe, ben bene, ora ati dovrà rivedere un po' i propri prezzi e togliere dalle balle quella 9800pro che sul loro sito voglio vendere a 299$
flavix25
12-08-2004, 17:51
Originariamente inviato da bubbo87
quoto in tutto e credo però che ati però tirerà fuori qualcosa dal cilindro perchè non penso che si voglia far mettere troppo i piedi in testa da nvidia;)...io sono uno neutrale e per me una o l'altra non cambia, infatti sono sempre passato da una all'altra senza problemi... almeno, visto che ho preso una ati spero che faccia qualcosa:sperem:..non voglio aver preso una bidonata...almeno un annetto mi deve durare:(
un altro annetto durera di sicuro ma poco piu di una 9800xt giusto perche è un po piu potente
Originariamente inviato da flavix25
un altro annetto durera di sicuro ma poco piu di una 9800xt giusto perche è un po piu potente
mica tanto un pò...un pò tanto...+ del 100%..con i filtri anche il 150% in +;) ....forse sottovaluti troppo
se la x800pro durasse solo un anno mi immagino tutti quelli che hanno dalla 9800 o 5950 in giù che moccoli tirerebbero :D
penso che andrai avanti un bel po'
Originariamente inviato da Nie73
se la x800pro durasse solo un anno mi immagino tutti quelli che hanno dalla 9800 o 5950 in giù che moccoli tirerebbero :D
penso che andrai avanti un bel po'
meglio così:D
Dark Schneider
12-08-2004, 18:06
Originariamente inviato da bubbo87
quoto in tutto e credo però che ati però tirerà fuori qualcosa dal cilindro perchè non penso che si voglia far mettere troppo i piedi in testa da nvidia;)...io sono uno neutrale e per me una o l'altra non cambia, infatti sono sempre passato da una all'altra senza problemi... almeno, visto che ho preso una ati spero che faccia qualcosa:sperem:..non voglio aver preso una bidonata...almeno un annetto mi deve durare:(
Ma sinceramente parlando ha ben poco da tirare fuori dal cilindro.
Vedi tu almeno che ti sta arrivando la X800 Pro..cmq hai anche parecchia potenza in più. Quindi alla fine anche se considerato un chip video "conservativo", sta di fatto che cmq tu ci guadagni anche in potenza. Perchè cmq usufruisci anche della potenza maggiore. :)
Ma è diverso il discorso per la fascia media e bassa. Qui a parte che adesso ci sono X300 e X600 che son appunto delle 9600 riciclate e con frequenze diverse (la x600xt è una 9600xt un po' potenziata), ma poi anche quando "magari" tirerà fuori più in là delle versioni depotenziate R420, tipo chessò RV410,ecc. alla fine si tratterà di schede identiche a quelle di prima, un po' più veloci perchè hanno frequenze più elevate e magari sto 3Dc. Però appunto ad un possessore di chessò 9600xt o 9800 che magari vuol spendere meno e ripiegare in modelli NON di fascia alta...alla fine non è che conviene molto. Cioè poco senso insomma.
Poi tu considera che Ati e nVidia gli incassi quelli veri non li fanno in fascia alta di certo, ma proprio in quelle inferiori.
Ad esempio per un possessore invece di 5600 andare su una 6600 non ha più senso? :)
flavix25
12-08-2004, 18:20
infatti quello che volevo dire è che chi ha una 9800pro/xt non è molto furbo a passare a x800pro
sarebbe piu furbo uno che passa da 59xx a 6800xxxx
il passo tra 9800xt a x800 lo vedo come se io passassi da 5900xt a 6600gt
poi saro io che sono stupido ma la vedo cosi
flavix25
12-08-2004, 18:24
Originariamente inviato da bubbo87
mica tanto un pò...un pò tanto...+ del 100%..con i filtri anche il 150% in +;) ....forse sottovaluti troppo
guarda che ne sono sicuro pure io che la x800 duri piu di un anno ma purtroppo per lei non ha sm3 e ps3 quindi la durata la faranno i programmatori dei giochi che decideranno quando sfruttare al max questa architettura a quel punto ciao
Originariamente inviato da Dark Schneider
Ma sinceramente parlando ha ben poco da tirare fuori dal cilindro.
Vedi tu almeno che ti sta arrivando la X800 Pro..cmq hai anche parecchia potenza in più. Quindi alla fine anche se considerato un chip video "conservativo", sta di fatto che cmq tu ci guadagni anche in potenza. Perchè cmq usufruisci anche della potenza maggiore. :)
Ma è diverso il discorso per la fascia media e bassa. Qui a parte che adesso ci sono X300 e X600 che son appunto delle 9600 riciclate e con frequenze diverse (la x600xt è una 9600xt un po' potenziata), ma poi anche quando "magari" tirerà fuori più in là delle versioni depotenziate R420, tipo chessò RV410,ecc. alla fine si tratterà di schede identiche a quelle di prima, un po' più veloci perchè hanno frequenze più elevate e magari sto 3Dc. Però appunto ad un possessore di chessò 9600xt o 9800 che magari vuol spendere meno e ripiegare in modelli NON di fascia alta...alla fine non è che conviene molto. Cioè poco senso insomma.
Poi tu considera che Ati e nVidia gli incassi quelli veri non li fanno in fascia alta di certo, ma proprio in quelle inferiori.
Ad esempio per un possessore invece di 5600 andare su una 6600 non ha più senso? :)
;)...io cmnq parlo di futuro..soprattutto credo nelle prossime generazioni...ati non se lo rifarà mettere nel
[email protected] bisogna sempre vedere come andranno giochi come HL2:boh:
Originariamente inviato da flavix25
i non ha sm3 e ps3 quindi la durata la faranno i programmatori dei giochi che decideranno quando sfruttare al max questa architettura a quel punto ciao
a parte che shader model 3 e pixel shader 3 sono la stessa cosa detta con nomi diversi, credo proprio che quando cominceranno a venire usati manco sa avessi una 6800ultra staresti apposto
PhoEniX-VooDoo
12-08-2004, 18:38
X300 e X600 sono la versione PCIe dell'attuale fascia media e bassa (9200 e 9600). Non certo le schede che "dovranno vedersela" con le 6600 quindi non capisco le critiche...
La X800XT PE se la vede con la 6800Ultra e siamo OK, la PRo invece spesso non sta dietro alla GT ma è in arrivo la X800XT 500/1000, no fear...
E per dirla tutta è bene mettere in chiaro che ATi non ha dovuto rivoluzionare le sue schede per proporre livelli prestazionali a livello della concorrenza, che haimè, di certo non avrebbe potutto fare un evoluzione del triste progetto NV3x e quindi ha dovuto tirar fuori PER FORZA una nuova scheda/architettura.
Pensate che se NV3x fosse stato un chip vincente come l'R3xx nVidia avrebbe tirato fuori l'NV40 di oggi? Non credo proprio...avremmo una bella evoluzione del NV3x...e i bilanci parlano chiaro quanto a nVidia sia costata la cosa.
Se per coprire la fascia media ad ATi basta depotenziare le X800 rendendole su carta simili alle 9800 non vedo dove stia il problema...quando la scheda viaggia come o megli odella concorrente
Originariamente inviato da PhoEniX-VooDoo
Se per coprire la fascia media ad ATi basta depotenziare le X800 rendendole su carta simili alle 9800 non vedo dove stia il problema...quando la scheda viaggia come o megli odella concorrente
dove vedi schede simili a 9800 che viaggiano meglio della concorrenza scusa?
PhoEniX-VooDoo
12-08-2004, 18:48
Originariamente inviato da checo
dove vedi schede simili a 9800 che viaggiano meglio della concorrenza scusa?
leggi tutta la frase, come o meglio e non solo meglio.
Parlo delle nuove schede che Ati fara uscire per la fascia media...di certo non lascierà le X600 (che come ho detto sopra sono solo la versione PCIe delle 9600series) nella fascia delle 6600...
ricordatevi che Ati produrrà la GPU x XBOX2. nn poteva sviluppare adesso una nuova architettura xchè microsoft nn vorrà di certo un chip vecchio di un anno e mezzo.
a ok x700 alias 9800xt un pochetto pompate, quelle sono da fascia media indubbiamente
PhoEniX-VooDoo
12-08-2004, 18:51
Originariamente inviato da Ren
ricordatevi che Ati produrrà la GPU x XBOX2. nn poteva sviluppare adesso una nuova architettura xchè microsoft nn vorrà di certo un chip vecchio di un anno e mezzo.
infatti l'X-BOX II sarà equipaggiata con un'evoluzione di R500...
cmq non capisco perchè sia tanto difficile da concepire :p ...Ati ha tirato fuori il massimo, col minimo...è tutto quello che un'azienda può desiderare...
PhoEniX-VooDoo
12-08-2004, 18:54
Originariamente inviato da checo
a ok x700 alias 9800xt un pochetto pompate, quelle sono da fascia media indubbiamente
esatto ;)
quello che cercavo di dire è che non è un trauma il fatto che l'architettura sarà simile, se alla fine viaggia come una 6600GT che però non ha nulla a che vedere con una 5950 per esempio...
Quando giochi pensi a divertirti o pensi "quant'e figa la mia scheda che ha un architettura tutta differente da quella della precedente famiglia" ? :p
no io non critico mica l'architettura, ad ati critico il fatto di aver pensato esclusivamente alla scheda top tralasciando gli altri settori per il momento, ma sono certo che schede decenti arriveranno se vuole far soldi
x il mio modesto parere questa generazione ormai appartiene ad nvidia... la sua nuova architettura è superiore stop, ati nn potrà alzare le frequenze all'infinito ( e se nn avesse il costoso low-k nn arriverebbe alle frequenze attuali) e con l'ausilio dei 0.11micron la differenza si assottiglierà.
Originariamente inviato da PhoEniX-VooDoo
infatti l'X-BOX II sarà equipaggiata con un'evoluzione di R500...
cmq non capisco perchè sia tanto difficile da concepire :p ...Ati ha tirato fuori il massimo, col minimo...è tutto quello che un'azienda può desiderare...
;) :mano:...secondo me ne ha ancora di carte da giocare:)
Dark Schneider
12-08-2004, 19:01
Originariamente inviato da PhoEniX-VooDoo
X300 e X600 sono la versione PCIe dell'attuale fascia media e bassa (9200 e 9600). Non certo le schede che "dovranno vedersela" con le 6600 quindi non capisco le critiche...
La X800XT PE se la vede con la 6800Ultra e siamo OK, la PRo invece spesso non sta dietro alla GT ma è in arrivo la X800XT 500/1000, no fear...
E per dirla tutta è bene mettere in chiaro che ATi non ha dovuto rivoluzionare le sue schede per proporre livelli prestazionali a livello della concorrenza, che haimè, di certo non avrebbe potutto fare un evoluzione del triste progetto NV3x e quindi ha dovuto tirar fuori PER FORZA una nuova scheda/architettura.
Pensate che se NV3x fosse stato un chip vincente come l'R3xx nVidia avrebbe tirato fuori l'NV40 di oggi? Non credo proprio...avremmo una bella evoluzione del NV3x...e i bilanci parlano chiaro quanto a nVidia sia costata la cosa.
Se per coprire la fascia media ad ATi basta depotenziare le X800 rendendole su carta simili alle 9800 non vedo dove stia il problema...quando la scheda viaggia come o megli odella concorrente
A parte che la fantomatica X800GT...di cui non se ne sà più nulla. Ma la fascia alta è la fascia che meno fa incassare ai produttori. Quindi escluderei totalmente.
Non centra nulla di nulla il nVidia VS Ati. E' questione di guardare "in casa propria". Nella fascia media e bassa nVidia propone modelli che valgono la pena di cambiare se uno ha chessò un modello della precedente gamma.
In Ati questo non accadrà. Di certo sarà più di richiamo (e mi riferisco al Futuro bilancio nVidia) questa gamma "nuova". ;)
Semplicemente la Gamma Ati non è una Gamma attraente. Niente a che vedere con i tempi delle 9500 e 9700. ;)
cmq non capisco perchè sia tanto difficile da concepire ...Ati ha tirato fuori il massimo, col minimo...è tutto quello che un'azienda può desiderare...
dato che ha speso il minimo si deve decidere ad adottare una politica dei prezzi favorevole al consumatore...
Dark Schneider
12-08-2004, 19:15
Originariamente inviato da PhoEniX-VooDoo
Se per coprire la fascia media ad ATi basta depotenziare le X800 rendendole su carta simili alle 9800 non vedo dove stia il problema...quando la scheda viaggia come o megli odella concorrente
Non è che "basta depotenziare" e "rendendelo simili alle 9800". Sono le 9800 semplicemente.
Poi non dare per scontato che uno non ci va a guardare al fatto che questa determinata scheda è uguale a quella precedente...con prestazioni uguali o un po' migliori. La gente spesso compra anche considerando quella che gli "ispira" di più.
Io non sto dicendo che fa schifo la scheda ati prestazionalmente. Non sto parlando di prestazioni non sufficenti. :)
Voglio dire la 9800 Pro ormai son 7-8 mesi che costa poco più di 200 euro. Si magari la nuova avrà prestazoni un po' superiori a causa delle frequenza probabilmente maggiori. Ma comprare una 9800 o la "nuova" 9800 è uguale. Invece sai..se cmq ha realmente qlc in più...gli ispira anche di più. Penso io.
Questo al di là del fatto che uno si va a cambiare o meno la scheda naturalmente. :)
Dark Schneider
12-08-2004, 19:17
Cmq ragà ho notato che la scheda ha le frequenze di 1000 Mhz e non 1200 Mhz come sembrava fino a ieri.
Mi riferisco alla versione GT ovviamente della 6600.
Quindi 16 GB di banda.
Staremo a vedere...son curioso perchè cmq il fillrate è cmq ottimo: 4000. :)
Dark Schneider
12-08-2004, 19:25
Originariamente inviato da bubbo87
;) :mano:...secondo me ne ha ancora di carte da giocare:)
R500 arriverà nel periodo in cui arriverà NV50...cioè tra un bel po' di tempo. ;)
Nè Ati e nè nVidia son pazzi a presentare simili progetti a breve, visto che già nei primi mesi hanno faticato nel produrre i nuovi chip e adesso che hanno affinato la produzione e possono venderli in grossi quantitativi...figurati se adesso immettono nuove generazioni e più complesse che allo stato attuale porterebbe soltanto a grosse perdite di quattrini. Adesso da quando immetteranno fascia media e bassa inizieranno a guadagnare...e a guadagnare sulle spese. ;)
Originariamente inviato da Dark Schneider
R500 arriverà nel periodo in cui arriverà NV50...cioè tra un bel po' di tempo. ;)
Nè Ati e nè nVidia son pazzi a presentare simili progetti a breve, visto che già nei primi mesi hanno faticato nel produrre i nuovi chip e adesso che hanno affinato la produzione e possono venderli in grossi quantitativi...figurati se adesso immettono nuove generazioni e più complesse che allo stato attuale porterebbe soltanto a grosse perdite di quattrini. Adesso da quando immetteranno fascia media e bassa inizieranno a guadagnare...e a guadagnare sulle spese. ;)
;) :)
PhoEniX-VooDoo
12-08-2004, 19:33
Originariamente inviato da Ren
dato che ha speso il minimo si deve decidere ad adottare una politica dei prezzi favorevole al consumatore...
è un azienda, punta al profitto, come tutte a questo modno...non è babbo natale (purtroppo per noi)
Originariamente inviato da Dark Schneider
Non è che "basta depotenziare" e "rendendelo simili alle 9800". Sono le 9800 semplicemente.
Poi non dare per scontato che uno non ci va a guardare al fatto che questa determinata scheda è uguale a quella precedente...con prestazioni uguali o un po' migliori. La gente spesso compra anche considerando quella che gli "ispira" di più.
Io non sto dicendo che fa schifo la scheda ati prestazionalmente. Non sto parlando di prestazioni. :)
Voglio dire la 9800 Pro ormai son 7-8 mesi che costa poco più di 200 euro. Si magari la nuova avrà prestazoni un po' superiori a causa delle frequenza probabilmente maggiori. Ma comprare una 9800 o la "nuova" 9800 è uguale. Invece sai..se cmq ha realmente qlc in più...gli ispira anche di più. Penso io.
Questo al di là del fatto che uno si va a cambiare o meno la scheda naturalmente. :)
Scusa ma come si può non parlare delle prestazioni? A me ispira la Volari Duo...offre qualcosa che nessun altro offre, ê tecnologicamente affascinante...eppure ha un successo commerciale quasi nullo...dai!
A me ispira giocare bene, se ad ati per stare ai livelli della controparte (perche inequivocabilmente è sempre uno scontro...) basta una scheda poco più potente e ricca tecnologicamente della 9800Pro non è colpa sua.
Dovevano buttare nel cesso un progetto come R300 e investire i capitali che ha investito nvidia per inventarsi una nuova scheda, per ispirare qualche appassionato? Ma non scherziamo Dark ;)
Se le FX fossero state u nsuccesso nvidia ci propinava un'evoluzione come ha fatto ati...
Originariamente inviato da Dark Schneider
A parte che la fantomatica X800GT...di cui non se ne sà più nulla. Ma la fascia alta è la fascia che meno fa incassare ai produttori. Quindi escluderei totalmente.
Non centra nulla di nulla il nVidia VS Ati. E' questione di guardare "in casa propria". Nella fascia media e bassa nVidia propone modelli che valgono la pena di cambiare se uno ha chessò un modello della precedente gamma.
In Ati questo non accadrà. Di certo sarà più di richiamo (e mi riferisco al Futuro bilancio nVidia) questa gamma "nuova". ;)
Semplicemente la Gamma Ati non è una Gamma attraente. Niente a che vedere con i tempi delle 9500 e 9700. ;)
quoto in toto
Secondo voi con ati che fornirà il chip per l'Xbox2, quando questa uscirà si ripeterà quello che abbiamo visto con l'xbox e cioè che molte conversioni dei giochi dell'xbox2 gireranno meglio su ati?
Dark Schneider
12-08-2004, 19:51
Originariamente inviato da PhoEniX-VooDoo
è un azienda, punta al profitto, come tutte a questo modno...non è babbo natale (purtroppo per noi)
Scusa ma come si può non parlare delle prestazioni? A me ispira la Volari Duo...offre qualcosa che nessun altro offre, ê tecnologicamente affascinante...eppure ha un successo commerciale quasi nullo...dai!
A me ispira giocare bene, se ad ati per stare ai livelli della controparte (perche inequivocabilmente è sempre uno scontro...) basta una scheda poco più potente e ricca tecnologicamente della 9800Pro non è colpa sua.
Dovevano buttare nel cesso un progetto come R300 e investire i capitali che ha investito nvidia per inventarsi una nuova scheda, per ispirare qualche appassionato? Ma non scherziamo Dark ;)
Se le FX fossero state u nsuccesso nvidia ci propinava un'evoluzione come ha fatto ati...
Quando uno compra..compra la scheda che gli ispira. Ripeto: penso io.
Come ha detto checo qlc riga sopra: non è che ad Ati gli si critica l'architettura. Ma il fatto che ha dato importanza esclusivamente alla fascia alta...ha pensato solo alla fascia alta. ;)
nVidia veramente invece no..se guadiamo al passato anche quando ha avuto "successo", ha sempre proposto la nuova generazione ed il suo potenziamento.
Guarda che tra l'altro i produttori non guadagnano solo nel mercato di videogiochi...anzi quello dei videogiochi è dove proprio guadagnano meno(l'hardcore gamer costituisce il 2%).
Quando progettano una GPU devono soddisfare anche altri settori. Quindi riguardo nVidia la ricerca e il continuo rinnovarsi costituisce un motivo di interesse per sè stessa. :)
PhoEniX-VooDoo
12-08-2004, 20:15
Originariamente inviato da Dark Schneider
Quando uno compra..compra la scheda che gli ispira. Ripeto: penso io.
Come ha detto checo qlc riga sopra: non è che ad Ati gli si critica l'architettura. Ma il fatto che ha dato importanza esclusivamente alla fascia alta...ha pensato solo alla fascia alta. ;)
Certo e quanti sono a conoscneza di cosa sia l'architettura di una scheda video? A quanti interessa, considerando le performace finali? ...e quanto questo interessa a quelle aziende che comissionano i PC? Ma sopratutto, cosa offre di piu questa nuova architettura nVidia...alla fine, quando uno gioca? Lo SM3? dai...
Alla fine prendi un PC con una 6600 e uno con una ipotetica X700 e dimmi te dove vedi la differenza...non la vedi! Tutto ciò che fa la differenza sono i tuoi preconcetti e ispirazioni che nascono dal fatto che tu sai che nvidia ha DOVUTO adottare una nuova architettura mentre ATi l'ha solo ritoccata, ma la gente comune e le aziende che faranno fare i soldi se ne sbattono...
Originariamente inviato da Dark Schneider
nVidia veramente invece no..se guadiamo al passato anche quando ha avuto "successo", ha sempre proposto la nuova generazione ed il suo potenziamento.
Guarda che tra l'altro i produttori non guadagnano solo nel mercato di videogiochi...anzi quello dei videogiochi è dove proprio guadagnano meno(l'hardcore gamer costituisce il 2%).
Quando progettano una GPU devono soddisfare anche altri settori. Quindi riguardo nVidia la ricerca e il continuo rinnovarsi costituisce un motivo di interesse per sè stessa. :)
Questo non sta molto in piedi perchè ora la situazione è diversa.
Il passaggio dalla GF2 alla GF3 implicava la rivoluzione della GPU perche c'era il passaggio dalle DX7 alle DX8.
Il passaggio dalla GF3 alla GF4 non è stato affatto rivoluzionario, e guardacaso si passva da DX8 a DX8. Ciò non toglie il fatto che le GF4 erano ottime...
Il passaggio dalla GF4 alla GF FX doveva essere neccesariamente una rivolzione dell'architettura, perchè veniva aggiunto il supporto alle DX9 con tutto ciò che comporta...
Ora, visto che l'NV30 è stato un FLOP, e l'NV35 un disperato tentativo di miglioramento, NV40 DOVEVA ESSERE PER FORZA una rivoluzione, nonostante non si trattasse di creare una scheda con supporto a nuove DX. Sarà la quarta volta che lo ripeto, se NV30/35 fosse stata un architettura azzeccata adesso avevamo un NV40 che è la sua evoluzione, come lo è l'R420 del R300/350/360.
Illuminami sugli altri settori (office? ...girano ancora le TNT...) e passami un link dove si dice che solo il 2% delle schede video è usato per videogiochi please ;)
ciuss
Dragon2002
12-08-2004, 20:17
Cmq sono proprio sorpreso da Nvidia nn tanto per le varie 6800ultra e 6800gt che mi aspettavo riuscissero a riprendere le schede di fascia alta di Ati,ma sono rimasto stupito da questa 6600gt cavolo a un prezzo di 200euro propone una scheda di fascia media con 8 pipeline con lo stesso hardware della 6800ultra e con frequenze altissime,si è vero ha le ram a 128 bit ma he le frequenze di 500 per la gpu e 500 per le ram queste le specifiche ufficiali sono spaventose,pensate una 9600xt con 8 pipeline e le frequenze della ram a 500mhz avrebbe prestazioni incredibili,con questa mossa stradominera il mercato di fascia media,nn posso credere che ati nn risponda, si sa nulla della x800se??????????
Originariamente inviato da Dragon2002
Cmq sono proprio sorpreso da Nvidia nn tanto per le varie 6800ultra e 6800gt che mi aspettavo riuscissero a riprendere le schede di fascia alta di Ati,ma sono rimasto stupito da questa 6600gt cavolo a un prezzo di 200euro propone una scheda di fascia media con 8 pipeline con lo stesso hardware della 6800ultra e con frequenze altissime,si è vero ha le ram a 128 bit ma he le frequenze di 500 per la gpu e 500 per le ram queste le specifiche ufficiali sono spaventose,pensate una 9600xt con 8 pipeline e le frequenze della ram a 500mhz avrebbe prestazioni incredibili,con questa mossa stradominera il mercato di fascia media,nn posso credere che ati nn risponda, si sa nulla della x800se??????????
secondo me ati lancerà la x800se...però non si sa mai...;)
PhoEniX-VooDoo
12-08-2004, 20:33
Originariamente inviato da bubbo87
secondo me ati lancerà la x800se...però non si sa mai...;)
La X800SE è come la 6800LE, sono schede per il mercato OEM, non le vedremo mai in una scatola sullo scaffale...
Originariamente inviato da PhoEniX-VooDoo
La X800SE è come la 6800LE, sono schede per il mercato OEM, non le vedremo mai in una scatola sullo scaffale...
ah, è vero:( ...si troveranno solo usate:)
a quanto dice 3ditalia la 6600 LISCIA non supporterà lo SLI mentre la GT sì: credo mancherà il canale esterno di collegamento, voi cosa dite? Il chip è lo stesso della GT.....
Per il numero di motori vertex nessuno sa nulla?
Originariamente inviato da lowenz
credo mancherà il canale esterno di collegamento, voi cosa dite?
sono un orbo :D :D BASTA GUARDARE LE FOTO eheh: manca manca ;)
Dumah Brazorf
12-08-2004, 21:50
Beh non preoccupatevi che se sarà il caso le venderanno anche in versione bulk 'ste schede OEM... ;)
Ciao.
Dragon2002
12-08-2004, 22:22
Sta 6600gt mi acchiapa ormai sono diventato mezzo matto e cambio hardware spesso,potrei anche fare a cambio con la mia 9800pro anche se forse andranno uguali,uscira in versione agp????
the_dark_shadow
12-08-2004, 22:23
Originariamente inviato da Dragon2002
Sta 6600gt mi acchiapa ormai sono diventato mezzo matto e cambio hardware spesso,potrei anche fare a cambio con la mia 9800pro anche se forse andranno uguali,uscira in versione agp????
credo di si grazie al bridge nvidia...:D
com'è ke si kiama?
PhoEniX-VooDoo
12-08-2004, 22:29
io per un dual 6600GT su nforce4 e A64 s939 darei via il sys attuale senza pensarci ;) (tutto il mio discorso di prima non vuol dire che non mi piaccia sta schedina...anzi :p )
Dragon2002
12-08-2004, 22:35
Mi sa di successore di 9500pro una schedozza che ho avuto per 1 anno e mezzo,mi convinse subito appena uscirono le carateristiche tecniche che poi vennero confermate con le prime recensioni,aspettiamo le recensioni poi vediamo come va sta bestiola,tanto io ho un'assegno che sia chiama 9800pro:sofico: :sofico:
Originariamente inviato da PhoEniX-VooDoo
io per un dual 6600GT su nforce4 e A64 s939 darei via il sys attuale senza pensarci ;) (tutto il mio discorso di prima non vuol dire che non mi piaccia sta schedina...anzi :p )
dici poco:D :sofico:
the_dark_shadow
12-08-2004, 23:01
Originariamente inviato da bubbo87
dici poco:D :sofico:
:sofico: :sofico: :sofico:
Originariamente inviato da Dark Schneider
A parte che la fantomatica X800GT...di cui non se ne sà più nulla. Ma la fascia alta è la fascia che meno fa incassare ai produttori. Quindi escluderei totalmente.
Non centra nulla di nulla il nVidia VS Ati. E' questione di guardare "in casa propria". Nella fascia media e bassa nVidia propone modelli che valgono la pena di cambiare se uno ha chessò un modello della precedente gamma.
In Ati questo non accadrà. Di certo sarà più di richiamo (e mi riferisco al Futuro bilancio nVidia) questa gamma "nuova". ;)
Semplicemente la Gamma Ati non è una Gamma attraente. Niente a che vedere con i tempi delle 9500 e 9700. ;)
Mi sembra che tu parta dal presupposto sbagliato , un upgrade , per essere tale deve riguardare schede che sono state commercializzate nella stessa fascia passare da "scheda di punta di generazione precedente" a "scheda di fascia media di nuova generazione" non é mai stato conveniente in precedenza ( chi ha mollato una 4600 per passare a una 5600 ? ) e difficilmente sarà conveniente questo giro , a prescindere dalla marca , e se qualcuno potrebbe pensare di fare il salto 5900->6600 questo é dovuto solo al fatto che le schede NV3X non sono riuscite proprio proprio bene .
ma la 6600 integrerà il video processing ?
the_dark_shadow
12-08-2004, 23:09
Originariamente inviato da Ren
ma la 6600 integrerà il video processing ?
boh....
Dark Schneider
12-08-2004, 23:31
Originariamente inviato da PhoEniX-VooDoo
Certo e quanti sono a conoscneza di cosa sia l'architettura di una scheda video? A quanti interessa, considerando le performace finali? ...e quanto questo interessa a quelle aziende che comissionano i PC? Ma sopratutto, cosa offre di piu questa nuova architettura nVidia...alla fine, quando uno gioca? Lo SM3? dai...
Alla fine prendi un PC con una 6600 e uno con una ipotetica X700 e dimmi te dove vedi la differenza...non la vedi! Tutto ciò che fa la differenza sono i tuoi preconcetti e ispirazioni che nascono dal fatto che tu sai che nvidia ha DOVUTO adottare una nuova architettura mentre ATi l'ha solo ritoccata, ma la gente comune e le aziende che faranno fare i soldi se ne sbattono...
Ma quali preconcetti. E' un dato di fatto che nVidia ha sempre presentato una nuova generazione e poi il suo potenziamento.
Te li devo ricordare?(vabbè li ho scritto sotto)
Seconda cosa non centra nulla il discorso che fai sopra. Se per questo nessuno si compra le x800 o 6800 o compagnia bella.
Però la gente che sta attenta o che cmq un minimo di attenzione lo prestano agiscono esattamente come ti ho detto: la scheda deve ispirare. Se bisogna seguire il tuo discorso allora possono anche proporci sempre la solita scheda rimarchiata con un nuovo numero, TANTO la maggior parte della gente è ignorante...mica se ne accorge...no? ;) Mi sembra ovvio che mi riferisco a CHI un po' ci fa attenzione. E' sinceramente chi ci fa attenzione..ci mette anche il fatto che la scheda gli deve ispirare. ;)
Originariamente inviato da PhoEniX-VooDoo
Questo non sta molto in piedi perchè ora la situazione è diversa.
Il passaggio dalla GF2 alla GF3 implicava la rivoluzione della GPU perche c'era il passaggio dalle DX7 alle DX8.
Il passaggio dalla GF3 alla GF4 non è stato affatto rivoluzionario, e guardacaso si passva da DX8 a DX8. Ciò non toglie il fatto che le GF4 erano ottime...
Il passaggio dalla GF4 alla GF FX doveva essere neccesariamente una rivolzione dell'architettura, perchè veniva aggiunto il supporto alle DX9 con tutto ciò che comporta...
Ora, visto che l'NV30 è stato un FLOP, e l'NV35 un disperato tentativo di miglioramento, NV40 DOVEVA ESSERE PER FORZA una rivoluzione, nonostante non si trattasse di creare una scheda con supporto a nuove DX. Sarà la quarta volta che lo ripeto, se NV30/35 fosse stata un architettura azzeccata adesso avevamo un NV40 che è la sua evoluzione, come lo è l'R420 del R300/350/360.
Illuminami sugli altri settori (office? ...girano ancora le TNT...) e passami un link dove si dice che solo il 2% delle schede video è usato per videogiochi please ;)
ciuss
Ma quale GeForce 2 a GeForce 3.
Progetto nuovo: Riva 128
Riva 128 ZX potenziamento del Riva 128
Progetto nuovo: Riva TNT
Riva TNT 2 potenziamento del TNT
Progetto nuovo: GeForce 256
GeForce 2 potenziamento del GF256
Progetto nuovo: GeForce 3
GeForce 4 potenziamento del GF3
Progetto nuovo: GeForce FX (NV30)
GeForce FX 5900 (NV35) potenziamento (NV30)
Progetto nuovo: GeForce 6 6800 (NV40)
Il prossimo potenziamento sarà la NV48
Tutte architetture ideate e poi potenziate con le successive schede. Le nuove generazioni son state: Riva 128, Riva TNT, GeForce 256 (NV10), GeForce 3 (NV20), GeForce FX 5800 (NV30) e adesso GeForce 6800 (NV40). Gli altri riprendono l'architettura e potenziano.
Guarda che SE togli la FX..gli altri son stati tutti chip video di successo e nVidia ha sempre rinnovato. ;) Nonostante il flop del NV3x...nVidia non ha modificato il suo atteggiamento. nVidia ha sempre agito così...e così continua punto. Nè più e nè meno.
Altra cosa...ma davvero credi che il mercato dell'hardcore gamer sia importante per nVidia ed Ati per guadagnare? Guarda che per nVidia ed Ati non ci fanno grossi guadagni.
Vuoi un link? Certo che te lo dò....anzi vedrai che di cose interessanti ce ne sono scritte. E' lo dice il Pr nVidia Luciano Alibrandi (ex 3dfx) e spiega delle cosine che si tengono in mente quando si va a progettare una GPU...e scoprirai che il mercato dell'Hardocre Gamer non vale QUASI NULLA. :rolleyes:
Forse noi crediamo che questi produttori..progettano le GPU per il videogioco. Ma non è assolutamente così. Quindi quando si "rinnovano" mica è per i videogiochi. Loro NON basano il loro lavoro sul videogioco.
Ecco il Link ed anche l'estratto ;)
http://hardware.multiplayer.it/oldnews.php3?ps=1&off=0&numres=10&testo=cinque+domande+a+nVidia&numres=10&sortby=date_des&day_start=12&month_start=5&year_start=2004&day_end=12&month_end=8&year_end=2004
Ecco due estratti:
3D Italia.com - NVIDIA pensa di mantenere in futuro un ciclo vitale di 6 mesi per le sue GPU di fascia alta?
NVIDIA - I 6 mesi rappresentano il refresh di prodotti. L'introduzione di una nuova architettura richiede un anno. Il ritmo resto lo stesso, ogni volta che possiamo offire riduzione di costi e incrementi di performance, li offriamo al mercato tramite i prodotti dei nostri partners.
3D Italia.com - Di solito, quando i vostri ingegneri iniziano a lavorare su una nuova GPU, il vostro scopo principale è quello di raggiungere il livello massimo delle prestazioni o di bilanciare quest'ultimo con il prezzo finale? O meglio: i vostri ingegneri sono obbligati a tenere in considerazione i costi produttivi o sono liberi di fare ciò che vogliono per ottenere le massime prestazioni senza che il prezzo sia considerato?
NVIDIA - Lo scopo fondamentale e' di poter creare delle architetture che possano essere declinate nei diversi mercati e nei diversi segmenti di mercato. Effettuare un investimento in Research and Development di millioni di dollare e indirizzarsi solamente all'hard core gamers, non avrebbe nessun senso, poiche' l'hard core gamer rappresenta solamente il 2% del mercato. L'architettura deve essere studiata per accontatare in ogni segmento i bisogni propri a questi. Il costo di un chip dipende da diversi fattori, la dimensione e forse la piu importante. Creare chip di fascia alta implica la produzione di chip di grandezza elevata e quindi se ne potranno mettere di meno in un solo "die"' se le dimensioni sono piu piccole, si potranno mettere piu chips. Gli ingenieri lavorano pensando non solo a creare una GPU potente per qualsiasi segmento ma anche a come poter massimizzare i costi di produzione, per poter offrire a tutti gli utenti il costo di acquisto migliore per il segmento specifico. Se il costo non fosse il problema, potremmo costruire oggi GPU che sono piu veloci di quelle disponibili attualmente...e di molto.
Dark Schneider
12-08-2004, 23:38
Originariamente inviato da Cfranco
Mi sembra che tu parta dal presupposto sbagliato , un upgrade , per essere tale deve riguardare schede che sono state commercializzate nella stessa fascia passare da "scheda di punta di generazione precedente" a "scheda di fascia media di nuova generazione" non é mai stato conveniente in precedenza ( chi ha mollato una 4600 per passare a una 5600 ? ) e difficilmente sarà conveniente questo giro , a prescindere dalla marca , e se qualcuno potrebbe pensare di fare il salto 5900->6600 questo é dovuto solo al fatto che le schede NV3X non sono riuscite proprio proprio bene .
Ma quale presupposto sbagliato? Guarda che SE hai letto cosa ho scritto in precedenza ho detto "Questo al di là del fatto che uno si va a cambiare o meno la scheda naturalmente. " ;)
Chi ti dice che uno che ha preso la fascia alta..si vuole riprendere la fascia alta? Poi scusa ma perchè una fascia media non può risultare migliore di un ex di fascia alta? Guarda 9500Pro e 8500 (gran scheda la 9500 Pro). ;)
PhoEniX-VooDoo
12-08-2004, 23:40
...inoltre probabilmente ASUS, XFX ecc metterannno una versione "cattiva" della 6600Gt, magari con GDDR3 da 1.6ns e un bel pezzo di Rame sulla VPU rendendo la scheda ancora piu appetibile.
...un po come fu la ASUS V8420S, Ti4200...pbc della 4600, GPU @260Mhz, etrontech 3.3ns @550Mhz che si clockavano fino a 720Mhz senza dissi...la scheda che piu di tutte quelle che ho avuto mi è piaciuta, dopo la mia X800PRO ovviamente...4pipeline regalate :asd:
Originariamente inviato da PhoEniX-VooDoo
...inoltre probabilmente ASUS, XFX ecc metterannno una versione "cattiva" della 6600Gt, magari con GDDR3 da 1.6ns e un bel pezzo di Rame sulla VPU rendendo la scheda ancora piu appetibile.
...un po come fu la ASUS V8420S, Ti4200...pbc della 4600, GPU @260Mhz, etrontech 3.3ns @550Mhz che si clockavano fino a 720Mhz senza dissi...la scheda che piu di tutte quelle che ho avuto mi è piaciuta, dopo la mia X800PRO ovviamente...4pipeline regalate :asd:
ma la tua è vivo...sono moddabili al 99%:mad: :muro: :mc:
Dark Schneider
12-08-2004, 23:48
Originariamente inviato da Ren
ma la 6600 integrerà il video processing ?
Si! :)
Ricordo che sta scritto anche sull'articolo di Corsini-Vifani che tutte le fasce integravano il Video Processor!! :)
flavix25
12-08-2004, 23:50
Chi ti dice che uno che ha preso la fascia alta..si vuole riprendere la fascia alta? Poi scusa ma perchè una fascia media non può risultare migliore di un ex di fascia alta? Guarda 9500Pro e 8500 (gran scheda la 9500 Pro). ;)
come per ati anche per nvidia guarda 59xx e 6600gt
nonostante non sia ancora uscita e che abbia il bus a 256 penso che alla 59xx non la vede neanche
Dark Schneider
12-08-2004, 23:52
Originariamente inviato da PhoEniX-VooDoo
...inoltre probabilmente ASUS, XFX ecc metterannno una versione "cattiva" della 6600Gt, magari con GDDR3 da 1.6ns e un bel pezzo di Rame sulla VPU rendendo la scheda ancora piu appetibile.
...un po come fu la ASUS V8420S, Ti4200...pbc della 4600, GPU @260Mhz, etrontech 3.3ns @550Mhz che si clockavano fino a 720Mhz senza dissi...la scheda che piu di tutte quelle che ho avuto mi è piaciuta, dopo la mia X800PRO ovviamente...4pipeline regalate :asd:
XFX si...Asus dubito fortemente. Si stanno sempre più "reincretinendo"...addirittura pare che nella 6800 Ultra mette le stesse della 6800 GT: da 2 ns. :asd:
flavix25
12-08-2004, 23:55
comunque a parte tutto nvidia ha sempre aumentato le prestazioni quasi in tutto, se uno oltre a guardare i test in direct3d si guarda anche i test per esempio in opengl vedra che a ogni generazione le prestazioni sono aumentate del doppio!
questo ci fa capire ancora una vola che nvidia non pensa solo ai giocatori...
Dark Schneider
12-08-2004, 23:56
Originariamente inviato da flavix25
come per ati anche per nvidia guarda 59xx e 6600gt
nonostante non sia ancora uscita e che abbia il bus a 256 penso che alla 59xx non la vede neanche
Penso che le 5900 si.
Ho qlc dubbio però che vadano meglio delle 9800 Pro.
Cioè...la banda è di 16 GB. Certo la potenza ce l'ha...4000 di Fillrate.
Però quella banda mi fa temere per quanto si applicheranno i filtri. Avrei preferito un 19-20 GB.
Probabilmente la potenza siam lì con le 5900. Poi però c'è da dire che sicuro sono maggior efficenti. Appunto sopratutto con gli shader. :)
flavix25
12-08-2004, 23:58
poi uscirà anche la x800proultrasupermangiacxxxxi ecc ecc ma e dico ma c'è ancora da vedere lo sli come va e penso che bastano 2x6600gt per battere la scheda di punta di ati
flavix25
13-08-2004, 00:01
Probabilmente la potenza siam lì con le 5900. Poi però c'è da dire che sicuro sono maggior efficenti. Appunto sopratutto con gli shader. :)
se ci pensi bene come potenza pura anche le ti4x00 sono molto vicine alla serie 59xx prima di sputarmi in faccia ti dico che prima avevo una ti4200 che non saliva un cxxxo ma che confronto alla 5900xt non sfigurava molto anzi... eppure la differenza con i filtri è infinita
PhoEniX-VooDoo
13-08-2004, 00:05
Originariamente inviato da Dark Schneider
Ma quali preconcetti. E' un dato di fatto che nVidia ha sempre presentato una nuova generazione e poi il suo potenziamento.
Te li devo ricordare?(vabbè li ho scritto sotto)
Seconda cosa non centra nulla il discorso che fai sopra. Se per questo nessuno si compra le x800 o 6800 o compagnia bella.
Però la gente che sta attenta o che cmq un minimo di attenzione lo prestano agiscono esattamente come ti ho detto: la scheda deve ispirare. Se bisogna seguire il tuo discorso allora possono anche proporci sempre la solita scheda rimarchiata con un nuovo numero, TANTO la maggior parte della gente è ignorante...mica se ne accorge...no? ;) Mi sembra ovvio che mi riferisco a CHI un po' ci fa attenzione. E' sinceramente chi ci fa attenzione..ci mette anche il fatto che la scheda gli deve ispirare. ;)
Se la scheda va il doppio e si attiene agli standard qualitativi massimi che permettono i giochi, per me va benissimo, non mi interessa se l'architettura è simile a quella precedente, mi interessa cosa e come vedo su schermo! Tu dimmi se vedi differenze tra la qualità di un gioco settato al massimo tra una 6800U (architettura nuova fiammante) e una X800XT (schifosa architettura riciclata) ...
Per il discorso gf-gf1-gf2 ecc. ecc. avevo capito male quello che intendevi. Quindi secondo te, se nv30 fosse stato un successo ora avremmo ugualmente l'nv40 che abbiamo ora? ...guarda forse hai ragione, però io resto un po dubbioso...sopratutto considerati i soldini che ci hanno messo...
Cmq per hardcore gamer cosa si intende? Il fanatico che gioca a Ut in un clan e si allena 3 volte a settimana? No perchè io proprio non ci arrivo, quali caspita sono tutti questi fantomatici altri segmenti di mercato? Una bella torta con le fette e le % cosi capisco?
Cioè ma allora chi se le compra queste schede? E noi che giochiamo qualche ora nel week end e se capita in settimana di che fasciadi mercato facciamo parte?
mah!
flavix25
13-08-2004, 00:07
Comunque dark che ne dici se vendo la mia 5900xt ora che ne so sui 140 e a settwembre mi prendo la 6600gt? approposito uscira per settembre?
lo so che sarebbe meglio una 6800liscia ma non ho i soldi per arrrivare a 300 euro della 6800liscia
flavix25
13-08-2004, 00:10
Originariamente inviato da PhoEniX-VooDoo
Se la scheda va il doppio e si attiene agli standard qualitativi massimi che permettono i giochi, per me va benissimo, non mi interessa se l'architettura è simile a quella precedente, mi interessa cosa e come vedo su schermo! Tu dimmi se vedi differenze tra la qualità di un gioco settato al massimo tra una 6800U (architettura nuova fiammante) e una X800XT (schifosa architettura riciclata) ...
Per il discorso gf-gf1-gf2 ecc. ecc. avevo capito male quello che intendevi. Quindi secondo te, se nv30 fosse stato un successo ora avremmo ugualmente l'nv40 che abbiamo ora? ...guarda forse hai ragione, però io resto un po dubbioso...sopratutto considerati i soldini che ci hanno messo...
Cmq per hardcore gamer cosa si intende? Il fanatico che gioca a Ut in un clan e si allena 3 volte a settimana? No perchè io proprio non ci arrivo, quali caspita sono tutti questi fantomatici altri segmenti di mercato? Una bella torta con le fette e le % cosi capisco?
Cioè ma allora chi se le compra queste schede? E noi che giochiamo qualche ora nel week end e se capita in settimana di che fasciadi mercato facciamo parte?
mah!
ma lo sai che esstono anche le gf quadro e le ati firegl? e lo sai quanto costano? e dico lo sai che vanno si e no un quarto della tua scheda video nei giochi?Bè questo è un esempio dell'altra parte di torta di mercato..........
Dark Schneider
13-08-2004, 00:18
Originariamente inviato da flavix25
se ci pensi bene come potenza pura anche le ti4x00 sono molto vicine alla serie 59xx prima di sputarmi in faccia ti dico che prima avevo una ti4200 che non saliva un cxxxo ma che confronto alla 5900xt non sfigurava molto anzi... eppure la differenza con i filtri è infinita
Beh diciamo che le GeForce 4 Ti son uscite molto bene.....e le FX meno...e magari appunto non sfiguravano. Con i filtri ovvio, ma perchè la generazione dei filtri è quella R3xx/NV3x in su.
PhoEniX-VooDoo
13-08-2004, 00:32
Originariamente inviato da flavix25
ma lo sai che esstono anche le gf quadro e le ati firegl? e lo sai quanto costano? e dico lo sai che vanno si e no un quarto della tua scheda video nei giochi?Bè questo è un esempio dell'altra parte di torta di mercato..........
meno male che ci sei tu a ricordarmelo...
...e sicuramente tutti gli studi di architettura e grafica 3d, appena esce una nuova sk video buttano via quelle vecchie per upgradare, e sicuramente rappresentano una grande percentuale della torta...
...certo
Il grosso imho è rappresentato dal utente medio, che compra la fascia medio/bassa - medio/alta e usa il pc per internet, multimedia e gaming...e che guardacaso se uno gli chiede se la sua scheda video lo ispira gli ride in faccia :D
flavix25
13-08-2004, 00:36
l'utente medio non compra la scheda video ,medio bassa o medio alta compra un pc preassemblato!
PhoEniX-VooDoo
13-08-2004, 00:52
Originariamente inviato da flavix25
l'utente medio non compra la scheda video ,medio bassa o medio alta compra un pc preassemblato!
nel quale, guardacaso, a meno che non sia un entry level proprio cesso, c'e una sk di fascia media (m-bassa o m-alta).
Mentre nel segmento ufficio vanno a posizionarsi le sk di facia bassa...
Originariamente inviato da PhoEniX-VooDoo
nel quale, guardacaso, a meno che non sia un entry level proprio cesso, c'e una sk di fascia media (m-bassa o m-alta).
Mentre nel segmento ufficio vanno a posizionarsi le sk di facia bassa...
e poi se posso aggiungere nei pcpreassemblati anche medi c'è sempre una vga scarsa...un mio amico ha appena preso un pc preassemblato a circa 700€...dentro si è trovato una 9200SE:rolleyes:....lui visto che non conosce nulla dei pc si illude che sia buona ma gli ho detto che è una delle peggiori e lui però non ci crede...beh affari suoi;)
PhoEniX-VooDoo
13-08-2004, 01:00
Originariamente inviato da bubbo87
e poi se posso aggiungere nei pcpreassemblati anche medi c'è sempre una vga scarsa...un mio amico ha appena preso un pc preassemblato a circa 700€...dentro si è trovato una 9200SE:rolleyes:....lui visto che non conosce nulla dei pc si illude che sia buona ma gli ho detto che è una delle peggiori e lui però non ci crede...beh affari suoi;)
vabbhe il tuo amico è andato al supermercato e ha preso il PC meno costoso che c'era...
Originariamente inviato da PhoEniX-VooDoo
vabbhe il tuo amico è andato al supermercato e ha preso il PC meno costoso che c'era...
cmnq è capitato anche a me in un pc da 1400€...mi sono trovato una geffo4 mx440 128mb:(
no no lo abbiamo scelto dopo vari negozi ma lui doveva stare su quel budget e allora si è cuccato quel pc...forse l'unica cosa discreta è il procio..un barton 3000+;) ...
cmnq adesso devo fare una precisazione che poi vado;)
ati ha fatto un piacere ad nvidia, che è stato quello di concedergli l'utilizzo di memorie gddr3 per le sue vga...se non glielo avesse concesso nvidia starebbe ben indietro...quindi almeno in questo deve essere riconoscente;)
Originariamente inviato da PhoEniX-VooDoo
io per un dual 6600GT su nforce4 e A64 s939 darei via il sys attuale senza pensarci ;) (tutto il mio discorso di prima non vuol dire che non mi piaccia sta schedina...anzi :p )
sarebbe veramente impressionante... un bel sistemone power nVidia (Chipset + Dual Gpu Sli) clokkato da un 939, ke stanno facendo vedere i sorci verdi a intel ( nn so se li avete i benc d DOOM3 su sistemi 939 Vs Precotti Vs P4EE Vs 754 ):D
6600 GT:
# DirectX support: DirectX 9.0c (SM 3.0)
# Pixel pipelines: 8
# Vertex shaders: 3
# Manufacturing process: 110 nanometer
# Transistors: 146 million
# Core clock speed: 500MHz
# Memory clock speed: 1000MHz (DDR)
# Memory expansion: 128/256 MB
# Memory technology: GDDR3
# Memory buswidth: 128-bit
# Other features: Integrated video processor; SLI support; no additional power supply
# Probable street price: $199 - $229
6600 liscia:
# DirectX support: DirectX 9.0c (SM 3.0)
# Pixel pipelines: 8
# Vertex shaders: 3
# Manufacturing process: 110 nanometer
# Transistors: 146 million
# Core clock speed: 300MHz
# Memory clock speed: 550MHz (DDR)+ (not yet conclusively specified)
# Memory expansion: 128/256 MB
# Memory technology: GDDR1
# Memory buswidth: 128-bit
# Other features: Integrated video processor; no additional power supply
# Probable street price: $149 - $179
Dark Schneider
13-08-2004, 01:10
Originariamente inviato da PhoEniX-VooDoo
Se la scheda va il doppio e si attiene agli standard qualitativi massimi che permettono i giochi, per me va benissimo, non mi interessa se l'architettura è simile a quella precedente, mi interessa cosa e come vedo su schermo! Tu dimmi se vedi differenze tra la qualità di un gioco settato al massimo tra una 6800U (architettura nuova fiammante) e una X800XT (schifosa architettura riciclata) ...
Per il discorso gf-gf1-gf2 ecc. ecc. avevo capito male quello che intendevi. Quindi secondo te, se nv30 fosse stato un successo ora avremmo ugualmente l'nv40 che abbiamo ora? ...guarda forse hai ragione, però io resto un po dubbioso...sopratutto considerati i soldini che ci hanno messo...
Cmq per hardcore gamer cosa si intende? Il fanatico che gioca a Ut in un clan e si allena 3 volte a settimana? No perchè io proprio non ci arrivo, quali caspita sono tutti questi fantomatici altri segmenti di mercato? Una bella torta con le fette e le % cosi capisco?
Cioè ma allora chi se le compra queste schede? E noi che giochiamo qualche ora nel week end e se capita in settimana di che fasciadi mercato facciamo parte?
mah!
Phoenix è questo il punto. Io non sto facendo il confronto Ati Vs nVidia in fatto di prestazioni o simili. E' non sto dicendo questa architettura fa paura mentre quest'altra fa schifo.
Ma sto guardando "all'interno" di Ati e nVidia.
E' dico che personalmente, potenza a parte e tutto il resto...quando compro la scheda mi deve pure ispirare. :) E' son molti che fanno così se devono fare un acquisto. Per di più sto semplicemente dicendo che nonostante l'architettura ati vada cmq bene, se per caso dovrei comprare o vorrei comprare o sono uno che gli piace "provare" o quello che sia...l'attuale gamma Ati non mi attrae, fascia alta a parte(che cmq offre di più)...nella media tra 9800 Pro (perchè ripeto son 7-8 mesi che è diventata da fascia media..sembra solo ieri..ma invece è da tantissimo) ed una scheda che poi ricalca la 9800 Pro con qlc differenza "piccola" (quindi manco si parla di + pipeline,ecc. che come ho detto in precedenza..anche se un architettura è uguale ma ha caratteristiche maggiori..cmq ha più senso ed ispira cmq di più)...non ne sono attratto. :)
8 mesi fa compravo una 9800 Pro a poco più di 200. Da oggi fino a 8 mesi in avanti che possibilità di acquisto ho? Ricompro una 9800 Pro..un po' diversificata con magari frequenze un po' maggiori...ma una 9800 Pro se vogliam dirla tutta. Non mi dice niente. Che poi la scheda si comporta bene..ok, ma a volte c'è quel "qualcosa" che uno sente che deve avere la scheda...ed uno vorrebbe provare qlc di nuovo.
Se nVidia domani fa la stessa cosa per me è uguale...vorrà dire che i prodotti non "mi diranno nulla".
Sul fatto del NV30 a NV40...si esatto avremo cmq NV40. Alla fine tieni conto che da come ha detto fek, nVidia ha 2 team di sviluppo...mentre una GPU viene progettata...un altra fa la generazione successiva. Ovvio che se quelli di NV30 incontrano alcune difficoltà,ecc. quelli di NV40 già sanno cosa non fare :)
C'è già una pianificazione...una roadmap(che poi si crea man mano che si va avanti). Non è che dal giorno dopo si iniziano ad inventare le generazioni nuove. :)
Riguardo i segmenti di mercato, si praticamente noi siamo probabilmente quel 2% e cmq molto probabilmente non immaginiamo appunto a quanti segmenti di mercato ci sono. Se lo dice...cmq vuol dire che ce ne son molti(o cmq di più importanti). Ma poi tieni conto che ad esempio tipo nVidia è impegnata nel cinema,ecc. Oh tieni conto che la scheda più diffusa è la decrepita GeForce 4 MX 440. E' addirittura qui nVidia pare che sta cavolo di GPU non voglia farla morire più...adesso rinominata pure "4000"..e ci sarà pure in Pci Express...ancora col NV18 insomma.
Probabilmente nVidia ed Ati guadagnano più con la publicità che nel mondo dei giochi c'è per i loro prodotti..che per le schede vendute. :) Poi figurati se una va meglio dell'altra..
Probabilmente anche adesso sta guadagnando più con le nostre pippe mentali. :D
Cmq mi sa che è meglio tornare IN topic va...che sennò è un po' stravolto (colpa mia)!! :D
Anche perchè poi sta GeForce 66800 GT mi ispira. Praticamente 2 di schede costano meno della 6800 GT..a detta anche di nVidia. :)
Dark Schneider
13-08-2004, 01:20
Originariamente inviato da MaBru
6600 GT:
# DirectX support: DirectX 9.0c (SM 3.0)
# Pixel pipelines: 8
# Vertex shaders: 3
# Manufacturing process: 110 nanometer
# Transistors: 146 million
# Core clock speed: 500MHz
# Memory clock speed: 1000MHz (DDR)
# Memory expansion: 128/256 MB
# Memory technology: GDDR3
# Memory buswidth: 128-bit
# Other features: Integrated video processor; SLI support; no additional power supply
# Probable street price: $199 - $229
6600 liscia:
# DirectX support: DirectX 9.0c (SM 3.0)
# Pixel pipelines: 8
# Vertex shaders: 3
# Manufacturing process: 110 nanometer
# Transistors: 146 million
# Core clock speed: 300MHz
# Memory clock speed: 550MHz (DDR)+ (not yet conclusively specified)
# Memory expansion: 128/256 MB
# Memory technology: GDDR1
# Memory buswidth: 128-bit
# Other features: Integrated video processor; no additional power supply
# Probable street price: $149 - $179
Grande!! Ecco cosa volevo vedere..di cosa ero curioso. I transistor!! :)
Cavolo ne ha ben 146 milioni.....mi pare quindi una quindicina in più del NV35.
Poi non c'è il molex a quanto ho capito. :)
179 e 229 si riferiscono probabilmente ai modelli da 256 MB
Ecco qui io personalmente NON andrei più in modelli da 128 MB. Cioè basta con 128 MB. Le memorie possono essere più lente....ma ormai meglio 256 MB anche nella fascia media invece di 128 MB.
Dark Schneider
13-08-2004, 01:26
Originariamente inviato da bubbo87
ati ha fatto un piacere ad nvidia, che è stato quello di concedergli l'utilizzo di memorie gddr3 per le sue vga...se non glielo avesse concesso nvidia starebbe ben indietro...quindi almeno in questo deve essere riconoscente;)
memorie dd3?:confused:
Mica le ha ideate ati.
PhoEniX-VooDoo
13-08-2004, 01:30
Originariamente inviato da Dark Schneider
Phoenix è questo il punto....
Bhe che ti devo dire, a me ispirava la X800Pro :p
..e cmq ho capito, a te non va il fatto che la fascia media di ATi sarà costituita da una scheda che non offre quasi nulla in piu rispetto a una 9800Pro...bhe mi sta bene, cioè come punto di vista è giusto...a me di fastidio non ne da. Questioni personali..
per i segmente di mercato....so' troppo stanco, cmq piu o meno sono d'accordo con te :)
Tornando alla 6600: OK le RAM sono a 1Ghz, però no isappaimo che GDDR3 da 2.0ns possono dare molto di piu :D
85kimeruccio
13-08-2004, 01:44
azzz.. ste 6600gt mi ispirano non poco..
kissà ati cosa butta fuori :)
Dark Schneider
13-08-2004, 01:48
Originariamente inviato da PhoEniX-VooDoo
Bhe che ti devo dire, a me ispirava la X800Pro :p
..e cmq ho capito, a te non va il fatto che la fascia media di ATi sarà costituita da una scheda che non offre quasi nulla in piu rispetto a una 9800Pro...bhe mi sta bene, cioè come punto di vista è giusto...a me di fastidio non ne da. Questioni personali..
per i segmente di mercato....so' troppo stanco, cmq piu o meno sono d'accordo con te :)
Tornando alla 6600: OK le RAM sono a 1Ghz, però no isappaimo che GDDR3 da 2.0ns possono dare molto di piu :D
Esatto si. A me non va sta cosa...ma è una questione più di fascia media(perchè la 9800pro ormai è stata imposta come fascia media e da tanto tempo). L'alta l'ho detto..avrà pure la medesima architettura, però di certo ha molto di più da offrire e quindi già mi ispirerebbe di più.
Tornando alla 6600: ci credo poco che son limitate ai 1000 Mhz dei 2 ns. La mia GT per dirti va molto oltre: adesso non ricordo ma a 1130-1140 ci arriva...e sinceramente non ho visto qual'è il limite.
Però forse è l'unica cosa che non mi convince moltissimo son proprio le memorie e di conseguenza la banda: 16 GB...mettiamo caso che OC a 1140 Mhz...son 18.2 Gb di banda. Mmm sinceramente avrei preferito i 1200 Mhz di default si cui si parlava fino a ieri.
Cioè la potenza ce l'ha: 4000 di fillrate. Però bisogna vedere poi lì..con quella banda come siam messi se si attivano i filtri. Ho qlc dubbio che in questo caso sia migliore di una 9800. Ovviamente se sarò smentito..meglio. :)
Secondo me monterà memorie le stesse della 6800 GT. :)
PhoEniX-VooDoo
13-08-2004, 01:56
Tornando alla 6600: ci credo poco che son limitate ai 1000 Mhz dei 2 ns.
infatti anch'io intendevo che non sono al limite di sicuro...
...io cmq la vedo troppo bene in SLI sta scheda :D
Dark Schneider
13-08-2004, 02:09
Originariamente inviato da PhoEniX-VooDoo
infatti anch'io intendevo che non sono al limite di sicuro...
...io cmq la vedo troppo bene in SLI sta scheda :D
La modalità SLI è decisamente più fattibile d'interesante nella fascia media.
Tipo prendi una 6600 GT a 200 euro...tempo dopo..vuoi aumentare le prestazioni...ne prendi un altra che magari nel frattempo è calaa di prezzo anche...e hai prestazioni maggiori. :)
Solo devo documentarmi meglio per la SLI: mi chiedo se effettivamente raddoppia anche la banda.
85kimeruccio
13-08-2004, 02:11
se due 6600gt battono una 6800ultra.. e il prezzo è lo stesso..
beh.. ke dire.. i fatti parlano da soli :D
Dark Schneider
13-08-2004, 02:48
Originariamente inviato da 85kimeruccio
se due 6600gt battono una 6800ultra.. e il prezzo è lo stesso..
beh.. ke dire.. i fatti parlano da soli :D
2 6600 GT costano quasi come di una 6800 GT. Però non metterei la mano sul fuoco sulla questione delle prestazioni e sul fatto che battono una 6800 Ultra. Non ne sono così sicuro.
Non è un NV40 da 8 Pipeline.....ma un NV43 da 8 Pipeline..versione light!! ;)
Secondo me sarebbe come una 6800 GT o un po' meno al massimo.
85kimeruccio
13-08-2004, 02:52
e si hai ragione..
kissà.. magari vanno bene..sta sli ce la vedo bene xo'!! :)
Originariamente inviato da Dark Schneider
memorie dd3?:confused:
Mica le ha ideate ati.
non mi ricordo però lessi da qualche parte che fù ati a utilizzare per prima queste memorie, ma non so anche se ad inventarle, e che poteva benissimo usarle solo lei utilizzando una specie di monopolio o copiright..spero tu mi capisca...e allora dicevano che ati aveva fatto un piacere ad nvidia lasciandola libera di utilizzare anche lei queste memorie GDDR3...io ricordo così...;)
Dark Schneider
13-08-2004, 03:12
Originariamente inviato da bubbo87
non mi ricordo però lessi da qualche parte che fù ati a utilizzare per prima queste memorie, ma non so anche se ad inventarle, e che poteva benissimo usarle solo lei utilizzando una specie di monopolio o copiright..spero tu mi capisca...e allora dicevano che ati aveva fatto un piacere ad nvidia lasciandola libera di utilizzare anche lei queste memorie GDDR3...io ricordo così...;)
Sinceramente mi sembra molto strano. Ati non produce chip di memoria. Sennò userebbe i suoi a sto punto sulle proprie schede.:confused:
Dark Schneider
13-08-2004, 03:15
Originariamente inviato da 85kimeruccio
e si hai ragione..
kissà.. magari vanno bene..sta sli ce la vedo bene xo'!! :)
Si si è indubbiamente molto interessante. :)
Cmq da notare che NON richiedono molex queste 6600 liscia e GT nonostante i 146 milioni di transistor....merito dei 0.11 micron. :)
Mi sa che consumano veramente poco.
Originariamente inviato da Dark Schneider
Sinceramente mi sembra molto strano. Ati non produce chip di memoria. Sennò userebbe i suoi a sto punto sulle proprie schede.:confused:
eh ma non so come spiegarmi..cmnq mi sembra che ati potesse acquistare da samsung visto che solo lei produce gddr3 se non erro e impedire ad nvidia di utilizzarli...come una unione tra ati e samsung...ma lei non ha accettato...più o meno è così, lo lessi molto tempo fa, quando uscirono appena queste nuove vga....se lo trovo ti dico dov'è;) ...ma mi ricordo che era così...
85kimeruccio
13-08-2004, 03:23
Originariamente inviato da Dark Schneider
Si si è indubbiamente molto interessante. :)
Cmq da notare che NON richiedono molex queste 6600 liscia e GT nonostante i 146 milioni di transistor....merito dei 0.11 micron. :)
Mi sa che consumano veramente poco.
vero vero..
a quando la presentazione?
ciao Dark, allora ho trovato l'articolo : si trova su Computer Magazine di giugno...
Dice che la qualità di ati e nvidia oramai è alla pari ma in far cry è risultata molto evidente ancora quella di ati...ricollegandoci a vecchi discorsi ricordi??
Per le memorie ti scrivo l'articolo intero:
MEMORIE DEL FUTURO
Mentre aspettiamo che nei computer faccia la propria comparsa la memoria DDR2, le schede video utilizzano già la terza versione di questa tecnologia. si chiama GDDR3 ed è una speciale ram video progettata originariamente da ati per sfruttare al massimo la potenza del processore grafico. oltre all'elevata frequenza di funzionamento, oltre i 1.000 mhz, la gddr3 garantisce una limitata produzione di calore e una facile realizzazione delle schede video. poiché ati vuole diffondere questa tecnologia, in modo che i produttori siano più numerosi e quindi i prezzi più bassi, ha permesso a nvidia di utilizzarla liberamente ed è per questo che anche sulle geforce 6800 ultra troviamo memorie gddr3. confrontando le schede, si ha però l'impressione che ati sia riuscita a sfruttare meglio la nuova memoria. a differenza della concorrente, non è stata costretta a coprire i moduli con un dissipatore pur raggiungendo frequenze elevate.
ecco questo è l'articolo...allora mi ricordavo bene;)....tu non lo sapevi??
Dark Schneider
13-08-2004, 03:42
Originariamente inviato da bubbo87
ciao Dark, allora ho trovato l'articolo : si trova su Computer Magazine di giugno...
Dice che la qualità di ati e nvidia oramai è alla pari ma in far cry è risultata molto evidente ancora quella di ati...ricollegandoci a vecchi discorsi ricordi??
Per le memorie ti scrivo l'articolo intero:
MEMORIE DEL FUTURO
Mentre aspettiamo che nei computer faccia la propria comparsa la memoria DDR2, le schede video utilizzano già la terza versione di questa tecnologia. si chiama GDDR3 ed è una speciale ram video progettata originariamente da ati per sfruttare al massimo la potenza del processore grafico. oltre all'elevata frequenza di funzionamento, oltre i 1.000 mhz, la gddr3 garantisce una limitata produzione di calore e una facile realizzazione delle schede video. poiché ati vuole diffondere questa tecnologia, in modo che i produttori siano più numerosi e quindi i prezzi più bassi, ha permesso a nvidia di utilizzarla liberamente ed è per questo che anche sulle geforce 6800 ultra troviamo memorie gddr3. confrontando le schede, si ha però l'impressione che ati sia riuscita a sfruttare meglio la nuova memoria. a differenza della concorrente, non è stata costretta a coprire i moduli con un dissipatore pur raggiungendo frequenze elevate.
ecco questo è l'articolo...allora mi ricordavo bene;)....tu non lo sapevi??
Non penso proprio che Ati produca chip di memoria. Forse ha un po' aiutato e supportato i produttori come samsung...e sarà stata la prima a voler andare sulle GDDR3. Ma sinceramente non ha fatto nessun favore. Semplicemente Ati anche vuole che nVidia utilizzi GDDR3...per far imporre le GDDR3..conoscendo la forza di nVidia...se c'è pure nVidia che "spinge" è meglio per entrambi. Ci guadagnano entrambi. Mica un favore al concorrente. Ma un favore a se stessa. ;)
Su Far Cry: nessunissima differenza qualitativa con Ati. Tra l'altro la patch 1.2 ha completamente risolto il problemino per la 6800 (mentre ha migliorato ma per ora ancora non risolto del tutto per le FX..in attesa della 1.3).
notte
Originariamente inviato da Dark Schneider
Non penso proprio che Ati produca chip di memoria. Forse ha un po' aiutato e supportato i produttori come samsung...e sarà stata la prima a voler andare sulle GDDR3. Ma sinceramente non ha fatto nessun favore. Semplicemente Ati anche vuole che nVidia utilizzi GDDR3...per far imporre le GDDR3..conoscendo la forza di nVidia...se c'è pure nVidia che "spinge" è meglio per entrambi. Ci guadagnano entrambi. Mica un favore al concorrente. Ma un favore a se stessa. ;)
Su Far Cry: nessunissima differenza qualitativa con Ati. Tra l'altro la patch 1.2 ha completamente risolto il problemino per la 6800 (mentre ha migliorato ma per ora ancora non risolto del tutto per le FX..in attesa della 1.3).
notte
beh oh si sà, loro sono un giornale e non dovrebbero parteggiare....cmnq a giugno non c'era ancora la patch;)..io dico che sono alla pari poi si vedrà...non voglio sembrare di parte perchè come ribadsco sempre sono NEUTRALE...notte:)
85kimeruccio
13-08-2004, 03:49
sivvia.. siamo li...
ho visto un screen di far cry.. con la 6600 mi ha fatto paura.. :)
Originariamente inviato da 85kimeruccio
sivvia.. siamo li...
ho visto un screen di far cry.. con la 6600 mi ha fatto paura.. :)
:D
3 vertex engine, quindi è proprio un NV40 a metà......vedremo sul campo come si comporterà. Cmq ottima cosa che non ci sia il Molex manco per la GT.
85kimeruccio
13-08-2004, 09:11
cosa cambia con la metà dei vertex engine?
+ lenta o anche meno qualità?
halduemilauno
13-08-2004, 09:21
Originariamente inviato da lowenz
3 vertex engine, quindi è proprio un NV40 a metà......vedremo sul campo come si comporterà. Cmq ottima cosa che non ci sia il Molex manco per la GT.
il molex non c'è perchè è PCI-E. quando a ottobre esce la versione AGP il molex(uno solo) riapparirà.
ciao.
;)
Originariamente inviato da Dark Schneider
Non penso proprio che Ati produca chip di memoria. Forse ha un po' aiutato e supportato i produttori come samsung...e sarà stata la prima a voler andare sulle GDDR3. Ma sinceramente non ha fatto nessun favore. Semplicemente Ati anche vuole che nVidia utilizzi GDDR3...per far imporre le GDDR3..conoscendo la forza di nVidia...se c'è pure nVidia che "spinge" è meglio per entrambi. Ci guadagnano entrambi. Mica un favore al concorrente. Ma un favore a se stessa. ;)
http://www.ati.com/companyinfo/press/2002/4544.html
zerothehero
13-08-2004, 10:32
Originariamente inviato da Dark Schneider
Ma sinceramente parlando ha ben poco da tirare fuori dal cilindro.
Vedi tu almeno che ti sta arrivando la X800 Pro..cmq hai anche parecchia potenza in più. Quindi alla fine anche se considerato un chip video "conservativo", sta di fatto che cmq tu ci guadagni anche in potenza. Perchè cmq usufruisci anche della potenza maggiore. :)
Ma è diverso il discorso per la fascia media e bassa. Qui a parte che adesso ci sono X300 e X600 che son appunto delle 9600 riciclate e con frequenze diverse (la x600xt è una 9600xt un po' potenziata), ma poi anche quando "magari" tirerà fuori più in là delle versioni depotenziate R420, tipo chessò RV410,ecc. alla fine si tratterà di schede identiche a quelle di prima, un po' più veloci perchè hanno frequenze più elevate e magari sto 3Dc. Però appunto ad un possessore di chessò 9600xt o 9800 che magari vuol spendere meno e ripiegare in modelli NON di fascia alta...alla fine non è che conviene molto. Cioè poco senso insomma.
Poi tu considera che Ati e nVidia gli incassi quelli veri non li fanno in fascia alta di certo, ma proprio in quelle inferiori.
Ad esempio per un possessore invece di 5600 andare su una 6600 non ha più senso? :)
io credo invece che sia stato un errore di posizionamento da parte di ati dei prodotti non nell'innovazione.
doveva fare:
high end: x800xt pe - 6800ultra
x800xt (con frequenze più basse di ora) -6800gt
x800pro - 6800
Risultato? ati avrebbe surclassato invidia.
mainstream - r420 con 8 pipeline.
low end scheda con 2 pipeline.
Nel mercato mainstream ati sta andando incontro ad un disastro...perchè è lì che si fa soldi e se ha intenzione di mettere delle 9600potenziate a scontrarsi con la 6600 che ha 8 pipeline e frequenze assurde saranno mazzate.
Ora dato che quello che sto dicendo è ovvio, come mai ati si sta comportando in modo diverso? forse per un problema di resa dei suoi chip con i low-k? :confused:
halduemilauno
13-08-2004, 10:39
Originariamente inviato da zerothehero
io credo invece che sia stato un errore di posizionamento da parte di ati dei prodotti non nell'innovazione.
doveva fare:
high end: x800xt pe - 6800ultra
x800xt (con frequenze più basse di ora) -6800gt
x800pro - 6800
Risultato? ati avrebbe surclassato invidia.
mainstream - r420 con 8 pipeline.
low end scheda con 2 pipeline.
Nel mercato mainstream ati sta andando incontro ad un disastro...perchè è lì che si fa soldi e se ha intenzione di mettere delle 9600potenziate a scontrarsi con la 6600 che ha 8 pipeline e frequenze assurde saranno mazzate.
Ora dato che quello che sto dicendo è ovvio, come mai ati si sta comportando in modo diverso? forse per un problema di resa dei suoi chip con i low-k? :confused:
a questo quadro aggiungerei la probabile 6600 Ultra. e credo che il futuro low end per nVidia sia a 4 pipe.
ciao.
;)
the_dark_shadow
13-08-2004, 10:47
Originariamente inviato da halduemilauno
il molex non c'è perchè è PCI-E. quando a ottobre esce la versione AGP il molex(uno solo) riapparirà.
ciao.
;)
Dark Schneider
13-08-2004, 10:51
Originariamente inviato da zerothehero
io credo invece che sia stato un errore di posizionamento da parte di ati dei prodotti non nell'innovazione.
doveva fare:
high end: x800xt pe - 6800ultra
x800xt (con frequenze più basse di ora) -6800gt
x800pro - 6800
Risultato? ati avrebbe surclassato invidia.
mainstream - r420 con 8 pipeline.
low end scheda con 2 pipeline.
Nel mercato mainstream ati sta andando incontro ad un disastro...perchè è lì che si fa soldi e se ha intenzione di mettere delle 9600potenziate a scontrarsi con la 6600 che ha 8 pipeline e frequenze assurde saranno mazzate.
Ora dato che quello che sto dicendo è ovvio, come mai ati si sta comportando in modo diverso? forse per un problema di resa dei suoi chip con i low-k? :confused:
Vabbè ma in realtà "L'R420 ad 8 Pipeline" bene o male ci sta da mesi in quella fascia: è la 9800 Pro. Io dico: più che altro..quando "rinnoverà" la gamma ci sarà una scheda che ancora una volta sarà....la 9800(un pochetto più veloce). Personalmente mi pijerebbe un po' male.
the_dark_shadow
13-08-2004, 10:52
ecco l'articolo della 6600;
http://www.tomshw.it/graphic.php?guide=20040812
http://www.tomshw.it/guides/graphic/20040812/images/performance1-large.jpg
c'è lo sli e molte altre cose,
ke dite?
Dark Schneider
13-08-2004, 10:56
Originariamente inviato da MaBru
http://www.ati.com/companyinfo/press/2002/4544.html
Questa non la sapevo. :)
Allora a maggior ragione si tratta tutto tranne che di un "favore"...una cosa che nel mondo delle aziende non esiste.
Semplicemente si chiama "voler guadagnare di più". ;)
Dark Schneider
13-08-2004, 11:01
Originariamente inviato da bubbo87
beh oh si sà, loro sono un giornale e non dovrebbero parteggiare....cmnq a giugno non c'era ancora la patch;)..io dico che sono alla pari poi si vedrà...non voglio sembrare di parte perchè come ribadsco sempre sono NEUTRALE...notte:)
Scusa se te lo dico ma stai cercando sempre di trovare qualcosa che "non va" per le 6800. :D
Al momento c'è molto ma molto poco che "non va" per queste schede...per non dire niente. ;)
Cosa significa che a giugno non c'era la patch di FC? Quella non era la qualità della 6800. Adesso c'è la patch e viene visualizzata la corretta qualità. Semplice, no? :)
the_dark_shadow
13-08-2004, 11:07
Originariamente inviato da Dark Schneider
Scusa se te lo dico ma stai cercando sempre di trovare qualcosa che "non va" per le 6800. :D
Al momento c'è molto ma molto poco che "non va" per queste schede...per non dire niente. ;)
Cosa significa che a giugno non c'era la patch di FC? Quella non era la qualità della 6800. Adesso c'è la patch e viene visualizzata la corretta qualità. Semplice, no? :)
giusto dark;)
Dark Schneider
13-08-2004, 11:08
Originariamente inviato da 85kimeruccio
vero vero..
a quando la presentazione?
Mi sa che la presentazione della GeForce 6600 non ho capito se era quella di ieri o quello era solo l'annuncio e una dimostrazione.
Cmq mi pare verrà presentata anche alla Game Convention di Leipizig(19-22 agosto) e magari si conosceranno anche le frequenze di memoria della versione liscia. :)
Dark Schneider
13-08-2004, 11:13
Originariamente inviato da lowenz
3 vertex engine, quindi è proprio un NV40 a metà......vedremo sul campo come si comporterà. Cmq ottima cosa che non ci sia il Molex manco per la GT.
Si infatti sto notando anchio: è proprio "mezzo" NV40. :)
8 Pipeline e 3 unita Vertex.
Dark Schneider
13-08-2004, 11:17
Originariamente inviato da 85kimeruccio
cosa cambia con la metà dei vertex engine?
+ lenta o anche meno qualità?
E' più lenta.
NV40 ne ha 6 e riesce a fare 24 operazione sui vertici per ciclo. Ognuna di queste unità Vertex ne fa 4.
NV43 probabilmente avendone 3 ne fa 12 di operazioni sui vertici per ciclo. :)
E' una scheda di fascia media. :)
Sei interessato alla 6600 GT come acquisto? :)
penso che da 1280 in su la 6800 starà sopra alla 6600 di un bel pò.
Chissà però a 1024 e con i filtri come si comporterà, i 42 fps in doom3 a 1024x768 high quality con filtri promette bene.
La cosa delle memorie che oltre i 1000 mhz scaldano di meno poi è fantastica, assurdo! :).
Dark Schneider
13-08-2004, 11:30
Originariamente inviato da halduemilauno
il molex non c'è perchè è PCI-E. quando a ottobre esce la versione AGP il molex(uno solo) riapparirà.
ciao.
;)
Giusto...quelle versioni erano pci express...quindi niente molex. :)
Cmq vabbè un molex solo... :)
Dark Schneider
13-08-2004, 11:34
Originariamente inviato da Amk
penso che da 1280 in su la 6800 starà sopra alla 6600 di un bel pò.
Chissà però a 1024 e con i filtri come si comporterà, i 42 fps in doom3 a 1024x768 high quality con filtri promette bene.
La cosa delle memorie che oltre i 1000 mhz scaldano di meno poi è fantastica, assurdo! :).
Beh si diciamo che con l'applicare i filtri e alzare di risoluzione va meno...perchè poi ha una banda appunto inferiore.
Certo da non dimenticare che queste schede ormai adottano tecniche di risparmio bande...però appunto una 6800 liscia pure...e quindi va cmq di più.
Staremo a vedere...sono curioso...ma qualche dubbio ce l'ho. Quindi non esaltiamoci troppo...andiam cauti che è sempre meglio. :)
ma x vedere se una skeda supporterà bene i filtri, ke parametri bisogn analizzare? oppure è solo questione di prove pratiche coi bench?
Dark Schneider
13-08-2004, 12:13
Originariamente inviato da Jag86
ma x vedere se una skeda supporterà bene i filtri, ke parametri bisogn analizzare? oppure è solo questione di prove pratiche coi bench?
Beh oddio parecchie cose: algoritmi di gestione dei filtri, quantitavo di memoria, banda, e così via.
Cmq staremo a vedere. :)
Originariamente inviato da Dark Schneider
Si infatti sto notando anchio: è proprio "mezzo" NV40. :)
8 Pipeline e 3 unita Vertex.
son tre giorni che lo dico io :O
imho sta scheda è esattamente mezza 6800lutra cloccata però a 500mhz, come la 5700 era mezza 5900 e la 5600 mezza 5800.
Dark Schneider
13-08-2004, 13:49
Originariamente inviato da checo
son tre giorni che lo dico io :O
imho sta scheda è esattamente mezza 6800lutra cloccata però a 500mhz, come la 5700 era mezza 5900 e la 5600 mezza 5800.
Vabbè se per questo pure io son giorni che sto dicendo che è una versione "Light" del NV40!! :O :sofico:
PhoEniX-VooDoo
13-08-2004, 13:56
Originariamente inviato da the_dark_shadow
ecco l'articolo della 6600;
http://www.tomshw.it/graphic.php?guide=20040812
Uhm complimenti, 6600GT VS X600XT...questi hanno capito tutto :rolleyes:
ma l'importante è sfoggiare il 3X Performance up
Dark Schneider
13-08-2004, 14:00
Originariamente inviato da PhoEniX-VooDoo
Uhm complimenti, 6600GT VS X600XT...questi hanno capito tutto :rolleyes:
ma l'importante è sfoggiare il 3X Performance up
Penso sia una questione di fascia. Hanno mostrato il recente X600XT con la 6600 GT visto che hanno lo stesso costo attualmente. :)
Sawato Onizuka
13-08-2004, 14:14
la cosa veramente fenomenale è che la 6600 GT ha 128 bit di bus e riesce a fare così tanto bene :sofico:
the_dark_shadow
13-08-2004, 14:25
Originariamente inviato da Sawato Onizuka
la cosa veramente fenomenale è che la 6600 GT ha 128 bit di bus e riesce a fare così tanto bene :sofico:
veramente incredibile;)
Dark Schneider
13-08-2004, 14:36
Calma aspettate di vedere come si comporta con i filtri attivi.
flavix25
13-08-2004, 14:53
lo sli per le voodoo se non ricordo male funzionava cosi:
se per esempio si hanno 2 schede è come se il monitor si dividesse a metà una scheda elaborava una parte e l'altra scheda l'altra parte...diminuendo di molto il lavoro di ogni singola scheda
tutto nacque con la voodoo2 poi le restanti voodoo non sono state altro che una rielaborazione della voodoo2 invece che aumentare le prestazioni del cip la 3dfx ha solo aumentato i cip sulla stessa scheda video(vedi voodoo5-6)
ps se ho detto qualche cxxxxxa prima di fucilarmi cercate di farmi capire l'errore (questo è solo quello che ricordo della mia voodoo2 unica 3dfx veramente innovativa!)
flavix25
13-08-2004, 14:55
Originariamente inviato da Dark Schneider
Calma aspettate di vedere come si comporta con i filtri attivi.
comunque se le presrtazioni della 6600gt nei confronti della x600(alias 9600xt++), sono veramente queste c'è da essere felici perchè la 9600xt era l'unica della vecchia generazione ad avere un rapporto con i fltri molto simile alle x800 cioè migliore della 9800pro........
stando all'immagine presente nell'articolo di tomshardware dovrebbe superare la 9800xt e in alcuni casi eguagliarla, e non credo che ci siano dubbi su questo.
flavix25
13-08-2004, 14:56
Originariamente inviato da flavix25
lo sli per le voodoo se non ricordo male funzionava cosi:
se per esempio si hanno 2 schede è come se il monitor si dividesse a metà una scheda elaborava una parte e l'altra scheda l'altra parte...diminuendo di molto il lavoro di ogni singola scheda
tutto nacque con la voodoo2 poi le restanti voodoo non sono state altro che una rielaborazione della voodoo2 invece che aumentare le prestazioni del cip la 3dfx ha solo aumentato i cip sulla stessa scheda video(vedi voodoo5-6)
ps se ho detto qualche cxxxxxa prima di fucilarmi cercate di farmi capire l'errore (questo è solo quello che ricordo della mia voodoo2 unica 3dfx veramente innovativa!)
ps del ps all'epoca avevo si e no 16 anni e ora ne ho 26 è passato un po di tempo quindi potrei sbagliarmi
Originariamente inviato da Dark Schneider
Vabbè se per questo pure io son giorni che sto dicendo che è una versione "Light" del NV40!! :O :sofico:
light che vuol dire? senza zucchero? :D
Originariamente inviato da PhoEniX-VooDoo
Uhm complimenti, 6600GT VS X600XT...questi hanno capito tutto :rolleyes:
ma l'importante è sfoggiare il 3X Performance up
lo confrontano con quello che propone la concorrenza, un po come quando si confrontò 9700 e 4600 con aa ed af a palla.
PhoEniX-VooDoo
13-08-2004, 15:24
la voodoo2 è stata diciamo un degno erede del voodoo graphics ed ha fatto fare i soldoni alla 3Dfx (anche grazie allo SLI).
La voodoo3 era una Voodoo Banshee potenziata, una scheda molto veloce ma a cui si criticavano alcune lacune che nvidia con il TNT2 e Matrox col G400 non avevano. Alla Voodoo3 principalmente mancava il supporto ai 32bit e il supporto a textures maggiori di 256x256.
Il voodoo4 (1 Chip VSA100) e il Voodoo5 (2 o 4 chip VSA100) non hanno nulla a che vedere con la voodoo3 (tantomeno la 2 ecc). Sono un progetto nuovo, introducono molte novità tecnologiche quali l'FSAA, il Motion Blur ecc.
Queste schede arrivano in forte ritardo sul mercato, risultano inizialmente più lente delle GF2 GTS e sprovviste del T&L, vero specchio per le allodole ai tempi...
Da li a poco 3Dfx annuncia il fallimento..
the_dark_shadow
13-08-2004, 15:27
Originariamente inviato da PhoEniX-VooDoo
la voodoo2 è stata diciamo un degno erede del voodoo graphics ed ha fatto fare i soldoni alla 3Dfx (anche grazie allo SLI).
La voodoo3 era una Voodoo Banshee potenziata, una scheda molto veloce ma a cui si criticavano alcune lacune che nvidia con il TNT2 e Matrox col G400 non avevano. Alla Voodoo3 principalmente mancava il supporto ai 32bit e il supporto a textures maggiori di 256x256.
Il voodoo4 (1 Chip VSA100) e il Voodoo5 (2 o 4 chip VSA100) non hanno nulla a che vedere con la voodoo3 (tantomeno la 2 ecc). Sono un progetto nuovo, introducono molte novità tecnologiche quali l'FSAA, il Motion Blur ecc.
Queste schede arrivano in forte ritardo sul mercato, risultano inizialmente più lente delle GF2 GTS e sprovviste del T&L, vero specchio per le allodole ai tempi...
Da li a poco 3Dfx annuncia il fallimento..
povera 3Dfx :cry:
flavix25
13-08-2004, 15:31
Originariamente inviato da PhoEniX-VooDoo
la voodoo2 è stata diciamo un degno erede del voodoo graphics ed ha fatto fare i soldoni alla 3Dfx (anche grazie allo SLI).
La voodoo3 era una Voodoo Banshee potenziata, una scheda molto veloce ma a cui si criticavano alcune lacune che nvidia con il TNT2 e Matrox col G400 non avevano. Alla Voodoo3 principalmente mancava il supporto ai 32bit e il supporto a textures maggiori di 256x256.
Il voodoo4 (1 Chip VSA100) e il Voodoo5 (2 o 4 chip VSA100) non hanno nulla a che vedere con la voodoo3 (tantomeno la 2 ecc). Sono un progetto nuovo, introducono molte novità tecnologiche quali l'FSAA, il Motion Blur ecc.
Queste schede arrivano in forte ritardo sul mercato, risultano inizialmente più lente delle GF2 GTS e sprovviste del T&L, vero specchio per le allodole ai tempi...
Da li a poco 3Dfx annuncia il fallimento..
ok ora ho capito, ma lo sli allora funzionava come ho scritto sopra?
PhoEniX-VooDoo
13-08-2004, 15:40
Originariamente inviato da flavix25
ok ora ho capito, ma lo sli allora funzionava come ho scritto sopra?
Non proprio, ovvero lo SLI di 3DFx (Scan Line Interleave) suddivideva lo schermo in righe. Una scheda renderizzava quelle pari, l'altra quelle dispari.
lo SLI di Nvidia (Scalable Link Interface) invece renderizza la schena in modalità dinamica, ovvero ogni scheda renderizza una porzione della scena lavorando al massimo così da sfruttare a pieno la potenza di entrambe le schede. Alla fine puo essere che una scheda lavorando al massimo vada a renderizzare il 70% della scena, e l'altra il restante 30, però a livello di carico di lavoro quel 70 e 30 si equivalgono.
the_dark_shadow
13-08-2004, 15:48
Originariamente inviato da PhoEniX-VooDoo
Non proprio, ovvero lo SLI di 3DFx (Scan Line Interleave) suddivideva lo schermo in righe. Una scheda renderizzava quelle pari, l'altra quelle dispari.
lo SLI di Nvidia (Scalable Link Interface) invece renderizza la schena in modalità dinamica, ovvero ogni scheda renderizza una porzione della scena lavorando al massimo così da sfruttare a pieno la potenza di entrambe le schede. Alla fine puo essere che una scheda lavorando al massimo vada a renderizzare il 70% della scena, e l'altra il restante 30, però a livello di carico di lavoro quel 70 e 30 si equivalgono.
bella idea di nvidia:sofico:
Dark Schneider
13-08-2004, 15:51
Lo SLI di nVidia non ha nulla a che vedere con quello di 3Dfx. Funziona in un altro modo.
Il termine SLI però è sotto copyrigth di nVidia che chiama quindi così la sua tecnologia, sapendo che il nome SLI è di richiamo. ;)
E' fa bene. :)
flavix25
13-08-2004, 15:51
"Scan Line Interleave" certo ora si che mi ricordo!!!!!!!!!!!
dovrei ritirare fuori dalla scatola le mie 3 voodoo2 e vedere se funzionano ancora
Dark Schneider
13-08-2004, 15:52
Originariamente inviato da checo
light che vuol dire? senza zucchero? :D
Senza nemmeno i coloranti anche oltre che allo zucchero!! :D
flavix25
13-08-2004, 15:53
ma se le metto in sli sulla configurazione che ho ora che potra succedere, si brucia tutto?
PhoEniX-VooDoo
13-08-2004, 15:55
Originariamente inviato da the_dark_shadow
bella idea di nvidia:sofico:
Certo è la cosa piu intelligente...pensa a Flight Simulator...se usasse la tecnica 3dfx ogni scheda lavorerebbe circa al 60% perche la parte inferiore dello schermo è semplicissima da gestire, è solo una texture praticamente.
Se usasse poi la pessima tecnica della AlienWare, una scheda si girerebbe i pollici tutto il tempo, dovendo SOLO renderizzare la texture con i comandi, le lucette ecc. Mentre la scheda che renderizza cielo, paesaggio ecc si amazzerebbe di lavoro.
Invece così una scheda renderizza i comandi + una parte del paesaggio, arrivando al 100% delle sue capacita di calcolo, mentre l'altra si occupa della restante parte del cielo, anch'essa impiegata al 100%
PhoEniX-VooDoo
13-08-2004, 16:00
Originariamente inviato da flavix25
ma se le metto in sli sulla configurazione che ho ora che potra succedere, si brucia tutto?
Ehm, le voodoo2 erano PCI quindi non dovresti avere problemi. I problemi si hanno con le voodoo3 che sono AGP 2X a 3.3V con gli slot attuali che sono a 1.5V.
Cmq per sicurezza chiedi sul forum di 3dfxzone
halduemilauno
13-08-2004, 16:11
Originariamente inviato da PhoEniX-VooDoo
Uhm complimenti, 6600GT VS X600XT...questi hanno capito tutto :rolleyes:
ma l'importante è sfoggiare il 3X Performance up
questo per il momento passa casa ati.
ciao.
;)
PhoEniX-VooDoo
13-08-2004, 16:24
Originariamente inviato da halduemilauno
questo per il momento passa casa ati.
ciao.
;)
secondo me è scorretto...o meglio "irreale" perche tanto non saranno queste le due soluzioni che si contenderanno tale fascia di mercato.
pensao la setssa cosa dei test 9700 VS 4600...
pero il marketing funziona così quindi non c'e nulla da fare...
halduemilauno
13-08-2004, 16:39
Originariamente inviato da PhoEniX-VooDoo
secondo me è scorretto...o meglio "irreale" perche tanto non saranno queste le due soluzioni che si contenderanno tale fascia di mercato.
pensao la setssa cosa dei test 9700 VS 4600...
pero il marketing funziona così quindi non c'e nulla da fare...
non è una questione di marketing. è una questione temporale per il momento questo offre ati.
9700 vs 4600 c'era anche un bel spazio temporale fra le due. ma fra le 6600 gt e la x600 xt no. sono coeve e coetanee.
al posto della x600xt quale scheda si dovrebbe contrapporre alla 6600GT?
ciao.
:) :)
PhoEniX-VooDoo
13-08-2004, 16:59
Originariamente inviato da halduemilauno
non è una questione di marketing. è una questione temporale per il momento questo offre ati.
9700 vs 4600 c'era anche un bel spazio temporale fra le due. ma fra le 6600 gt e la x600 xt no. sono coeve e coetanee.
al posto della x600xt quale scheda si dovrebbe contrapporre alla 6600GT?
ciao.
:) :)
Hanno fatto un confrono fascia media vecchia (ati) Vs fachia media nuova (nvidia). La X600 è solo il nome che Ati ha dato alle 9600 su PCIe. Se volevano fare un confronto reale dovevano metterla a confronto con la 9800XT, che oramai prestazionalmente è parte della fascia media, anche se il prezzo è ancora di High End.
Ovvimente sarebbe stato controproducente e non gli conveniva, è perfettamente comprensibile...
Semplicemnete io dico che quel grafico col 3X non vuol dire nulla, e come vantarsi di aver sconfitto un nemico che nemmeno esiste...sai che gloria...
Originariamente inviato da Dark Schneider
Scusa se te lo dico ma stai cercando sempre di trovare qualcosa che "non va" per le 6800. :D
Al momento c'è molto ma molto poco che "non va" per queste schede...per non dire niente. ;)
Cosa significa che a giugno non c'era la patch di FC? Quella non era la qualità della 6800. Adesso c'è la patch e viene visualizzata la corretta qualità. Semplice, no? :)
non è vero:cry: , io volevo solo precisare i punti a favore di uno e dell'altro ma ho già anche ammesso che ati è rimasta indietro:(
85kimeruccio
13-08-2004, 18:26
Originariamente inviato da Dark Schneider
E' più lenta.
NV40 ne ha 6 e riesce a fare 24 operazione sui vertici per ciclo. Ognuna di queste unità Vertex ne fa 4.
NV43 probabilmente avendone 3 ne fa 12 di operazioni sui vertici per ciclo. :)
E' una scheda di fascia media. :)
Sei interessato alla 6600 GT come acquisto? :)
uhm.. nn mi sembrerebbe un brutto acquisto.. dato ke arrivo da una 9600 e Ti4200 .. vanno bene ma nn reggono ancora molto..
6600gt.. dipende dal prezzo + ke altro.. una 6800gt la puntavo prima.. mah.. costikkia... :(
Dark Schneider
13-08-2004, 19:54
Originariamente inviato da 85kimeruccio
uhm.. nn mi sembrerebbe un brutto acquisto.. dato ke arrivo da una 9600 e Ti4200 .. vanno bene ma nn reggono ancora molto..
6600gt.. dipende dal prezzo + ke altro.. una 6800gt la puntavo prima.. mah.. costikkia... :(
Vedrai che sarà una gran bella scheda anche la 6600 GT. :)
85kimeruccio
13-08-2004, 19:58
lo penso anche io..
xo' hanno sparato 250€ x la 6600gt.. se fosse vero :( :(
meglio una 6800liscia..
mah.. vedremo nelle comparazioni prossimamente..
flavix25
13-08-2004, 20:27
io penso infatti che il prezzo giusto dovrebbe essere 200-220 oltre uno va sulla 6800liscia che sembra anche si possa moddare a gt
the_dark_shadow
13-08-2004, 20:44
Originariamente inviato da flavix25
io penso infatti che il prezzo giusto dovrebbe essere 200-220 oltre uno va sulla 6800liscia che sembra anche si possa moddare a gt
nn proprio a gt x colpa gdd3
cmq arriva anke a 11k, quindi ottima;)
Dark Schneider
13-08-2004, 21:49
Originariamente inviato da 85kimeruccio
lo penso anche io..
xo' hanno sparato 250€ x la 6600gt.. se fosse vero :( :(
meglio una 6800liscia..
mah.. vedremo nelle comparazioni prossimamente..
Penso che a 250 ci sarà il modello con 256 MB di memoria.
Sinceramente se volete la mia: andate su questi da 256 MB. Anche se magari quelli da 128 MB son un po' più veloci. Ormai meglio cominciare a prendere schede da 256 MB. :)
85kimeruccio
14-08-2004, 01:15
sopratutto xke una vga così nn la cambio x molto tempo :)
TNR Staff
14-08-2004, 01:21
Originariamente inviato da Dark Schneider
Penso che a 250 ci sarà il modello con 256 MB di memoria.
Sinceramente se volete la mia: andate su questi da 256 MB. Anche se magari quelli da 128 MB son un po' più veloci. Ormai meglio cominciare a prendere schede da 256 MB. :)
Oddio nn saprei...penso sarà la scheda che andrà a sostituire la mia 9800,ma solo quando arriverà a costare 150 euro,non uno di +.Sarò molto combattuto tra la ver a 128 e quella a 256 mb,francamente nn so quanto possano servire 256mb in una scheda del genere,in sostanza va come una 9800xt overclokkata alla morte,su una xt 256mb mi sembrano troppi :wtf:
Sn curioso pure di vedere quanto salgono ste schede,e soprattutto come vanno coi filtri.
EDIT: Si sa nulla delle dimensioni della scheda?
Dragon2002
14-08-2004, 01:25
Originariamente inviato da 85kimeruccio
lo penso anche io..
xo' hanno sparato 250€ x la 6600gt.. se fosse vero :( :(
meglio una 6800liscia..
mah.. vedremo nelle comparazioni prossimamente..
Per forza appena uscita,costa quel prezzo,come quando usci la 9500pro tutti a prenderla a 250 euro,io compreso ovviamente un mese dopo,boom dapertutto a 200 euro,bisogna saper aspettare 1-2 mesi e poi prendere questa scheda e cmq 250 costera la asus o la gainward,ma altre marche costeranno dopo un mese sui 200euro.
flavix25
14-08-2004, 01:27
a me i 128bit mi stanno troppo sulle p scusate ma preferisco aspettere tanto con la mia ancora vado per un pò!
ot
una cosa non capisco da quando ho messo i driver 65.62 e directx9.0c se non metto i filtri far cry mi va tra i 30 e i 50 frame se metto i filtri(2xq aa e 2x af) mi va 40-70 anche 90 in alcune parti
è normale? questo mi capita anche in nfs under...
ba chi ci capisce è bravo
ora sto con far cry tutto su massimo della qualita i filtro a4(quello nella schermata avanzate del gioco) e mi gira a 40 frame di media
a me sto pc mi fa diventare scemo
dimenticavo gioco a 1024x768
p.s. se non co credete vi mendo qualche screen
flavix25
14-08-2004, 01:29
Originariamente inviato da the_dark_shadow
nn proprio a gt x colpa gdd3
cmq arriva anke a 11k, quindi ottima;)
ma almeno gli si abilitano le 4 pipe addormentate
Originariamente inviato da flavix25
ma almeno gli si abilitano le 4 pipe addormentate
non a tutte ma a certe sì:O
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.