PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 [55] 56 57 58 59 60 61

-Feanor-
08-11-2007, 16:58
raga posso chiedervi lenorme piacere di farmi uno screen a crysis tutto very high senza le varie modifiche al cfg a 1280x1024 senza filtri?
possibilmente nella zona con luce non allinizio
grazie

le prime due che mi sono venute alla mano...

http://img250.imageshack.us/img250/4403/crysis20200711042009234aa3.th.jpg (http://img250.imageshack.us/img250/4403/crysis20200711042009234aa3.jpg)

http://img250.imageshack.us/img250/6109/crysis20200711042009251gg6.th.jpg (http://img250.imageshack.us/img250/6109/crysis20200711042009251gg6.jpg)

vanno bene...??

Catan
08-11-2007, 17:50
sinceramente nn so cosa pensare, ne che consiglio darti.

Catan tu cosa ne pensi? (dopo 2 format)

le ipotesi sono poche:

Driver (magari direttamente quelli scaricati, ma mi sembra assurdo)
la vga (idem mi sembra assurdo)


puoi controllarmi che ti installi i driver correttamente da gestione periferiche

tutto il resto prima ti andava, quindi nn so cosa pensare

@ mtk no assurdo ;)

dopo2format non saprei, da come dice sembra abbia un problema hw ma sembra nella gestione del bus, sopratutto xè gli da ilproblema di rallentamentianche in 2d.
Allora anche il problema delle luci in crysis.

prova a fare
1) test con catalist ia non abilitato

2) test con il v-synk abilitato.

peròboh i problemi hw mi sembrano dipendenti o dall'aly che nn alimenta + bene, oppure da qualche problema dellamobo nella gestion del bus pci-ex

garbage
08-11-2007, 18:31
dopo2format non saprei, da come dice sembra abbia un problema hw ma sembra nella gestione del bus, sopratutto xè gli da ilproblema di rallentamentianche in 2d.
Allora anche il problema delle luci in crysis.

prova a fare
1) test con catalist ia non abilitato

2) test con il v-synk abilitato.

peròboh i problemi hw mi sembrano dipendenti o dall'aly che nn alimenta + bene, oppure da qualche problema dellamobo nella gestion del bus pci-ex

allora lali va da dio tagan da 800 con 6 linee da 20 ampere luna cmq ho giocato a crysisfino adesso nesusna schermata non crahsha piu bho mistero
inoltre ho visto la temp della vga arrivare verso gli 80 gradi mentre giocavo e normale???
in crysis notto artefatti (puntini bianchi che non noto in altri giochi)

garbage
08-11-2007, 18:32
grazie mille per gli screen :)

+Lonewolf+
08-11-2007, 18:39
grazie mille per gli screen :)

ma...hai formattato prima di cambiare la vga???

garbage
08-11-2007, 18:53
ma...hai formattato prima di cambiare la vga???

5 volte cercando di risolver ilproblema cmq ora non fa piu gli screen di erorri:D

M4R1|<
08-11-2007, 19:05
5 volte cercando di risolver ilproblema cmq ora non fa piu gli screen di erorri:D

fai le prove che ti ha detto Catan ;)
leggo i suoi post da molto (più gli innumerevoli pvt :D ) e è sempre stato molto bravo e professionale, quindi prova ;)

cmq catan nn è che la vecchia vga gli ha rovinato le pci-e? può succedere?

-Feanor-
08-11-2007, 19:08
grazie mille per gli screen :)

di niente...
suppongo vadano bene quindi...;)

garbage
08-11-2007, 19:40
cmq raga ho fattoi l 3d marck06 driver 7.10 q6600 a 3ghz ram a 800 4-4-4-12 -1t crt a 16 e vga default faccio 11700 punti sono nella norma? a me sembrano pochini:mc:

garbage
08-11-2007, 19:44
ma riguardando adesso le tue immagini ce quelleffetto del sole tra le foglie ma perche se io metto tutto vh non ce?:mc:

-Feanor-
08-11-2007, 19:53
ma riguardando adesso le tue immagini ce quelleffetto del sole tra le foglie ma perche se io metto tutto vh non ce?:mc:

si l avevo notato..
è piu una compenetrazione di poligoni...
se fossi andato un passo piu avanti o indietro non ci sarebve stato ..

garbage
08-11-2007, 20:22
si l avevo notato..
è piu una compenetrazione di poligoni...
se fossi andato un passo piu avanti o indietro non ci sarebve stato ..

ecco piu che altro quando vedo questo efetto del sole il gioco mi va a 10 frame e devo uscire e rientrare per giocare fluido
mi faceva cosi anche con la 7800:mbe:

-Feanor-
08-11-2007, 20:46
ecco piu che altro quando vedo questo efetto del sole il gioco mi va a 10 frame e devo uscire e rientrare per giocare fluido
mi faceva cosi anche con la 7800:mbe:

guarda a me con procio a default
tutto very high tranne shadows su high..
sta sempre tra i 15 e i 20..(piu vicino ai 15)
scende sotto i 10 solo nei momenti piu concitati..
non so da cosa possa dipendere questo tuo rallentamento..

garbage
08-11-2007, 21:04
guarda a me con procio a default
tutto very high tranne shadows su high..
sta sempre tra i 15 e i 20..(piu vicino ai 15)
scende sotto i 10 solo nei momenti piu concitati..
non so da cosa possa dipendere questo tuo rallentamento..
io sto sui 23-25 di media e 40 di picco avolte mentre ho anche cali a 13-12 frame nelle battaglie piu incasinate con eplosioni ecc .
con esplosioni enormi e oggietti che volano va anche a 9 frame
ma nello 06 quanto fai???

-Feanor-
08-11-2007, 21:12
io sto sui 23-25 di media e 40 di picco avolte mentre ho anche cali a 13-12 frame nelle battaglie piu incasinate con eplosioni ecc .
con esplosioni enormi e oggietti che volano va anche a 9 frame
ma nello 06 quanto fai???

11000 circa...
tieni conto del procio sempre a default..

cmq sono degli ottimi frame...
tutto al max..'?
peccato che non sfrutti piu di due mezzi core...:muro:

quindi suppongo che la frequenza conti molto..

garbage
08-11-2007, 23:07
11000 circa...
tieni conto del procio sempre a default..

cmq sono degli ottimi frame...
tutto al max..'?
peccato che non sfrutti piu di due mezzi core...:muro:

quindi suppongo che la frequenza conti molto..
sisi tutto very high su vista 32 bit adesso ho messo vista 64bit per vedere se migliora la situazione vi faro sapere

Catan
09-11-2007, 00:36
fai le prove che ti ha detto Catan ;)
leggo i suoi post da molto (più gli innumerevoli pvt :D ) e è sempre stato molto bravo e professionale, quindi prova ;)

cmq catan nn è che la vecchia vga gli ha rovinato le pci-e? può succedere?

ma guarda una percentuale c'è ma credo sia minima, solitamente una vga muore xè la gpu o le ram si deteriorano, oppure xè solitamente vengono abbandonate da qualche condensatore o mosfet nell'alimentazione.
solitamente una vga per rovinare il bus pci-ex deve fare un danno fisico allo slot pci-ex quindi a meno di scintille o sfiammate non ci sono problemi di questa sorta.
basta osservare se qualche piedino della vga rotta che estraiamo è annerito e ci potrebbero essere qualche possibilità che la vga abbia intaccato in qualche maniera ache lo slot pci-ex rendendolo inutilizzabile. o con problemi

garbage
09-11-2007, 09:00
ma guarda una percentuale c'è ma credo sia minima, solitamente una vga muore xè la gpu o le ram si deteriorano, oppure xè solitamente vengono abbandonate da qualche condensatore o mosfet nell'alimentazione.
solitamente una vga per rovinare il bus pci-ex deve fare un danno fisico allo slot pci-ex quindi a meno di scintille o sfiammate non ci sono problemi di questa sorta.
basta osservare se qualche piedino della vga rotta che estraiamo è annerito e ci potrebbero essere qualche possibilità che la vga abbia intaccato in qualche maniera ache lo slot pci-ex rendendolo inutilizzabile. o con problemi
gia controllato il connettore pci ex e perfetto:D cmq raga su vista 64bite ho risolto tutti i problemi!!!!!! non crasha piu faccio qualche frame in piu in crysis e il sistema e moooooolto piu stabile :)
quindi era vista 32bit che dava i numeri

carlok
09-11-2007, 09:13
gia controllato il connettore pci ex e perfetto:D cmq raga su vista 64bite ho risolto tutti i problemi!!!!!! non crasha piu faccio qualche frame in piu in crysis e il sistema e moooooolto piu stabile :)
quindi era vista 32bit che dava i numeri

ottimo....
ciauz

ninja970
09-11-2007, 09:18
cmq raga ho fattoi l 3d marck06 driver 7.10 q6600 a 3ghz ram a 800 4-4-4-12 -1t crt a 16 e vga default faccio 11700 punti sono nella norma? a me sembrano pochini:mc:
io ho una configurazione molto simile alla tua (la leggi in firma) e con tutto @ default faccio quasi 12000 punti al 3D06 alla risoluzione di 1280x1024

garbage
09-11-2007, 09:32
io ho una configurazione molto simile alla tua (la leggi in firma) e con tutto @ default faccio quasi 12000 punti al 3D06 alla risoluzione di 1280x1024

la cpu a quanto?

M4R1|<
09-11-2007, 10:12
ma guarda una percentuale c'è ma credo sia minima, solitamente una vga muore xè la gpu o le ram si deteriorano, oppure xè solitamente vengono abbandonate da qualche condensatore o mosfet nell'alimentazione.
solitamente una vga per rovinare il bus pci-ex deve fare un danno fisico allo slot pci-ex quindi a meno di scintille o sfiammate non ci sono problemi di questa sorta.
basta osservare se qualche piedino della vga rotta che estraiamo è annerito e ci potrebbero essere qualche possibilità che la vga abbia intaccato in qualche maniera ache lo slot pci-ex rendendolo inutilizzabile. o con problemi

a nn lo sapevo, cmq cioè se ci fosse stata una scintilla uno quando smonta la vecchia vga se ne accorge che c'è del nero dove nn ci dovrebbe essere :D
Grazie

gia controllato il connettore pci ex e perfetto:D cmq raga su vista 64bite ho risolto tutti i problemi!!!!!! non crasha piu faccio qualche frame in piu in crysis e il sistema e moooooolto piu stabile :)
quindi era vista 32bit che dava i numeri

Bene sono contento per te :)
per curiosità cosa hai fatto?

Catan
09-11-2007, 10:16
a nn lo sapevo, cmq cioè se ci fosse stata una scintilla uno quando smonta la vecchia vga se ne accorge che c'è del nero dove nn ci dovrebbe essere :D
Grazie



Bene sono contento per te :)
per curiosità cosa hai fatto?

certo m4r1 a te nn è mai successo?
io 2 o 3 volte è capitato tra i pc, sia che assemblavo sia dopo tempo a volte x qualche motivo ci sta uno sbalzo di tenzione tra vga e slot agp o pci-ex, spesso nn succede nulla ma a volte è capace che ci sia una scintilla che magari fa funzionare il tutto solo che un piedino di contatto della vga o dello slot è partito e l'erogazione di corrente o lo scambio dati ne è inficiato.

cò come credevo spesso gli errori di un pc sono dati da 2 o 3 fattori, hw solitamente è l'ali o le ram, software solitamente è il windows che a volte skazza su qualche configurazione.

garbage
09-11-2007, 10:37
a nn lo sapevo, cmq cioè se ci fosse stata una scintilla uno quando smonta la vecchia vga se ne accorge che c'è del nero dove nn ci dovrebbe essere :D
Grazie



Bene sono contento per te :)
per curiosità cosa hai fatto?

non so cosa ho fatto:muro: e quello il problema

M4R1|<
09-11-2007, 11:24
certo m4r1 a te nn è mai successo?
io 2 o 3 volte è capitato tra i pc, sia che assemblavo sia dopo tempo a volte x qualche motivo ci sta uno sbalzo di tenzione tra vga e slot agp o pci-ex, spesso nn succede nulla ma a volte è capace che ci sia una scintilla che magari fa funzionare il tutto solo che un piedino di contatto della vga o dello slot è partito e l'erogazione di corrente o lo scambio dati ne è inficiato.

cò come credevo spesso gli errori di un pc sono dati da 2 o 3 fattori, hw solitamente è l'ali o le ram, software solitamente è il windows che a volte skazza su qualche configurazione.

l'ho visto succedere su alcune agp, pci e su un hd.
cmq vero solitamente le schermate blu (le rosse mi sono nuove) avvengono per ram, ali (raramente anche hd) oppure per windows, dove il 75% delle volte è colpa degli utenti (per nn è il caso garbage), e il 25% delle cacchiate che fa windows (è il caso di garbage :D)

non so cosa ho fatto:muro: e quello il problema

lo immaginavo :D cmq bho magari durante l'installazioe crava problemi, però tutte le volte, bho (nn è che ti si è rovinato il disco?)

garbage
09-11-2007, 11:36
l'ho visto succedere su alcune agp, pci e su un hd.
cmq vero solitamente le schermate blu (le rosse mi sono nuove) avvengono per ram, ali (raramente anche hd) oppure per windows, dove il 75% delle volte è colpa degli utenti (per nn è il caso garbage), e il 25% delle cacchiate che fa windows (è il caso di garbage :D)



lo immaginavo :D cmq bho magari durante l'installazioe crava problemi, però tutte le volte, bho (nn è che ti si è rovinato il disco?)
niente da fare dinuovo cheramte blu:muro: ma il bello e che ho giocato tutto ieris era e stamattina nesusna schermata esco dal gioco pac schermata blu, riaccendo 10 sec ta altra schermata blu , riaccendo altri 10 sec pac schermata blu , allora ho incominciato a togliere de componenti , xfi niente sempre schermata blu , togliendo varie robe fino ad arrivare a un modulo di ram ne ho tolto uno e per ora nesuna schermata blu.
non so come fare per testare la stabilita perche se facio orthos il pc e perfettamente stabile anche per 12 ore invece quando esco da un gioco avolte fa la schermata blu:muro: :muro:

garbage
09-11-2007, 13:31
cmq ho provaot la vga sul pc di un amico mio e va senza problemi :mc: quindi qua ce qualcosa che non va ..... che sia la mobo? che crea incompatibilita tra 680i e hd2900?

ninja970
09-11-2007, 14:32
la cpu a quanto?
te lho detto, tutto @ default

cmq ho provaot la vga sul pc di un amico mio e va senza problemi :mc: quindi qua ce qualcosa che non va ..... che sia la mobo? che crea incompatibilita tra 680i e hd2900?
incompatibilità non credo, anche io ho la tua stessa scheda madre e non ho problemi

carlok
09-11-2007, 15:36
cmq ho provaot la vga sul pc di un amico mio e va senza problemi :mc: quindi qua ce qualcosa che non va ..... che sia la mobo? che crea incompatibilita tra 680i e hd2900?
hai tolto fisicamente la creative?
ti ricordo che io avevo problemi di stabilita' graze a una creative audigy 2....
il chip sonoro della vga mi andava in conflitto con la scheda sonosra e genrava ogni genere di problema..
da schermate blu a suoni ..tipo modem..
considera ch eio sono unplayer di bf2 e ci faccio di media 2 ore al di..
quindi la stabilita' nel mio sistema è d'obbligo..
ora per es. gioco a 820/945 ..frequenze impensabili prima. di smontare la mia audigy 2.

ciuaz

garbage
09-11-2007, 15:51
hai tolto fisicamente la creative?
ti ricordo che io avevo problemi di stabilita' graze a una creative audigy 2....
il chip sonoro della vga mi andava in conflitto con la scheda sonosra e genrava ogni genere di problema..
da schermate blu a suoni ..tipo modem..
considera ch eio sono unplayer di bf2 e ci faccio di media 2 ore al di..
quindi la stabilita' nel mio sistema è d'obbligo..
ora per es. gioco a 820/945 ..frequenze impensabili prima. di smontare la mia audigy 2.

ciuaz

sisi ho tolto tutto ma le mie ram sono incompatibili con sta caxxo di mobo :muro: :muro: ho provato oggi delle ram di un amico e funzionava tutto perfetoooooooooo :muro: :muro: :muro: :muro: :muro: :muro: :muro:

ninja970
09-11-2007, 15:53
sisi ho tolto tutto ma le mie ram sono incompatibili con sta caxxo di mobo :muro: :muro: ho provato oggi delle ram di un amico e funzionava tutto perfetoooooooooo :muro: :muro: :muro: :muro: :muro: :muro: :muro:

che RAM sono ?

fanculium
09-11-2007, 18:02
Ciao Raga!
Avete già visto queste tabelle sulle HD3800??
Ciao:D
http://forums.vr-zone.com/showthread.php?t=202465

dreadreaper
09-11-2007, 21:32
leggendo , forse nel mio caso centra la xfi della creative che con oblivion e scheda in oc mi si blocca il pc..ma anche con core alzato di soli 10 mhz , nn ce un modo x disabilitare l'audio della vga?

+Lonewolf+
09-11-2007, 21:58
Ciao Raga!
Avete già visto queste tabelle sulle HD3800??
Ciao:D
http://forums.vr-zone.com/showthread.php?t=202465

io ho letto che a 2560x1600 faceva 25fps di media a call of duty 4...e calcolando il bus a 256bit contro i 384 di g80 penso che a 128'-1600 vada meglio di quest'uultimo, calcolando che a quel dettaglio, a quella ris e con i filtri(AA4X AF16X) una 2900 fa 20fps...sapere che una 3870 con bus dimezzato e meno banda passante fa di più fa sperare in qualcosa di molto buono


poi c'è anche il caso della 3850 che nonostante la freq di clock minore di quella della 2900 va + forte di una 10ina di fps in UT3...curioso ma fa ben sperare:)

fustacchione90
10-11-2007, 13:12
iao agazzi avete povato call of duty 4? a me da uno strano errore se cambio risoluzione, delle direct x...lo fa anke a voi?

Rez
10-11-2007, 13:16
iao agazzi avete povato call of duty 4? a me da uno strano errore se cambio risoluzione, delle direct x...lo fa anke a voi?

giocato ieri sera..nessun problema :D

jeck999
10-11-2007, 13:38
io ho letto che a 2560x1600 faceva 25fps di media a call of duty 4...e calcolando il bus a 256bit contro i 384 di g80 penso che a 128'-1600 vada meglio di quest'uultimo, calcolando che a quel dettaglio, a quella ris e con i filtri(AA4X AF16X) una 2900 fa 20fps...sapere che una 3870 con bus dimezzato e meno banda passante fa di più fa sperare in qualcosa di molto buono


poi c'è anche il caso della 3850 che nonostante la freq di clock minore di quella della 2900 va + forte di una 10ina di fps in UT3...curioso ma fa ben
sperare:)

ma dove lo hai letto che la 3870 ha il bus a 256bit?
e le mem sono ddr3 o ddr4?
c'è un link?

fustacchione90
10-11-2007, 14:05
ragazzi, siccome reinstallando n va ancora cod4, cè un modo per forzare una certa risoluzione dello schermo da ccc?

×§ñåkê×
10-11-2007, 14:13
ci siamo, i 7.11 dovrebbero uscire a giorni, poi vediamo i miglioramenti rispetto ai 7.10 in crysis :oink:

-Feanor-
10-11-2007, 14:37
ci siamo, i 7.11 dovrebbero uscire a giorni, poi vediamo i miglioramenti rispetto ai 7.10 in crysis :oink:

speriamo :sperem: :tie:

SenderoLuminoso
10-11-2007, 15:17
giocato ieri sera..nessun problema :D
Io non riesoc a giocare schermata nera sento l'audio ma boh risoluzione sbagliata come posso fare?

SenderoLuminoso
10-11-2007, 15:17
ragazzi, siccome reinstallando n va ancora cod4, cè un modo per forzare una certa risoluzione dello schermo da ccc?Se sai come fare me lo puoi dire pure a me? Stesso problema schermata nera

fustacchione90
10-11-2007, 16:12
io ho risolto, andando nella cartella di gioco,player e il vostro profilo, cè il file cfg.
apritelo con word trovate la vore r_monitor "1024x768" e cambiatela...a me va :)

Chief
10-11-2007, 20:22
Ragazzi ho preso gears of war,il gioco in dx9 tutto su very high va bene i frame sono fermi sui 60 ma c'è un problema scatta sempre.....mi sono rotto di aspettare a ogni gioco i vari driver che risolvono questi bug :muro: in dx10 va un po meglio anche se gli scatti restano ma sono molti di meno, il frame rate è al limite della giocabilità (1680x1050 tranne aa).....spero che risolvano subito questo problema,altrimenti non ci posso giocare....veramente non se ne può più di aspettare ogni volta driver che risolvono questi problemi :mc: :rolleyes:........qualcuno che ha gears of war può confermare?

YANEZ84
10-11-2007, 20:40
e' vero io in crossfire gears of war ho dei problemi di viuslaizzazione cmq ci vogliono i driver

Chief
10-11-2007, 20:49
e' vero io in crossfire gears of war ho dei problemi di viuslaizzazione cmq ci vogliono i driver

Io non la sopporto più sta situazione almeno speriamo che risolvono con i 7.11 :rolleyes:

Athlon 64 3000+
10-11-2007, 20:51
io spero che escano presto i catalist 7.11 perchè il demo di crysis mi da parecchi bachi grafici e in Timeshift ho dei problemi nella visualizzazione delle ombre.
Spero anche che nel demo di crysis ci sia un incremento prestazionale visto che mi da veramente da schifo.

garbage
10-11-2007, 21:31
che RAM sono ?

crucial balistix tracer led 8500
ma cmq ora funziona tutto a meraviglia anche con queste ram
guardate e una cosa assurda.... non ho toccato nulla...

garbage
10-11-2007, 21:34
io spero che escano presto i catalist 7.11 perchè il demo di crysis mi da parecchi bachi grafici e in Timeshift ho dei problemi nella visualizzazione delle ombre.
Spero anche che nel demo di crysis ci sia un incremento prestazionale visto che mi da veramente da schifo.

???? a me gira con una media di 25 frame tutto si veri high apparte il post processing che lo odio che e su medium pero ci sono cali anche fino a 10

ninja970
10-11-2007, 21:34
crucial balistix tracer led 8500
ma cmq ora funziona tutto a meraviglia anche con queste ram
guardate e una cosa assurda.... non ho toccato nulla...
bene, l'importante è che funzioni tutto ;)

PS potrebbe essere una non piena compatibilità tra le memorie e la scheda madre

garbage
10-11-2007, 21:51
bene, l'importante è che funzioni tutto ;)

PS potrebbe essere una non piena compatibilità tra le memorie e la scheda madre

infatti sta mobo finisce dritta nel pattume:D ma stancato con le sue storie

fustacchione90
11-11-2007, 09:43
:confused: ragazzi io mi sto rompemndo le palle di tutti sti vantaggi a favore nvidia, screditano un prodotto a livello tale da renderlo una ciofeca a livello mentale cosi nessuno lo compra!!! cioè se guardate i test 8800vs2900 la gts è sempre davanti alla xt a 1280x1024, quando la nostra va come la gtx!! cioè io qui ho a disposizione 2900xt,8800gtx,8600gts,x1900xtx e altre schede, e sinceramente n mi trovo mai con i risultati che ci sono in internet!!
fatalità la 8800gtx in realta va sempre quel pelo in meno e la nostra quel pelo in piu, traformando quella differenza abissale tanto acclamata in parità assoluta, vi sembra posibile? a me no sinceramente, nemmeno quando la x1900 batteva la 7900 n si era a favore di ati , mai!!!! scusate l ot ma dovevo sfogarmi, quando in xfire llinkano un recente articolo di tomshw con scritoo "il progetto 2900 di AMD è un progetto morto in partenza, e portato avanti ancora peggio" io n dico che n fosse un pattume di scheda a maggio la 2900, ma ora è una bomba!!.
e sopratutto quando nvidia cambia la qualita d immagine di crysis a tua insaputa x avere quei 4 fps in piu li nessuno dice nulla!!
p.s. a un lan party ho provato il mio pc vs un q6600,2gb ram, pov 8800gtx, asus extreme striker nel benchmark gpu id crysis a 1280x1024 no aa tutto very high ombre medium e post processing high ma con sunshaft, e le schede andavano uguali anzi, 0,3 fps x la xt in piu....oa peche scrivono in giro che fa 15 fps in piu la gtx? sono queste le cose he mi domando....

garbage
11-11-2007, 10:05
:confused: ragazzi io mi sto rompemndo le palle di tutti sti vantaggi a favore nvidia, screditano un prodotto a livello tale da renderlo una ciofeca a livello mentale cosi nessuno lo compra!!! cioè se guardate i test 8800vs2900 la gts è sempre davanti alla xt a 1280x1024, quando la nostra va come la gtx!! cioè io qui ho a disposizione 2900xt,8800gtx,8600gts,x1900xtx e altre schede, e sinceramente n mi trovo mai con i risultati che ci sono in internet!!
fatalità la 8800gtx in realta va sempre quel pelo in meno e la nostra quel pelo in piu, traformando quella differenza abissale tanto acclamata in parità assoluta, vi sembra posibile? a me no sinceramente, nemmeno quando la x1900 batteva la 7900 n si era a favore di ati , mai!!!! scusate l ot ma dovevo sfogarmi, quando in xfire llinkano un recente articolo di tomshw con scritoo "il progetto 2900 di AMD è un progetto morto in partenza, e portato avanti ancora peggio" io n dico che n fosse un pattume di scheda a maggio la 2900, ma ora è una bomba!!.
e sopratutto quando nvidia cambia la qualita d immagine di crysis a tua insaputa x avere quei 4 fps in piu li nessuno dice nulla!!
p.s. a un lan party ho provato il mio pc vs un q6600,2gb ram, pov 8800gtx, asus extreme striker nel benchmark gpu id crysis a 1280x1024 no aa tutto very high ombre medium e post processing high ma con sunshaft, e le schede andavano uguali anzi, 0,3 fps x la xt in piu....oa peche scrivono in giro che fa 15 fps in piu la gtx? sono queste le cose he mi domando....

ehm la gtx e meglio...:doh:
cambiera la qualita dimmagine ma i driver ci sono sempre , non ci sono mai tutti sti problemi con i giochi come su ati.... secondo me nvidia ha una marcia in piu soto laspetto dello sviluppo... non passano mesi tra una relase di driver e laltra....e specialmente non bisogna aspettare i driver nuovi per giocare senza vedere artefatti grafici ecc

fustacchione90
11-11-2007, 10:15
bè insomma.....se a crysis togliamo la grafica cosa ci resta?
e tra un dvr e l atro passa al massimo un mese, per gli altri giochi son sempre usciti dvr appositi....e ti quoto in quando hai ragione sotto l aspetto dello svilppo...li hai ragione....

soulmauri
11-11-2007, 10:35
Ragazzi ho preso gears of war,il gioco in dx9 tutto su very high va bene i frame sono fermi sui 60 ma c'è un problema scatta sempre.....mi sono rotto di aspettare a ogni gioco i vari driver che risolvono questi bug :muro: in dx10 va un po meglio anche se gli scatti restano ma sono molti di meno, il frame rate è al limite della giocabilità (1680x1050 tranne aa).....spero che risolvano subito questo problema,altrimenti non ci posso giocare....veramente non se ne può più di aspettare ogni volta driver che risolvono questi problemi :mc: :rolleyes:........qualcuno che ha gears of war può confermare?

ciao Chief prova con questa soluzione al tuo problema http://forums.guru3d.com/showpost.php?p=2490728&postcount=16*...metti tutto al massimo nelle option e poi modifichi i file di configurazione come riportato nel forum di guru3d ti assicuro che funziona ....mi sembra però cali un pò la qualità delle texture ma devo fare degli screen per capire di quanto ...in attesa di una patch oppure di aimè i sempre più attesi 7.11 può essere una soluzione ottimale. ciao a tutti :)

Iantikas
11-11-2007, 11:16
:confused: ragazzi io mi sto rompemndo le palle di tutti sti vantaggi a favore nvidia, screditano un prodotto a livello tale da renderlo una ciofeca a livello mentale cosi nessuno lo compra!!! cioè se guardate i test 8800vs2900 la gts è sempre davanti alla xt a 1280x1024, quando la nostra va come la gtx!! cioè io qui ho a disposizione 2900xt,8800gtx,8600gts,x1900xtx e altre schede, e sinceramente n mi trovo mai con i risultati che ci sono in internet!!
fatalità la 8800gtx in realta va sempre quel pelo in meno e la nostra quel pelo in piu, traformando quella differenza abissale tanto acclamata in parità assoluta, vi sembra posibile? a me no sinceramente, nemmeno quando la x1900 batteva la 7900 n si era a favore di ati , mai!!!! scusate l ot ma dovevo sfogarmi, quando in xfire llinkano un recente articolo di tomshw con scritoo "il progetto 2900 di AMD è un progetto morto in partenza, e portato avanti ancora peggio" io n dico che n fosse un pattume di scheda a maggio la 2900, ma ora è una bomba!!.
e sopratutto quando nvidia cambia la qualita d immagine di crysis a tua insaputa x avere quei 4 fps in piu li nessuno dice nulla!!
p.s. a un lan party ho provato il mio pc vs un q6600,2gb ram, pov 8800gtx, asus extreme striker nel benchmark gpu id crysis a 1280x1024 no aa tutto very high ombre medium e post processing high ma con sunshaft, e le schede andavano uguali anzi, 0,3 fps x la xt in piu....oa peche scrivono in giro che fa 15 fps in piu la gtx? sono queste le cose he mi domando....


te mi sa ke hai la HD2900XT dei miracoli (oppure mentre srivevi questo post ti sei detto "ora lo infarcisco ben ben di caxxate")...io propendo x la seconda ;) (anke xkè da uno ke si autodikiara fanboy ati nn m'aspetto molto d +)...


...5 mesi d artefatti in 2d e d skermate blu dovute al driver "ati2mtag" nn son niente?...crash, bug, artefatti, prestazioni scandalose x le potenzialità della skeda in gran parte dei nuovi titoli (ultmo caso GoW) e attese ogni volta lunghe settimane o + x attendere un driver ke risolva nn son niente?...


...e nn ho parlato volutamente delle performance xkè li c'è veramente molto poco da dire...ci sono decine d rece, centiniai d screen fatti da utenti e l'esperienza d utenti come me, mordsiger e tanti altri ke veramente le hanno provate entrambe mentre tu 6 l'unico ke afferma una cosa del genere addirittura arrivando ad affermare ke esiste una cospirazione da parte di tutti i siti ke riguardano l'IT atta a taroccare tutti i result d R600 x farla sfigurare contro G80 :oink: ...


...ma se pensi ke HWup è fatto da persone false e ipocrite ke si spaccano il C a fare centinaia d test x poi taroccare i risultati e ke questo forum è popolato esclusivamente da fanboy nvidia...ma ke c stai a fare qua?

DakmorNoland
11-11-2007, 11:27
ci sono decine d rece, centiniai d screen fatti da utenti e l'esperienza d utenti come me, mordsiger e tanti altri ke veramente le hanno provate entrambe


Forse voi non siete capaci ad assemblare e settare a dovere un pc di fascia high-end. Può capitare, bisogna saper riconoscere i propi limiti.

Inoltre mi pare che lui parli di 3d mark senza AA attivo, e si sa li la 2900XT va alla grande.

Anzi va alla grande in generale tranne nei test con AA abilitato, e questo perchè lo sappiamo i giochi sono stati ottimizzati per l'architettura Nvidia, e non si può certo dare la colpa ad AMD di questo fatto.

Poi scusa ma alla fine mi fido di + dell'intervento di un fanboy, piuttosto che di uno che si è fatto scippare comprando una 8800 Ultra.

Questo giusto per risponderti a tono.

garbage
11-11-2007, 11:49
Forse voi non siete capaci ad assemblare e settare a dovere un pc di fascia high-end. Può capitare, bisogna saper riconoscere i propi limiti.

Inoltre mi pare che lui parli di 3d mark senza AA attivo, e si sa li la 2900XT va alla grande.

Anzi va alla grande in generale tranne nei test con AA abilitato, e questo perchè lo sappiamo i giochi sono stati ottimizzati per l'architettura Nvidia, e non si può certo dare la colpa ad AMD di questo fatto.

Poi scusa ma alla fine mi fido di + dell'intervento di un fanboy, piuttosto che di uno che si è fatto scippare comprando una 8800 Ultra.

Questo giusto per risponderti a tono.

andra alla grane ingenerale ma la 8800gtx va alla grande ancora di piu:)

Grave Digger
11-11-2007, 12:03
te mi sa ke hai la HD2900XT dei miracoli (oppure mentre srivevi questo post ti sei detto "ora lo infarcisco ben ben di caxxate")...io propendo x la seconda ;) (anke xkè da uno ke si autodikiara fanboy ati nn m'aspetto molto d +)...


...5 mesi d artefatti in 2d e d skermate blu dovute al driver "ati2mtag" nn son niente?...crash, bug, artefatti, prestazioni scandalose x le potenzialità della skeda in gran parte dei nuovi titoli (ultmo caso GoW) e attese ogni volta lunghe settimane o + x attendere un driver ke risolva nn son niente?...


...e nn ho parlato volutamente delle performance xkè li c'è veramente molto poco da dire...ci sono decine d rece, centiniai d screen fatti da utenti e l'esperienza d utenti come me, mordsiger e tanti altri ke veramente le hanno provate entrambe mentre tu 6 l'unico ke afferma una cosa del genere addirittura arrivando ad affermare ke esiste una cospirazione da parte di tutti i siti ke riguardano l'IT atta a taroccare tutti i result d R600 x farla sfigurare contro G80 :oink: ...


...ma se pensi ke HWup è fatto da persone false e ipocrite ke si spaccano il C a fare centinaia d test x poi taroccare i risultati e ke questo forum è popolato esclusivamente da fanboy nvidia...ma ke c stai a fare qua?

il quote ci sta tutto ;)

Forse voi non siete capaci ad assemblare e settare a dovere un pc di fascia high-end. Può capitare, bisogna saper riconoscere i propi limiti.

Inoltre mi pare che lui parli di 3d mark senza AA attivo, e si sa li la 2900XT va alla grande.

Anzi va alla grande in generale tranne nei test con AA abilitato, e questo perchè lo sappiamo i giochi sono stati ottimizzati per l'architettura Nvidia, e non si può certo dare la colpa ad AMD di questo fatto.

Poi scusa ma alla fine mi fido di + dell'intervento di un fanboy, piuttosto che di uno che si è fatto scippare comprando una 8800 Ultra.

Questo giusto per risponderti a tono.

:rotfl:

The_SaN
11-11-2007, 12:07
Ma si sa che la GTX va di piú, e quasi sempre....
Infatti costa anche 100 Euro in piú ;)
Invece fino a settimana scorsa la lotta era con la 8800GTS, che costa uguale. E in questo caso la XT é la vincitrice.

Ora con l' avvento della GT, le 2 schede (GTS e XT) non hanno piú senso di esistere, e bisogna aspettare la serie 3800.

×§ñåkê×
11-11-2007, 12:27
te mi sa ke hai la HD2900XT dei miracoli (oppure mentre srivevi questo post ti sei detto "ora lo infarcisco ben ben di caxxate")...io propendo x la seconda ;) (anke xkè da uno ke si autodikiara fanboy ati nn m'aspetto molto d +)...


...5 mesi d artefatti in 2d e d skermate blu dovute al driver "ati2mtag" nn son niente?...crash, bug, artefatti, prestazioni scandalose x le potenzialità della skeda in gran parte dei nuovi titoli (ultmo caso GoW) e attese ogni volta lunghe settimane o + x attendere un driver ke risolva nn son niente?...


...e nn ho parlato volutamente delle performance xkè li c'è veramente molto poco da dire...ci sono decine d rece, centiniai d screen fatti da utenti e l'esperienza d utenti come me, mordsiger e tanti altri ke veramente le hanno provate entrambe mentre tu 6 l'unico ke afferma una cosa del genere addirittura arrivando ad affermare ke esiste una cospirazione da parte di tutti i siti ke riguardano l'IT atta a taroccare tutti i result d R600 x farla sfigurare contro G80 :oink: ...


...ma se pensi ke HWup è fatto da persone false e ipocrite ke si spaccano il C a fare centinaia d test x poi taroccare i risultati e ke questo forum è popolato esclusivamente da fanboy nvidia...ma ke c stai a fare qua?

bha, dimentichi che il 90% dei giochi per pc sono tutti pro nvidia... quindi è ovvio che le ottimizzazioni non siano immediate da parte di ati... :rolleyes:

Michele81
11-11-2007, 13:22
Io dalle prove che ho fatto bene o male i valori che ho riscontrato sono simili alle recensioni che ho letto (ovviamente su siti seri): jericho, moh: airborne, hl ep2, crysis. C'è anche da dire che nei giochi in cui non c'è un apposito benchmark, è difficile fare confronti

Io gioco principalmente agli fps, generalmente a 1280x1024(avendo un crt la risoluzione non è un problema), e il gioco lo considero fluido se come minimo mi fa i 25/30fps e di media sta sui 40/50. Prima di prendere la 2900xt ho fatto tre considerazioni:
DX9 --> la 2900xt mi fa girare tutto a palla, così anche 8800gtx. I discorso AA mi interessa relativamente: se vedo che soffre con l'AA4x, alzo la risoluzione e lo tengo disattivato/lo diminuisco (difatti jericho ci gioco a 1600x1200 senza AA e di differenze non ne vedo)
DX10 --> questa generazione di schede non sono adatte alle dx10. Il G80 si comporta meglio della 2900xt, ma sono cmq prestazioni inaccettabili, soprattutto perchè qualitativamente non è che cambi molto da DX9 a DX10 (vedi bioshock)
Crysis --> ne la 8800gtx ne la 2900xt fanno girare crysis tutto su very high

Contando che la 2900XT costa 100€ in meno della GTX, ho deciso di stare su ati.
Non mi sogno però di dire che la 2900XT va come una GTX....su dai, siamo seri! Sono schede high end e imho bisogna compararle con tutto a palla (AA4X e AF16X). Sbandierare benchmark in cui R600 va come una GTX con AA e AF spenti imho lasciano il tempo che trovano

Athlon 64 3000+
11-11-2007, 13:53
la hd 2900xt solo in alcuni giochi senza AA riesce a pareggiare la 8800GTX.
In molti altri giochi invece va come una 8800GTS 640,con aa 4x la 8800GTX è sempre avanti alla hd 2900xt.
La cosa che mi fa ridere è che da un po' di tempo Nvidia è diventata intoccabile,non la si può più criticare,le 8800 se qualcuno si azzarda a criticare subito fan boy e alcuni possessori delle 8800 vengono a scatenare flame a tutto spiano.
Se c'e da criticare Ati o riconoscere i limiti di R600 lo faccio senza problemi.
Inoltre riconosco la superiorità della 8800GTX rispetto alla hd 2900xt nella maggior parte di giochi ma far passare un scheda o ditta intoccabile ce ne passa sotto i ponti.
Queste sono le motivazione perchè preferisco Ati a Nvidia,il non essere in comunella con certe persone che difendono a spada tratta e a priori un prodotto.

The_SaN
11-11-2007, 14:24
Il vero problema é l' infantilitá di alcune persone in relazione ai propri acquisti.
Il fatto di doversi convincere in tutti i modi del fatto che l' acquisto fatto é per forza il migliore e tutto il resto é cacca.
Sembra roba da gente frustrata.
Freud spiegherebbe questo comportamento con la sindrome del microfallo, ma no sto a dilungarmi su questo.

E non parlo solo di fan nVidia, ma anche di ATi.

Pat77
11-11-2007, 14:38
Il vero problema é l' infantilitá di alcune persone in relazione ai propri acquisti.
Il fatto di doversi convincere in tutti i modi del fatto che l' acquisto fatto é per forza il migliore e tutto il resto é cacca.
Sembra roba da gente frustrata.
Freud spiegherebbe questo comportamento con la sindrome del microfallo, ma no sto a dilungarmi su questo.

E non parlo solo di fan nVidia, ma anche di ATi.

Io trovo che le discrepanze nei risultati siano del tutto normali, le ho quasi sempre rilevate, sia che sia ati sia che sia nvidia.

Athlon 64 3000+
11-11-2007, 14:41
Il vero problema é l' infantilitá di alcune persone in relazione ai propri acquisti.
Il fatto di doversi convincere in tutti i modi del fatto che l' acquisto fatto é per forza il migliore e tutto il resto é cacca.
Sembra roba da gente frustrata.
Freud spiegherebbe questo comportamento con la sindrome del microfallo, ma no sto a dilungarmi su questo.

E non parlo solo di fan nVidia, ma anche di ATi.

verissimo.
Anche molti possessori di Ati sono cosi,solo che negli ultimi tempi sono i possessori delle 8800 che non fanno altro che inquinare le discussione delle schede Ati facendole passare per dei cessi di schede e consigliando sempre le loro schede.

The_SaN
11-11-2007, 14:43
Io trovo che le discrepanze nei risultati siano del tutto normali, le ho quasi sempre rilevate, sia che sia ati sia che sia nvidia.

Non parlo di discrepanze dei risultati (anche perché con la mole di config. diverse che c'é in giro é utopistico fare alcune comparazioni).
Ma parlo di gente che compra un prodotto e lo difende a spada tratta, non considerando le debolezze del proprio prodotto e facendo leva su quelle degli altri.

Per fare un esempio banale: il proprio bicchiere é sempre mezzo pieno, quello degli altri sempre mezzo vuoto :)

Ammazza che oggi sono ispirato (sará il Bardolino :stordita: )

The_SaN
11-11-2007, 14:45
verissimo.
Anche molti possessori di Ati sono cosi,solo che negli ultimi tempi sono i possessori delle 8800 che non fanno altro che inquinare le discussione delle schede Ati facendole passare per dei cessi di schede e consigliando sempre le loro schede.

Esatto, mi riferisco proprio a questo :)
Mi ricordo ancora il giorno della rece di r600.
Mai visto tante volte la parola Flop in vita mia. Ma alla fine va meglio della GTS e costa uguale.....

M4R1|<
11-11-2007, 16:49
la hd 2900xt solo in alcuni giochi senza AA riesce a pareggiare la 8800GTX.
In molti altri giochi invece va come una 8800GTS 640,con aa 4x la 8800GTX è sempre avanti alla hd 2900xt.
La cosa che mi fa ridere è che da un po' di tempo Nvidia è diventata intoccabile,non la si può più criticare,le 8800 se qualcuno si azzarda a criticare subito fan boy e alcuni possessori delle 8800 vengono a scatenare flame a tutto spiano.
Se c'e da criticare Ati o riconoscere i limiti di R600 lo faccio senza problemi.
Inoltre riconosco la superiorità della 8800GTX rispetto alla hd 2900xt nella maggior parte di giochi ma far passare un scheda o ditta intoccabile ce ne passa sotto i ponti.
Queste sono le motivazione perchè preferisco Ati a Nvidia,il non essere in comunella con certe persone che difendono a spada tratta e a priori un prodotto.

Bravo ;)

verissimo.
Anche molti possessori di Ati sono cosi,solo che negli ultimi tempi sono i possessori delle 8800 che non fanno altro che inquinare le discussione delle schede Ati facendole passare per dei cessi di schede e consigliando sempre le loro schede.

e noi e sappiamo qualcosa :asd:

Esatto, mi riferisco proprio a questo :)
Mi ricordo ancora il giorno della rece di r600.
Mai visto tante volte la parola Flop in vita mia. Ma alla fine va meglio della GTS e costa uguale.....

e ma sai certe persone parlano tanto nn avendo la scheda, e ne possedendo una degna rivale, oppure......lasciamo perdere va se no.


cmq questi discorsi ormai sono old, l'abbiamo letto e visto in tutte le paste che la 2900 a oggi nn supera ne G80 (ne il recente G92). quindi pace e amen.

l'unica cosa che dico (come giustamente sottoline Free Gordon) che cmq entrambe le schede garantiscono in DX9 prestazioni più che soddifacienti, poi a me nn mi frega di fare a 1680x1050 90 frame oppure 70, che mi cambia? scusate no. e poi per dirla tutta nessuna delle due architetture (fino ad oggi) si è dimostrata degna di far girare decentemente le dx10, o i più avanzati dx9 come (e solo per ora) crysis :rolleyes:

+Lonewolf+
11-11-2007, 16:53
Bravo ;)



e noi e sappiamo qualcosa :asd:



e ma sai certe persone parlano tanto nn avendo la scheda, e ne possedendo una degna rivale, oppure......lasciamo perdere va se no.


cmq questi discorsi ormai sono old, l'abbiamo letto e visto in tutte le paste che la 2900 a oggi nn supera ne G80 (ne il recente G92). quindi pace e amen.

l'unica cosa che dico (come giustamente sottoline Free Gordon) che cmq entrambe le schede garantiscono in DX9 prestazioni più che soddifacienti, poi a me nn mi frega di fare a 1680x1050 90 frame oppure 70, che mi cambia? scusate no. e poi per dirla tutta nessuna delle due architetture (fino ad oggi) si è dimostrata degna di far girare decentemente le dx10, o i più avanzati dx9 come (e solo per ora) crysis :rolleyes:

singolare il cao di un utente, che diceva che la 2900 aveva difettucci quale calore,rumore ecc...e all'uscita della 8800gt, che ha gli stessi difettucci, li giustifica dicndo che il dissi è single slot, la scheda costa poco...bla bla bla...

nn faccio nomi

M4R1|<
11-11-2007, 17:25
singolare il cao di un utente, che diceva che la 2900 aveva difettucci quale calore,rumore ecc...e all'uscita della 8800gt, che ha gli stessi difettucci, li giustifica dicndo che il dissi è single slot, la scheda costa poco...bla bla bla...

nn faccio nomi

è che caso è, ma si dai che lo sappiamo, dai.....

che casualità è.

ora mi fermo se no mi battezza.

cmq il <<nn faccio nomi>> va al plurale ;)

edit: cmq finiamola se no mi/ti/ci battezzano

+Lonewolf+
11-11-2007, 18:02
è che caso è, ma si dai che lo sappiamo, dai.....

che casualità è.

ora mi fermo se no mi battezza.

cmq il <<nn faccio nomi>> va al plurale ;)

edit: cmq finiamola se no mi/ti/ci battezzano

AMEN:asd:

nitro89
11-11-2007, 18:15
singolare il cao di un utente, che diceva che la 2900 aveva difettucci quale calore,rumore ecc...e all'uscita della 8800gt, che ha gli stessi difettucci, li giustifica dicndo che il dissi è single slot, la scheda costa poco...bla bla bla...

nn faccio nomi

La scheda scalda molto meno della 2900,consuma meno e va di piu.Per il rumore non so dove lo sentiate,ma al 55% non da nessunissimo fastidio(fa infatti meno rumore della 2900 al 31%).E te lo dico da ex possessore ati ;)

mtk
11-11-2007, 18:31
chiamate i pompieri... :asd:

×§ñåkê×
11-11-2007, 18:38
La scheda scalda molto meno della 2900,consuma meno e va di piu.Per il rumore non so dove lo sentiate,ma al 55% non da nessunissimo fastidio(fa infatti meno rumore della 2900 al 31%).E te lo dico da ex possessore ati ;)

scalda molto meno? ahaha

avevo letto in qualche recensione che raggiungeva i 100° dopo pochi minuti di gioco...

almeno con la mia hd2900xt neanche overcloccandola a 840 MHz riesco a superare i 82° :O

nitro89
11-11-2007, 18:42
Cerchiamo di non fare disinformazione.

Con ventola al 29%( a default scalda un bel po)

Ma se viene messa al 50% (e fa meno rumore della 2900 al 31%) NON SUPERA i 70 gradi in full da overcloccata.ù

Questa è la realtà,che ci crediate o no.

DakmorNoland
11-11-2007, 18:47
Cerchiamo di non fare disinformazione.

Con ventola al 29%( a default scalda un bel po)

Ma se viene messa al 50% (e fa meno rumore della 2900 al 31%) NON SUPERA i 70 gradi in full da overcloccata.ù

Questa è la realtà,che ci crediate o no.

Scusa e tu cosa ci fai qui? Vieni a dare manforte al tuo amico che ha buttato un botto di soldi per una Ultra?!

Ti ricordo che il thread è dedicato alla 2900XT, quindi se vuoi dire al mondo quanto sia bella la GT, cortesemente vai da un'altra parte.

nitro89
11-11-2007, 18:52
Ho voluto puntualizzare perchè qui si sta facendo disinformazione.

Che lo vogliate o no questa è realtà.E non lo dico da fanboy,dato che per tutta la mia vita ho avuto ati,2900 compresa.Non tirate in ballo la 8800gt senza aver dati alla mano,cosa che io ho.

The_SaN
11-11-2007, 18:53
La scheda scalda molto meno della 2900,consuma meno e va di piu.Per il rumore non so dove lo sentiate,ma al 55% non da nessunissimo fastidio(fa infatti meno rumore della 2900 al 31%).E te lo dico da ex possessore ati ;)

Il problema é che il controllo della ventola nella 8800GT non va come dovrebbe.
E la ventola rimane al 30% anche in full.
Questo é grave, non tutti sanno come fare per metterla a 55%, anzi, molti non sanno nemmeno che la velocitá della ventola é insufficiente per raffreddarla a dovere.
E 95-100 gradi su una scheda sono troppi, diminuiscono la vita del chip.

Scusa e tu cosa ci fai qui? Vieni a dare manforte al tuo amico che ha buttato un botto di soldi per una Ultra?!

Ti ricordo che il thread è dedicato alla 2900XT, quindi se vuoi dire al mondo quanto sia bella la GT, cortesemente vai da un'altra parte.
Stava rispondendo sulle temperature di G92, non prendiamola sul personale ;)

appleroof
11-11-2007, 19:25
la hd 2900xt solo in alcuni giochi senza AA riesce a pareggiare la 8800GTX.
In molti altri giochi invece va come una 8800GTS 640,con aa 4x la 8800GTX è sempre avanti alla hd 2900xt.
La cosa che mi fa ridere è che da un po' di tempo Nvidia è diventata intoccabile,non la si può più criticare,le 8800 se qualcuno si azzarda a criticare subito fan boy e alcuni possessori delle 8800 vengono a scatenare flame a tutto spiano.
Se c'e da criticare Ati o riconoscere i limiti di R600 lo faccio senza problemi.
Inoltre riconosco la superiorità della 8800GTX rispetto alla hd 2900xt nella maggior parte di giochi ma far passare un scheda o ditta intoccabile ce ne passa sotto i ponti.
Queste sono le motivazione perchè preferisco Ati a Nvidia,il non essere in comunella con certe persone che difendono a spada tratta e a priori un prodotto.

Ma dai non facciamo vittimismo, se volessimo stare a questo tuo gioco, questo tread per mesi è stato l'unico ad avere nel titolo la dicitura "no flame" ecc ecc, sembrava quasi che chi voleva avanzare una critica alla 2900xt dovesse fare prima domanda in carta bollata (o almeno a livello psicologico, quella avvertenza non presente su nessun altro tread causava questa sensazione) ...la verità è che a questo giro la 2900xt si è dimostrata una scheda fallimentare, come altre schede Nvidia lo sono state in passato, non c'è nulla di male ad ammetterlo e a sostenere cmq di essere soddisfatti della propria scelta (o no, come Iantikas e altri)



Esatto, mi riferisco proprio a questo :)
Mi ricordo ancora il giorno della rece di r600.
Mai visto tante volte la parola Flop in vita mia. Ma alla fine va meglio della GTS e costa uguale.....

Ma è ovvio, la parola flop è riferito proprio a questo: seguendo la linearità del mercato e dell'evoluzione delle vga negli ultimi anni, non mesi, la 2900xt avrebbe dovuto contrastare la 8800gtx, anzi, sempre in teoria, andare meglio essendo uscita mesi dopo, è sempre stato così.

Non è fanboysmo dire questo, è solo obiettività: c'è stato un intervento di Calabar (utente che credo al di sopra di ogni sospetto fanboistico verso Nvidia...) su questo tread non molto tempo fà che appunto con grandissima obiettività è stato l'unico (o uno dei pochissimi) a d ammattere in sostanza che la 2900xt per le ambizioni proprie di una scheda top, è stata una delusione al cospetto della top avversaria.

Che poi uno sia strasoddisfatto per le sue esigenze o altro della sua 2900xt, liberissimo manco a dirlo, contento lui contenti tutti no? Pensa che per quasi 2 anni sono stato ultrasoddisfatto della 5700ultra che ho avuto

;)

pioss~s4n
11-11-2007, 19:32
il flop vero lo stanno facendo gli acquirenti, da tempo a questa parte. Inaccontentabili.

garbage
11-11-2007, 20:06
che delusione in alcune mappe a cod4 in multiplyer con la vga anche cloccata a 850 e 900le ram mi sta sui 30-35 frame ..... scendendo anche a 26

Albi80
11-11-2007, 20:31
Boh . non so che dire. mi fate morir dal ridere...
A questo punto andate in piazza col passamontagna a malmenarvi per una o l altra marca cosi ci scappa il morto e i politici faranno una legge a doc mettendo l embargo sulle schede video risolvendo il problema.
E io che non mi capacitavo del perche c e gente che si ostina ad andare allo stadio solo per picchiarsi quando nel resto dell europa manco ci sono le reti divisorie.
Mi sa che l evoluzionismo per l italiano medio si e bloccato qualche milione di anni prima...... all australopiteco.
Uno non e libero di comprare quel c....o che vuole senza che uno sfigato qualsiasi debba ficcare il naso nelle tasche altrui?
E difficile?
Io ho comprato una hd 2900 e punto .. stop.. Sono soddisfatto dell aquisto,ed e l unica cosa che conta .Se uno non e soddisfatto ,che la rivenda.Non vedo dove sta il problema.
E finitela con sti discorsi che una va di piu dell altra con o senza filtri dell aria, marmitta , popof,volumetrico,etc etc.
Parlate di cose costruttive.
Come diceva rino gaetano ..... nun te reggae cchiù .
E se non ci riuscite .... spegnete il pc e andate a divertirvi (o a malmenarvi allo stadio)

×§ñåkê×
11-11-2007, 21:28
ma è sparita una pagina del 3d?? :mbe:

The_SaN
11-11-2007, 21:32
ma è sparita una pagina del 3d?? :mbe:

E meno male :asd:

Chicco85
11-11-2007, 21:38
Ragazzi, io vi saluto. La mia 2900 è volata verso il suo nuovo padrone. :)

Ora vedo come si muove il mercato e decido che fare.

Non ho più il tempo di giocare come una volta, per cui sto valutando di scendere di fascia.

Bye! :)

Athlon 64 3000+
11-11-2007, 23:03
Dire che la hd 2900xt è un flop o una scheda fallimentare è una balla colossale.
Paragonarla a NV30 e derivati e una semplice eresia visto che quella famiglia di gpu erano veramente degli aborti architetturali.

ninja970
11-11-2007, 23:08
Ho voluto puntualizzare perchè qui si sta facendo disinformazione.
Disinformazione è anche dire che la 2900 scalda più di una 8800GT.
La mia sta a 45° in idle e non supera mai i 70° sotto sforzo

E 95-100 gradi su una scheda sono troppi, diminuiscono la vita del chip.
decisamente troppi, sia che si tratti di ATI che Nvidia

la verità è che a questo giro la 2900xt si è dimostrata una scheda fallimentare
Definire la 2900xt una scheda fallimentare è quantomeno azzardato e fuori luogo. E' una scheda che per prezzo non si è mai messa sullo stesso piano della GTX/Ultra ma semmai della GTS 640MB e nei confronti di questa se la cava più che egregiamente mi sembra.
Diverso sarebbe stato il discorso se la ATI la proponeva allo stesso prezzo del top di gamma di Nvidia, ma così non è stato e quindi non vedo dove sta questo fallimento :confused:
Possiamo dire che ATI nell'ultimo anno non è riuscita a proporre una top di gamma che contrastasse la Ultra/GTX ma in questo cosa c'entra la 2900XT ? Questa è una scheda di fascia alta ma non altissima, ricordati che la fascia di prezzo è fondamentale per poter fare dei paragoni equi.
Non mi sognerei mai di confrontare una Ferrari con una Renault a meno che quest'ultima non produca un modello da 400.000€

The_SaN
11-11-2007, 23:29
NV30 era un flop perché a paritá di prezzo andava male, consumava tanto e faceva un rumore fino ad allora mai immaginato.
Per non parlare della qualitá degli shaders...
La HD2900XT non si sará rivelata una scheda di fascia altissima, ma ATi ha ben pensato di piazzarla in un altra fascia, rendendola piú appetibile della sua concorrente (GTS).

Grave Digger
11-11-2007, 23:32
NV30 era un flop perché a paritá di prezzo andava male, consumava tanto e faceva un rumore fino ad allora mai immaginato.
Per non parlare della qualitá degli shaders...
La HD2900XT non si sará rivelata una scheda di fascia altissima, ma ATi ha ben pensato di piazzarla in un altra fascia, rendendola piú appetibile della sua concorrente (GTS).

in entrambi i casi era cmnq perso il primato tecnologico,con l'aggravante che la 2900 è uscita 6 mesi dopo ;) .........e non sto chiamando in causa l'hype :) .....

Evangelion01
11-11-2007, 23:42
decisamente troppi, sia che si tratti di ATI che Nvidia

Mah. Sinceramente se le specifiche progettuali di un chip prevedono che questo possa lavorare a quelle temp. io non mi preoccuperei più di tanto. D' altronde di tutte le componenti hw che ho avuto ( escludendo gli hd ), dal 286 a oggi, non ho MAI visto UN componente guastarsi per usura da elettromigrazione o per danni imputabili ad essa.... ma se anche dopo 10 anni andasse in fumo, considerando cmq i tempi di questo processo, la scheda o il procio non avrebbero più alcun valore, se non dal p.d.v. collezionistico... :asd:

ninja970
11-11-2007, 23:46
Mah. Sinceramente se le specifiche progettuali di un chip prevedono che questo possa lavorare a quelle temp. io non mi preoccuperei più di tanto. D' altronde di tutte le componenti hw che ho avuto ( escludendo gli hd ), dal 286 a oggi, non ho MAI visto UN componente guastarsi per usura da elettromigrazione o per danni imputabili ad essa.... ma se anche dopo 10 anni andasse in fumo, considerando cmq i tempi di questo processo, la scheda o il procio non avrebbero più alcun valore, se non dal p.d.v. collezionistico... :asd:
a me invece è accaduto di aver "fuso" una ATI 9800PRO che girava a temperature altine anche se non ai 90/100° che sento per la GT.
In ogni caso, essendo dei componenti elettromeccanici, quanto più bassa è la temperatura tanto meglio è per la loro durata.
Certo la mia ATI è durata un paio di anni, per cui spero che queste schede durino almeno altrettanto

Grave Digger
11-11-2007, 23:49
a me invece è accaduto di aver "fuso" una ATI 9800PRO che girava a temperature altine anche se non ai 90/100° che sento per la GT.
In ogni caso, essendo dei componenti elettromeccanici, quanto più bassa è la temperatura tanto meglio è per la loro durata.
Certo la mia ATI è durata un paio di anni, per cui spero che queste schede durino almeno altrettanto

si capisce il senso,ma il termine è scorretto :) ...

elettronici ;)

ninja970
11-11-2007, 23:55
si capisce il senso,ma il termine è scorretto :) ...

elettronici ;)
:D

Evangelion01
12-11-2007, 00:20
a me invece è accaduto di aver "fuso" una ATI 9800PRO che girava a temperature altine anche se non ai 90/100° che sento per la GT.
In ogni caso, essendo dei componenti elettromeccanici, quanto più bassa è la temperatura tanto meglio è per la loro durata.
Certo la mia ATI è durata un paio di anni, per cui spero che queste schede durino almeno altrettanto

Questo è vero, cmq l' importante è che le temp rimangano sempre entro le specifiche. Poi con l' avanzare degli step produttivi , ho l' impressione che le tolleranze siano sempre maggiori... o no? :)

carlok
12-11-2007, 08:37
NV30 era un flop perché a paritá di prezzo andava male, consumava tanto e faceva un rumore fino ad allora mai immaginato.
Per non parlare della qualitá degli shaders...
La HD2900XT non si sará rivelata una scheda di fascia altissima, ma ATi ha ben pensato di piazzarla in un altra fascia, rendendola piú appetibile della sua concorrente (GTS).

la NV30 è la 5900.....per caso....

The_SaN
12-11-2007, 09:34
la NV30 è la 5900.....per caso....

NV30 = 5800ultra
NV35 = 5900ultra

NV30 le prendeva in modo incredibile :asd:
NV35 alla fine ha un po' recuperato il gap, ma gli shaders erano gli stessi....in alcuni giochi full DX9 aveva un calo di frames pauroso

overjet
12-11-2007, 11:11
Ragazzi una curiosità...
Qualcuno ha montato il dissipatore Thermalright HR-03 R600 con questa scheda video ?!?
Come si è trovato ?!?

Grazie.

The_SaN
12-11-2007, 11:14
Ragazzi una curiosità...
Qualcuno ha montato il dissipatore Thermalright HR-03 R600 con questa scheda video ?!?
Come si è trovato ?!?

Grazie.

Iantikas lo aveva montato sulla sua 2900XT prima di venderla. Si era trovato molto bene.
Puoi chiedergli qualche dettaglio in piú :)

overjet
12-11-2007, 11:27
Grazie mille... Più che altro perchè ho visto che il suddetto dissipatore è passivo... Quindi sarebbe un buon guadagno per il rumore... Volevo sapere se riesce a farcela anche senza alcuna ventola in aiuto...
Ed inoltre se le ram sono raffreddate oppure no.

ATi7500
12-11-2007, 11:29
NV30 = 5800ultra
NV35 = 5900ultra

NV30 le prendeva in modo incredibile :asd:
NV35 alla fine ha un po' recuperato il gap, ma gli shaders erano gli stessi....in alcuni giochi full DX9 aveva un calo di frames pauroso

quelle schede in Dx8 erano portentose, era in Dx9 che non reggevano proprio il passo

bYeZ!

Iantikas
12-11-2007, 11:55
Grazie mille... Più che altro perchè ho visto che il suddetto dissipatore è passivo... Quindi sarebbe un buon guadagno per il rumore... Volevo sapere se riesce a farcela anche senza alcuna ventola in aiuto...
Ed inoltre se le ram sono raffreddate oppure no.



misno trovato molto bene...premettendo cmq ke nn potrai usarlo passivo (cmq una 120mm se nn proprio attaccata molto vicina a soffiarci sopra la devi mettere e a quel punto tanto vale ke attakki una 92/120mm direttamente al dissi)...basta una 92mm silenziosa intorno ai 1400/1600 e un case con un discreto ricircolo (ma sempre poco rumoroso...io x es. gli affiancavo 5 Schyte FDB a circa 1000rpm) x ottenere ottime temp...


...io con il dissi stock (modello 3 HP) con regime d rotazione d def in oc a 843/982 avevo temp sul core d 72/74°, sulla mem d 60/62°, sui mosfet d 74/76°...


...con HR03 configurato come detto a 871/982 avevo sul core 54° (20° in meno), sulle mem 50° (10° in meno), sui mosfet 80/82° (5° in +)...


...insieme al dissi ti vien fornito tutto ciò ke ti può servire e son presenti dissi x i moduli d mem (sia davanti ke dietro) e x i mosfet....

...il dissi x i mosfet è un pò piccolino x tutti i W ke deve smaltire...fortunatamente il tj09 ha una 120mm ke gli sparava proprio sopra e mi basto metterla sui 1000rpm (con la 92mm a 15xxrpm) x avere giusto 5° in + rispetto allo stock e temp sugli 80° perfettamente gestibili...

....ma inizialmente tenendo la 120mm a 750rpm e la 92mm a 13xxrpm avevo temp sui mosfet ke passavano i 90° (inoltre si alavano lentamente, nn me ne accorsi subito ke con le ventole così impostate raggiungeva quelle temp...fikè una volta dopo una sessione prolungata d gioco una volta finito apri x curisità il monitonig d rivatuner e lo vidi sfiorare i 100° oscillando tr a i 97/98)...core e mem invece al max si alzavano d 1°...


...cmq l'uso d una 120mm al posto della 92mm direttamente sul dissi ti toglie il problema anke se il case nn ha una ventola ke spara proprio li...


...in sintesi cmq te lo consiglio senza remore...avrai temp ottime (rimasi stupefatto x quanto erano basse) e otterrai sia in dile ke in load il rumore ke il dissi stock fa in idle, dicendo addio alla simil turbina (nn proprio a livelli oltre l'umana sopportazione ma cmq ben oltre ciò ke potevo sopportare io) mentre gioki e stressi la gpu...


...ciao

soulmauri
12-11-2007, 11:58
...per chi ha problemi di Stuttering in Gear of War questa dovrebbe essere la soluzione definitiva senza rinunciare a dettagli video very hight

modificate le linee riportate in basso che trovate in WarEngineUserSettings.ini che trovate in My Documents/My games/Gears OF War/War game/Config:


OnlyStreamInTextures=FALSE in OnlyStreamInTextures=TRUE

OneFrameGPULag:TRUE in OneFrameGPULag:FALSE


...cosi dovrebbe risolversi il problema sopratutto sotto XP e per chi ha le 2900xt ma sembra anche con alcuni modelli nvidia

ciao a tutti :)

YANEZ84
12-11-2007, 13:03
...per chi ha problemi di Stuttering in Gear of War questa dovrebbe essere la soluzione definitiva senza rinunciare a dettagli video very hight

modificate le linee riportate in basso che trovate in WarEngineUserSettings.ini che trovate in My Documents/My games/Gears OF War/War game/Config:


OnlyStreamInTextures=FALSE in OnlyStreamInTextures=TRUE

OneFrameGPULag:TRUE in OneFrameGPULag:FALSE


...cosi dovrebbe risolversi il problema sopratutto sotto XP e per chi ha le 2900xt ma sembra anche con alcuni modelli nvidia

ciao a tutti :)
a me succedde che quando attivo il crossfire a gears of war in alto a sinistra i pixel si vedono male ,questa cosa che dici tu dovrebbe sistemarlo????

belin
12-11-2007, 13:14
Segnalo questi due articoli molto interessanti:

- How to overclock Radeon HD 2900 XT CrossFire (http://www.nordichardware.com/Guides/?skrivelse=516)

- How to Modify Your HD2900 BIOS Clock Frequencies by Hex File (http://www.nordichardware.com/forum/viewtopic.php?topic=9394&forum=45)


:)

soulmauri
12-11-2007, 13:42
a me succedde che quando attivo il crossfire a gears of war in alto a sinistra i pixel si vedono male ,questa cosa che dici tu dovrebbe sistemarlo????

.......non saprei Yanez84 ...questo fix che ho trovato penso serva solo per eliminare il problema dello stuttering, cmq puoi sempre provare..... magari prima fatti una copia del file .ini originale che modifichi

ciauz

Free Gordon
12-11-2007, 14:56
in entrambi i casi era cmnq perso il primato tecnologico,con l'aggravante che la 2900 è uscita 6 mesi dopo ;) .........e non sto chiamando in causa l'hype :) .....

Il primato tecnologico mi pare resti in mano ad ATI :D è il primato nelle prestazioni che è stato perso.
Bisogna poi vedere di che prestazioni si parla, perchè se si riduce tutto al fatto che un'architettura ha più fillrate di un'altra, allora possiamo affermare che nVidia è ampiamente la più prestante.
Diversamente non è così chiaro chi abbia le prestazioni migliori... ;)

Cmq questo discorso dovremo riprenderlo nel 2008 inoltrato e ancora, perchè le considerazioni (NON commerciali) da fare in questo campo sono sempre a lunghissimo periodo. ;)

Chief
12-11-2007, 14:59
...per chi ha problemi di Stuttering in Gear of War questa dovrebbe essere la soluzione definitiva senza rinunciare a dettagli video very hight

modificate le linee riportate in basso che trovate in WarEngineUserSettings.ini che trovate in My Documents/My games/Gears OF War/War game/Config:


OnlyStreamInTextures=FALSE in OnlyStreamInTextures=TRUE

OneFrameGPULag:TRUE in OneFrameGPULag:FALSE


...cosi dovrebbe risolversi il problema sopratutto sotto XP e per chi ha le 2900xt ma sembra anche con alcuni modelli nvidia

ciao a tutti :)


Provato riduce lo struttering ma servono nuovi driver il gioco non va come dovrebbe,comunque grazie per la dritta ;)

Quando escono sti nuovi driver? qualcuno sa qualcosa?

Athlon 64 3000+
12-11-2007, 15:20
spero che escano entro questa sera.
AMD non ha fatto un bella figura sia con Crysis che con Gears Of War perchè non ha fatto uscire nessun hotfix per nessuno dei 2 giochi e per ora oltre a dare bachi grafici vanno anche parecchio da cani.
Inoltre tra 4 giorni esce Crysis in versione completa.

Spart@cus
12-11-2007, 15:22
raga da un mio amico gears of war con tutti i settagi a manetta a 1920 il gioco va benissimo,con fraps si segnano 60 fps con piccoli cali a 55.

Tidus.hw
12-11-2007, 15:25
raga da un mio amico gears of war con tutti i settagi a manetta a 1920 il gioco va benissimo,con fraps si segnano 60 fps con piccoli cali a 55.

non aveva una 2900xt allora xD

Spart@cus
12-11-2007, 15:36
raga ha una x2900xt non sto scherzando.

carlok
12-11-2007, 15:44
raga ha una x2900xt non sto scherzando.

anche io la ho vista girare su una 2900pro@xt da bios e nullla artefatti.
la vga è dell'utente vincent....cche posta regolarmente nel forum delle 2900pro...
chiedeteglielo...
io nn lo compro il gioco perche' nn sopporto i giochi in terza persona....

ciauz

M4R1|<
12-11-2007, 15:56
spero che escano entro questa sera.
AMD non ha fatto un bella figura sia con Crysis che con Gears Of War perchè non ha fatto uscire nessun hotfix per nessuno dei 2 giochi e per ora oltre a dare bachi grafici vanno anche parecchio da cani.
Inoltre tra 4 giorni esce Crysis in versione completa.

se è per quello nn ci sono driver nemmeno per jericho CoD 4. attendiamo

raga da un mio amico gears of war con tutti i settagi a manetta a 1920 il gioco va benissimo,con fraps si segnano 60 fps con piccoli cali a 55.

ti andrebbe di darmi informazioni in più? :) (Grazie)
non aveva una 2900xt allora xD

è U.E. 3 nn dimenticarlo ;) (presente bioshock :D)

Spart@cus
12-11-2007, 16:01
allora ha un quad e una x38 il quad era a 3500 scheda video a default,ti ho aggiunto su msn

M4R1|<
12-11-2007, 16:06
allora ha un quad è una x38 il quad era a 3500 scheda video a default,ti ho aggiunto su msn

ok, cmq sappi che ci entro pochissimo.

Grazie

mordsiger
12-11-2007, 16:51
raga nn si sa ancora niente dei 7.11? nessuna anteprima o storie del genere? ormai ci dovremmo essere no?

Chicco85
12-11-2007, 16:56
raga nn si sa ancora niente dei 7.11? nessuna anteprima o storie del genere? ormai ci dovremmo essere no?

Credo che li rilascino al lancio della serie 38xx o poco dopo. ;)

mordsiger
12-11-2007, 16:59
Credo che li rilascino al lancio della serie 38xx o poco dopo. ;)

cioè?

Chicco85
12-11-2007, 17:05
Dal 15 novembre in poi (la data non la so di preciso).

In teoria i 7.11 sono già in mano ai partner, proprio perchè dovrebbero essere nel cd in bundle con le 38xx.

appleroof
12-11-2007, 17:39
Disinformazione è anche dire che la 2900 scalda più di una 8800GT.
La mia sta a 45° in idle e non supera mai i 70° sotto sforzo


decisamente troppi, sia che si tratti di ATI che Nvidia


Definire la 2900xt una scheda fallimentare è quantomeno azzardato e fuori luogo. E' una scheda che per prezzo non si è mai messa sullo stesso piano della GTX/Ultra ma semmai della GTS 640MB e nei confronti di questa se la cava più che egregiamente mi sembra.
Diverso sarebbe stato il discorso se la ATI la proponeva allo stesso prezzo del top di gamma di Nvidia, ma così non è stato e quindi non vedo dove sta questo fallimento :confused:
Possiamo dire che ATI nell'ultimo anno non è riuscita a proporre una top di gamma che contrastasse la Ultra/GTX ma in questo cosa c'entra la 2900XT ? Questa è una scheda di fascia alta ma non altissima, ricordati che la fascia di prezzo è fondamentale per poter fare dei paragoni equi.
Non mi sognerei mai di confrontare una Ferrari con una Renault a meno che quest'ultima non produca un modello da 400.000€

non voglio tornare sempre sugli stessi stantii argomenti, ma visto che mi si chiama in causa direttamente, lo dico per l'ultima volta: la 2900xt è una scheda fallimentare perchè doveva contrastare nelle attese (e sicuramente nelle intenzioni) la 8800gtx.

Il fatto che sia stata venduta a "basso" prezzo, è dovuto proprio al fatto che non è riuscita nell'intento (se non riesco in un intento, fallisco, no? Ecco perchè dico che la 2900xt è fallimentare, secondo me).

Il basso prezzo è una conseguenza del fatto che non poteva competere con la concorrenza, così come (rovescio della stessa medaglia) l'alto prezzo della gtx per 1 anno è conseguenza del fatto che Ati non aveva prodotto una scheda prestazionalmente alla pari di questa.

Ma secondo voi, dopo anni che giustamente Ati ha posizionato le sue vga in entusiasth, media e bassa, perchè proprio con la 2900xt doveva rinunciare a fare una scheda entusiath e limitarsi a mettere in commercio una scheda che se la "vedeva" solo con la gts avversaria? Non esiste una cosa del genere, da nessuna parte. Oppure doveva mettere in vendita la 2900xt allo stesso prezzo della 8800gtx: e quale pazzo se la sarebbe comprata?

Io credo che chi non la vede così, scusate davvero, ha una trave nell'occhio.

Naturalmente tutto questo vale in termini assoluti, poi se scendiamo nel soggettivo rapporto prezzo/prestazioni, nella soddisfazione delle proprie esigenze, ecc ecc, allora tutto il discorso cambia, ovviamente. Ed è appena il caso di aggiungere (credo almeno, visto che qualcuno si è risentito molto) che era questo il senso della mia citazione della 5700ultra, dove non ho mai voluto fare una equazione r600=nv30, spero sia chiaro adesso.

-Feanor-
12-11-2007, 18:29
lonewolf...

ho visto che bazzichi il 3d di the witcher...
desumo che l hai comprato no...???

come va la scheda...??
lo voglio assolutamente...troppo bello...

:D

ninja970
12-11-2007, 18:32
...
tu hai detto la tua visione sull'argomento, io ho detto la mia, ma evidentemente tu vuoi avere sempre l'ultima parola se stai nuovamente intervenendo.
Ti ho già detto che ATI nell'ultimo anno non è riuscita a proporre una top di gamma che contrastasse la Ultra/GTX, mi sembra di essere stato chiaro, o no ? :confused:
Dico solo che dichiarare la 2900XT una scheda fallimentare è semplicemente assurdo.
Io il paragone lo faccio tra cose che sotano più o meno lo stesso, o no ?

Che senso ha paragonare la GTX con la 2900XT se stanno in una fascia di prezzo completamente diversa ?

ATI ha la grande responsabilità di non aver tirato fuori una high end all'altezza di Nvidia, ma questo non vuol dire che la 2900XT sia un fallimento.

Se fosse costata uguale alla GTX allora sarei stato d'accordo, ma così non è.

M4R1|<
12-11-2007, 18:57
tu hai detto la tua visione sull'argomento, io ho detto la mia, ma evidentemente tu vuoi avere sempre l'ultima parola se stai nuovamente intervenendo.
Ti ho già detto che ATI nell'ultimo anno non è riuscita a proporre una top di gamma che contrastasse la Ultra/GTX, mi sembra di essere stato chiaro, o no ? :confused:
Dico solo che dichiarare la 2900XT una scheda fallimentare è semplicemente assurdo.
Io il paragone lo faccio tra cose che sotano più o meno lo stesso, o no ?

Che senso ha paragonare la GTX con la 2900XT se stanno in una fascia di prezzo completamente diversa ?

ATI ha la grande responsabilità di non aver tirato fuori una high end all'altezza di Nvidia, ma questo non vuol dire che la 2900XT sia un fallimento.

Se fosse costata uguale alla GTX allora sarei stato d'accordo, ma così non è.

concordo ;)

il fattore prezzo è essenziale, e la 2900 è proposta (nn solo dal prezzo, ma da ati stessa) una vga che deve contrastare la GTS (320/640).

nel tuo ragionamento appleroof (che nn fa una piega) dimentichi di considerare che la 2900 ha un prezzo (all'uscita) di 400€ ben inferiore della gtx, quindi nn vedo perchè dovrebbe essere un fallimento ;) che poi c'è anche da dire che l'archiettura G80 è la più avvantaggiata a destra e a manca per 2 motivi:

lo staf che sviluppa driver alla nvidia è ottimo (a differenza di quello di ati, dove avrei qualcosina da dire, e nn sulla "celerità" delle relase, ma sulle schermate blu/rosse di quel caxxo di atixxxx.exe)
G80 è stata la prima di nuova generazione, poi nvidia a stretto contatti con quasi tutte le software house e quindi ecco fatto che tutti si ritrovano ad ottimizzare e a creare qualcosa per g80, poi certo gira anche su R600, ma.....


vorrei vedere qualcosa fatto per R600 a vedere come gira su tutte e due le architetture, ti pare no?

cmq questi discorsi li abbiamo fatti decine (centinaia :rolleyes:) di volte quindi, mettiamoci "l'animo" in pace ;)

appleroof
12-11-2007, 19:11
concordo ;)

il fattore prezzo è essenziale, e la 2900 è proposta (nn solo dal prezzo, ma da ati stessa) una vga che deve contrastare la GTS (320/640).

nel tuo ragionamento appleroof (che nn fa una piega) dimentichi di considerare che la 2900 ha un prezzo (all'uscita) di 400€ ben inferiore della gtx, quindi nn vedo perchè dovrebbe essere un fallimento ;) che poi c'è anche da dire che l'archiettura G80 è la più avvantaggiata a destra e a manca per 2 motivi:

lo staf che sviluppa driver alla nvidia è ottimo (a differenza di quello di ati, dove avrei qualcosina da dire, e nn sulla "celerità" delle relase, ma sulle schermate blu/rosse di quel caxxo di atixxxx.exe)
G80 è stata la prima di nuova generazione, poi nvidia a stretto contatti con quasi tutte le software house e quindi ecco fatto che tutti si ritrovano ad ottimizzare e a creare qualcosa per g80, poi certo gira anche su R600, ma.....


vorrei vedere qualcosa fatto per R600 a vedere come gira su tutte e due le architetture, ti pare no?

cmq questi discorsi li abbiamo fatti decine (centinaia :rolleyes:) di volte quindi, mettiamoci "l'animo" in pace ;)

non so più come dirlo davvero...: perchè quel prezzo è stato dettato dalle scarse (rispetto alla top avversaria, non in assoluto) prestazioni. Dovreste ribaltare la prospettiva dalla quale partite: non è che hanno deciso di non fare una top e battersela solo nella fascia medioalta, è che la nuova top, non potendo competere, per venderla dovevano metterla a prezzo più basso, sennò chi se la comprava?



cmq sono contento di poter discutere senza accuse reciproche, per una volta, almeno in questo caso con te

ciao ;)

M4R1|<
12-11-2007, 19:23
non so più come dirlo davvero...: perchè quel prezzo èdettato dalle scarse (rispetto alla top avversaria, non in assoluto) prestazioni. Dovreste ribaltare la prospettiva dalla quale partite: non è che hanno deciso di non fare una top e battersela solo nella fascia medioalta, è che la nuova top, non potendo competere, per venderla dovevano metterla a prezzo più basso, sennò chi se la comprava?



cmq sono contento di poter discutere senza accuse reciproche, per una volta, almeno in questo caso con te

ciao ;)

ma come con te nn ho mai litigato, mi confondi per qualcunaltro (a meno che nn mi ricordi, però mi pare strano)

cmq come dicevo il tuo ragionamento nn fa una piega, è vero quello che dici, cioè che quando alla ati hanno avuto in mano i primi ES finiti di R600 e si sono resi conto che nn andava come doveva, per nn "fallire" hanno dovuto abbassare il prezzo di vendita, Vero! (e nn è un'ipotesi, a meno che si droghino gli ingenieri canadesi per stare caldi :sofico:).

ATi7500
12-11-2007, 19:23
non so più come dirlo davvero...: perchè quel prezzo è stato dettato dalle scarse (rispetto alla top avversaria, non in assoluto) prestazioni. Dovreste ribaltare la prospettiva dalla quale partite: non è che hanno deciso di non fare una top e battersela solo nella fascia medioalta, è che la nuova top, non potendo competere, per venderla dovevano metterla a prezzo più basso, sennò chi se la comprava?



cmq sono contento di poter discutere senza accuse reciproche, per una volta, almeno in questo caso con te

ciao ;)
non viene capito che il fallimento è stato per ATi stessa, non per gli utenti. Magari se lo specifichi ti capiscono meglio ;)

bYeZ!

garbage
12-11-2007, 19:51
non voglio tornare sempre sugli stessi stantii argomenti, ma visto che mi si chiama in causa direttamente, lo dico per l'ultima volta: la 2900xt è una scheda fallimentare perchè doveva contrastare nelle attese (e sicuramente nelle intenzioni) la 8800gtx.

Il fatto che sia stata venduta a "basso" prezzo, è dovuto proprio al fatto che non è riuscita nell'intento (se non riesco in un intento, fallisco, no? Ecco perchè dico che la 2900xt è fallimentare, secondo me).

Il basso prezzo è una conseguenza del fatto che non poteva competere con la concorrenza, così come (rovescio della stessa medaglia) l'alto prezzo della gtx per 1 anno è conseguenza del fatto che Ati non aveva prodotto una scheda prestazionalmente alla pari di questa.

Ma secondo voi, dopo anni che giustamente Ati ha posizionato le sue vga in entusiasth, media e bassa, perchè proprio con la 2900xt doveva rinunciare a fare una scheda entusiath e limitarsi a mettere in commercio una scheda che se la "vedeva" solo con la gts avversaria? Non esiste una cosa del genere, da nessuna parte. Oppure doveva mettere in vendita la 2900xt allo stesso prezzo della 8800gtx: e quale pazzo se la sarebbe comprata?

Io credo che chi non la vede così, scusate davvero, ha una trave nell'occhio.

Naturalmente tutto questo vale in termini assoluti, poi se scendiamo nel soggettivo rapporto prezzo/prestazioni, nella soddisfazione delle proprie esigenze, ecc ecc, allora tutto il discorso cambia, ovviamente. Ed è appena il caso di aggiungere (credo almeno, visto che qualcuno si è risentito molto) che era questo il senso della mia citazione della 5700ultra, dove non ho mai voluto fare una equazione r600=nv30, spero sia chiaro adesso.
quoto pienamente :)

mtk
12-11-2007, 20:03
ma come con te nn ho mai litigato, mi confondi per qualcunaltro (a meno che nn mi ricordi, però mi pare strano)

cmq come dicevo il tuo ragionamento nn fa una piega, è vero quello che dici, cioè che quando alla ati hanno avuto in mano i primi ES finiti di R600 e si sono resi conto che nn andava come doveva, per nn "fallire" hanno dovuto abbassare il prezzo di vendita, Vero! (e nn è un'ipotesi, a meno che si droghino gli ingenieri canadesi per stare caldi :sofico:).

secondo me ati avrebbe proseguito sulla strada del posizionamento alto di gamma,piu' che altro credo che i responsabili amd abbiando riposizionato drasticamente la scheda per evitare un contraccolpo di immagine di tutto il gruppo.poi sempre secondo me amd e ati hanno pensato che per strada avrebbero trovato un accoglienza migliore dalle software house nei confronti delle caratteristiche della scheda ma hanno fatto i conti senza l oste,cioe' la "pigrizia" dei programmatori che grazie alla serie 8800 hanno potuto continuare a programmare al solito modo premiando proprio l hardware nvidia che oggi con la 8800gt da' un altra sofferenza a amd/ati.

Evangelion01
12-11-2007, 20:18
non voglio tornare sempre sugli stessi stantii argomenti, ma visto che mi si chiama in causa direttamente, lo dico per l'ultima volta: la 2900xt è una scheda fallimentare perchè doveva contrastare nelle attese (e sicuramente nelle intenzioni) la 8800gtx.

Il fatto che sia stata venduta a "basso" prezzo, è dovuto proprio al fatto che non è riuscita nell'intento (se non riesco in un intento, fallisco, no? Ecco perchè dico che la 2900xt è fallimentare, secondo me).

Il basso prezzo è una conseguenza del fatto che non poteva competere con la concorrenza, così come (rovescio della stessa medaglia) l'alto prezzo della gtx per 1 anno è conseguenza del fatto che Ati non aveva prodotto una scheda prestazionalmente alla pari di questa.

Ma secondo voi, dopo anni che giustamente Ati ha posizionato le sue vga in entusiasth, media e bassa, perchè proprio con la 2900xt doveva rinunciare a fare una scheda entusiath e limitarsi a mettere in commercio una scheda che se la "vedeva" solo con la gts avversaria? Non esiste una cosa del genere, da nessuna parte. Oppure doveva mettere in vendita la 2900xt allo stesso prezzo della 8800gtx: e quale pazzo se la sarebbe comprata?

Io credo che chi non la vede così, scusate davvero, ha una trave nell'occhio.

Naturalmente tutto questo vale in termini assoluti, poi se scendiamo nel soggettivo rapporto prezzo/prestazioni, nella soddisfazione delle proprie esigenze, ecc ecc, allora tutto il discorso cambia, ovviamente. Ed è appena il caso di aggiungere (credo almeno, visto che qualcuno si è risentito molto) che era questo il senso della mia citazione della 5700ultra, dove non ho mai voluto fare una equazione r600=nv30, spero sia chiaro adesso.

E riquoto..
Nella realtà, il prezzo di un prodotto lo fa il mercato stesso, per comparazione con i prodotti analoghi. La colpa più grave di Ati imho è stata quella di arrivare con 6 mesi di ritardo sulla nuova generazione , e proporre un vga competitiva solo con la 8800gts... Questo ha causato un lungo ristagno dei prezzi, specie nella fascia alta che ha in definitiva danneggiato il consumatore, visto che si era instaurato il monopolio. Solo ora, paradossalmente da nvidia stessa è spuntata una fascia media degna di questo nome ( 8800gt ). :nono: Oltretutto sia nvidia che Ati son ancora lungi dal rilasciare una nuova architettura, visto che nvidia non ne ha particolare interesse ( essendo le 8800 ancora il top ), e Ati "fresca" del lancio di r600. Ecco cosa genera la mancanza di concorrenza... :rolleyes:

appleroof
12-11-2007, 20:42
ma come con te nn ho mai litigato, mi confondi per qualcunaltro (a meno che nn mi ricordi, però mi pare strano)

cmq come dicevo il tuo ragionamento nn fa una piega, è vero quello che dici, cioè che quando alla ati hanno avuto in mano i primi ES finiti di R600 e si sono resi conto che nn andava come doveva, per nn "fallire" hanno dovuto abbassare il prezzo di vendita, Vero! (e nn è un'ipotesi, a meno che si droghino gli ingenieri canadesi per stare caldi :sofico:).

no no infatti non abbiamo mai litigato :p, prendevo ad esempio la "discussione" con te per dire in generale, perchè siamo riusciti credo a discutere senza flammare ;)

non viene capito che il fallimento è stato per ATi stessa, non per gli utenti. Magari se lo specifichi ti capiscono meglio ;)

bYeZ!

a bè non pensavo di doverlo esplicitare, per me è ovvio :stordita:

cmq ho capito ;)

Pat77
12-11-2007, 21:01
Io la vedo un po' diversamente, premetto che ho avuto suddetta scheda e che mi ha soddisfatto tecnicamente, il problema è che il mercato è sostanzialmente orientato verso nvidia (per suoi indubbi meriti) e che via driver Amd ha cercato di inseguire il supporto.
Le ottimizzazioni sono avvenute però in larga parte in direzione Nvidia, in alcuni casi in modo lampante (vedesi bioshock in dx10).

The_SaN
12-11-2007, 21:16
non so più come dirlo davvero...: perchè quel prezzo è stato dettato dalle scarse (rispetto alla top avversaria, non in assoluto) prestazioni. Dovreste ribaltare la prospettiva dalla quale partite: non è che hanno deciso di non fare una top e battersela solo nella fascia medioalta, è che la nuova top, non potendo competere, per venderla dovevano metterla a prezzo più basso, sennò chi se la comprava?



cmq sono contento di poter discutere senza accuse reciproche, per una volta, almeno in questo caso con te

ciao ;)
Semplice: per te il bicchiere é mezzo vuoto.
Per gli altri é mezzo pieno.
Alla fine non cambia una mazza :)

Athlon 64 3000+
12-11-2007, 21:29
Io la vedo un po' diversamente, premetto che ho avuto suddetta scheda e che mi ha soddisfatto tecnicamente, il problema è che il mercato è sostanzialmente orientato verso nvidia (per suoi indubbi meriti) e che via driver Amd ha cercato di inseguire il supporto.
Le ottimizzazioni sono avvenute però in larga parte in direzione Nvidia, in alcuni casi in modo lampante (vedesi bioshock in dx10).

Anche te hai venduto la HD 2900XT?
Io ripeto che la hd 2900xt non è una scheda fallimentare e tutto fuorchè un cesso.

fustacchione90
12-11-2007, 21:42
Anche te hai venduto la HD 2900XT?
Io ripeto che la hd 2900xt non è una scheda fallimentare e tutto fuorchè un cesso.

ma n arabbiatevi nemmeno...finhe pala qualcuno che monta nvidia, evidentemente n avrà neanche mai visto una 2900xt con occhi propri...uindi parla a vanvera...

Catan
12-11-2007, 22:25
purtroppo ragazzi il tallone di achille della hd2900xt non è ne la struttura ne le capacità tecniche, dopo circa 6 mesi di osservazione il tallone è appunto il lato dvr.
Lungi da me dire che da ati/amd hanno lavorato male che non sanno programmare, etc etc(non posso credere che gli stessi programmatori che dalle x1900xt-x1950xt ad ogni release tiravano fuori miglioramenti su miglioramenti in 6 mesi si siano rimbecilliti).
è che appunto il chip va forte solo ed esclusivamente quando il dvr è ottimizzato ad hoc per le chiamate che deve svolgere.
il che vorrebbe dire riscrivere il dvr da 0 per ogni game no, ma sicuramente per ogni motore grafico.
Io credo che questo sia un lavoro estremamente titanico, che ovviamente non puo essere appioppato al , pur bravo, team di programmatori ati, bisognerebbe istituire un secondo team ma oggettivamente, se voi foste una grande azienda paghereste il doppio dei programmatori?
il bus a 512bit è sicuramete una innovazione tecnologica, ma il suo ringbus virtualemente programmabile a piacere, ma zeppo di ringstop difficili da gestire, lo rendono un "mostro" difficile da domare.
la scelta di amd di continuare sulle hd3800series con il chip che fondamentalmente è quello di r600 con qualche mhz in +, e poche migliorie forse sul piano dell'aa via rop's(particolare non di poco conto ma sicuramente appiana una lacuna che definirei SCANDALOSA per questo tipo di chip(il bug hw è stato davvero un colpo x me)) vuol dire che l'archidettura vettoriale a 320sp è buona e ci si puo lavorare e costruire solide basi per il futuro,
a questo punto temo davvero che l'indiziato numero 1 visto il ritorno al 256bit, sia appunto un bus a 512bit che virtualmente ti permette di fare tutto ma con uno sforzo dal punto di vista intellettuale ed anche economico(i pr non lavorano a gratise) forse superiore ai vantaggi che porta.

Athlon 64 3000+
12-11-2007, 22:33
purtroppo ragazzi il tallone di achille della hd2900xt non è ne la struttura ne le capacità tecniche, dopo circa 6 mesi di osservazione il tallone è appunto il lato dvr.
Lungi da me dire che da ati/amd hanno lavorato male che non sanno programmare, etc etc(non posso credere che gli stessi programmatori che dalle x1900xt-x1950xt ad ogni release tiravano fuori miglioramenti su miglioramenti in 6 mesi si siano rimbecilliti).
è che appunto il chip va forte solo ed esclusivamente quando il dvr è ottimizzato ad hoc per le chiamate che deve svolgere.
il che vorrebbe dire riscrivere il dvr da 0 per ogni game no, ma sicuramente per ogni motore grafico.
Io credo che questo sia un lavoro estremamente titanico, che ovviamente non puo essere appioppato al , pur bravo, team di programmatori ati, bisognerebbe istituire un secondo team ma oggettivamente, se voi foste una grande azienda paghereste il doppio dei programmatori?
il bus a 512bit è sicuramete una innovazione tecnologica, ma il suo ringbus virtualemente programmabile a piacere, ma zeppo di ringstop difficili da gestire, lo rendono un "mostro" difficile da domare.
la scelta di amd di continuare sulle hd3800series con il chip che fondamentalmente è quello di r600 con qualche mhz in +, e poche migliorie forse sul piano dell'aa via rop's(particolare non di poco conto ma sicuramente appiana una lacuna che definirei SCANDALOSA per questo tipo di chip(il bug hw è stato davvero un colpo x me)) vuol dire che l'archidettura vettoriale a 320sp è buona e ci si puo lavorare e costruire solide basi per il futuro,
a questo punto temo davvero che l'indiziato numero 1 visto il ritorno al 256bit, sia appunto un bus a 512bit che virtualmente ti permette di fare tutto ma con uno sforzo dal punto di vista intellettuale ed anche economico(i pr non lavorano a gratise) forse superiore ai vantaggi che porta.

sicuramente RV670 sara un po' meno brigoso da programmare rispetto a R600 ma sarà sempre molto dipendente dai driver visto che la base è uguale per almeno il 95%.
Il vantaggio di RV670 sarà il fatto che ha un controller ring bus a 512 bit contro i 1024 bit di R600.

YANEZ84
13-11-2007, 00:28
madonna mia ragazzi quando escono i driver 7.11 sto diventando pazzo:muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro:

YANEZ84
13-11-2007, 01:00
ragazzi scusate ma l'hotfix per il crossfire su windows vista e' necessario farlo?oppure con i nuovi driver si sistemera tutto?

Iantikas
13-11-2007, 01:49
purtroppo ragazzi il tallone di achille della hd2900xt non è ne la struttura ne le capacità tecniche, dopo circa 6 mesi di osservazione il tallone è appunto il lato dvr.
Lungi da me dire che da ati/amd hanno lavorato male che non sanno programmare, etc etc(non posso credere che gli stessi programmatori che dalle x1900xt-x1950xt ad ogni release tiravano fuori miglioramenti su miglioramenti in 6 mesi si siano rimbecilliti).
è che appunto il chip va forte solo ed esclusivamente quando il dvr è ottimizzato ad hoc per le chiamate che deve svolgere.
il che vorrebbe dire riscrivere il dvr da 0 per ogni game no, ma sicuramente per ogni motore grafico.
Io credo che questo sia un lavoro estremamente titanico, che ovviamente non puo essere appioppato al , pur bravo, team di programmatori ati, bisognerebbe istituire un secondo team ma oggettivamente, se voi foste una grande azienda paghereste il doppio dei programmatori?
il bus a 512bit è sicuramete una innovazione tecnologica, ma il suo ringbus virtualemente programmabile a piacere, ma zeppo di ringstop difficili da gestire, lo rendono un "mostro" difficile da domare.
la scelta di amd di continuare sulle hd3800series con il chip che fondamentalmente è quello di r600 con qualche mhz in +, e poche migliorie forse sul piano dell'aa via rop's(particolare non di poco conto ma sicuramente appiana una lacuna che definirei SCANDALOSA per questo tipo di chip(il bug hw è stato davvero un colpo x me)) vuol dire che l'archidettura vettoriale a 320sp è buona e ci si puo lavorare e costruire solide basi per il futuro,
a questo punto temo davvero che l'indiziato numero 1 visto il ritorno al 256bit, sia appunto un bus a 512bit che virtualmente ti permette di fare tutto ma con uno sforzo dal punto di vista intellettuale ed anche economico(i pr non lavorano a gratise) forse superiore ai vantaggi che porta.


io la vedo diversamente...si, i driver sono importanti ma nn son l'unica coa ke conta...nn esiste un arkitettura perfetta...un'arkitettura è tanto buona quanto è adatta a farci girare il SW presente e prox futuro...


...esistono dei limiti in R600 ke nn hanno a ke fare con i driver e son proprio intrinseki nell'arkitettura...ma son tali solo xkè il SW attuale li rende tali...

...prendendo x es. in esame un SW ke è sicuramente stato stra-ottimizzato lato driver...tipo il 3dmark06...con impo d def senza filtri se la batte con la GTX...ma basta anke solo attivare l'AF e il punteggio crolla...ed è ovvio ke nn si tratti di un problema lato driver ma da imputare prevalentemente alle 16 TFU ke + di tanto nn possono fare...e il punteggio crolla ancor d + poi con AA x via del bug HW ke tutti conosciamo...


...i limiti x quanto riguarda fillrate e filtraggio esisteranno finkè nn uscirà un SW con un rapporto talmente elevato ALU/TEX da nn metterli in risalto...e il limite dell'AA via shader persisterà finkè nn usciranno gioki ke lo rikiedono espressamente...e questi gioki a 6 mesi dalla presentazione della skeda son ancora lontani...tanto lontani ke nn si sa ancora se e quando usciranno...


...nvidia inoltre ha dalla sua il merito d aver stretto rapporti con tutte le principali SH e quindi preme affinkè i gioki si adattino maggiormente alle proprie arkitetture...


...e a questo scenario ke già così nn'è dei + rosei si aggiunge la complessità nello sviluppare i driver x R600...e ki ha posseduto o possiede questa skeda sa bene quali sono le consenguenze ke ne derivano...con artefatti (sopratutto in DX10) e/o prestazioni sottotono (DX10 ma anke DX9) in quasi ogni titolo nuovo ke esce...


...a MAR1<: vorrei vedere qualcosa fatto per R600 a vedere come gira su tutte e due le architetture, ti pare no?


basta kiedere :D ...se vuoi un es. d gioki prodotti in associazione con ATI ne esistono già ora...x es. una SH ke fa parte dell'"ATI games" (l'analogo ati del "TWIMTBP" d nivida) è la Valve...


..ciao

Iantikas
13-11-2007, 02:25
http://enthusiast.hardocp.com/article.html?art=MTQxMywxLCxoZW50aHVzaWFzdA==


lord of the rings online con patch DX10...performance e IQ...ciao

Catan
13-11-2007, 07:27
sicuramente RV670 sara un po' meno brigoso da programmare rispetto a R600 ma sarà sempre molto dipendente dai driver visto che la base è uguale per almeno il 95%.
Il vantaggio di RV670 sarà il fatto che ha un controller ring bus a 512 bit contro i 1024 bit di R600.

si oggettivamente credo che lo scopo sia dimezzare il lavoro sul ringbus per concentrarsi sull'ottimizazione esclusiva del core.
evidentemente come si è resa conto nvidia con la 8800gt i 256bit di bus con gddr4 veloci generano una banda sufficente per le applicazioni attuali, quindi tutto il comparto software puo dedicarsi ad un core che sicuramente è migliorato per l'aa ma che cmq ha sempre bisogno di ottime ottimizazioni dei 320sp per sgravare le 16 tmu che come dice iantikas in alcune situazioni risultano poco + che sufficenti

Grave Digger
13-11-2007, 07:34
Il primato tecnologico mi pare resti in mano ad ATI :D è il primato nelle prestazioni che è stato perso.
Bisogna poi vedere di che prestazioni si parla, perchè se si riduce tutto al fatto che un'architettura ha più fillrate di un'altra, allora possiamo affermare che nVidia è ampiamente la più prestante.
Diversamente non è così chiaro chi abbia le prestazioni migliori... ;)

Cmq questo discorso dovremo riprenderlo nel 2008 inoltrato e ancora, perchè le considerazioni (NON commerciali) da fare in questo campo sono sempre a lunghissimo periodo. ;)

non condivido nulla,ma tant'è :) ....

cmnq è ampiamente OT

carlok
13-11-2007, 08:00
E riquoto..
Nella realtà, il prezzo di un prodotto lo fa il mercato stesso, per comparazione con i prodotti analoghi. La colpa più grave di Ati imho è stata quella di arrivare con 6 mesi di ritardo sulla nuova generazione , e proporre un vga competitiva solo con la 8800gts... Questo ha causato un lungo ristagno dei prezzi, specie nella fascia alta che ha in definitiva danneggiato il consumatore, visto che si era instaurato il monopolio. Solo ora, paradossalmente da nvidia stessa è spuntata una fascia media degna di questo nome ( 8800gt ). :nono: Oltretutto sia nvidia che Ati son ancora lungi dal rilasciare una nuova architettura, visto che nvidia non ne ha particolare interesse ( essendo le 8800 ancora il top ), e Ati "fresca" del lancio di r600. Ecco cosa genera la mancanza di concorrenza... :rolleyes:

è vero!!!!!!!!!!!
io ho comprato ati per quello..nn deve rimanere monopolistica la nvidia.. si è fatta notare per i nn cali di prezzo delle 8800 gtx..che per quanto si voglia è un chip di un anno fa......e senza concorreza ha dimostrato di tenere il mercato delle high end al medesimo prezzo di quando sono uscite (o giu di li)

ciauz

pioss~s4n
13-11-2007, 08:07
non so più come dirlo davvero...: perchè quel prezzo è stato dettato dalle scarse (rispetto alla top avversaria, non in assoluto) prestazioni. Dovreste ribaltare la prospettiva dalla quale partite: non è che hanno deciso di non fare una top e battersela solo nella fascia medioalta, è che la nuova top, non potendo competere, per venderla dovevano metterla a prezzo più basso, sennò chi se la comprava?


Sei un dirigente alla ATI?
Ovvero ATI ha rilasciato un comunicato post uscita della HD2900 specificando quanto hai appena scritto?

Le prospettive possono esser ribaltate in mille modi, ma se non si conosce la verità è come parlare di aria fritta. Io non la conosco, perciò non mi esprimo. Ma tu dovresti conoscerla a quanto vedo..

carlok
13-11-2007, 08:09
purtroppo ragazzi il tallone di achille della hd2900xt non è ne la struttura ne le capacità tecniche, dopo circa 6 mesi di osservazione il tallone è appunto il lato dvr.
Lungi da me dire che da ati/amd hanno lavorato male che non sanno programmare, etc etc(non posso credere che gli stessi programmatori che dalle x1900xt-x1950xt ad ogni release tiravano fuori miglioramenti su miglioramenti in 6 mesi si siano rimbecilliti).
è che appunto il chip va forte solo ed esclusivamente quando il dvr è ottimizzato ad hoc per le chiamate che deve svolgere.
il che vorrebbe dire riscrivere il dvr da 0 per ogni game no, ma sicuramente per ogni motore grafico.
Io credo che questo sia un lavoro estremamente titanico, che ovviamente non puo essere appioppato al , pur bravo, team di programmatori ati, bisognerebbe istituire un secondo team ma oggettivamente, se voi foste una grande azienda paghereste il doppio dei programmatori?
il bus a 512bit è sicuramete una innovazione tecnologica, ma il suo ringbus virtualemente programmabile a piacere, ma zeppo di ringstop difficili da gestire, lo rendono un "mostro" difficile da domare.
la scelta di amd di continuare sulle hd3800series con il chip che fondamentalmente è quello di r600 con qualche mhz in +, e poche migliorie forse sul piano dell'aa via rop's(particolare non di poco conto ma sicuramente appiana una lacuna che definirei SCANDALOSA per questo tipo di chip(il bug hw è stato davvero un colpo x me)) vuol dire che l'archidettura vettoriale a 320sp è buona e ci si puo lavorare e costruire solide basi per il futuro,
a questo punto temo davvero che l'indiziato numero 1 visto il ritorno al 256bit, sia appunto un bus a 512bit che virtualmente ti permette di fare tutto ma con uno sforzo dal punto di vista intellettuale ed anche economico(i pr non lavorano a gratise) forse superiore ai vantaggi che porta.
scusa catan
quello che hai detto è giustissimo e condivido. sopratutto nel fatto che l erops si dimostrano insufficienti per gestire un aa (sempre attivo via hw) e che i drv li fannoper gestire la meglio i vari motori dei giochi....

ma nn ho capito o nn so cosa intendi per BUG Hw...me lo spieghi?

carlok
13-11-2007, 08:12
...

...e il punteggio crolla ancor d + poi con AA x via del bug HW ke tutti conosciamo...
..ciao


we.. ancora con sto bug HW.......:cry: :cry: :cry:
chi me lo spiega...grazie

Pat77
13-11-2007, 08:20
Sei un dirigente alla ATI?
Ovvero ATI ha rilasciato un comunicato post uscita della HD2900 specificando quanto hai appena scritto?

Le prospettive possono esser ribaltate in mille modi, ma se non si conosce la verità è come parlare di aria fritta. Io non la conosco, perciò non mi esprimo. Ma tu dovresti conoscerla a quanto vedo..

Non è un dirigente AMD, ma il prezzo è stato valutato proiettando le prestazioni, con i giochi del tempo, alle soluzioni Nvidia, per ammissione della stessa AMD.
Ma il punto resta che, tecnicamente, r600 presenta diversi vantaggi tecnologici, ma probabilmente è uno stacco col passato troppo netto, in un panorama software che vede una hd2900xt andare come una 8600gts in dx10 in bioshock, tanto per segnalare il margine che ha ancora questa scheda.

Pat77
13-11-2007, 08:22
Anche te hai venduto la HD 2900XT?
Io ripeto che la hd 2900xt non è una scheda fallimentare e tutto fuorchè un cesso.

Mai detto o pensato ciò, è un ottima scheda invece, l'ho venduta per finanziarmi il portatile ;).

Athlon 64 3000+
13-11-2007, 08:44
Mai detto o pensato ciò, è un ottima scheda invece, l'ho venduta per finanziarmi il portatile ;).

non era riferito a te il fatto che è stato detto che la hd 2900xt è un cesso di scheda ma sono stati i vari possessori delle 8800 a dirlo.

Athlon 64 3000+
13-11-2007, 08:45
l'unica cosa che mi preoccupa per R600 è il ring bus a 1024 che spero non venga abbandonato quando usciranno le hd 3870 e 3850.

YANEZ84
13-11-2007, 08:55
ragazzi per me non e' un cesso dobbiamo avere un po di pasienza nei driver e guardate che quelli che hanno disprezzato questa scheda si ricrederanno

carlok
13-11-2007, 09:03
we.. ancora con sto bug HW.......:cry: :cry: :cry:
chi me lo spiega...grazie

una spiegazione per me!!!!!!!!!

safendi
13-11-2007, 09:14
ragazzi per me non e' un cesso dobbiamo avere un po di pasienza nei driver e guardate che quelli che hanno disprezzato questa scheda si ricrederanno

si nel 2010 :D :D

pioss~s4n
13-11-2007, 09:28
Non è un dirigente AMD, ma il prezzo è stato valutato proiettando le prestazioni, con i giochi del tempo, alle soluzioni Nvidia, per ammissione della stessa AMD.


Bene. Significa soltanto che il metro di paragone era\è Nvidia. E paragone fatto la fascia di prezzo corrispondente doveva essere le 350€ (prezzo di lancio). Praticamente a metà tra il prezzo -al tempo- di una 8800gts 320Mb ed una 8800gts 640Mb. Non è economicamente logico presumere che una scheda da 350€ possa vendere più di una da 550€, che era il prezzo della GTX? Io non ho letto da nessuna parte che ATI voleva l'high end ed ha ottenuto la fascia media, perciò il riordino dei prezzi..

Cos'ha realmente introdotto questa prima carrellata di gpu dx10 compliant? ben poco, salvo un incremento spropositato di velocità nei giochi vecchi. Presumo che la battaglia per il primo posto in questo periodo temporale abbia davvero poco senso. I titoli su dx10 completi arrancheranno su entrambe le soluzioni architetturali. Per lo meno ATI ha osato introdurre qualcosa di nuovo in frase progettuale.. nVidia si trascina da sempre la stessa formula vincente.. che ben paga fin tanto che i giochi vengon programmati alla 'vecchia maniera'.

Non voglio far l'avvocato delle cause perse..
magari sarò solo mal informato. ;)

carlok
13-11-2007, 09:37
si nel 2010 :D :D

nn ho capito il tuo post..safendi.....



ps.. vorrei sapere del buco hw...please

Catan
13-11-2007, 09:45
scusa catan
quello che hai detto è giustissimo e condivido. sopratutto nel fatto che l erops si dimostrano insufficienti per gestire un aa (sempre attivo via hw) e che i drv li fannoper gestire la meglio i vari motori dei giochi....

ma nn ho capito o nn so cosa intendi per BUG Hw...me lo spieghi?

allora piu' che rops insufficenti, 16 ad alte frequenze dovrebbero bastare visto che cmq le x1950xtx non hanno problemi in questo, c'e' stata una storia che all inizio sembrava un bug dei dvr, alla fine e' un bug hardware, nelle rops che impediva di fare aa da li, delegando il tutto allo shader core, che come tutti sappiamo mal digerisce fare questo tipo di aa in postprocessing se non e' gia programmato nel motore del gioco in fase di preprocessing.
Ora non so se per scelta o per tempistiche di mercati amd/ati evidentemente da 6 mesi senza una vga di fascia alta hanno deciso di buttare sul mercato questa vga sperando che il passaggio a dx10 fosse rapido e che tutti i programmatori iniziassero a fare aa in shader in fase di processing e non in fase di post processing come si e' sempre fatto.
purtroppo per ati e per noi questo non e' avvenuto l'obbligo di fare aa via shader ci sara' solo con le dx10.1 e quindi noi ce la siamo presa in der posto xe' la nostra vga ha questo bug hw nelle rops.
lungi da me dire che la hd2900xt fa schifo etc etc ma mi piace cmq sottilineare sia i pregi che i difetti di questa vga e sicuramento sto problema delle rops in post processing e' un gran bel difetto su cui non ci si puo mettere mano nemmeno via dvr.

riguardo al discorso dvr , praticamente quello che volevo dire e' che semplicmeente mentre prima si dovevo ottimizare solo il core o il ringbus fino a r580, adesso con la complessita' di r600 praticamente gli sforzi di programmazione sono raddoppiati xe' si ha un core sicuramente efficente solo se programmato a dovere , e gia questo porta via molto tempo, ovviamente un core efficente ha bisogno anche di un rignbus reattivo e non solo con alta banda che sia veloce a portare i dati da una parte all'altra, un ringbus interno a 1024bit porta via lo stesso tempo di programmazione del core, ed ecco qui che lo sforzo totale si raddoppia.
passando alle hd3800 invece con un bus collaudato a 512bit interni si puo passare meno tempo ad ottimizzarlo e a ottimizare il core

carlok
13-11-2007, 09:55
allora piu' che rops insufficenti, 16 ad alte frequenze dovrebbero bastare visto che cmq le x1950xtx non hanno problemi in questo, c'e' stata una storia che all inizio sembrava un bug dei dvr, alla fine e' un bug hardware, nelle rops che impediva di fare aa da li, delegando il tutto allo shader core, che come tutti sappiamo mal digerisce fare questo tipo di aa in postprocessing se non e' gia programmato nel motore del gioco in fase di preprocessing.
Ora non so se per scelta o per tempistiche di mercati amd/ati evidentemente da 6 mesi senza una vga di fascia alta hanno deciso di buttare sul mercato questa vga sperando che il passaggio a dx10 fosse rapido e che tutti i programmatori iniziassero a fare aa in shader in fase di processing e non in fase di post processing come si e' sempre fatto.
purtroppo per ati e per noi questo non e' avvenuto l'obbligo di fare aa via shader ci sara' solo con le dx10.1 e quindi noi ce la siamo presa in der posto xe' la nostra vga ha questo bug hw nelle rops.
lungi da me dire che la hd2900xt fa schifo etc etc ma mi piace cmq sottilineare sia i pregi che i difetti di questa vga e sicuramento sto problema delle rops in post processing e' un gran bel difetto su cui non ci si puo mettere mano nemmeno via dvr.

riguardo al discorso dvr , praticamente quello che volevo dire e' che semplicmeente mentre prima si dovevo ottimizare solo il core o il ringbus fino a r580, adesso con la complessita' di r600 praticamente gli sforzi di programmazione sono raddoppiati xe' si ha un core sicuramente efficente solo se programmato a dovere , e gia questo porta via molto tempo, ovviamente un core efficente ha bisogno anche di un rignbus reattivo e non solo con alta banda che sia veloce a portare i dati da una parte all'altra, un ringbus interno a 1024bit porta via lo stesso tempo di programmazione del core, ed ecco qui che lo sforzo totale si raddoppia.
passando alle hd3800 invece con un bus collaudato a 512bit interni si puo passare meno tempo ad ottimizzarlo e a ottimizare il core

OH
fianlmente..grazie catan...
un post serio e degno di questo forum....
invece dei soliti flame su chi ce l'ha piu' lungo che inquinano siolo il 3d.
sono vari anni che posto in HW e un flame cosi nn lo avevo ancora visto.. perche' cosi si perde visibilita' alle domande degli utenti...che chiedono spiegazioni...

chiedo percio' di evitare i post del tipo "nel 2010" xche' questo forum è e nasce per le sched evideo 2900xt e nn per gareggiare..per quello ci sono i bench dei vari tester...
grazie di nuovo catan
e ciao a tutti

carlok
13-11-2007, 09:58
.
purtroppo per ati e per noi questo non e' avvenuto l'obbligo di fare aa via shader ci sara' solo con le dx10.1 e quindi noi ce la siamo presa in der posto xe' la nostra vga ha questo bug hw nelle rops.

rilegggendo bene.....
ma le 2900 nn hanno le dx10.1
per cui o si possono implementare o siamo fregati.....
che ne pensi?

Vinsent
13-11-2007, 13:47
OH
fianlmente..grazie catan...
un post serio e degno di questo forum....
invece dei soliti flame su chi ce l'ha piu' lungo che inquinano siolo il 3d.
sono vari anni che posto in HW e un flame cosi nn lo avevo ancora visto.. perche' cosi si perde visibilita' alle domande degli utenti...che chiedono spiegazioni...

chiedo percio' di evitare i post del tipo "nel 2010" xche' questo forum è e nasce per le sched evideo 2900xt e nn per gareggiare..per quello ci sono i bench dei vari tester...
grazie di nuovo catan
e ciao a tutti

Grande Carlok ;) BASTA flame non se ne può +:muro:

+Lonewolf+
13-11-2007, 13:47
si nel 2010 :D :D

:bimbo: divertente :bimbo:

safendi
13-11-2007, 13:50
:bimbo: divertente :bimbo:

Grazie socio :cool:

+Lonewolf+
13-11-2007, 13:51
Grazie socio :cool:

prego:bimbo:

safendi
13-11-2007, 13:53
prego:bimbo:

dai togli almeno quella faccina che è un pò irritante

+Lonewolf+
13-11-2007, 13:55
dai togli almeno quella faccina che è un pò irritante

è come se io ti chiedessi di editare il 90% dei tuoi mess qua dentro che sono abbastanza irritanti

×§ñåkê×
13-11-2007, 13:59
è come se io ti chiedessi di editare il 90% dei tuoi mess qua dentro che sono abbastanza irritanti

:asd: ineffetti

Grave Digger
13-11-2007, 14:00
è come se io ti chiedessi di editare il 90% dei tuoi mess qua dentro che sono abbastanza irritanti

è come se io ti chiedessi di non stare con un piede in due scarpe ;) ....

a buon intenditor :) ....

carlok
13-11-2007, 14:07
è come se io ti chiedessi di non stare con un piede in due scarpe ;) ....

a buon intenditor :) ....
NN sono un buon intenditore nn la ho capita...
safendi :gluglu: :gluglu: :gluglu:
preferisce questa....
cmq scerzi a parte...Flame stop--please----

volete che chieda a un mod un parere?

safendi
13-11-2007, 14:08
NN sono un buon intenditore nn la ho capita...
safendi :gluglu: :gluglu: :gluglu:
preferisce questa....
cmq scerzi a parte...Flame stop--please----

volete che chieda a un mod un parere?

a be quella va bene :sofico:

FreeMan
13-11-2007, 14:37
la finiamo? ... sempre gli stessi eh...

>bYeZ<

-Feanor-
13-11-2007, 14:58
lonewolf...

ho visto che bazzichi il 3d di the witcher...
desumo che l hai comprato no...???

come va la scheda...??
lo voglio assolutamente...troppo bello...

:D

riuppo lone...:stordita:

Catan
13-11-2007, 16:47
rilegggendo bene.....
ma le 2900 nn hanno le dx10.1
per cui o si possono implementare o siamo fregati.....
che ne pensi?

presa cosi quella frase sembra un pò fuorviante.
allora con le dx10.1 , a quanto ci è nota, sarà introdotto l'obbligo di fare un aa4x direttamente nel motore del gioco e la soluzione migliore è appunto farlo via shader mentre si processa l'immagine.
io credo che ad ati avessero pensato che l'hard core gamer si spostasse con rapidità su vista e che tutti i giochi si sarebbero adattati a fare aa via shader, pensando in questa maniera hanno ritenuto di secondo conto, A MIO PARERE, il problema del bug hw delle rops's che non riuscivano a fare aa di postprocessing.
purtroppo cosi non lo è stato e da qui nascono tutte le perdite prestazionali di r600 sotto aa e dx9 , o con giochi dx10 che xò eseguono aa in post processing.

ninja970
13-11-2007, 16:55
Chiedo una cosa inerente il CCC

Voi come settate le impostazioni 3D ? In particolare l'antialias-adattivo è da attivare o meno ?

C'è qualche configurazione in particolare da fare o si lascia fare tutto alle applicazioni ?

Catan
13-11-2007, 17:13
Chiedo una cosa inerente il CCC

Voi come settate le impostazioni 3D ? In particolare l'antialias-adattivo è da attivare o meno ?

C'è qualche configurazione in particolare da fare o si lascia fare tutto alle applicazioni ?

l'adaptive aa tienilo attivato non incide troppo sulle prestazioni e migliora la qualità delle texture traspareti su cui sono applicati dei pixel

appleroof
13-11-2007, 17:18
Non è un dirigente AMD, ma il prezzo è stato valutato proiettando le prestazioni, con i giochi del tempo, alle soluzioni Nvidia, per ammissione della stessa AMD.


Amen.

Forse siccome hai detto tu, che hai avuto una 2900xt, la stessa identica cosa che ho detto io, "capiranno" quello che volevo dire.

;)


p.s.: e chi ve lo dice che non sono un dirigente Ati? magari pentito? :asd: :asd: :asd:

Pat77
13-11-2007, 17:19
presa cosi quella frase sembra un pò fuorviante.
allora con le dx10.1 , a quanto ci è nota, sarà introdotto l'obbligo di fare un aa4x direttamente nel motore del gioco e la soluzione migliore è appunto farlo via shader mentre si processa l'immagine.
io credo che ad ati avessero pensato che l'hard core gamer si spostasse con rapidità su vista e che tutti i giochi si sarebbero adattati a fare aa via shader, pensando in questa maniera hanno ritenuto di secondo conto, A MIO PARERE, il problema del bug hw delle rops's che non riuscivano a fare aa di postprocessing.
purtroppo cosi non lo è stato e da qui nascono tutte le perdite prestazionali di r600 sotto aa e dx9 , o con giochi dx10 che xò eseguono aa in post processing.

Perchè le rop's di hd2900xt non sono pensate per fare AA, se c'è una cosa buggosa in r600 è il controller ram.
Cioè va bene la questione fsaa, ma anche senza filtri, aumentando la risoluzione, non c'è corrispettivo tra l'enorme banda e il frame rate.

Grave Digger
13-11-2007, 17:22
Perchè le rop's di hd2900xt non sono pensate per fare AA, se c'è una cosa buggosa in r600 è il controller ram.

è quello che penso da sempre,la scheda tutto sommato fa il suo lavoro discretamente,ma è ad oggi una architettura fuori contesto,non troppo adeguata alle esigenze software attuali :) ....

Athlon 64 3000+
13-11-2007, 18:25
Perchè le rop's di hd2900xt non sono pensate per fare AA, se c'è una cosa buggosa in r600 è il controller ram.
Cioè va bene la questione fsaa, ma anche senza filtri, aumentando la risoluzione, non c'è corrispettivo tra l'enorme banda e il frame rate.

più che altro ha un controller di memoria interno a 1024 bit che è dannatamente complesso da programmare via driver.
Penso che tale tipo di ring bus verrà riproposto con R680 se questo sarà una gpu singola.

Athlon 64 3000+
13-11-2007, 19:16
R660 non ha dei bug hardware ma aime il fatto che sia venuto cosi fuori è stata una scelta precisa da parte di Ati
Quindi sia il fatto che manca il circuito di resolve nelle rop's che il controller di memoria a 1024 bit è stata una scelta ben precisa.
Si potrebbe dire che la cosa possa essere ancora più grave di un bug hardware e sarebbe condivisibile come critica.

Catan
13-11-2007, 19:22
Perchè le rop's di hd2900xt non sono pensate per fare AA, se c'è una cosa buggosa in r600 è il controller ram.
Cioè va bene la questione fsaa, ma anche senza filtri, aumentando la risoluzione, non c'è corrispettivo tra l'enorme banda e il frame rate.

ma su questo avrei qualche dubbio, quale casa potendo fare aa via shader core e via rop's in post processing senza spreco di tempo a progettare decide di privilegiare un sistema o un altra, ben sapendo che privilegiando uno nell'altro si perde moltissimo?
che la banda sia un problema è un problema di ottimizazione dal punto di vista dvr, il bus ha 1024bit interni da programmare per un numero di circa 80 ringstop da programmare, ergo è da questo che + che difficile da programmare r600 richiede il doppio del tempo a programmarlo ad alti livelli( ci vogliono gli attributi a programmare una gpu come r600 e un controler di tipo ringbus a 1024bit).
difatti con la serie hd3800 amd aggiusta il tiro, sistemando le rop's e quindi manentendo una struttura estremamente competitiva con aa via shader gli affianca una struttura che se pur limitata a sole 16 rops riesce a lavorare in maniera + soddisfacente rispetto allo shader core nel post processing e a questo gli aggiunge un controler a 512/256bit che gia sanno programmare dall'esperienza accumulata con r520-r580 e per la banda si affidano alla potenza bruta delle gddr4

Athlon 64 3000+
13-11-2007, 19:40
ma su questo avrei qualche dubbio, quale casa potendo fare aa via shader core e via rop's in post processing senza spreco di tempo a progettare decide di privilegiare un sistema o un altra, ben sapendo che privilegiando uno nell'altro si perde moltissimo?
che la banda sia un problema è un problema di ottimizazione dal punto di vista dvr, il bus ha 1024bit interni da programmare per un numero di circa 80 ringstop da programmare, ergo è da questo che + che difficile da programmare r600 richiede il doppio del tempo a programmarlo ad alti livelli( ci vogliono gli attributi a programmare una gpu come r600 e un controler di tipo ringbus a 1024bit).
difatti con la serie hd3800 amd aggiusta il tiro, sistemando le rop's e quindi manentendo una struttura estremamente competitiva con aa via shader gli affianca una struttura che se pur limitata a sole 16 rops riesce a lavorare in maniera + soddisfacente rispetto allo shader core nel post processing e a questo gli aggiunge un controler a 512/256bit che gia sanno programmare dall'esperienza accumulata con r520-r580 e per la banda si affidano alla potenza bruta delle gddr4

c'è da dire che tra il ring bus di R580 e il ring bus di RV670 credo che ci siano delle differenze.
Quello di R580 è alla fine un ibrido mentre quello di RV670 penso che sara completamente di tipo ring bus e quindi più complesso da programmare rispetto a quello di R580(ma più semplice di quello di R600).

Catan
13-11-2007, 21:11
c'è da dire che tra il ring bus di R580 e il ring bus di RV670 credo che ci siano delle differenze.
Quello di R580 è alla fine un ibrido mentre quello di RV670 penso che sara completamente di tipo ring bus e quindi più complesso da programmare rispetto a quello di R580(ma più semplice di quello di R600).

che intendi per ibrido per r580?
il funzionamento del ringbus da r520 è sempre stato lo stesso, se parli di un connubio tra ringbus e crossbar la cosa non è possibile farla,
se intendi che il ringbus di r670 possa avere maggiori possibilità di programmazione rispetto a quello di r580 sicuramente si, ma inserire un numero maggiore di ringbstop su un controler da 512bit mi sembra uno spreco e un ulteriore ostacolo alla programmazione

+Lonewolf+
13-11-2007, 21:39
riuppo lone...:stordita:

we, lo prendo domani;)

carver
13-11-2007, 22:35
raga..
mi dite un ock daily che avete ragginto?
e quello massimo?

Athlon 64 3000+
13-11-2007, 22:39
che intendi per ibrido per r580?
il funzionamento del ringbus da r520 è sempre stato lo stesso, se parli di un connubio tra ringbus e crossbar la cosa non è possibile farla,
se intendi che il ringbus di r670 possa avere maggiori possibilità di programmazione rispetto a quello di r580 sicuramente si, ma inserire un numero maggiore di ringbstop su un controler da 512bit mi sembra uno spreco e un ulteriore ostacolo alla programmazione

http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=643&p=8

qua spiega che come sono fatti sia il ring bus di R580 che di R600.
Scommetto che quello di RV670 sarà più complesso di quello di R580 ma meno di quello di R600.

NvidiaMen
14-11-2007, 08:01
allora piu' che rops insufficenti, 16 ad alte frequenze dovrebbero bastare visto che cmq le x1950xtx non hanno problemi in questo, c'e' stata una storia che all inizio sembrava un bug dei dvr, alla fine e' un bug hardware, nelle rops che impediva di fare aa da li, delegando il tutto allo shader core, che come tutti sappiamo mal digerisce fare questo tipo di aa in postprocessing se non e' gia programmato nel motore del gioco in fase di preprocessing.
Ora non so se per scelta o per tempistiche di mercati amd/ati evidentemente da 6 mesi senza una vga di fascia alta hanno deciso di buttare sul mercato questa vga sperando che il passaggio a dx10 fosse rapido e che tutti i programmatori iniziassero a fare aa in shader in fase di processing e non in fase di post processing come si e' sempre fatto.
purtroppo per ati e per noi questo non e' avvenuto l'obbligo di fare aa via shader ci sara' solo con le dx10.1 e quindi noi ce la siamo presa in der posto xe' la nostra vga ha questo bug hw nelle rops.
lungi da me dire che la hd2900xt fa schifo etc etc ma mi piace cmq sottilineare sia i pregi che i difetti di questa vga e sicuramento sto problema delle rops in post processing e' un gran bel difetto su cui non ci si puo mettere mano nemmeno via dvr.

riguardo al discorso dvr , praticamente quello che volevo dire e' che semplicmeente mentre prima si dovevo ottimizare solo il core o il ringbus fino a r580, adesso con la complessita' di r600 praticamente gli sforzi di programmazione sono raddoppiati xe' si ha un core sicuramente efficente solo se programmato a dovere , e gia questo porta via molto tempo, ovviamente un core efficente ha bisogno anche di un rignbus reattivo e non solo con alta banda che sia veloce a portare i dati da una parte all'altra, un ringbus interno a 1024bit porta via lo stesso tempo di programmazione del core, ed ecco qui che lo sforzo totale si raddoppia.
passando alle hd3800 invece con un bus collaudato a 512bit interni si puo passare meno tempo ad ottimizzarlo e a ottimizare il core

Ottimo intervento Catan. ;) L'architettura di R600 "purtroppo" è troppo avanti rispetto a quella effettivamente sfruttabile a livello videoludico dove la qualità continua ad essere sacrificata con scelte "conservative" come ad esempio il postprocessing dell'AA al posto del preprocessing che permette il fondamentale utilizzo dell'HDR senza artefatti. Tuttavia non biasimo la scelta fatta dagli sviluppatori degli ultimi motori grafici semi-DX10 (cryengine 2 compreso) i quali hanno avuto a disposizione sin dalle prime righe di codice GPU nVidia per le quali di preprocessing via shaders non se ne può assolutamente parlare per via delle limitazioni hw intrinseche al chip. Purtroppo leggo in molti post interventi nei quali si dice assurdamente che R600 sia un flop tecnologico...:eek: assurdo....:doh: semmai si potrebbe parlare di delusione nel segmento videoludico, questo sì, ma solo per, questo certamente, azzardata scelta da parte del marketing di ATi nell'aver anticipato troppo i tempi per un segmento ancora immaturo.
Io gioco poco al PC, dedicandomi molto al CAD nel quale R600, nei softwares ottimizzati nello sfruttare elaborazioni di preprocessing via shaders, ha dimostrato tutto il suo valore nei confronti di G80 che riesce a stare davanti ad Ati nei test Solidworks (+18,9%), Catia02 (+26,6%) e Pro-E (+27,8%). In 3dsmax 9.0 vi è un sostanziale pareggio. Per il resto non c'è storia sia a livello prestazionale che a livello prezzo-prestazioni (con un costo della V7600 del 33% in meno circa). In ambito OGL làddove in seguito ai numerosi calcoli la memoria onboard fà spesso la differenza la FX4600 (con 768MB) rimane comunque dietro alla V7600 (con 512MB):
- SPECapc Maya - GFX: v7600 con +51,9%;
- SPECapc Maya - Overall: v7600 con +35%;
- Viewperfect 10 - Maya 02: v7600 con +27,8%;
- Viewperfect 10 - Ensight 03: v7600 con +9,3%;
- Viewperfect 10 - tcvis 01: v7600 con +28,1%;
- Viewperfect 10 - ugnx 01: v7600 con +71,9%.

E' opportuno sottolineare che questi software sono basati su OGL 2.1, librerie che non sfruttano appieno le caratteristiche dello shader model 4.0 appannaggio delle opengl 3.0 che sono ancora in fase di testing.
Qui il link (http://www.tomshardware.com/2007/11/09/workstation_shootout/page8.html) all'articolo per chi voglia approfondire l'argomento.
NM.

safendi
14-11-2007, 09:06
Ottimo intervento Catan. ;) L'architettura di R600 "purtroppo" è troppo avanti rispetto a quella effettivamente sfruttabile a livello videoludico dove la qualità continua ad essere sacrificata con scelte "conservative" come ad esempio il postprocessing dell'AA al posto del preprocessing che permette il fondamentale utilizzo dell'HDR senza artefatti. Tuttavia non biasimo la scelta fatta dagli sviluppatori degli ultimi motori grafici semi-DX10 (cryengine 2 compreso) i quali hanno avuto a disposizione sin dalle prime righe di codice GPU nVidia per le quali di preprocessing via shaders non se ne può assolutamente parlare per via delle limitazioni hw intrinseche al chip. Purtroppo leggo in molti post interventi nei quali si dice assurdamente che R600 sia un flop tecnologico...:eek: assurdo....:doh: semmai si potrebbe parlare di delusione nel segmento videoludico, questo sì, ma solo per, questo certamente, azzardata scelta da parte del marketing di ATi nell'aver anticipato troppo i tempi per un segmento ancora immaturo.
Io gioco poco al PC, dedicandomi molto al CAD nel quale R600, nei softwares ottimizzati nello sfruttare elaborazioni di preprocessing via shaders, ha dimostrato tutto il suo valore nei confronti di G80 che riesce a stare davanti ad Ati nei test Solidworks (+18,9%), Catia02 (+26,6%) e Pro-E (+27,8%). In 3dsmax 9.0 vi è un sostanziale pareggio. Per il resto non c'è storia sia a livello prestazionale che a livello prezzo-prestazioni (con un costo della V7600 del 33% in meno circa). In ambito OGL làddove in seguito ai numerosi calcoli la memoria onboard fà spesso la differenza la FX4600 (con 768MB) rimane comunque dietro alla V7600 (con 512MB):
- SPECapc Maya - GFX: v7600 con +51,9%;
- SPECapc Maya - Overall: v7600 con +35%;
- Viewperfect 10 - Maya 02: v7600 con +27,8%;
- Viewperfect 10 - Ensight 03: v7600 con +9,3%;
- Viewperfect 10 - tcvis 01: v7600 con +28,1%;
- Viewperfect 10 - ugnx 01: v7600 con +71,9%.

E' opportuno sottolineare che questi software sono basati su OGL 2.1, librerie che non sfruttano appieno le caratteristiche dello shader model 4.0 appannaggio delle opengl 3.0 che sono ancora in fase di testing.
Qui il link (http://www.tomshardware.com/2007/11/09/workstation_shootout/page8.html) all'articolo per chi voglia approfondire l'argomento.
NM.

non ci saranno driver ottimizzati bene

carlok
14-11-2007, 10:04
non ci saranno driver ottimizzati bene
Cioe'..
vuoi dire che i driver in ambiente cad.nn esistono???

edit_user_name_here
14-11-2007, 10:14
Ottimo intervento Catan. ;) L'architettura di R600 "purtroppo" è troppo avanti rispetto a quella effettivamente sfruttabile a livello videoludico dove la qualità continua ad essere sacrificata con scelte "conservative" come ad esempio il postprocessing dell'AA al posto del preprocessing che permette il fondamentale utilizzo dell'HDR senza artefatti. Tuttavia non biasimo la scelta fatta dagli sviluppatori degli ultimi motori grafici semi-DX10 (cryengine 2 compreso) i quali hanno avuto a disposizione sin dalle prime righe di codice GPU nVidia per le quali di preprocessing via shaders non se ne può assolutamente parlare per via delle limitazioni hw intrinseche al chip. Purtroppo leggo in molti post interventi nei quali si dice assurdamente che R600 sia un flop tecnologico...:eek: assurdo....:doh: semmai si potrebbe parlare di delusione nel segmento videoludico, questo sì, ma solo per, questo certamente, azzardata scelta da parte del marketing di ATi nell'aver anticipato troppo i tempi per un segmento ancora immaturo.
Io gioco poco al PC, dedicandomi molto al CAD nel quale R600, nei softwares ottimizzati nello sfruttare elaborazioni di preprocessing via shaders, ha dimostrato tutto il suo valore nei confronti di G80 che riesce a stare davanti ad Ati nei test Solidworks (+18,9%), Catia02 (+26,6%) e Pro-E (+27,8%). In 3dsmax 9.0 vi è un sostanziale pareggio. Per il resto non c'è storia sia a livello prestazionale che a livello prezzo-prestazioni (con un costo della V7600 del 33% in meno circa). In ambito OGL làddove in seguito ai numerosi calcoli la memoria onboard fà spesso la differenza la FX4600 (con 768MB) rimane comunque dietro alla V7600 (con 512MB):
- SPECapc Maya - GFX: v7600 con +51,9%;
- SPECapc Maya - Overall: v7600 con +35%;
- Viewperfect 10 - Maya 02: v7600 con +27,8%;
- Viewperfect 10 - Ensight 03: v7600 con +9,3%;
- Viewperfect 10 - tcvis 01: v7600 con +28,1%;
- Viewperfect 10 - ugnx 01: v7600 con +71,9%.

E' opportuno sottolineare che questi software sono basati su OGL 2.1, librerie che non sfruttano appieno le caratteristiche dello shader model 4.0 appannaggio delle opengl 3.0 che sono ancora in fase di testing.
Qui il link (http://www.tomshardware.com/2007/11/09/workstation_shootout/page8.html) all'articolo per chi voglia approfondire l'argomento.
NM.

Capisco che giochi poco ;) però intendi che usi proprio la 2900xt per cad oppure quelle professionali (di cui non ricordo mai il nome)?

P.s. nvidiamen: In pvt ti parlo poco ultimamente ma ce li hai sempre pieni in quelle poche volte... non riesco a capire come fai a riempirli in ogni secondo lol comunque puoi liberare? :D grazie!

safendi
14-11-2007, 10:19
Cioe'..
vuoi dire che i driver in ambiente cad.nn esistono???

certo che esistono, saranno ancora acerbi quelli di nvidia.

carlok
14-11-2007, 10:25
certo che esistono, saranno ancora acerbi quelli di nvidia.
hi
No..non credo..è piu' probabile che vengano utilizzati delle routine di richiamo piu' semplici, ma che richiedono hardware potente...nn credo che lo AF sia utilizzato nei cad...
cmq.. chiediamolo a nvidiaman......che lo usa il cad....
ciauz

Catan
14-11-2007, 12:17
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=643&p=8

qua spiega che come sono fatti sia il ring bus di R580 che di R600.
Scommetto che quello di RV670 sarà più complesso di quello di R580 ma meno di quello di R600.

hai ragione mi ero scordato del writecrossbar swithc che è presente in r520-r580 e r500 infatti all'inizio non capivo mi sembrava strano che l'articolo da te postato parlasse solo r500(già ti stavo dando della fava ma a sto giro la fava tocca a me:D :D :D )
oggettivamente sempre facendo riferimento all'articolo da te postato a questo punto credo che il controler a 256bit di hd3800 sia di fatto lo stesso di r600 con esattamente la metà dei ringstop, pad e connessioni.
da come spiega l'articolo ati con r600 è riuscita mentenendo le stesse dimensioni del controler di r5x0 a metterne il doppio.
in questo caso con rv670 dimezzando si dimezza anche l'area occupata e questo spiega anche xè si puo fare tutto con i 55nm, senza passare per i 65, parti del chip si sono decisamente dimezzate in componentistica e quindi si puo azzardare anche un processo + piccolo di quello minore utilizzato attualmente(che appunto sono i 65nm delle hd2600 series)

The_SaN
14-11-2007, 12:18
certo che esistono, saranno ancora acerbi quelli di nvidia.

A dire il vero molte volte era il contrario

Athlon 64 3000+
14-11-2007, 12:30
io per esempio non escludo che R680 possa essere una gpu singola con 96 shader unificati invece che 64 come in R600 e RV670 e con il controller di memoria a 512 bit(1024 bit interno) come per R600 e che potrebbe fare in modo che R600 ne giovi con eventuali nuovi driver.

Pat77
14-11-2007, 12:35
Io penso che r600 ne gioverà sempre, in fondo il controller 256bit è molto simile a quelloa 512, solo dimezzato, il resto della gpu è quasi identico, di fatto penso che tutto il lavoro sui driver sia utilizzabile sulle nuove architetture, mentre per r600 si partiva da 0.

bluefrog
14-11-2007, 12:42
Voi quanto fate al LightsMark ragà? Io un'ottantina di fps a 1280x1024 config in sign.

Iantikas
14-11-2007, 12:59
Voi quanto fate al LightsMark ragà? Io un'ottantina di fps a 1280x1024 config in sign.



ne dovresti fare intorno ai 250/300...controlla casomai nn hai i driver settati d def ma tieni x es. abilitati CFAA e adaptive AA, xkè solo così sarebbenormale scendere sull'ottantina...ciao


p.s.: oppure se tieni vsync sempre attivo con un refresh del monitor settato ad 85hz...

Pat77
14-11-2007, 13:09
Voi quanto fate al LightsMark ragà? Io un'ottantina di fps a 1280x1024 config in sign.

LOL ne faccio io 86 a 1280, mi sa che hai dei problemini di configurazione software.

bluefrog
14-11-2007, 13:10
ne dovresti fare intorno ai 250/300...controlla casomai nn hai i driver settati d def ma tieni x es. abilitati CFAA e adaptive AA, xkè solo così sarebbenormale scendere sull'ottantina...ciao


p.s.: oppure se tieni vsync sempre attivo con un refresh del monitor settato ad 85hz...

Ciao, no è tutto a default, sia l'AA che AF (gestiti dall'applicazione).
Il refresh è 60Hz essendo un LCD e il VSync è sempre disabilitato (anche quello lo gestisco secondo l'applicazione), infatti durante il bench l'immagine risulta quasi sempre spezzettata.

Boh :boh:

Pat77
14-11-2007, 13:11
Allora sarà vista. Anche io sono in Vista ma i driver opengl nvidia si sa che sono più performanti, non credevo così tanto :O

Catan
14-11-2007, 13:15
io per esempio non escludo che R680 possa essere una gpu singola con 96 shader unificati invece che 64 come in R600 e RV670 e con il controller di memoria a 512 bit(1024 bit interno) come per R600 e che potrebbe fare in modo che R600 ne giovi con eventuali nuovi driver.

oggettivamente se r680 fosse una gpu singola secondo me dovrebbero tornare al rapporto shader-alu 1:3 e non 1:4 come è adesso per r600.
adesso abbiamo un rapporto in numero 16:64, secondo me se su r680 sistemassero l'aa via rop's oltre che con shader core, ma devono aumentare il numero passare da 16 a 20 se non 24 a questo punto una gpu 24:72, quindi 24tmu e 360sp sarebbe ottima aumentando del 50% la potenza elaborativa delle rops che sarebbe un toccasana per l'archidettura e aumentando in maniera contenuta le sp di un 12% che non fanno mai male.

se no si potrebbe pensare anche ad una meno probabile ma archidettura di intermezzo leggermente + performate in rapporto 20:60 con 20 tmu e rop's e 300sp che da un piccolo calo di sp meno del 7%, si aumenta la parte elaborativa di un onesto 25%.

un r680 a 24tmu e 360sp e un bus a 512bit con gddr4 da 2200-2400 sarebbe veramente una vga che spacca, li si che sarebbe una vera vga highend da un 500E

bluefrog
14-11-2007, 13:15
Allora sarà vista. Anche io sono in Vista ma i driver opengl nvidia si sa che sono più performanti, non credevo così tanto :O

No, ho dimenticato di dirlo scusa, uso anche XP SP2 ovviamente... Vista sta la' solo per i giochi dx10...:rolleyes:

Dev'essere dovuto a qualche impostazione particolare, dal momento che il resto funziona tutto alla grande...

Grave Digger
14-11-2007, 13:17
oggettivamente se r680 fosse una gpu singola secondo me dovrebbero tornare al rapporto shader-alu 1:3 e non 1:4 come è adesso per r600.
adesso abbiamo un rapporto in numero 16:64, secondo me se su r680 sistemassero l'aa via rop's oltre che con shader core, ma devono aumentare il numero passare da 16 a 20 se non 24 a questo punto una gpu 24:72, quindi 24tmu e 360sp sarebbe ottima aumentando del 50% la potenza elaborativa delle rops che sarebbe un toccasana per l'archidettura e aumentando in maniera contenuta le sp di un 12% che non fanno mai male.

se no si potrebbe pensare anche ad una meno probabile ma archidettura di intermezzo leggermente + performate in rapporto 20:60 con 20 tmu e rop's e 300sp che da un piccolo calo di sp meno del 7%, si aumenta la parte elaborativa di un onesto 25%.

un r680 a 24tmu e 360sp e un bus a 512bit con gddr4 da 2200-2400 sarebbe veramente una vga che spacca, li si che sarebbe una vera vga highend da un 500E

praticamente un'altra gpu :) ....

aspettiamo il prossimo giro ragazzi ;) ...

zorco
14-11-2007, 13:19
praticamente un'altra gpu :) ....

aspettiamo il prossimo giro ragazzi ;) ...
nò a quando pare:

http://www.dinoxpc.com/News/news.asp?ID_News=13474&What=News&tt=AMD%3A+procede+bene+la+produzione+delle+schede+ATI+R680

Pat77
14-11-2007, 13:21
oggettivamente se r680 fosse una gpu singola secondo me dovrebbero tornare al rapporto shader-alu 1:3 e non 1:4 come è adesso per r600.
adesso abbiamo un rapporto in numero 16:64, secondo me se su r680 sistemassero l'aa via rop's oltre che con shader core, ma devono aumentare il numero passare da 16 a 20 se non 24 a questo punto una gpu 24:72, quindi 24tmu e 360sp sarebbe ottima aumentando del 50% la potenza elaborativa delle rops che sarebbe un toccasana per l'archidettura e aumentando in maniera contenuta le sp di un 12% che non fanno mai male.

se no si potrebbe pensare anche ad una meno probabile ma archidettura di intermezzo leggermente + performate in rapporto 20:60 con 20 tmu e rop's e 300sp che da un piccolo calo di sp meno del 7%, si aumenta la parte elaborativa di un onesto 25%.

un r680 a 24tmu e 360sp e un bus a 512bit con gddr4 da 2200-2400 sarebbe veramente una vga che spacca, li si che sarebbe una vera vga highend da un 500E

Il fatto è che in futuro credo si utilizzerà l'aa via shaders poichè è più flessibile e applicabile sempre, il discorso che fai doveva essere fatto in fase di progettazione di r600, se era ovviamente intenzione di AMD.

Grave Digger
14-11-2007, 13:33
nò a quando pare:

http://www.dinoxpc.com/News/news.asp?ID_News=13474&What=News&tt=AMD%3A+procede+bene+la+produzione+delle+schede+ATI+R680

l'architettura di fondo rimarrà invariata ;)

Catan
14-11-2007, 13:35
Il fatto è che in futuro credo si utilizzerà l'aa via shaders poichè è più flessibile e applicabile sempre, il discorso che fai doveva essere fatto in fase di progettazione di r600, se era ovviamente intenzione di AMD.

secondo me il rapporto 1:4 poteva essere anche tenuto, es da r520 a r580 c'è stato un aumento dall'1:1 all' 1:3 che ha portato indubbi vantaggi e anche questo evidentemente 1:4 era l'ovvio passo successivo.
il problema forse è stato mantenere costante il numero di rop's a 16 oppure decidere consapevolmente o per bug di progettazione di che l'aa di postprocessing non doveva essere fatto ed appoggiarsi sullo shader core per tutto.
dopo 4 chip a 16rops r420-480-520-580 forse incrementarne il numero a 20 o 24 ovviamente perfettamente funzionanti non sarebbe stata una idea malvagia.

Athlon 64 3000+
14-11-2007, 13:38
infatti se faranno una gpu con 96 shader dovrebbe avere almeno 20 rop's perchè se no sarebbe troppo limitata(ancora di più di R600) nei giochi con ricche operazioni sulle texture.

Pat77
14-11-2007, 13:45
secondo me il rapporto 1:4 poteva essere anche tenuto, es da r520 a r580 c'è stato un aumento dall'1:1 all' 1:3 che ha portato indubbi vantaggi e anche questo evidentemente 1:4 era l'ovvio passo successivo.
il problema forse è stato mantenere costante il numero di rop's a 16 oppure decidere consapevolmente o per bug di progettazione di che l'aa di postprocessing non doveva essere fatto ed appoggiarsi sullo shader core per tutto.
dopo 4 chip a 16rops r420-480-520-580 forse incrementarne il numero a 20 o 24 ovviamente perfettamente funzionanti non sarebbe stata una idea malvagia.

Ma non è che le rop's non funzionano :D solo non servono per fare in postprocessing l'AA, e se anche le abilitassero non andrebbero oltre le performance di un x1900 con 16 rop's appunto, e nvidia in questo campo, in un testa a testa, avrebbe avuto comunque la meglio.
E' vero, avessero 32 tmu e 32 rop's, con la parte shaders invariata, con la possibilità di fare fsaa via shaders, mi chiedo, ma cosa servirebbe se, facendolo via rop's la scheda va di più?
Hanno seguito il loro dna, rapporto 4-1 proprio per supportare meglio il fsaa sapendo che, probabilemnte, in futuro, il fsaa post non sarebbe stato più utilizzato, forse hanno anticipato i tempi. Anzi, sicuramente.
Il bug dei primi sample era il controller 512, il ritardo era dovuto a quello, per riuscire a correggerlo, il punto è che una volta a posto era arduo programmarlo, ecco perchè a ogni release qualcosa migliora.

Catan
14-11-2007, 14:24
Ma non è che le rop's non funzionano :D solo non servono per fare in postprocessing l'AA, e se anche le abilitassero non andrebbero oltre le performance di un x1900 con 16 rop's appunto, e nvidia in questo campo, in un testa a testa, avrebbe avuto comunque la meglio.
E' vero, avessero 32 tmu e 32 rop's, con la parte shaders invariata, con la possibilità di fare fsaa via shaders, mi chiedo, ma cosa servirebbe se, facendolo via rop's la scheda va di più?
Hanno seguito il loro dna, rapporto 4-1 proprio per supportare meglio il fsaa sapendo che, probabilemnte, in futuro, il fsaa post non sarebbe stato più utilizzato, forse hanno anticipato i tempi. Anzi, sicuramente.
Il bug dei primi sample era il controller 512, il ritardo era dovuto a quello, per riuscire a correggerlo, il punto è che una volta a posto era arduo programmarlo, ecco perchè a ogni release qualcosa migliora.

ma guarda oggettivamente difanni nessuno dice che sono le rops che non vanno, solo che non riescono a fare un aa di postprocessing, è vero che al massimo sarebbero andare come un r580 essendo sempre lo stesso numero di 16, ma cmq clokkate a 740, il che facendo puramente dei contiteorici sicuramente la vga sarebbe andata, dal punto di vista teorico ovviamente visto che ovviamente non si possono fare test, meglio di una 8800gts che di rops ne ha si 20 ma clokkare a 500mhz.
la vga a valori di picco sarebbe stata esattamente tra una gtx e una gts
con la gts con un valore di picco di 10000, la 2900 di 11840 e la gtx di 13800.
quindi secondo me in condizioni di aa di postprocessing con le rops capaci di funzionare in una maniera di tipo "full" si avrebbe avuto un comportamento esattamente a metà strada tra le 2 vga nvdia e non un livellamento verso il basso fino ad appiattirsi sulla gts.
basandoci esclusivamente sui numeretti teorici quindi su valori di picco, facendo l'aa di postprocessing passando per lo shadercore si perde tra il 10 ed il 20% di potenza elaborativa teorica massima consentita.
e nsomma non so nella storia delle gpu se un caso del genere è mai esistito ma guadagnare gratuitamente il 10% di prestazioni sotto aa sistemando solo la circuiteria delle rop's nn so se sia mai accaduto.

carver
14-11-2007, 14:28
raga..
mi dite un ock daily che avete ragginto?
e quello massimo?

sempre a parlare di questo nuovo R670.. che stress...
ma non era il 3d della 2900xt???
bha.....
rilancio la mia domanda....
ps ma se vupiace la 3870... compratela e andate a spammare nell'apposito 3d no?:read:

Pat77
14-11-2007, 14:34
Ma già si colloca tra gts e gtx, quando è ben supportata, lo shader core di un 10% in meno di potenza si faceva poco imho, essendo tutt'ora sovradimensionato.
Comunque si può discutere all'infinito sui se, di fatto l'unica cosa che penso siamo in contrasto è la funzione delle rop's, se scelta o bug, e penso che AMD mai confesserà se è un bug, ma sempre dirà che è una scelta.
Quindi, scelta o bug, quello che resta è un'architettura innovativa che è minata forse da scelte troppo innovative, o da bug spacciati come scelte ;)

Free Gordon
14-11-2007, 16:01
...prendendo x es. in esame un SW ke è sicuramente stato stra-ottimizzato lato driver...tipo il 3dmark06...con impo d def senza filtri se la batte con la GTX...ma basta anke solo attivare l'AF e il punteggio crolla...ed è ovvio ke nn si tratti di un problema lato driver ma da imputare prevalentemente alle 16 TFU ke + di tanto nn possono fare...e il punteggio crolla ancor d + poi con AA x via del bug HW ke tutti conosciamo

Credo che la perdita rispetto a G80, con AF16 abilitato sia molto marginale (valori del 3-4% circa in media).
E' chiaro che è l'AA "in più" di G80, a far guadagnare prestazioni nei confronti di R600.



basta kiedere ...se vuoi un es. d gioki prodotti in associazione con ATI ne esistono già ora...x es. una SH ke fa parte dell'"ATI games" (l'analogo ati del "TWIMTBP" d nivida) è la Valve...

Mah.. che dici! :D
Questo poteva valere per R300 e derivati...non per R600 sicuramente. ;)

Catan
14-11-2007, 16:13
Ma già si colloca tra gts e gtx, quando è ben supportata, lo shader core di un 10% in meno di potenza si faceva poco imho, essendo tutt'ora sovradimensionato.
Comunque si può discutere all'infinito sui se, di fatto l'unica cosa che penso siamo in contrasto è la funzione delle rop's, se scelta o bug, e penso che AMD mai confesserà se è un bug, ma sempre dirà che è una scelta.
Quindi, scelta o bug, quello che resta è un'architettura innovativa che è minata forse da scelte troppo innovative, o da bug spacciati come scelte ;)

no no + che in constrasto anche io propendo per l'ipotesi che amd dirà che è sempre stata una scelta.
il problema che che poi è una smentita, gia a rigor di logica se devo progettare e metterci dentro una rop's x quale motivo devo obbligarmi a non fare il resolve di postprocessing?xè vista l'innovatività di r600 non devo accoppiargli anche una certa flessibilità nelle scelte?
vedremo con rv670 se sistemeranno il problema dell'aa via rop's è evidente che bug o scelta anno migliorato il tiro sicuramente.
per quanto riguarda che la hd2900xt è a metà strada tra una gts e gtx anche qui stiamo daccordo anche se come tutti noi vediamo in alcune situazioni con aa la hd2900xt scende molto verso la gts, potendo scegliere un aa di tipo classico in queste situazioni sicuramente non ci sarebbe stato quest'andamento altalenante e ci sarebbe stata l'eliminazione totale di questi picchi verso il basso.

Pat77
14-11-2007, 16:24
Dalle prime review rv670 sembra un copia incolla a 256 bit, con maggiore frequenza però.

Free Gordon
14-11-2007, 16:40
certo che esistono, saranno ancora acerbi quelli di nvidia.

:rotfl:
NVidia.. con driver acerbi.. Quella che ha sempre avuto i driver OGL migliori, soprattutto per workstation.

safendi
14-11-2007, 16:43
:rotfl:
NVidia.. con driver acerbi.. Quella che ha sempre avuto i driver OGL migliori, soprattutto per workstation.

a bè se ati va male sono driver, se è nvidia è la scheda. a bè :fagiano:
va be tanto chissenefrega, l'importante x il mio uso è che viaggio nei game

Free Gordon
14-11-2007, 16:48
oggettivamente se r680 fosse una gpu singola secondo me dovrebbero tornare al rapporto shader-alu 1:3 e non 1:4 come è adesso per r600.

R680 sarà un dualchip: due RV670 "collegati" con HT3 (si dice). Probabilmente a frequenze non superiori ai 650mhz.

Non credo che inseriranno mai l'AA via rops in architetture future.

Free Gordon
14-11-2007, 16:56
a bè se ati va male sono driver, se è nvidia è la scheda. a bè :fagiano:
va be tanto chissenefrega, l'importante x il mio uso è che viaggio nei game


Faceva a me ridere il fatto che ponessi il problema di driver sotto nVidia, quando per ATI invece, è sempre la scheda. :asd: Cosa inoltre, come ho scritto sopra, molto improbabile, dato che nVidia è sempre stata leader da quel pdv e con OGL ha sempre avuto un rapporto preferenziale. :)


In sostanza, volevo far trasparire il fatto che (dai test su schede professionali) R600 denoti qualità differenti rispetto a G80 e che sia più veloce di quest'ultima, di un largo margine a volte, in test/applicazioni che richiedono ampio utilizzo di calcoli matematici.

Ciò sta a significare quello che ho sempre detto: i carichi e le tipologie di programmazione che vengono applicate oggi ai giochi non si adattano molto bene all'ultima architettura di ATI ma molto meglio a quella di nVidia.

Con i giochi attuali (che non sfruttano la maggior parte delle feature delle nuove dx10, anche di Nvidia), più il fillrate (pixel e texel) complessivo è alto, più avrai prestazioni migliori.
Per aumentare il fillrate delle GPU moderne, "basta" aggiungere TU e ROPs, dato che ALU e ROPs sono disaccoppiate ormai da anni.

Pat77
14-11-2007, 16:59
a bè se ati va male sono driver, se è nvidia è la scheda. a bè :fagiano:
va be tanto chissenefrega, l'importante x il mio uso è che viaggio nei game

Bhe un certo Carmack prendeva i driver opengl Nvidia come golden sample, il che vuol dire che se qualcosa non funzionava era colpa sua.
Per Ati, se qualcosa non andava era quasi sempre problema di bug driver, parole sue.

M4R1|<
14-11-2007, 19:07
Ottimo intervento Catan. ;) L'architettura di R600 "purtroppo" è troppo avanti rispetto a quella effettivamente sfruttabile a livello videoludico dove la qualità continua ad essere sacrificata con scelte "conservative" come ad esempio il postprocessing dell'AA al posto del preprocessing che permette il fondamentale utilizzo dell'HDR senza artefatti. Tuttavia non biasimo la scelta fatta dagli sviluppatori degli ultimi motori grafici semi-DX10 (cryengine 2 compreso) i quali hanno avuto a disposizione sin dalle prime righe di codice GPU nVidia per le quali di preprocessing via shaders non se ne può assolutamente parlare per via delle limitazioni hw intrinseche al chip. Purtroppo leggo in molti post interventi nei quali si dice assurdamente che R600 sia un flop tecnologico...:eek: assurdo....:doh: semmai si potrebbe parlare di delusione nel segmento videoludico, questo sì, ma solo per, questo certamente, azzardata scelta da parte del marketing di ATi nell'aver anticipato troppo i tempi per un segmento ancora immaturo.
Io gioco poco al PC, dedicandomi molto al CAD nel quale R600, nei softwares ottimizzati nello sfruttare elaborazioni di preprocessing via shaders, ha dimostrato tutto il suo valore nei confronti di G80 che riesce a stare davanti ad Ati nei test Solidworks (+18,9%), Catia02 (+26,6%) e Pro-E (+27,8%). In 3dsmax 9.0 vi è un sostanziale pareggio. Per il resto non c'è storia sia a livello prestazionale che a livello prezzo-prestazioni (con un costo della V7600 del 33% in meno circa). In ambito OGL làddove in seguito ai numerosi calcoli la memoria onboard fà spesso la differenza la FX4600 (con 768MB) rimane comunque dietro alla V7600 (con 512MB):
- SPECapc Maya - GFX: v7600 con +51,9%;
- SPECapc Maya - Overall: v7600 con +35%;
- Viewperfect 10 - Maya 02: v7600 con +27,8%;
- Viewperfect 10 - Ensight 03: v7600 con +9,3%;
- Viewperfect 10 - tcvis 01: v7600 con +28,1%;
- Viewperfect 10 - ugnx 01: v7600 con +71,9%.

E' opportuno sottolineare che questi software sono basati su OGL 2.1, librerie che non sfruttano appieno le caratteristiche dello shader model 4.0 appannaggio delle opengl 3.0 che sono ancora in fase di testing.
Qui il link (http://www.tomshardware.com/2007/11/09/workstation_shootout/page8.html) all'articolo per chi voglia approfondire l'argomento.
NM.
Interessante, la cosa mi fa piacere da un certo punto di vista, invece mi "piagere" il solo pensare che gli attuali giochi sono ancora "abbozzi" fatti male delle dx10

certo che esistono, saranno ancora acerbi quelli di nvidia.
:rolleyes: i driver nvidia nn sono mai stati acerbi (ho avuto per 3 generazioni nvidia) e anche se lo erano nel giro di 24 ore c'erano già quelli nuovi

Faceva a me ridere il fatto che ponessi il problema di driver sotto nVidia, quando per ATI invece, è sempre la scheda. :asd: Cosa inoltre, come ho scritto sopra, molto improbabile, dato che nVidia è sempre stata leader da quel pdv e con OGL ha sempre avuto un rapporto preferenziale. :)


In sostanza, volevo far trasparire il fatto che (dai test su schede professionali) R600 denoti qualità differenti rispetto a G80 e che sia più veloce di quest'ultima, di un largo margine a volte, in test/applicazioni che richiedono ampio utilizzo di calcoli matematici.

Ciò sta a significare quello che ho sempre detto: i carichi e le tipologie di programmazione che vengono applicate oggi ai giochi non si adattano molto bene all'ultima architettura di ATI ma molto meglio a quella di nVidia.

Con i giochi attuali (che non sfruttano la maggior parte delle feature delle nuove dx10, anche di Nvidia), più il fillrate (pixel e texel) complessivo è alto, più avrai prestazioni migliori.
Per aumentare il fillrate delle GPU moderne, "basta" aggiungere TU e ROPs, dato che ALU e ROPs sono disaccoppiate ormai da anni.

be lo abbiamo sempre detto, cmq essendo fatta così male questa nuova generazione software (cioè gli "abbozzi" dx10 attuali) anche l'h ne risente (e parecchi come si vede)

YANEZ84
14-11-2007, 19:41
ragazzi ho saputo che i driver dovrebbero uscire domani i7.11 vero?????'

Free Gordon
14-11-2007, 23:15
:rolleyes: i driver nvidia nn sono mai stati acerbi (ho avuto per 3 generazioni nvidia) e anche se lo erano nel giro di 24 ore c'erano già quelli nuovi

Mah, problemi di driver li hanno avuti tutti.



be lo abbiamo sempre detto, cmq essendo fatta così male questa nuova generazione software (cioè gli "abbozzi" dx10 attuali) anche l'h ne risente (e parecchi come si vede)

Non è fatto male il software, è solo che è ancora molto legato alle dx8-dx9, anche come concept di sviluppo.

M4R1|<
15-11-2007, 06:00
Mah, problemi di driver li hanno avuti tutti.
vero ma la celerità di nvidia è unica


Non è fatto male il software, è solo che è ancora molto legato alle dx8-dx9, anche come concept di sviluppo.

be io lo interpreto che sono fatti male :D cioè se si sviluppa in dx10 usando metodologie da dx9/8 allova vuol dire che ci sono difficoltà a progammare, quindi ergo i primi dx10 sono fatti male. sbaglio?

Pat77
15-11-2007, 08:33
Mah, problemi di driver li hanno avuti tutti.





Non è fatto male il software, è solo che è ancora molto legato alle dx8-dx9, anche come concept di sviluppo.

Bisogna aspettare Valve per vedere qualcosa di ottimizzato in dx10 ;)

carlok
15-11-2007, 09:41
Bisogna aspettare Valve per vedere qualcosa di ottimizzato in dx10 ;)

l'orange pack.. nn è con le dx 10?

Athlon 64 3000+
15-11-2007, 09:42
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=68813

Ho trovato questi driver.

The_SaN
15-11-2007, 10:03
l'orange pack.. nn è con le dx 10?

No

Athlon 64 3000+
15-11-2007, 10:06
mi sono accorto che andando nell'info del driver che questo è datato 7 settembre e che quindi è più vecchio anche dei catalist 7.10 ufficiali

webbuffa
15-11-2007, 10:49
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=68813

Ho trovato questi driver.

:) :) Oldini

Catalyst Control Center CCC 2007.0907.1010.16196
Driver di visualizzazione ATI Driver 8.42-070907a-053101E-ATI

Cmq grazie della segnalazione :D

Athlon 64 3000+
15-11-2007, 11:15
per la recensione di hwupgrade sono stati utulizzati gli 8.43.1 che dovrebbero andare bene anche per la hd 2900xt solo che non li riesco a trovare.
Se qualcuno li trova posti il link da dove si possono scaricare.

Zodd_Il_nosferatu
15-11-2007, 13:02
per la recensione di hwupgrade sono stati utulizzati gli 8.43.1 che dovrebbero andare bene anche per la hd 2900xt solo che non li riesco a trovare.
Se qualcuno li trova posti il link da dove si possono scaricare.

addirittura su un sito tedesco hanno usato i catalyst 8.44 RC2...

meglio trovare quelli no? :asd:

Athlon 64 3000+
15-11-2007, 13:04
addirittura su un sito tedesco hanno usato i catalyst 8.44 RC2...

meglio trovare quelli no? :asd:

basta che ne trovi uno più recente degli 8.43.0 del 11 ottobre.
Sto cercando dappertutto ma non ho trovato niente per ora.
:muro:

Zodd_Il_nosferatu
15-11-2007, 13:07
basta che ne trovi uno più recente degli 8.43.0 del 11 ottobre.
Sto cercando dappertutto ma non ho trovato niente per ora.
:muro:

se trovi qualcosa fammi un fischio... sto cercando anche io

ma mi sa che come stanno le cose tocca aspettare stasera :D

Athlon 64 3000+
15-11-2007, 13:09
se trovi qualcosa fammi un fischio... sto cercando anche io

ma mi sa che come stanno le cose tocca aspettare stasera :D

se uscissero stasera i catalist 7.11 ufficiali sarebbe il massimo

Zodd_Il_nosferatu
15-11-2007, 13:12
se uscissero stasera i catalist 7.11 ufficiali sarebbe il massimo

è probabile... visto che spesso escono il giovedì nella metà del mese

Franc83
15-11-2007, 13:55
ragazzi ma si sa nulla dei 7.11??

mi sono davvero stancato di leggere che ogni giorno o quasi escono forceware mentre ati da l'impressione di dormire :(

spero si rendano conto dell'uscita di crysis e del fatto che la nostra scheda ha fame di drivers adeguati anche se devo dire che sono abbastanza contento con le impostazioni a cui gioco, non avendo mai fatto uso di AA in vita mia ...

Catan
15-11-2007, 14:05
allora nessun commento sulle hd3850 e hd3870?
rispetto alla nostra dh2900xt?

allora inizio io, oggettivamente sembra nulla + che un dieshrink a 55, hanno fatto molto per contenere i consumi ma la gpu sembra la stessa e quindi anche qui hanno deciso di mantenere le rop's senza il resolve di postprocessing.

prendiamo in considerazione la hd3870, sostanziale parità a 1280, dove evidentemente vengono poco sfruttati il bus a 512bit, a volte la 3870 fa qualcosa in + per via di quei 40mhz in + sul core.
ma gia a 1600 si vede un certo distacco dalla hd2900xt...
giudizio, ottime vga di fascia di 200E come lo fù la x1950pro per le x1900xt.
personalmente ero tentato da un passaggio alla hd3870, ma con ogni probabilità credo terrò la hd2900xt;)

Zodd_Il_nosferatu
15-11-2007, 14:08
allora nessun commento sulle hd3850 e hd3870?
rispetto alla nostra dh2900xt?

allora inizio io, oggettivamente sembra nulla + che un dieshrink a 55, hanno fatto molto per contenere i consumi ma la gpu sembra la stessa e quindi anche qui hanno deciso di mantenere le rop's senza il resolve di postprocessing.

prendiamo in considerazione la hd3870, sostanziale parità a 1280, dove evidentemente vengono poco sfruttati il bus a 512bit, a volte la 3870 fa qualcosa in + per via di quei 40mhz in + sul core.
ma gia a 1600 si vede un certo distacco dalla hd2900xt...
giudizio, ottime vga di fascia di 200E come lo fù la x1950pro per le x1900xt.
personalmente ero tentato da un passaggio alla hd3870, ma con ogni probabilità credo terrò la hd2900xt;)

la terrò anche io ;)

zorco
15-11-2007, 14:16
allora nessun commento sulle hd3850 e hd3870?
rispetto alla nostra dh2900xt?

allora inizio io, oggettivamente sembra nulla + che un dieshrink a 55, hanno fatto molto per contenere i consumi ma la gpu sembra la stessa e quindi anche qui hanno deciso di mantenere le rop's senza il resolve di postprocessing.

prendiamo in considerazione la hd3870, sostanziale parità a 1280, dove evidentemente vengono poco sfruttati il bus a 512bit, a volte la 3870 fa qualcosa in + per via di quei 40mhz in + sul core.
ma gia a 1600 si vede un certo distacco dalla hd2900xt...
giudizio, ottime vga di fascia di 200E come lo fù la x1950pro per le x1900xt.
personalmente ero tentato da un passaggio alla hd3870, ma con ogni probabilità credo terrò la hd2900xt;)

questo il mio commento spicciolo:

sostanzialmente le schede sono alla pari per tanto il passaggio a questa 3870 sembra essere inutile...

safendi
15-11-2007, 14:29
allora nessun commento sulle hd3850 e hd3870?
rispetto alla nostra dh2900xt?

allora inizio io, oggettivamente sembra nulla + che un dieshrink a 55, hanno fatto molto per contenere i consumi ma la gpu sembra la stessa e quindi anche qui hanno deciso di mantenere le rop's senza il resolve di postprocessing.

prendiamo in considerazione la hd3870, sostanziale parità a 1280, dove evidentemente vengono poco sfruttati il bus a 512bit, a volte la 3870 fa qualcosa in + per via di quei 40mhz in + sul core.
ma gia a 1600 si vede un certo distacco dalla hd2900xt...
giudizio, ottime vga di fascia di 200E come lo fù la x1950pro per le x1900xt.
personalmente ero tentato da un passaggio alla hd3870, ma con ogni probabilità credo terrò la hd2900xt;)


MOLTo meglio 8800 gt

Catan
15-11-2007, 14:33
l'unica cosa che mi indubbia è le temperature della 3870..97gradi con il dual slot?
per un chip a 55nm boh...il rumore scende solo di 5db rispetto al dissi della hd2900xt, il dissipatore dual slot mi sembra di pregevole fattura...
per un aumento di 40mhz sul core un aumento di 15gradi è un pò troppo, contanto che molti di noi con il core sopra gli 800mhz stanno a meno di 80 gradi

webbuffa
15-11-2007, 14:40
MOLTo meglio 8800 gt

k

bluefrog
15-11-2007, 15:57
l'unica cosa che mi indubbia è le temperature della 3870..97gradi con il dual slot?
per un chip a 55nm boh...il rumore scende solo di 5db rispetto al dissi della hd2900xt, il dissipatore dual slot mi sembra di pregevole fattura...
per un aumento di 40mhz sul core un aumento di 15gradi è un pò troppo, contanto che molti di noi con il core sopra gli 800mhz stanno a meno di 80 gradi

Il dissipatore della hd 2900 xt è molto più efficiente di quello della 3870. Anzi, è uno dei migliori (se non il migliore) dissi mai progettato per una scheda video. Poi vabbè, la rumorosità è quella ma mentre si gioca a buon volume non ci si fa neanche caso...;)

The_max_80
15-11-2007, 16:25
ragazzi ma si sa nulla dei 7.11??

mi sono davvero stancato di leggere che ogni giorno o quasi escono forceware mentre ati da l'impressione di dormire :(

spero si rendano conto dell'uscita di crysis e del fatto che la nostra scheda ha fame di drivers adeguati anche se devo dire che sono abbastanza contento con le impostazioni a cui gioco, non avendo mai fatto uso di AA in vita mia ...

ne esce 1 al mese, devi aspettare 1 mese da quelli precedenti

Franc83
15-11-2007, 16:38
quindi se i 7.10 sono usciti 11 Oct. 2007, i 7.11 dovrebbero essere sfornati 11 Nov. 2007, cioé 4 giorni fa

Catan
15-11-2007, 16:42
quindi se i 7.10 sono usciti 11 Oct. 2007, i 7.11 dovrebbero essere sfornati 11 Nov. 2007, cioé 4 giorni fa

non è sempre detto , la cadenza è mensile e non ogni 30 giorni, la differenza sta che i dvr devono uscire entro il mese e non a 30gg dalla data degli altri.
solitamente la data di uscita dei catalist è sempre compresa tra il 10 e il 20 di ogni mese.
solitamente escono per il 15 di ogni mese ma a volte capita che escano l'11 come il mese scorso oppure il 20 come è successo qualche mese.

Catan
15-11-2007, 16:43
MOLTo meglio 8800 gt

ho parlato di 8800gt nel mio post a cui è riferito il tuo quote?

Catan
15-11-2007, 16:45
Il dissipatore della hd 2900 xt è molto più efficiente di quello della 3870. Anzi, è uno dei migliori (se non il migliore) dissi mai progettato per una scheda video. Poi vabbè, la rumorosità è quella ma mentre si gioca a buon volume non ci si fa neanche caso...;)

guarda dopo aver provato anche la 8800gts credo che il migliore dissi stock mai visto è propio quello delle 8800gts o gtx, poco rumore ed alta efficenza, il dissi delle 2900xt sicuramente è molto buono ma oggettivamente è anche + rumoroso, difatti se fossi stata nvidia pur di rincarare di 10E il prezzo della 8800gt avrei usato sempre quello.

Franc83
15-11-2007, 16:56
okay! vi ringrazio per le delucidazioni ;)