PDA

View Full Version : ATi 4870 vs GTX 260


Demx
19-07-2008, 19:39
Ciao a tutti... Visto l'abbassamento del prezzo delle schede Nvidia sono adesso indeciso tra Ati 4870 e Nvidia GTX 260. Potrei avere un vostro consiglio su quale delle due è migliori?

Suhadi_Sadono
19-07-2008, 19:41
Ciao a tutti... Visto l'abbassamento del prezzo delle schede Nvidia sono adesso indeciso tra Ati 4870 e Nvidia GTX 260. Potrei avere un vostro consiglio su quale delle due è migliori?
Sono pressoché identiche come prestazioni. La GTX consuma e scalda un po' meno e ha il supporto physics. E se giochi ad alte risoluzioni quei 384mb in più di ram fanno sempre comodo con i futuri giochi. ;)

laico79
19-07-2008, 19:48
Ciao a tutti... Visto l'abbassamento del prezzo delle schede Nvidia sono adesso indeciso tra Ati 4870 e Nvidia GTX 260. Potrei avere un vostro consiglio su quale delle due è migliori?
Hd 4870 secondo me ha il potenziale maggiore nel futuro, senza contare che come si sta abbassando la 260gtx anche ati abbassera per cui resterà un gap economico fra le due (vedi 9800gtx, dovrebbe costare teoricamente lo stesso rispetto alla 4850 ma nella realtà costa 40 euro in più).

Dev42
19-07-2008, 20:11
Aspetta fine agosto per comprare e vedrai che i prezzi si abbassano ancora....

michelgaetano
19-07-2008, 20:13
La HD4870 continua a vantare il supporto alle dirx 10.1 (diablo III, STarcraft II tra i titoli pesanti in arrivo), e dalle recensioni va in media sul 5 % in più.

Continuando a costare meno.

A vantaggio della gtx 260 ci son le temperature (che nella HD4870 migliorano regolando la ventola) ma non i consumi: le recensioni finora avute sono state fatte senza veri drivers ufficiali, e manca quindi il Power Play. La HD4870 in full consuma leggermente meno.

Kharonte85
19-07-2008, 20:41
Ciao a tutti... Visto l'abbassamento del prezzo delle schede Nvidia sono adesso indeciso tra Ati 4870 e Nvidia GTX 260. Potrei avere un vostro consiglio su quale delle due è migliori?
Le schede piu' o meno si equivalgono, a seconda dei giochi prevale l'una o l'altra...

GTX 260:

- consumi inferiori in Idle
- temperature di funzionamento minori
- supporto Physics (non sfruttabile a breve, e forse mai)
- elevati margini di OC


HD 4870:

- mediamente meno costosa
- supporto dx10.1 (non sfruttabile a breve, e forse mai)
- minore ingombro (23cm)

Kharonte85
19-07-2008, 20:44
La HD4870 continua a vantare il supporto alle dirx 10.1 (diablo III, STarcraft II tra i titoli pesanti in arrivo)
Diablo 3 da quello che si sa ora è Dx9, mentre starcraft si vociferava di dx10 ma non è certo (team has not yet decided whether to add exclusive DirectX 10 graphic effects).

Gabriyzf
19-07-2008, 20:50
entrambe ottime, va abbastanza "a gusti" :D

michelgaetano
19-07-2008, 21:58
Diablo 3 da quello che si sa ora è Dx9, mentre starcraft si vociferava di dx10 ma non è certo (team has not yet decided whether to add exclusive DirectX 10 graphic effects).

SOno confermati dirx 10.1, informati.

Le schede piu' o meno si equivalgono, a seconda dei giochi prevale l'una o l'altra...

GTX 260:

- consumi inferiori in Idle
- temperature di funzionamento minori
- supporto Physics (non sfruttabile a breve, e forse mai)
- elevati margini di OC


HD 4870:

- mediamente meno costosa
- supporto dx10.1 (non sfruttabile a breve, e forse mai)
- minore ingombro (23cm)

Indubbiamente la 260 si overclocka, ma chi dice che la 4870 non lo fa?

Nel topic ufficiale ho già visto un esemplare a 890 (750 di partenza) di core.

althasius
19-07-2008, 22:36
io dico 4870 (per questioni di simpatia), ma costa ancora troppo rispetto alle 4850 andando al max un 25/30 % in più.
Imho, oggi come oggi, la scelta più azzeccata è un cf di 4850.
Con 260 € si hanno prestazioni ben superiori alle 4870 e 260 singola.

;)

Kharonte85
19-07-2008, 23:40
SOno confermati dirx 10.1, informati.
Link?

Indubbiamente la 260 si overclocka, ma chi dice che la 4870 non lo fa?

Nel topic ufficiale ho già visto un esemplare a 890 (750 di partenza) di core.
certamente che si occano entrambe (mi riferisco a OC senza cambiare i voltaggi), eppure i margini di gtx 260 sono superiori (in %, perche' le frequenze complessive sono <), ovviamente, essendo la versione meno tirata della gtx 280...mentre la hd4870 è gia' la versione "tirata" della hd4850

michelgaetano
19-07-2008, 23:47
http://www.theinquirer.net/gb/inquirer/news/2008/06/30/blizzard-snubs-nvidia-diablo

750 -> 900 è un 20 % di OC.

Alla faccia che si overclocka poco in % ed è già tirata.

Vi divertite a sminuire Ati o cosa?

-Feanor-
19-07-2008, 23:52
Link?


http://www.nordichardware.com/news,7904.html

http://www.theinquirer.net/gb/inquirer/news/2008/06/30/blizzard-snubs-nvidia-diablo

http://www.planetdiablo.com/features/articles/d3-04012008/

;)

Kharonte85
20-07-2008, 08:01
http://www.theinquirer.net/gb/inquirer/news/2008/06/30/blizzard-snubs-nvidia-diablo

750 -> 900 è un 20 % di OC.

Alla faccia che si overclocka poco in % ed è già tirata.

Vi divertite a sminuire Ati o cosa?
Nessuno sminuisce nessuno, il fatto che un esemplare di hd4870 abbia raggiunto quelle frequenze non significa nulla, come ti ho gia' spiegato ci sono dei motivi validi per cui i margini di OC [non solo, anche gli incrementi prestazionali sono piu' evidenti] di gtx 260 sono > e se prendi tutte le recensioni ufficiali del web che hanno valutato questo aspetto te ne rendi conto.

Poi se non interessa l'OC pazienza, ma per chi è interessato, visto che le schede sono pressoche' equivalenti potrebbe essere un elemento in piu' per poter decidere...
http://www.nordichardware.com/news,7904.html

http://www.theinquirer.net/gb/inquirer/news/2008/06/30/blizzard-snubs-nvidia-diablo

http://www.planetdiablo.com/features/articles/d3-04012008/

;)
THX, ma la cosa non pare affatto sicura al 100%...quelle di nordichardware sono speculazioni che sostengono che blizzard vista la partnership con AMD potrebbe inserire qualche effetto dx10.1 per farle un piacere...the inquirer fa riferimento alle Faq (le quali pero' non fanno menzione delle dx10 ne' dx10.1) mentre l'ultima è una notizia vecchia...comunque vedremo...le dx10.1 sono features al pari del Physics per nvidia, gireranno solo su giochi particolari, ma saranno superflue...ecco perche' è bene valutare ben altro per capire quale scheda prendere. ;)

michelgaetano
20-07-2008, 08:29
Nessuno sminuisce nessuno, il fatto che un esemplare di hd4870 abbia raggiunto quelle frequenze non significa nulla, come ti ho gia' spiegato ci sono dei motivi validi per cui i margini di OC [non solo, anche gli incrementi prestazionali sono piu' evidenti] di gtx 260 sono > e se prendi tutte le recensioni ufficiali del web che hanno valutato questo aspetto te ne rendi conto.

Poi se non interessa l'OC pazienza, ma per chi è interessato, visto che le schede sono pressoche' equivalenti potrebbe essere un elemento in piu' per poter decidere...

Non capisco, una 4870 arriva lì e non conta? E chi mi dice che tutte le 260 facciano quell overclock (come per la 4870, sicuramente) - quale peraltro?

Linkami queste recensioni, e che non siano 2 o 3 per favore.

Per Diablo III è sicura 100 %. Tra i titoli precedenti c'è anche AC.

Kharonte85
20-07-2008, 09:07
Non capisco, una 4870 arriva lì e non conta? E chi mi dice che tutte le 260 facciano quell overclock (come per la 4870, sicuramente)?
Non capisco perche' ti incaponisci tanto :boh:, è logico che la gtx 260 essendo il modello meno spinto del gt200 abbia piu' margini di OC...

L'unica cosa che si overclocca tanto nella hd4870 sono le memorie, che pero' non portano ad incrementi prestazionali (da 3600 @ 4400), in quanto la scheda non è limitata dalla bandwith

http://www.hardspell.com/pic/article/2008/7/8/7edc8516-451d-45dd-90c0-526db44e6c5e.gif

http://www.hardspell.com/pic/article/2008/7/8/85a04262-26a8-45bc-8052-520e0cfe5234.gif

http://www.hardspell.com/pic/article/2008/7/8/ec979353-7d61-41ef-80ac-839d3a072de9.gif

http://www.hardspell.com/pic/article/2008/7/8/11ed57af-a06a-4b62-b5a5-84bc68e68b21.gif

http://www.hardspell.com/pic/article/2008/7/8/9d345fe8-cb3a-4455-a07d-c0d21968872f.gif


Linkami queste recensioni, e che non siano 2 o 3 per favore.

stesso sito:

HD 4870@ 790/4400

http://www.guru3d.com/article/radeon-hd-4870-review--asus/14

GTX 260@ 653/1408/1289

http://www.guru3d.com/article/geforce-gtx-260-review/14

Nota come le performance si avvicinano alla gtx 280 (merito della frequenza degli SP)

Anche la review della zotac AMP presente su questo sito è indicativa:

http://www.hwupgrade.it/articoli/skvideo/2005/media_giochi_1680.png

http://www.hwupgrade.it/articoli/skvideo/2005/media_giochi_1920.png

In piu' i partner piu' perfidi presentano guardacaso versioni spinte in modo simile, a dimostrazione del fatto che la scheda ben tollera quelle frequenze, mentre per la hd4870 al momento ho visto solo un timido 780/4000 di MSI

le altre cercatele, ho anche una vita :fagiano:

Kharonte85
20-07-2008, 09:12
Per Diablo III è sicura 100 %. Tra i titoli precedenti c'è anche AC.

leggi qua:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8245&Itemid=34

http://www.theinquirer.net/gb/inquirer/news/2008/07/01/diablo-far-done-deal

in tal caso è vero, ma avremo già in mano schede dx11...

in AC il supporto alle dx10.1 è stato disabilitato a causa delle pressioni di nvidia.

michelgaetano
20-07-2008, 09:30
Non mi hai dimostrato niente però.

Nella rece di HWU la 4870 è @ default

Guru 3d da un OC di 790/1100 che è quello schifo permesse dal CCC, e che viene già sorpassato tramite software alternativo.

È come se la 260 la overclockassi a 620 di core, non potendo andare oltre causa software: a che serve?

Sulle dirx 11: abbiamo le 10 da 3 anni e oltre e non le usiamo. Sarò felice di utilizzare le 10.1, dal momento che saranno implementate.

Non mi "incaponisco", semplicemente troppi vanno inventando che la gtx 260 si overclocka e la 4870 no, e ovviamente la cosa non sta bene in quanto disinformazione (vedi il 790/1100 limitato da software).

Kharonte85
20-07-2008, 09:54
Non mi hai dimostrato niente però.

Nella rece di HWU la 4870 è @ default

Guru 3d da un OC di 790/1100 che è quello schifo permesse dal CCC, e che viene già sorpassato tramite software alternativo.

È come se la 260 la overclockassi a 620 di core, non potendo andare oltre causa software: a che serve?

Non mi "incaponisco", semplicemente troppi vanno inventando che la gtx 260 si overclocka e la 4870 no, e ovviamente la cosa non sta bene in quanto disinformazione (vedi il 790/1100 limitato da software).
le versioni oc della hd4870 dei partner latitano e questo è parecchio indicativo, la gtx 260 ovviamente ha maggiori margini di OC [anzi, sarebbe piu' corretto dire che ha maggiori margini di miglioramento] ,tu pensa quello che ti pare ma questo è un dato inconfutabile e sarebbe impossibile l'inverso, per il resto lasciamo decidere a chi di dovere...io le mie considerazioni documentate le ho fatte.

le dx10.1 rimarranno una features superflua fino a che anche nvidia non le implementera' (e probabilmente non lo farà, passando direttamente a dx11)

michelgaetano
20-07-2008, 10:00
le versioni oc della hd4870 dei partner latitano e questo è parecchio indicativo, la gtx 260 ovviamente ha maggiori margini di OC [anzi, sarebbe piu' corretto dire che ha maggiori margini di miglioramento] ,tu pensa quello che ti pare ma questo è un dato inconfutabile e sarebbe impossibile l'inverso, per il resto lasciamo decidere a chi di dovere...io le mie considerazioni documentate le ho fatte.


C'è ben poco di inconfutabile, bastano le prove degli utenti che vanno ben oltre quelle misere frequenze.

Ti sei piuttosto chiesto perchè il limite del CCC (quindi scelto da Ati) sia a 790/1100? Penso dovresti rispondere a questo, prima di giudicare un tuo pensiero come inconfutabile. (Ti do un hint, non è perchè non vanno oltre ma perchè dovrebbe esserci altro in uscita)

(Ah, fino a prova contraria le verisoni OC delle schede sono solo un modo per spillare soldi ai poveracci che non hanno voglia di perdere mezz'ora per leggersi una guida e mezza giornata per fare test)

Sicuramente deciderà chi di dovere, 3 bench a caso non provano nulla.

Salut.

Kharonte85
20-07-2008, 10:15
C'è ben poco di inconfutabile, bastano le prove degli utenti che vanno ben oltre quelle misere frequenze.

Ti sei piuttosto chiesto perchè il limite del CCC (quindi scelto da Ati) sia a 790/1100? Penso dovresti rispondere a questo, prima di giudicare un tuo pensiero come inconfutabile. (Ti do un hint, non è perchè non vanno oltre ma perchè dovrebbe esserci altro in uscita)
Intanto ti ho postato dei grafici di una scheda a 850/4400 che mostra quanto poco margine di miglioramento si ottenga, per forza...la bandwith è in sovrabbondanza e il core è aumentato del 13% (inutile, poiche' gli SP sono anch'essi in sovrabbondanza), mentre nella gtx 260 è chiaramente la frequenza degli SP a fare la differenza

probabilmente hanno i loro motivi, essendo la hd4870 una versione abbastanza spinta non vogliono rischiare di fare danneggiare la scheda a utenti maldestri...a parte la x2 non c'è nessuna altra previsione di uscita.


(Ah, fino a prova contraria le verisoni OC delle schede sono solo un modo per spillare soldi ai poveracci che non hanno voglia di perdere mezz'ora per leggersi una guida e mezza giornata per fare test)

Sicuramente deciderà chi di dovere, 3 bench a caso non provano nulla.

Salut.
Certo, ma sono anche il modo migliore per capire quanto mediamente una scheda puo' essere overcloccabile, perche' i partner non vogliono perdere troppo tempo nel selezionare chip...questo non significa che una gtx 260 fortunata non possa ottenere risultati migliori ;)

A parte qualche raro caso, è da sempre cosi'...a parita' di chip grafico quello meno spinto ha un maggiore margine di miglioramento, questo accade nel confronto HD4850 Vs 4870 (fatta eccezione per le memorie di tipo diverso) e nel confroto gtx 260 Vs gtx 280...e ovviamente nel confronto incrociato la gtx 260 ha maggiori margini rispetto alla hd4870.

Gabriyzf
20-07-2008, 10:17
io sono d'accordo comunque sul fatto che le dx10.1 per ati sono quello che per nvidia è physix ;)

DarKilleR
20-07-2008, 11:15
io consiglio HD4870

Va un pelo di più e costa un po' meno, dalle recenzioni in media è un 5/6% della GTX260...addirittura Toms ha fatto un recensione intitolata "HD 4870 quando è meglio della GTX260" o qualcosa del genere..
Per il discorso prestazioni/consumi non mi aspetto driver miracolosi, ma per ora non ci sono ancora driver ufficiali.

yossarian
20-07-2008, 11:44
le versioni oc della hd4870 dei partner latitano e questo è parecchio indicativo, la gtx 260 ovviamente ha maggiori margini di OC [anzi, sarebbe piu' corretto dire che ha maggiori margini di miglioramento] ,tu pensa quello che ti pare ma questo è un dato inconfutabile e sarebbe impossibile l'inverso, per il resto lasciamo decidere a chi di dovere...io le mie considerazioni documentate le ho fatte.

le dx10.1 rimarranno una features superflua fino a che anche nvidia non le implementera' (e probabilmente non lo farà, passando direttamente a dx11)

basta implementare una feature dx10.1, ovvero l'utilizzo di MRT per il MSAA (esattamente quello che faceva la patch 1.01 di AC): così facendo, a livello prestazionale non cambia nulla per i chip NV e quelli ATi guadagnano almeno un 20-25% in single e oltre il 40% in dual gpu (con AC, a 1680x1050 con MSAA 4x e patch 1.01, una 4850 non oc sta davanti ad una 280GTX :D ).

Con le dx11 è previsto il MRT per rbe e shader core; questo garantirà, comunque, incrementi di prestazioni con MSAA box filter e con AA di tipo custom con resolve via shader, rispetto alle dx9 o alle dx10 per tutte le vga con chip compatibili con queste feature (ovvero quelli dx10.1).
Quindi, che nVidia voglia o no, prima o poi i limiti dei suoi chip verranno fuori

Kharonte85
20-07-2008, 11:54
basta implementare una feature dx10.1, ovvero l'utilizzo di MRT per il MSAA (esattamente quello che faceva la patch 1.01 di AC): così facendo, a livello prestazionale non cambia nulla per i chip NV e quelli ATi guadagnano almeno un 20-25% in single e oltre il 40% in dual gpu (con AC, a 1680x1050 con MSAA 4x e patch 1.01, una 4850 non oc sta davanti ad una 280GTX :D )
Gia' di suo pero' AC va meglio su AMD/ATI...bisognerebbe vedere anche gli altri giochi...MA non lo faranno per nessun gioco...finche nvidia avra' una partnership cosi' forte.

Kharonte85
20-07-2008, 11:58
Con le dx11 è previsto il MRT per rbe e shader core; questo garantirà, comunque, incrementi di prestazioni con MSAA box filter e con AA di tipo custom con resolve via shader, rispetto alle dx9 o alle dx10 per tutte le vga con chip compatibili con queste feature (ovvero quelli dx10.1).
Quindi, che nVidia voglia o no, prima o poi i limiti dei suoi chip verranno fuori
Da sempre nvidia punta alle prestazioni nell'immediato mentre ATI guarda al futuro (inciampando a volte sui sassolini del selciato di casa)...prima di vedere i limiti di queste architetture credo pero' che bisognera' lasciarsi alle spalle completamente le dx9 nella programmazione dei giochi, la strada quindi è ancora lunga...poi chi lo sa, magari il supporto alla fisica di nvidia avra' successo...

Con le dx11 chi lo sa che cosa cambiera'...

http://www.hwupgrade.it/forum/showthread.php?t=1786224

yossarian
20-07-2008, 12:06
Gia' di suo pero' AC va meglio su AMD/ATI...bisognerebbe vedere anche gli altri giochi...MA non lo faranno per nessun gioco...finche nvidia avra' una partnership cosi' forte.

nVidia ha una partnership forte con alcune SWH, non con tutte; basta che sia implementata su un singolo gioco con cui, con HW dx10.1, si può avere MSAA 4x quasi fopr free e 8x con un leggero calo di prestazioni, per spingere anche gli altri a fare lo stesso.
Il fatto che AC vada un po' meglio con ATi non significa nulla. Il vantaggio dell'uso di MRT permette di fare un passaggio di rendering in meno e di utilizzare meglio la banda passante. Questo significa che con i chip ATi, adesso si ha uno spreco di banda che, in futuro, (dx10.1 o dx11) risulterà ottimizzato, permettendo, in ogni caso, performance più elevate. Questi due fattori rendono quella percentuale (20-25% in più) indipendente dal gioco o dal motore grafico dello stesso.
Aggiungo anche qualcosaltro: l'implementazione della fisica su gpu è possibile anche con chip ATi (e non è detto che lo standard diventerà Ageia, visto che EA e Blizzard, ad esempio, hanno affermato che faranno riferimento alle librerie havok); il ricorso a forme di AA di tipo custom con resolve via shader. Allo stato attuale, in media, di 5 alu presenti su uno sp dei chip R600, RV670, RV770, ne vengono impiegati circa 3,5; il ricorso alla fisica e all'AA custom permetterà di avere più istruzioni indipendenti per thread e di aumentare il numero di alu impiegate, rispetto a quanto fatto finora. La stessa cosa non è possibile con i chip NV il cui punto debole, all'aumentare della complessità dell'elaborazione, diventa proprio la loro attuale elevata efficienza. Questo significa che con gpu ATi si avranno incrementi là dove con NV si rimarrà a questo livello di prestazioni, oppure si avranno prestazioni allineate con le attuali dove G80 e derivati avranno cali di prestazioni e, anche dove per entrambi le prestazioni diminuiranno, il calo sarà più evidente con i chip NV

yossarian
20-07-2008, 12:10
Da sempre nvidia punta alle prestazioni nell'immediato mentre ATI guarda al futuro (inciampando a volte sui sassolini del selciato di casa)...prima di vedere i limiti di queste architetture credo pero' che bisognera' lasciarsi alle spalle completamente le dx9 nella programmazione dei giochi, la strada quindi è ancora lunga...poi chi lo sa, magari il supporto alla fisica di nvidia avra' successo...

Con le dx11 chi lo sa che cosa cambiera'...

http://www.hwupgrade.it/forum/showthread.php?t=1786224

la notizia riportata su nvidiazone è vera, quella che è discutibile è l'interpretazione: il fatto che le operazioni di tessellation siano differenti per dx10.1 e per dx11 non implica affatto che l'unità di tessellation di R600 e derivati non sia compatibile con le dx11. Un conto è la notizia, un altro le speculazioni finali :D

Kharonte85
20-07-2008, 12:12
nVidia ha una partnership forte con alcune SWH, non con tutte; basta che sia implementata su un singolo gioco con cui, con HW dx10.1, si può avere MSAA 4x quasi fopr free e 8x con un leggero calo di prestazioni, per spingere anche gli altri a fare lo stesso.
Il fatto che AC vada un po' meglio con ATi non significa nulla. Il vantaggio dell'uso di MRT permette di fare un passaggio di rendering in meno e di utilizzare meglio la banda passante. Questo significa che con i chip ATi, adesso si ha uno spreco di banda che, in futuro, (dx10.1 o dx11) risulterà ottimizzato, permettendo, in ogni caso, performance più elevate. Questi due fattori rendono quella percentuale (20-25% in più) indipendente dal gioco o dal motore grafico dello stesso.
Aggiungo anche qualcosaltro: l'implementazione della fisica su gpu è possibile anche con chip ATi (e non è detto che lo standard diventerà Ageia, visto che EA e Blizzard, ad esempio, hanno affermato che faranno riferimento alle librerie Avoc); il ricorso a forme di AA di tipo custom con resolve via shader. Allo stato attuale, in media, di 5 alu presenti su uno sp dei chip R600, RV670, RV770, ne vengono impiegati circa 3,5; il ricorso alla fisica e all'AA custom permetterà di avere più istruzioni indipendenti per thread e di aumentare il numero di alu impiegate, rispetto a quanto fatto finora. La stessa cosa non è possibile con i chip NV il cui punto debole, all'aumentare della complessità dell'elaborazione, diventa proprio la loro attuale elevata efficienza. Questo significa che con gpu ATi si avranno incrementi là dove con NV si rimarrà a questo livello di prestazioni, oppure si avranno prestazioni allineate con le attuali dove G80 e derivati avranno cali di prestazioni e, anche dove per entrambi le prestazioni diminuiranno, il calo sarà più evidente con i chip NV
Ok, questo è la teoria (e probabilmente con le dx11 anche nvidia rivoluzionera' la sua architettura), nella pratica pero' non ho ancora visto in commercio un solo gioco DX10.1 (a dire il vero nemmeno dx10 ma questo vabbe' :stordita: ) quindi meglio rimandare il tutto a quando sara', sempre se sara' (stesso discorso vale per la fisica)...
la notizia riportata su nvidiazone è vera, quella che è discutibile è l'interpretazione: il fatto che le operazioni di tessellation siano differenti per dx10.1 e per dx11 non implica affatto che l'unità di tessellation di R600 e derivati non sia compatibile con le dx11. Un conto è la notizia, un altro le speculazioni finali :D
Vedremo di vederci piu' chiaro in futuro...al momento trovo abbastanza inutile fasciarsi la testa, tanto i giochi (anche quelli in vista[non intendo l'os eh :D]) sono ancora tutti profondamente dx9...

michelgaetano
20-07-2008, 12:16
AC lo era (lo è senza patchare).

Nvidia ci ha davvero perso la faccia con quell'operazione.

Dev42
20-07-2008, 12:20
AC lo era (lo è senza patchare).

Nvidia ci ha davvero perso la faccia con quell'operazione.

Quoto...:muro:

Kharonte85
20-07-2008, 12:23
AC lo era (lo è senza patchare).

Nvidia ci ha davvero perso la faccia con quell'operazione.
AMD avrebbe fatto uguale a parti invertite, sono aziende che hanno come scopo l'utile...AC probabilmente è stato anche finanziato da nvidia e come tale non "doveva permettersi" di dare un vantaggio alla concorrenza, lo avrei fatto anche io, quindi è inutile biasimarla.

yossarian
20-07-2008, 12:26
Ok, questo è la teoria (e probabilmente con le dx11 anche nvidia rivoluzionera' la sua architettura), nella pratica pero' non ho ancora visto in commercio un solo gioco DX10.1 (a dire il vero nemmeno dx10 ma questo vabbe' :stordita: ) quindi meglio rimandare il tutto a quando sara', sempre se sara' (stesso discorso vale per la fisica)...


ci sono feature dx10.1 (e dx11) che l'architettura NV non supporta affatto; altre, come il MRT o l'AA di tipo custom, possono essere utilizzate e funzionano anche su HW nVidia, anche se a velocità ridotta. Poichè l'implementazione più logica del MSAA box filter è quella che fa uso di più render target (ed è anche la più semplice da adottare a livello di programmazione), è lecito pensare che, nel momento in cui inizieranno ad uscire titoli dx10 nativi, tranne che nei casi di SWH fortemente legate a nVidia, quella sarà l'implementazione più comune. Discorso analogo per l'AA custom: chiunque voglia ricorrere ad algoritmi di AA di ordine superiore al primo, per ottenere maggior qualità, dovrà ricorrere alle operazioni di resolve via shader, poichè le rbe possono fare solo interpolazione lineare



Vedremo di vederci piu' chiaro in futuro...al momento trovo abbastanza inutile fasciarsi la testa, tanto i giochi (anche quelli in vista[non intendo l'os eh :D]) sono ancora tutti profondamente dx9...

non si tratta di fasciarsi la testa o meno; ripeto: un conto è dare delle notizie, un altro è commentarle. La notizia va presa per quella che è, il commento è del tutto superfluo (a meno che non si tratti di persone informate sui fatti) o, addirittura, fuorviante.
Resta il fatto che, allo stato attuale, i chip ATi hanno una "riserva di potenza" che i chip NV, proprio in virtù della loro elevata efficienza, non hanno. Altro fatto è che ATi è sempre stata avanti nelle operazioni di tessellation e displacement mapping (la prima forma rudimentale fu implementata addirittura con R100). Devo anche sottolineare che le specifiche DX11 sono note da tempo, sia ad ATi che a nVidia

yossarian
20-07-2008, 12:27
AMD avrebbe fatto uguale a parti invertite, sono aziende che hanno come scopo l'utile...AC probabilmente è stato anche finanziato da nvidia e come tale non "doveva permettersi" di dare un vantaggio alla concorrenza, lo avrei fatto anche io, quindi è inutile biasimarla.

mi citi un caso in cui ATi o AMD abbia fatto un'operazione del genere? Oppure dobbiamo necessariamente fare i processi alle intenzioni pur di giustifiìcare a tutti i costi un comportamento palesemente scorretto?
Comunque i risultati sono sotto gli occhi di tutti e tutti hanno tratto le loro conclusioni sia in relazione al comportamento di nVidia che in relazione alle prestazioni potenziali (anche in ottica futura) dei chip.
Quindi, ormai il danno è fatto

Demx
20-07-2008, 12:34
Comunque tornando alle prestazioni reali delle due GPU (che sono quelle che interessano alla maggior parte delle persone) secondo me ha torto chi dive che è meglio la 4870. In termini di bandwith la GTX è leggermente inferiore ma ha sicuramente grandi potenziali di overclock delle memorie per superare la rivale. Anche i stream processors hanno una bassa frequenza (come la 8800GTS 640MB) e quindi sicuramente possono essere elevati a valori superiori considerando che utilizza un nuovo processo produttivo. Inoltre la GTX è superiore al 4870 in Crysis http://movies.custompc.co.uk/cpc/images/260perf.gif In questo sito inglese hanno confrontato le due schede con vari giochi e la GTX è uscita vincitore

Sgt.Pepper89
20-07-2008, 12:49
Comunque tornando alle prestazioni reali delle due GPU (che sono quelle che interessano alla maggior parte delle persone) secondo me ha torto chi dive che è meglio la 4870. In termini di bandwith la GTX è leggermente inferiore ma ha sicuramente grandi potenziali di overclock delle memorie per superare la rivale. Anche i stream processors hanno una bassa frequenza (come la 8800GTS 640MB) e quindi sicuramente possono essere elevati a valori superiori considerando che utilizza un nuovo processo produttivo. Inoltre la GTX è superiore al 4870 in Crysis http://movies.custompc.co.uk/cpc/images/260perf.gif In questo sito inglese hanno confrontato le due schede con vari giochi e la GTX è uscita vincitore

Intanto non è uscita vincitrice, va meglio in due test (in crysis fa 1 FPS in più) mentre la 4870 va meglio negli altri due, si chiama pareggio dalle mie parti.
Qualcuno si dimentica che ci sono 50 euro di differenza di prezzo :fagiano:
Compri una scheda nata vecchia che va uguale ad un'altra che costa 50 euro in meno, perchè forse si overclocca del 5 percento in più?? Se avete i 50 euro che vi escono dalle tasche regalateli a me, non a Nvidia :D

yossarian
20-07-2008, 12:49
Comunque tornando alle prestazioni reali delle due GPU (che sono quelle che interessano alla maggior parte delle persone) secondo me ha torto chi dive che è meglio la 4870. In termini di bandwith la GTX è leggermente inferiore ma ha sicuramente grandi potenziali di overclock delle memorie per superare la rivale.

se parli delle gddr5 per la 4870, le ram si overclockano di più delle gddr3 della GTX.

Anche i stream processors hanno una bassa frequenza (come la 8800GTS 640MB) e quindi sicuramente possono essere elevati a valori superiori considerando che utilizza un nuovo processo produttivo.

la 260 è un prodotto di scarto del pp della 280; questo significa che non solo ha un cluster di unità che non funziona, ma che anche le frequenze raggiungibili garantite sono inferiori. Inoltre non tutti i chip hanno gli stessi margini di overclock. In quanto al processo produttivo, quale sarebbe questo nuovo processo con cui è stata realizzata la 260gtx?

Inoltre la GTX è superiore al 4870 in Crysis http://movies.custompc.co.uk/cpc/images/260perf.gif In questo sito inglese hanno confrontato le due schede con vari giochi e la GTX è uscita vincitore

Crysis in very high è molto male ottimizzatoi; nel link che hai postato c'è il confronto in 4 game (scelti, per altro, in modo discutibile) e la 4870 è davanti nel maggior numero di test

Fire Hurricane
20-07-2008, 12:52
La 4870 sta sopra alla GTX 260 del 5-6%, ma nvidia ha l'ottimizzazzione dei game e dei driver migliori. Infatti sul multi GPU ATI si è già fatta superare.


Cmq ti consiglio di aspettare perchè a settembre dovrebbero essere disponibili le nuove Nvidia da 55nm :O

Mister Tarpone
20-07-2008, 12:58
Qualcuno si dimentica che ci sono 50 euro di differenza di prezzo :fagiano:



c'è solamente 10€ di differenza :fagiano:

http://www.trovaprezzi.it/categoria.aspx?libera=gtx260&id=28&prezzoMin=&prezzoMax=&sbox=sb

ciao :fagiano:

Kharonte85
20-07-2008, 13:01
mi citi un caso in cui ATi o AMD abbia fatto un'operazione del genere? Oppure dobbiamo necessariamente fare i processi alle intenzioni pur di giustifiìcare a tutti i costi un comportamento palesemente scorretto?
Non giustifico nulla, comportamento scorretto per chi ha una scheda AMD/ATI e quindi pienamente condivisibile nell'ottica aziendale.

Non appena AMD avra' occasione fara' =, nessuno fa beneficenza.


Comunque i risultati sono sotto gli occhi di tutti e tutti hanno tratto le loro conclusioni sia in relazione al comportamento di nVidia che in relazione alle prestazioni potenziali (anche in ottica futura) dei chip.
Quindi, ormai il danno è fatto
Mah, io vorrei vedere bene la differenza su un terreno un po' piu' definito...e credo che non la vedremo se non su casi isolati, o quando la vedremo ci saranno altre priorita'.

Ad oggi avere le dx10.1 non serve a nulla, nemmeno domani, forse dopodomani...

Sgt.Pepper89
20-07-2008, 13:04
c'è solamente 10€ di differenza :fagiano:

http://www.trovaprezzi.it/categoria.aspx?libera=gtx260&id=28&prezzoMin=&prezzoMax=&sbox=sb

ciao :fagiano:

Già hai ragione non sono più 50 euro :stordita: mazza se sono scese in sti giorni :D comunque c'è sempre da vedere dove si vuole comprare, alcuni shop possono avere ancora schede con i prezzi più vecchi, già il secondo negozio su trovaprezzi ha un 233 euro mentre per la Ati sono 206.
La 4870 sta sopra alla GTX 260 del 5-6%, ma nvidia ha l'ottimizzazzione dei game e dei driver migliori. Infatti sul multi GPU ATI si è già fatta superare.


Cmq ti consiglio di aspettare perchè a settembre dovrebbero essere disponibili le nuove Nvidia da 55nm :O

Scusa, cosa significa la prima frase, il ma? Non è che le ottimizzazioni nei giochi non sono conteggiate nei test :fagiano: io direi più correttamente va 5-6% in più NONOSTANTE l'ottimizzazione dei game per Nvidia. Non capisco proprio cosa stai cercando di dire :confused: .
Sul multi gpu ATi sarà superata quanto vuoi (tutto da dimostrare eh :p ) ma chi lo ha tirato in ballo??

Suhadi_Sadono
20-07-2008, 13:10
Intanto non è uscita vincitrice, va meglio in due test (in crysis fa 1 FPS in più) mentre la 4870 va meglio negli altri due, si chiama pareggio dalle mie parti.
Qualcuno si dimentica che ci sono 50 euro di differenza di prezzo :fagiano:
Compri una scheda nata vecchia che va uguale ad un'altra che costa 50 euro in meno, perchè forse si overclocca del 5 percento in più?? Se avete i 50 euro che vi escono dalle tasche regalateli a me, non a Nvidia :D
50€ in meno?? :mbe: Forse qualche settimana fa. Adesso la differenza è di 20€. Nata vecchia?? :mbe:

Sgt.Pepper89
20-07-2008, 13:15
50€ in meno?? :mbe: Forse qualche settimana fa. Adesso la differenza è di 20€. Nata vecchia?? :mbe:

Nata vecchia, penso lo abbia spiegato bene in lungo e in largo yossarian, oltre che le varie recensioni online. Di sicuro non è nulla di innovativo rispetto al g80 8uscito 2 anni fa :read: ). Tant'è che è dx10 mentre la 4870 è già dx10.1.

yossarian
20-07-2008, 13:19
Non giustifico nulla, comportamento scorretto per chi ha una scheda AMD/ATI e quindi pienamente condivisibile nell'ottica aziendale.




scorretto e basta; l'utilizzo del MRT non toglie nulla a livello prestazionale alle vga con chip NV e fa guadagnare (e non poco) le vga con chip ATi. Inoltre è l'implementazione più logica e funzionale del MSAA box filter con motori grafici che facciano deferred rendering, nonchè la più semplice a livello di programmazione. L'inferiorità tecnologica non giustifica un comportamento del genere.



Non appena AMD avra' occasione fara' =, nessuno fa beneficenza.



finora non è mai successo. Non mi pare, ad esempio, che quando ID software e altre SWH hanno iniziato ad utilizzare istruzioni OpenGL (ai tempi di NV20), relative alle soft shadow, proprietarie di nVidia e che facevano uso di HW dedicato (shadow buffer), ATi o qualcun altro abbiano fatto storie (nonostante ciò determinasse un hit prestazionale non indifferente su tutto l'HW non dotato di shadow buffer). Questo e altri espedienti del genere hanno contribuito a creare il mito dei chip NV imbattibili in OpenGL. Nota bene, si parla di istruzioni proprietarie che solo a distanza di tempo sono state standardizzate, mentre nel caso di AC patch 1.01, parliamo di istruzioni standard.

Continui a fare processi alle intenzioni :D

Demx
20-07-2008, 13:21
Per Yossarian
Dico che ha vinto nei test perchè nei due giochi più esigenti del momento Crysis e ARMA la GTX ha ottenuto un livello giocabile (minimo di 26 a 1680*1050 in Crysis) ed è quasi giocabile ad ARMA a 1920*1200 dove la 4870 è nettamente lontano dalla giocabilità.
Intendevo un nuovo processo produttivo rispetto alla serie G80 (che aveva 90nm).

yossarian
20-07-2008, 13:30
Per Yossarian
Dico che ha vinto nei test perchè nei due giochi più esigenti del momento Crysis e ARMA la GTX ha ottenuto un livello giocabile (minimo di 26 a 1680*1050 in Crysis) ed è quasi giocabile ad ARMA a 1920*1200 dove la 4870 è nettamente lontano dalla giocabilità.
Intendevo un nuovo processo produttivo rispetto alla serie G80 (che aveva 90nm).

crysis è male ottimizato in modalità very high (detto da più di uno sviluppatore); questo è il motivo per cui risulta comunque ingiocabile con qualuque HW e scala malissimo. ARMA è ottimizzato per nVidia (texture e dependent read instruction) come lo è, in maniera ancora più evidente, Lost Planet. Per questo ho detto che la scelta è quanto meno discutibile. Senza tener conto del fatto che 4 giochi possono non essere indicativi di nulla.
65 nm sono un nuovo processo rispetto a g80, ma rv770 è a 55 nm

PsyloCybe
20-07-2008, 14:41
Domanda ot...
Ma Ac che è?

yossarian
20-07-2008, 14:49
Domanda ot...
Ma Ac che è?

assassin creed

PsyloCybe
20-07-2008, 14:51
:doh: tnx

Kharonte85
20-07-2008, 15:12
scorretto e basta; l'utilizzo del MRT non toglie nulla a livello prestazionale alle vga con chip NV e fa guadagnare (e non poco) le vga con chip ATi. Inoltre è l'implementazione più logica e funzionale del MSAA box filter con motori grafici che facciano deferred rendering, nonchè la più semplice a livello di programmazione. L'inferiorità tecnologica non giustifica un comportamento del genere.



finora non è mai successo. Non mi pare, ad esempio, che quando ID software e altre SWH hanno iniziato ad utilizzare istruzioni OpenGL (ai tempi di NV20), relative alle soft shadow, proprietarie di nVidia e che facevano uso di HW dedicato (shadow buffer), ATi o qualcun altro abbiano fatto storie (nonostante ciò determinasse un hit prestazionale non indifferente su tutto l'HW non dotato di shadow buffer). Questo e altri espedienti del genere hanno contribuito a creare il mito dei chip NV imbattibili in OpenGL. Nota bene, si parla di istruzioni proprietarie che solo a distanza di tempo sono state standardizzate, mentre nel caso di AC patch 1.01, parliamo di istruzioni standard.

Continui a fare processi alle intenzioni :D

si vabe', nvidia è il demonio e ATI invece è caritatevole e buona :sofico: , solo chi ci lavora puo' forse credere ad una cosa del genere :asd:, ...ATI fece a suo tempo una porcheria con l'AVIVO converter spacciandolo per non so che cosa (se non ricordo male invece sfruttava solo il processore montato sul sistema, sai che bello), non appena aquistata ATI; AMD si è preoccupata subito di rinominare le stesse schede grafiche dando dei nomi piu' altisonanti (x1300 ---> x1550) facendo credere che fossero delle nuove schede (cosa fatta da nvidia ed è venuto giu' il mondo)...entrambe cose che fanno capire come l'interesse principale di queste aziende sia il profitto e che la pubblicita' ingannevole è all'ordine del giorno, nonche' in parte mezzo per perseguirlo.

Se nvidia ha fornito gli strumenti ($$) per sviluppare il porting di AC quale motivo avrebbe avuto di avvantaggiare la concorrenza? Nessuno, tanto piu' che il gioco funziona sulle schede ATI con prestazioni allineate agli altri giochi quindi c'è poco da stare a recriminare (lo scandalo ci sarebbe stato se effettivamente le schede non funzionassero) quando AMD avra' i mezzi per farsi un gioco dx10.1 vedrai che sara' capace di "vendersi"...in un certo senso la forte partnership di nvidia è un merito, e contemporaneamente un demerito di AMD/ATI (a maggior ragione se le schede hanno piu' potenzialita' inespresse).

Io non le condanno per questo tanto nulla cambierebbe, dopo tutto non dovrebbero avere nessun obbligo di tutela dei clienti diversi dai propri (andare a chiedere agli utenti di schede ATI x1950pro, hd2600pro... AGP che hanno aspettato driver funzionanti per mesi :rolleyes: ), l'unica arma per difendersi è essere egoisti (scegliere il meglio per se) e informarsi.

Inutile cercare l'etica dove non c'è...

yossarian
20-07-2008, 15:53
si vabe', nvidia è il demonio e ATI invece è caritatevole e buona :sofico: , solo chi ci lavora puo' forse credere ad una cosa del genere :asd:, ...ATI fece a suo tempo una porcheria con l'AVIVO converter spacciandolo per non so che cosa (se non ricordo male invece sfruttava solo il processore montato sul sistema, sai che bello), non appena aquistata ATI; AMD si è preoccupata subito di rinominare le stesse schede grafiche dando dei nomi piu' altisonanti (x1300 ---> x1550) facendo credere che fossero delle nuove schede (cosa fatta da nvidia ed è venuto giu' il mondo)...entrambe cose che fanno capire come l'interesse principale di queste aziende sia il profitto e che la pubblicita' ingannevole è all'ordine del giorno, nonche' in parte mezzo per perseguirlo.

Se nvidia ha fornito gli strumenti ($$) per sviluppare il porting di AC quale motivo avrebbe avuto di avvantaggiare la concorrenza? Nessuno, tanto piu' che il gioco funziona sulle schede ATI con prestazioni allineate agli altri giochi quindi c'è poco da stare a recriminare (lo scandalo ci sarebbe stato se effettivamente le schede non funzionassero) quando AMD avra' i mezzi per farsi un gioco dx10.1 vedrai che sara' capace di "vendersi"...in un certo senso la forte partnership di nvidia è un merito, e contemporaneamente un demerito di AMD/ATI (a maggior ragione se le schede hanno piu' potenzialita' inespresse).

Io non le condanno per questo tanto nulla cambierebbe, dopo tutto non dovrebbero avere nessun obbligo di tutela dei clienti diversi dai propri (andare a chiedere agli utenti di schede ATI x1950pro, hd2600pro... AGP che hanno aspettato driver funzionanti per mesi :rolleyes: ), l'unica arma per difendersi è essere egoisti (scegliere il meglio per se) e informarsi.

Inutile cercare l'etica dove non c'è...

ricapitolando:

1) non hai portato un solo esempio di casi in cui ATi si sia comportata allo stesso modo
2) stai affermando che pagare le SWH per far fare bella figura a prodotti in evidente ritardo tecnologico (altrimenti non sarebbero necessari sotterfugi) è un merito
3) stai mettendo marketing e tecnologia sullo stesso livello
4) AVIVO non c'entra niente in questo contesto e, comunque, non funziona e non ha mai funzionato in passato, in maniera differente dal pure video
5) il rinominare le schede l'hai tirato in ballo tu (trovami un solo post in cui ho definito scandalosa la stessa pratica da parte di nVidia)
6) scandali del tipo di quelli da te citati (adozione dello sm3.0 con titoli che non implementavano path 2.0 e non partivano su schede con R4x0) ci sono stati e sempre a vantaggio di nVidia (magari per te è normale che ciò sia avvenuto, perchè è stato a vantaggio di NV?).
7) dal tuo punto di vista, è normale e corretto che si paghi una SWH per non utilizzare la tecnica più ovvia e semplice per implementare il MSAA con deferred rendering, perchè questo va a vantaggio solo di ATi senza danneggiare nVidia se non dal punto di vista dell'immagine, ma questo è dovuto a carenze dei chip NV e non ad altro. Spero tu ti renda conto che il giustificare qualunque comportamento in nome della salvaguardia dell'immagine porta a rendere lecito anche il driver cheating. A questo punto è naturale chiedersi a cosa servano i bench? A valutare chi riesce a imbrogliare meglio?

Ti faccio notare una ulteriore incongruenza: da un lato dici che probabilmente nVidia ha pagato Ubisoft per lo sviluppo del gioco, dall'altro dici che con AC i chip ATi vanno meglio. Soldi mal spesi?

Resta la sostanza dei fatti, ed è sotto gli occhi di tutti: con MRT e deferred rendering una 4850 può essere competetiva e, addirittura, superiore, rispetto ad una 280GTX. Ed è un dato di fatto che anche le dx11 adotteranno mrt. Questo che nVidia lo voglia o no :D

Non è una questione di etica ma di fatti oggettivi; l'uscita di gpu dx11 con marchio NV non farà andare più forte G80 o GT200 con le dx10.1 o con le11
Quindi, nei consigli degli acquisti, quando utilizzate come discriminante il presunto maggior overclock della 260GTX (tutto da dimostrare) e il maggior quantitativo di ram (dato oggettivo se riferito alla versione a 512 MB della 4870 ma non nei confronti di quella con 1 GB), sarebbe corretto anche tener conto della compatibilità di RV770 con alcune feature dx10.1 e dx11 (visto che le 10.1 sono indigeste per qualche fanboy nVidia :D ) che RV770 può vantare e G94 o GT200 no e che permettono incrementi prestazionali ben superiori rispetto a qualche MHz di oc.

Kharonte85
20-07-2008, 16:11
Va bene hai ragione tu, ATI è buona e nvidia è cattiva.

Avere una tecnologia e non sfruttarla è un demerito di AMD/ATI, perche' è compito suo promuoverla non di Nvidia...;)

Dal canto suo nvidia ha prodotto una serie 8 che ha fornito prestazioni superiori rispetto alla concorrenza (hd2xx0), solo ora le cose stanno cambiando per AMD con la serie HD4xx0 (nessuno lo nega)...ma basarsi su cose come le dx10.1 (o la fisica per nvidia) per decidere quale scheda acquistare quando ad oggi non c'è nessuna applicazione pratica della reale vantaggio mi sembra quanto meno azzardato (Forse fra un paio di anni...mentre ad esempio l'OC lo senti subito su tutti i giochi), altrimenti guardando le techdemo di Ageia tutti ne dovevano avere una nel case...:sofico:

Aggiungo inoltre che le dx10.1 sono sfruttabili solo a condizione di vista+SP1, cosa che a molti non frega dato che la maggior parte dei giocatori sono ancora in dx9 su XP.

Con le dx11, a quanto pare, tutti dovranno cambiare comunque la loro architettura, e di certo le schede di oggi non riusciranno a farli girare quei giochi...

AC è stato convertito dall'Xbox 360 (basata su una GPU molto simile a R600), evidentemente questo ha influito.

yossarian
20-07-2008, 16:31
Va bene hai ragione tu, ATI è buona e nvidia è cattiva.



lo stai sostenendo tu; io mi baso su fatti oggettivi e non mi pare di aver tratto conclusioni.



Avere una tecnologia e non sfruttarla è un demerito di AMD/ATI, perche' è compito suo promuoverla non di Nvidia...;)



nVidia non deve promuoverla ma neppure ostacolare il progresso tecnologico perchè i suoi prodotti sotto molti punti di vista sono inferiori



Dal canto suo nvidia ha prodotto una serie 8 che ha fornito prestazioni superiori rispetto alla concorrenza (hd2xx0), solo ora le cose stanno cambiando per AMD con la serie HD4xx0 (nessuno lo nega)...ma basarsi su cose come le dx10.1 (o la fisica per nvidia) per decidere quale scheda acquistare quando ad oggi non c'è nessuna applicazione pratica della reale vantaggio mi sembra quanto meno azzardato (Forse fra un paio di anni...mentre ad esempio l'OC lo senti subito su tutti i giochi), altrimenti guardando le techdemo di Ageia tutti ne dovevano avere una nel case...:sofico:

Per quale motivo aveva senso consigliare le 8600 rispetto alle x1900? Per il supporto incosistente alle dx10? Eppure mi sembra che l'avete fatto in molte occasioni
L'oc non può essere una discriminate di scelte perchè è una pratica i cui risultati sono del tutto aleatori; inoltre i superiori margini di oc sono una pia illusione dei fanboy nVidia :D



Con le dx11, a quanto pare, tutti dovranno cambiare comunque la loro architettura.


le dx11 porteranno molti più vantaggi ai chip dx10.1 che non a quelli dx10. Tanto epr tornare sull'argomento, il MRT con deferred rebdering sarà lo standard<anche con le dx11 e lo stesso dicasi per l'AA di tipo custom con resolve via shader (e si farà comunque sempre uso di due render target differenti per color ops e z-ops). Questo sarà sufficiente a ripristinare il vantaggio che RV770 e RV670 ha ora con dx10.1 rispetto a g80 e GT200, con buona pace degli nVidia boys :D .



AC è stato convertito dall'Xbox 360 (basata su una GPU molto simile a R600), evidentemente questo ha influito.

R500 ha alu simd di tipo vect4+scalar, R600, Rv670 e RV770 hanno alu mimd di tipo vliw, G80 e GT200 hanno alu simd di tipo scalari.
Tutte queste analogie tra R600 ed R500 non ce le vedo :D

Sgt.Pepper89
20-07-2008, 16:47
AC è stato convertito dall'Xbox 360 (basata su una GPU molto simile a R600), evidentemente questo ha influito.

Bene, allora visto che per giustificare l'acquisto delle soluzioni Nvidia ti arrampichi a qualsiasi cosa, io posso dedurre che un punto a vantaggio di Ati è "i porting da xbox andranno meglio perchè la xbox monta chip ati", che ne dici??
Basarsi sulle dx10.1 è sicuramente più appropriato che basarsi su questi accordi con le SH, visti i risultati (benchmark) sotto gli occhi di tutti (giochi TWIMTBP che vanno meglio con ati...); Nvidia probabilmente si limita a pagare per il video che appare all'avvio del gioco :p . Nei test che sono quello che conta di più la 4870 va uguale alla gtx e costa 20 euro in meno, stop. Quando magari inizieranno a trovarsi allo stesso prezzo se ne potrà riparlare. E non sperate che questo accada così a breve, mica calano i prezzi solo delle schede Nvidia eh...

michelgaetano
20-07-2008, 16:51
le dx11 porteranno molti più vantaggi ai chip dx10.1 che non a quelli dx10. Tanto epr tornare sull'argomento, il MRT con deferred rebdering sarà lo standard<anche con le dx11 e lo stesso dicasi per l'AA di tipo custom con resolve via shader (e si farà comunque sempre uso di due render target differenti per color ops e z-ops). Questo sarà sufficiente a ripristinare il vantaggio che RV770 e RV670 ha ora con dx10.1 rispetto a g80 e GT200, con buona pace degli nVidia boys :D .


Scusa l'ignoranza yossa

Quindi ad avere una scheda directx 10.1, si potranno sfruttare buona parte delle features dirx 11 o leggo male?

Cioè se i vantaggi si mantengono sul 20-25 % mostrato da AC, è un margine notevole per chi ha in mente upgrade a distanza, dal momento che può prendersi una 4850/4870 adesso e beneficiarne in futuro, sempre che non ho capito male e sparato una valanga di amenità.

Massima stima :ave:

Kharonte85
20-07-2008, 16:56
lo stai sostenendo tu; io mi baso su fatti oggettivi e non mi pare di aver tratto conclusioni.
Be' allora mi dai ragione...non esiste buono e cattivo...in questo mondo...

nVidia non deve promuoverla ma neppure ostacolare il progresso tecnologico perchè i suoi prodotti sotto molti punti di vista sono inferiori
Ah si? Forse nelle features inutili, ma in quello che serve al momento non direi proprio che abbiano qualcosa in meno:

http://www.hwupgrade.it/articoli/skvideo/2005/media_giochi_1920.png

A parte il peggiore rapporto prezzo/prestazioni delle nvidia, tecnologicamente le 2 architetture hanno un rapporto performance/watt molto simile


Per quale motivo aveva senso consigliare le 8600 rispeto alle x1900? Per il supporto alle dx10 (che non erano neppure in grado di far girare), visto che in dx9 erano più lente (e le dx10 non esistevano ancora)?
L'oc non può essere una discriminate di scelte perchè è una pratica i cui risultati sono del tutto aleatori; inoltre i superiori margini di oc sono una pia illusione dei fanboy nVidia :D
Nessuno poteva sapere che le dx10 si rivelassero un fiasco cosi' clamoroso, i margini di miglioramento con l'OC con la gtx260 non sono affatto aleatori...si vedono chiaramente, dato che ha frequenze molto conservative a tal punto da spingere parecchi produttori a versioni OC di fabbrica abbastanza spinte.



le dx11 porteranno molti più vantaggi ai chip dx10.1 che non a quelli dx10. Tanto epr tornare sull'argomento, il MRT con deferred rebdering sarà lo standard<anche con le dx11 e lo stesso dicasi per l'AA di tipo custom con resolve via shader (e si farà comunque sempre uso di due render target differenti per color ops e z-ops). Questo sarà sufficiente a ripristinare il vantaggio che RV770 e RV670 ha ora con dx10.1 rispetto a g80 e GT200, con buona pace degli nVidia boys :D .
Vorra' dire che quando sara' passeremo tutti ad AMD/ATI...



R500 ha alu simd di tipo vect4+scalar, R600, Rv670 e RV770 hanno alu mimd di tipo vliw, G80 e GT200 hanno alu simd di tipo scalari.
Tutte queste analogie tra R600 ed R500 non ce le vedo :D
Anche R600 non aveva Vec4+1 (o addirittura 5)? Sei tu che mi devi spiegare le somiglianze (non le differenze) dato che viene considerato il precursore dell'R600...

E sicuramente viene fatto funzionare con driver nvidia...:sofico:

Mettiamo fine a questo OT, tanto diventerebbe un incessante ripetersi delle stesse cose, credo che chi ha aperto il thread abbia avuto abbastanza elementi per poter decidere...

Kharonte85
20-07-2008, 17:03
Scusa l'ignoranza yossa

Quindi ad avere una scheda directx 10.1, si potranno sfruttare buona parte delle features dirx 11 o leggo male?

Cioè se i vantaggi si mantengono sul 20-25 % mostrato da AC, è un margine notevole per chi ha in mente upgrade a distanza, dal momento che può prendersi una 4850/4870 adesso e beneficiarne in futuro, sempre che non ho capito male e sparato una valanga di amenità.

Massima stima :ave:

la reale differenza è

http://www.pcgameshardware.de/screenshots/medium/2008/04/SP1_vs_no-SP1_1.PNG

Bisognerebbe vedere se anche con altri giochi dx10.1 potrebbero portare ad aumenti simili (ovviamente solo con AA attivo)...

DarKilleR
20-07-2008, 17:33
bhè comunque senza nulla togliere alla GT260 che è una ottima scheda, credo che a parità prezzo sia preferibile comunque la HD4870...

Sgt.Pepper89
20-07-2008, 19:09
...A parte il peggiore rapporto prezzo/prestazioni delle nvidia...



Già, a chi interessa il rapporto prezzo prestazioni?
E intanto continui a parlare di questa superiorità della 260 in Oc, come se la cosa interessasse a più del 1% dell'utenza e come se la 4870 non si occasse anche essa. Gli esemplari occati di default esisteranno pure, ma non è che te li regalano, costano comunque di più.
Io in quel grafico vedo una scheda che costa meno e va di più della gtx260, con consumi allineati, maggiori in idle (causa immaturità dei driver) e minori in full load. Serve altro?

appleroof
20-07-2008, 19:12
quello che non mi trova assolutamente d'accordo è consigliare una vga solo per le dx10.1 che chissà quando vedremo (e forse quando i giochi dx10.1 saranno la maggioranza avremo appunto direttamente vga dx11), chissà come andranno le schede che le supportano ecc ecc

le schede dovrebbero essere consigliate per come vanno oggi.

Dice: 2 anni fà consigliavi la 8600gts invece della x1950pro, ma 2 anni fà la prospettiva delle librerie nuove era molto più lunga di oggi (se fossimo nel 2009 avanzato e avessimo schede dx10, dx10.1 e dx11, chi consiglierebbe le prime due categorie, tolti i fan?), chi si sarebbe aspettato che le SWH ci prendessero tutte allegramente per il :ciapet: continuando a programmare in dx9? Infine poi in dx9 tra 8600gts e 1950pro non c'era molta differenza in prestazioni.

Poi magari è vero che tra un anno, un gioco dx10.1 girerà meglio su una 4870 che su una gtx260, ma non credo che ci sarà una differenza abissale (il 20% in + di 50fps sono 60fps, giocabilissimo in entrambe le situazioni; il 20% di 20fps sono 24fps, ingiocabile in entrambe le situazioni)

quindi io direi senz'altro (ora come ora) che il rapporto prezzo/prestazioni tende leggermente verso la 4870, ma è poca roba e tutto sommato sceglierei la 4870 o la gtx260 in base alla "simpatia" per quella o quell'altra marca, per me sono sullo stesso identico livello.

quando avremo almeno 4/5 giochi dx10.1 sui quali misurare le performance dei rispettivi chip, allora avremo un quadro molto più chiaro e si potranno trarre conclusioni più a ragion veduta.

il tutto IMHO.

michelgaetano
20-07-2008, 19:17
Già, a chi interessa il rapporto prezzo prestazioni?
E intanto continui a parlare di questa superiorità della 260 in Oc, come se la cosa interessasse a più del 1% dell'utenza e come se la 4870 non si occasse anche essa. Gli esemplari occati di default esisteranno pure, ma non è che te li regalano, costano comunque di più.
Io in quel grafico vedo una scheda che costa meno e va di più della gtx260, con consumi allineati, maggiori in idle (causa immaturità dei driver) e minori in full load. Serve altro?

Ma soprattutto non è vero che si Occa di più, vedi HD4870 a 900 di core (20 %)

Mister Tarpone
20-07-2008, 19:23
Ma soprattutto non è vero che si Occa di più, vedi HD4870 a 900 di core (20 %)

è un caso miracolato... :sbonk:

Sgt.Pepper89
20-07-2008, 19:33
quello che non mi trova assolutamente d'accordo è consigliare una vga solo per le dx10.1 che chissà quando vedremo (e forse quando i giochi dx10.1 saranno la maggioranza avremo appunto direttamente vga dx11), chissà come andranno le schede che le supportano ecc ecc

le schede dovrebbero essere consigliate per come vanno oggi.

Dice: 2 anni fà consigliavi la 8600gts invece della x1950pro, ma 2 anni fà la prospettiva delle librerie nuove era molto più lunga di oggi (se fossimo nel 2009 avanzato e avessimo schede dx10, dx10.1 e dx11, chi consiglierebbe le prime due categorie, tolti i fan?), chi si sarebbe aspettato che le SWH ci prendessero tutte allegramente per il :ciapet: continuando a programmare in dx9? Infine poi in dx9 tra 8600gts e 1950pro non c'era molta differenza in prestazioni.

Poi magari è vero che tra un anno, un gioco dx10.1 girerà meglio su una 4870 che su una gtx260, ma non credo che ci sarà una differenza abissale (il 20% in + di 50fps sono 60fps, giocabilissimo in entrambe le situazioni; il 20% di 20fps sono 24fps, ingiocabile in entrambe le situazioni)

quindi io direi senz'altro (ora come ora) che il rapporto prezzo/prestazioni tende leggermente verso la 4870, ma è poca roba e tutto sommato sceglierei la 4870 o la gtx260 in base alla "simpatia" per quella o quell'altra marca, per me sono sullo stesso identico livello.

quando avremo almeno 4/5 giochi dx10.1 sui quali misurare le performance dei rispettivi chip, allora avremo un quadro molto più chiaro e si potranno trarre conclusioni più a ragion veduta.

il tutto IMHO.

Guarda che non è proprio come dici tu; le 4870 vanno di più e costano meno, le dx10.1 sono solo un fattore secondario, sempre presente però ;) . Le 1950pro erano superiori non di poco, sopratutto con i filtri dove la banda passante superiore si faceva sentire. Un gioco dx 10.1 lo abbiamo avuto, assassin's creed, e la differenza è che con le dx10.1 l'antialiasing è gratis, mica poco.
Infine, penso che scegliere a simpatia in questi casi sia un enorme bug del libero mercato :p .
è un caso miracolato... :sbonk:
Eh si, sai com'è, quando di 4870 ne vendono a palate e di gtx260 in giro ce ne sono poche, è facile che saltino fuori casi fortunati :sofico:

Kharonte85
20-07-2008, 19:39
quello che non mi trova assolutamente d'accordo è consigliare una vga solo per le dx10.1 che chissà quando vedremo (e forse quando i giochi dx10.1 saranno la maggioranza avremo appunto direttamente vga dx11), chissà come andranno le schede che le supportano ecc ecc

le schede dovrebbero essere consigliate per come vanno oggi.

Dice: 2 anni fà consigliavi la 8600gts invece della x1950pro, ma 2 anni fà la prospettiva delle librerie nuove era molto più lunga di oggi (se fossimo nel 2009 avanzato e avessimo schede dx10, dx10.1 e dx11, chi consiglierebbe le prime due categorie, tolti i fan?), chi si sarebbe aspettato che le SWH ci prendessero tutte allegramente per il :ciapet: continuando a programmare in dx9? Infine poi in dx9 tra 8600gts e 1950pro non c'era molta differenza in prestazioni.

Poi magari è vero che tra un anno, un gioco dx10.1 girerà meglio su una 4870 che su una gtx260, ma non credo che ci sarà una differenza abissale (il 20% in + di 50fps sono 60fps, giocabilissimo in entrambe le situazioni; il 20% di 20fps sono 24fps, ingiocabile in entrambe le situazioni)

quindi io direi senz'altro (ora come ora) che il rapporto prezzo/prestazioni tende leggermente verso la 4870, ma è poca roba e tutto sommato sceglierei la 4870 o la gtx260 in base alla "simpatia" per quella o quell'altra marca, per me sono sullo stesso identico livello.

quando avremo almeno 4/5 giochi dx10.1 sui quali misurare le performance dei rispettivi chip, allora avremo un quadro molto più chiaro e si potranno trarre conclusioni più a ragion veduta.

il tutto IMHO.
Infatti...:mano:

Crack92
20-07-2008, 19:42
scusate se irrompo improvvisamente nella discussione.

ma nelle prime due pagione ho notato che alcuni di voi parlano di "AC"....

si può sapere che diamine è? :mbe: :confused: :doh:

appleroof
20-07-2008, 19:46
Guarda che non è proprio come dici tu; le 4870 vanno di più e costano meno, le dx10.1 sono solo un fattore secondario, sempre presente però ;)

in realtà forse tu non hai premuto su questo punto, ma la discussione su questo tread verteva tutta su quasto aspetto

. Le 1950pro erano superiori non di poco, sopratutto con i filtri dove la banda passante superiore si faceva sentire.

in realtà la superiorità c'era, ho controllato
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/

ma non era costante, e sopratutto non c'era motivo di consigliare una vga dx9 sia pure prestante rispetto ad una dx10 (ripeto all'epoca non possedendo una palla di cristallo non si poteva sapere che di giochi dx10 non ne avremmo visto uno, le dx10 però erano appena uscite...)

ricordo le parti invertite: all'epoca i fanboy rossi sostenevano la x1950pro dicendo "tanto giochi dx10 non ce n'è, meglio una vga prestante in dx9 oggi poi quando arriveranno giochi dx10 la cambierai [alla faccia della scelta longeva :asd: ]" :D

Un gioco dx 10.1 lo abbiamo avuto, assassin's creed, e la differenza è che con le dx10.1 l'antialiasing è gratis, mica poco.
Infine, penso che scegliere a simpatia in questi casi sia un enorme bug del libero mercato :p .

cut

in realtà in questo caso, se ti liberi da considerazioni di tipo tifoso, capisci che tra gtx260 e 4870 puoi limitarti a tirare una monetina tra le due: quando arriveranno giochi dx10.1 in massa quasi sicuramente staremo a discutere di "gtx300" e "hd5000" ;)

dimenticavo: imho, naturalmente :D

Kharonte85
20-07-2008, 19:50
scusate se irrompo improvvisamente nella discussione.

ma nelle prime due pagione ho notato che alcuni di voi parlano di "AC"....

si può sapere che diamine è? :mbe: :confused: :doh:
AC= A CORNUTO!


:D

Assassin's Creed ;)

appleroof
20-07-2008, 19:53
AC= A CORNUTO!


:D

Assassin's Creed ;)

:D :D

Kharonte85
20-07-2008, 19:55
ricordo le parti invertite: all'epoca i fanboy rossi sostenevano la x1950pro dicendo "tanto giochi dx10 non ce n'è, meglio una vga prestante in dx9 oggi poi quando arriveranno giochi dx10 la cambierai [alla faccia della scelta longeva :asd: ]" :D
Eh gia', la coerenza...:asd: eppure le dx10 dovevano fungere da lezione, io l'ho imparata: nel mondo delle schede video meglio un uovo oggi che una gallina domani :D

michelgaetano
20-07-2008, 19:58
AC= A CORNUTO!


LOL :sofico:

Personalmente a parità di prezzo sceglierei sicuramente la 4870 512 a 1680*1050

A 1920*1200, non nascondo che sarei indeciso :D

appleroof
20-07-2008, 19:59
Eh gia', la coerenza...:asd: eppure le dx10 dovevano fungere da lezione, io l'ho imparata: nel mondo delle schede video meglio un uovo oggi che una gallina domani :D

esatto: a meno che non ci sia un totale cambio di libreria alle porte :D :D (OT: sto accarezzando l'idea di tenermi la Gloriosa fino alle dx11..../OT)

cmq ripeto, se tra sei mesi (meno, di più) vedrò almeno 4/5 giochi diversi dx10.1 alla prova dei fatti, allora non ci sarà dubbio che chi consiglia oggi una 4870 piuttosto che una gxt260 solo per questo aveva ragione, ma intanto...? ;)

Kharonte85
20-07-2008, 20:08
LOL :sofico:

Personalmente a parità di prezzo sceglierei sicuramente la 4870 512 a 1680*1050

A 1920*1200, non nascondo che sarei indeciso :D
Io per forza di cose la hd4870...è l'unica che entrerebbe nel Case...:stordita:
esatto: a meno che non ci sia un totale cambio di libreria alle porte :D :D (OT: sto accarezzando l'idea di tenermi la Gloriosa fino alle dx11..../OT)

cmq ripeto, se tra sei mesi (meno, di più) vedrò almeno 4/5 giochi diversi dx10.1 alla prova dei fatti, allora non ci sarà dubbio che chi consiglia oggi una 4870 piuttosto che una gxt260 solo per questo aveva ragione, ma intanto...? ;)
Infatti, comunque anche secondo me ti conviene tenerla, pure io me la tengo la mia schedina fino alle dx11 (a meno che col nuovo monitor 22 in arrivo non mi incominci ad andare stretta ma onestamente non credo :fagiano: ) poi piu' aspetto piu' occasioni si presenteranno, se gia' oggi con 150 euro potrei portarmi a casa una scheda di pari livello immaginati cosa si potra' fare quando arriveranno tutti gli altri refresh :oink: :oink: :oink:

appleroof
20-07-2008, 20:15
Io per forza di cose la hd4870...è l'unica che entrerebbe nel Case...:stordita:

Infatti, comunque anche secondo me ti conviene tenerla, pure io me la tengo la mia schedina fino alle dx11 (a meno che col nuovo monitor 22 in arrivo non mi incominci ad andare stretta ma onestamente non credo :fagiano: ) poi piu' aspetto piu' occasioni si presenteranno, se gia' oggi con 150 euro potrei portarmi a casa una scheda di pari livello immaginati cosa si potra' fare quando arriveranno tutti gli altri refresh :oink: :oink: :oink:

ariesatto: è l'altra idea che sto accarezzando...:read: :D :D

Suhadi_Sadono
20-07-2008, 20:16
LOL :sofico:

Personalmente a parità di prezzo sceglierei sicuramente la 4870 512 a 1680*1050

A 1920*1200, non nascondo che sarei indeciso :D
Infatti anche io ero indeciso, e stavo per prendere la 4870. Poi ripensandoci bene a queste risoluzioni quei 384mb di ram in più mi faranno sempre comodo, e mi sono fatto cambiare l'ordine :asd:

michelgaetano
20-07-2008, 20:22
Infatti anche io ero indeciso, e stavo per prendere la 4870. Poi ripensandoci bene a queste risoluzioni quei 384mb di ram in più mi faranno sempre comodo, e mi sono fatto cambiare l'ordine :asd:

Dipende, lo si dice da tempo che la ram fa comodo alle alte risoluzion ietc

Però se guardiamo dei grafici non pare davvero questo vantaggio immenso.

Kharonte85
20-07-2008, 20:31
Però se guardiamo dei grafici non pare davvero questo vantaggio immenso.
Per ora...:Perfido: :D

AlߥZ
20-07-2008, 20:40
Ragazzi... un paio di cose...

1) E' vero che le nuove nvidia scaricano l'aria calda all'interno del case come le 6800...?!?

2) Può valer la pena passare da 8800 GTS 640 a una GTX260 o 4870?!?

yossarian
20-07-2008, 20:40
Be' allora mi dai ragione...non esiste buono e cattivo...in questo mondo...



ripeto, mi limito ai fatti e ti invito a fare altrettanto (anche se immagino sia difficile :D )



Ah si? Forse nelle features inutili, ma in quello che serve al momento non direi proprio che abbiano qualcosa in meno:

http://www.hwupgrade.it/articoli/skvideo/2005/media_giochi_1920.png



feature inutili sono le patch che per abilitare MSAA con deferred rendering impongono di fare render to texture con il contenuto dello z-buffer, costringendo a fare più passaggi di rendering e a utilizzare in modo inefficiente la banda passante (che è quello che fanno le gpu nVidia DX10)

Queste le prestazioni con vista a 64 bit

http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html

queste quelle per die e quelle per watt con 3 giochi.

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=7

Il meglio ottimizzato per entrambe le architetture è bioshock e questo è il risultato sempre con vista a 64 bit

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=18

Mi pare che qualcosa di meno abbia nonostante tutto (comunque sta sotto alla hd4870 :D )



Nessuno poteva sapere che le dx10 si rivelassero un fiasco cosi' clamoroso, i margini di miglioramento con l'OC con la gtx260 non sono affatto aleatori...si vedono chiaramente, dato che ha frequenze molto conservative a tal punto da spingere parecchi produttori a versioni OC di fabbrica abbastanza spinte.



le varie 8600 e 8400 non erano comunque in grado di far girare hw dx10; non nascondetevi dietro ad un dito, ci fate più bella figura.
L'oc è del tutto aleatorio; è evidente che per vendere le le 260 hanno bisogno di tirare fuori versioni oc e abbattere i prezzi, per le 4870 questo non è necessario :D



Vorra' dire che quando sara' passeremo tutti ad AMD/ATI...


no, perchè nel frattempo ci saranno le vga nVidia dx11 e allora vi precipiterete a comprare quelle :p



Anche R600 non aveva Vec4+1 (o addirittura 5)? Sei tu che mi devi spiegare le somiglianze (non le differenze) dato che viene considerato il precursore dell'R600...



è da giorni che sto cercando di parlare di architetture e di tecnologia e mi continuo a sentir rispondere che le 260GTX si oc di più (cosa del tutto indimostrabile e irrilevante); comunque le alu di R600 sono mimd e vliw (quindi differenti da quelle di R500)



E sicuramente viene fatto funzionare con driver nvidia...:sofico:



se lo dici tu :D



Mettiamo fine a questo OT, tanto diventerebbe un incessante ripetersi delle stesse cose, credo che chi ha aperto il thread abbia avuto abbastanza elementi per poter decidere...

se si tratta di consigliare all'acquisto di una vga lo si deve fare considerando tutti gli aspetti (anche quelli che non vi fanno piacere). I dati di fatto sono che la 4870 va di più della 260GTX (di poco, per ora, ma di più) e che può vantare una compatibilità con feature dx10.1, che saranno utilizzate anche dalle dx11 con le stesse modalità, che permetteranno di avere un ulteriore incremento di prestazioni.

la reale differenza è

http://www.pcgameshardware.de/screenshots/medium/2008/04/SP1_vs_no-SP1_1.PNG

Bisognerebbe vedere se anche con altri giochi dx10.1 potrebbero portare ad aumenti simili (ovviamente solo con AA attivo)...

http://www.extrahardware.cz/duel-geforce-gtx-260-vs-radeon-hd-4870?page=0,6

Scusa l'ignoranza yossa

Quindi ad avere una scheda directx 10.1, si potranno sfruttare buona parte delle features dirx 11 o leggo male?

Cioè se i vantaggi si mantengono sul 20-25 % mostrato da AC, è un margine notevole per chi ha in mente upgrade a distanza, dal momento che può prendersi una 4850/4870 adesso e beneficiarne in futuro, sempre che non ho capito male e sparato una valanga di amenità.

Massima stima :ave:

per quanto riguarda alcune feature (e l'utilizzo di MRT per fare MSAA con deferred rendering è una di queste, si, e l'incremento è di quell'ordine di grandezza per le gpu singole e di poco oltre il 40% per le configurazioni dual con MSAA 4x attivo; con 8x il margine rispetto a g80 e gt200 è ancora maggiore perchè con MSAA 8x crolla lo z-fillrate dei chip NV

http://www.hardware.fr/articles/725-6/dossier-amd-radeon-hd-4870-4850.html

quello che non mi trova assolutamente d'accordo è consigliare una vga solo per le dx10.1 che chissà quando vedremo (e forse quando i giochi dx10.1 saranno la maggioranza avremo appunto direttamente vga dx11), chissà come andranno le schede che le supportano ecc ecc

le schede dovrebbero essere consigliate per come vanno oggi.



mettila così: oggi vanno meglio le 4870 :D



Dice: 2 anni fà consigliavi la 8600gts invece della x1950pro, ma 2 anni fà la prospettiva delle librerie nuove era molto più lunga di oggi (se fossimo nel 2009 avanzato e avessimo schede dx10, dx10.1 e dx11, chi consiglierebbe le prime due categorie, tolti i fan?), chi si sarebbe aspettato che le SWH ci prendessero tutte allegramente per il :ciapet: continuando a programmare in dx9? Infine poi in dx9 tra 8600gts e 1950pro non c'era molta differenza in prestazioni.



le 1950XT e XTX andavano decisamente di più delle 8600 GTS che non sono neppure in grado di far girare codice dx10 (e non ci voleva la sfera di cristallo per saperlo, visto che è sempre stato così per le fasce basse e, inoltre, sarebbe bastato vedere le specifiche delle dx10 e confrontarle con l'HW delle 8600, 8400, ecc.



Poi magari è vero che tra un anno, un gioco dx10.1 girerà meglio su una 4870 che su una gtx260, ma non credo che ci sarà una differenza abissale (il 20% in + di 50fps sono 60fps, giocabilissimo in entrambe le situazioni; il 20% di 20fps sono 24fps, ingiocabile in entrambe le situazioni)


la risposta te l'ha data nVidia, facendo togliere la patch 1.01 di AC. Se poi un 20-25% di prestazioni in più non dovessero costituire una discriminante, a ,maggior ragione non lo sarebbe un 1-2% in più (ammesso che sia così) di guadagno per la presunta maggiore capacità di oc delle 260




in realtà forse tu non hai premuto su questo punto, ma la discussione su questo tread verteva tutta su quasto aspetto

in realtà la superiorità c'era, ho controllato
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/

ma non era costante, e sopratutto non c'era motivo di consigliare una vga dx9 sia pure prestante rispetto ad una dx10 (ripeto all'epoca non possedendo una palla di cristallo non si poteva sapere che di giochi dx10 non ne avremmo visto uno, le dx10 però erano appena uscite...)



all'epoca non c'era motivo per consigliare una vga dx9 (sia pure più veloce) rispetto ad una dx10 (con supporto solo di facciata); oggi non c'è motivo per consigliare una vga dx10.1 (di poco più veloce) rispetto ad una vga dx10.
Ovvero, all'epoca c'era motivo per consigliare una vga con supporto di facciata dx10 (anche se più lenta), oggi non c'è motivo per consigliare una vga con supporto reale dx10.1 (e visto che le dx10.1 non vi piacciono, anche in parte dx11), seppure di poco più veloce. Strana logica :sofico:



ricordo le parti invertite: all'epoca i fanboy rossi sostenevano la x1950pro dicendo "tanto giochi dx10 non ce n'è, meglio una vga prestante in dx9 oggi poi quando arriveranno giochi dx10 la cambierai [alla faccia della scelta longeva :asd: ]" :D



invece i fanboy verdi sbandieravano il supporto alle dx10 come elemento fondamentale di scelta :D



in realtà in questo caso, se ti liberi da considerazioni di tipo tifoso, capisci che tra gtx260 e 4870 puoi limitarti a tirare una monetina tra le due: quando arriveranno giochi dx10.1 in massa quasi sicuramente staremo a discutere di "gtx300" e "hd5000" ;)

dimenticavo: imho, naturalmente :D

e chi avrà acquistato una 260 per tenerla alungo vedrà che con deferred rendering e MSAA la 4870 del suo amico andrà un bel po' di più del suo gioiellino.
Per chiarire un concetto: qui non si sta discutendo su chi ha il primato delle prestazioni tra ATi e nVidia, ma su come decidere un acquisto che può essere per 6 mesi ma anche per 4 anni (e non tirate in ballo la stupidaggine che chi tiene una vga per 4 anni può anche scendere a compromessi: non vedo per quale motivo dovrebbe scendere a compromessi o anche, soltanto, accettare qualche compromesso in più, quando può farne a meno).

Sempre IMHO, ovviamente :D

AlߥZ
20-07-2008, 20:55
Ragazzi... un paio di cose...

1) E' vero che le nuove nvidia scaricano l'aria calda all'interno del case come le 6800...?!?

2) Può valer la pena passare da 8800 GTS 640 a una GTX260 o 4870?!?

Mi auto quoto... a causa del super post che mi hanno fatto sotto :D

appleroof
20-07-2008, 21:05
mettila così: oggi vanno meglio le 4870 :D

direi che vanno uguale



le 1950XT e XTX andavano decisamente di più delle 8600 GTS che non sono neppure in grado di far girare codice dx10 (e non ci voleva la sfera di cristallo per saperlo, visto che è sempre stato così per le fasce basse e, inoltre, sarebbe bastato vedere le specifiche delle dx10 e confrontarle con l'HW delle 8600, 8400, ecc.

:what: io parlavo di x1950pro (visto che sei ferrato dovresti avere presente la differenza)

cmq le dx10 erano supportate, per le x1950 no (vedi sotto tuo stesso post :mbe: )

la risposta te l'ha data nVidia, facendo togliere la patch 1.01 di AC. Se poi un 20-25% di prestazioni in più non dovessero costituire una discriminante, a ,maggior ragione non lo sarebbe un 1-2% in più (ammesso che sia così) di guadagno per la presunta maggiore capacità di oc delle 260

lo dici tu, chi mi dice che sia la verità? Eì facile dire queste cose in mancanza di prove certe, fatto stà che non ho mai parlato di scriminante dovuto all'oc della gtx260 rispetto alla 4870, nè in questo nè in altri tread, cerca: stai sbagliando persona.


all'epoca non c'era motivo per consigliare una vga dx9 (sia pure più veloce) rispetto ad una dx10 (con supporto solo di facciata); oggi non c'è motivo per consigliare una vga dx10.1 (di poco più veloce) rispetto ad una vga dx10.
Ovvero, all'epoca c'era motivo per consigliare una vga con supporto di facciata dx10 (anche se più lenta), oggi non c'è motivo per consigliare una vga con supporto reale dx10.1 (e visto che le dx10.1 non vi piacciono, anche in parte dx11), seppure di poco più veloce. Strana logica :sofico:

io non consiglio nè l'una nè l'altra, come vedi, per me sono pari, con i giochi odierni

invece i fanboy verdi sbandieravano il supporto alle dx10 come elemento fondamentale di scelta :D

di conseguenza saresti un "rosso"? :asd:

e chi avrà acquistato una 260 per tenerla alungo vedrà che con deferred rendering e MSAA la 4870 del suo amico andrà un bel po' di più del suo gioiellino.
Per chiarire un concetto: qui non si sta discutendo su chi ha il primato delle prestazioni tra ATi e nVidia, ma su come decidere un acquisto che può essere per 6 mesi ma anche per 4 anni (e non tirate in ballo la stupidaggine che chi tiene una vga per 4 anni può anche scendere a compromessi: non vedo per quale motivo dovrebbe scendere a compromessi o anche, soltanto, accettare qualche compromesso in più, quando può farne a meno).

Sempre IMHO, ovviamente :D

ohhhh....finalmetne qualcosa di più interessante su cui discutere: adesso chiarisco spero definitivamente il mio pensiero

ora come ora, le vga vanno uguali.

Quando tra 1 anno avremo abbondanza di giochi dx10.1 (?) la 4870 potrà sfoggiare tutto il suo contenuto ultratecnologico e andare a 30fps invece che 25 della povera gtx 260 (stupore :eek: ) caso peggiore, oppure 100 invece che 80 (azz....il gioco è giocabilissimo in entrambi i casi :eek: :eek: ), caso migliore

Quando tra 2, 3, 4 anni accenderò il pc per giocare, mi accorgerò che il compromesso sarà minore che avendo la gtx260, ma azzo, mi serve una vga nuova per giocare come dio comanda, :doh:

ovviamente a meno che mi arrivi a sostenere che senz'altro la 4870 manterrà un livello eccellente nei giochi per 4 anni (azz: la vga miracolo :asd: ) e che Ati non farà chip dx11, tanto sono identici a quelli dx10.1

morale della favola, oggi come oggi tra le due non vedo un motivo determinante della scelta, nè per l'una nè per l'altra, se non affezione al marchio e cose del genere (forse la v-ram in più della gtx260 può far comodo a chi come me gioca a 1920x1200...)

IMHO, attenzione :)

appleroof
20-07-2008, 21:06
Mi auto quoto... a causa del super post che mi hanno fatto sotto :D

1) no, la forma del dissi fà si che esca dietro al case, fuori da esso.

2) imho dipende a che risoluzione giochi, cmq si, sarebbe un certo salto ma non lo farei adesso...

michelgaetano
20-07-2008, 21:16
Quando tra 1 anno avremo abbondanza di giochi dx10.1 (?) la 4870 potrà sfoggiare tutto il suo contenuto ultratecnologico e andare a 30fps invece che 25 della povera gtx 260 (stupore :eek: ) caso peggiore, oppure 100 invece che 80 (azz....il gioco è giocabilissimo in entrambi i casi :eek: :eek: ), caso migliore


Questo esempio è davvero triviale apple.

La stessa gtx 280 in media è tra il 10 e il 15 % superiore: così confermi che è una vga inutile, costando 170 euro in più.

E potremmo definire ugualmente inutile la 4870 perchè va solo il 25-30 % in più di una 4850?

Non è così che le cose funzionano.

A prescindere da quanto le dirx 10.1 verranno davvero utilizzate, non sputerei mai su un 25-30 % di prestazioni.

(Crysis a 24 fps di average mi dava fastidio giocarlo, almeno a 30 era tollerabile)

Mister Tarpone
20-07-2008, 21:21
(Crysis a 24 fps di average mi dava fastidio giocarlo, almeno a 30 era tollerabile)

fa schifo sia a 24 che 30.. parliamoci chiaro :asd:

yossarian
20-07-2008, 21:23
direi che vanno uguale



se il 6% significa uguale, allora il 10-12% esistente tra 4870 e 280 è quasi uguale?




:what: io parlavo di x1950pro (visto che sei ferrato dovresti avere presente la differenza)



e perchè non di xt? o di xtx? visto che entrambe andavano molto di più di una 8600 gts? Comunque anche la 1950pro era più veloce in dx9




cmq le dx10 erano supportate, per le x1950 no (vedi sotto tuo stesso post :mbe: )


quindi tu sei un verde? Comunque dovresti sapere che il supporto era solo di facciata :D



lo dici tu, chi mi dice che sia la verità? Eì facile dire queste cose in mancanza di prove certe, fatto stà che non ho mai parlato di scriminante dovuto all'oc della gtx260 rispetto alla 4870, nè in questo nè in altri tread, cerca: stai sbagliando persona.



prova ad indagare: ubisoft ha parlato di errori nel rendering (che nessuno è mai riuscito a verificare, nonostante le analisi a cui è stato proposto il gioco con le due patch). Poi si è sostenuto che gli errori di rendering erano dovuti al fatto che la patch 1.01 faceva saltare un passaggio di rendering (è proprio quello che succede abilitando l'uso di MRT). Il risultato è quello visto in precedenza: 3870 più veloce della 8800gtx e 4850 davanti alla 280gtx.
Ora sentiamo la tua versione :p



io non consiglio nè l'una nè l'altra, come vedi, per me sono pari, con i giochi odierni



ci sono ancora un 6% di vantaggio e 10 € di meno :D



di conseguenza saresti un "rosso"? :asd:



trovami un post in cui ho consigliato la 1950 pro al posto della 8600 gts :ciapet:



ohhhh....finalmetne qualcosa di più interessante su cui discutere: adesso chiarisco spero definitivamente il mio pensiero

ora come ora, le vga vanno uguali.

Quando tra 1 anno avremo abbondanza di giochi dx10.1 (?) la 4870 potrà sfoggiare tutto il suo contenuto ultratecnologico e andare a 30fps invece che 25 della povera gtx 260 (stupore :eek: ) caso peggiore, oppure 100 invece che 80 (azz....il gioco è giocabilissimo in entrambi i casi :eek: :eek: ), caso migliore

Quando tra 2, 3, 4 anni accenderò il pc per giocare, mi accorgerò che il compromesso sarà minore che avendo la gtx260, ma azzo, mi serve una vga nuova per giocare come dio comanda, :doh:

ovviamente a meno che mi arrivi a sostenere che senz'altro la 4870 manterrà un livello eccellente nei giochi per 4 anni (azz: la vga miracolo :asd: ) e che Ati non farà chip dx11, tanto sono identici a quelli dx10.1

morale della favola, oggi come oggi tra le due non vedo un motivo determinante della scelta, nè per l'una nè per l'altra, se non affezione al marchio e cose del genere (forse la v-ram in più della gtx260 può far comodo a chi come me gioca a 1920x1200...)

IMHO, attenzione :)

mi sono limitato al 20-25% di vantaggio (oltre l'attuale 5-6%) con il solo uso di MRT per color e z-ops con MSAA 4x (e, tra l'altro, con 8x con RV770 il calo è minimo, con G200 e G80/90 è drastico). Volendo si può parlare anche di altri vantaggi prestazionali o di qualità d'immagine (ma mi pare del tutto inutile). Si arriverebbe ad un totale pari al 26-31% con una sola feature dx10.1 (e 11)
I test a 1920 sono facilmente reperibili e la 260 sta sotto anche là (tranne in quelli personali di halduemilauno)

appleroof
20-07-2008, 21:23
Questo esempio è davvero triviale apple.

La stessa gtx 280 in media è tra il 10 e il 15 % superiore: così confermi che è una vga inutile, costando 170 euro in più.

E potremmo definire ugualmente inutile la 4870 perchè va solo il 25-30 % in più di una 4850?

Non è così che le cose funzionano.

A prescindere da quanto le dirx 10.1 verranno davvero utilizzate, non sputerei mai su un 25-30 % di prestazioni.

(Crysis a 24 fps di average mi dava fastidio giocarlo, almeno a 30 era tollerabile)

triviale :asd:

cmq, infatti ho detto più e più volte che reputo schede come la gtx280 e 4870x2 pessimi affari, ora come ora e finchè costeranno più di 300 euro (e questa soglia personale la abbasso man mano che passeranno i mesi, ma parliamo di oggi)

sempre parlando di oggi, non c'entra nulla il paragone tra 4850 e 4870, troppe variabili in gioco (risoluzione a cui si vuole giocare in primis) ma tutte attinenti i giochi di oggi

io non sputerei su un 25/30% (siamo partiti da 20 ma ad ogni post cresce di un 5% :eek: :asd: ) di prestazioni in più oggi, dovendo comprare una scheda

dici che così le cose funzionano? :)

michelgaetano
20-07-2008, 21:26
triviale :asd:

cmq, infatti ho detto più e più volte che reputo schede come la gtx280 e 4870x2 pessimi affari, ora come ora e finchè costeranno più di 300 euro (e questa soglia personale la abbasso man mano che passeranno i mesi, ma parliamo di oggi)

sempre parlando di oggi, non c'entra nulla il paragone tra 4850 e 4870, troppe variabili in gioco (risoluzione a cui si vuole giocare in primis) ma tutte attinenti i giochi di oggi

io non sputerei su un 25/30% (siamo partiti da 20 ma ad ogni post cresce di un 5% :eek: :asd: ) di prestazioni in più oggi, dovendo comprare una scheda

dici che così le cose funzionano? :)

Ma io stesso reputavo un pessimo affare la 3870X2, ed ecco ora cosa è successo (meglio una 4850 praticamente). La gtx 280 continua a calare, e tra qualche tempo almeno un senso ce l'avrà (alte risoluzioni, è innegabile la resa)

Se però tu mi dici che un 25 % non conta, io ti dico che per me la differenza la fa, o dovremmo abolire certe fasce intermedie ^^

P.s. che ha di male il triviale :stordita: ?

appleroof
20-07-2008, 21:29
se il 6% significa uguale, allora il 12% esistente tra 4870 e 280 è quasi uguale?

infatti tra le 2 credo siano più furbe la 4870 e la gtx 260 :rolleyes:




e perchè non di xt? o di xtx? visto che entrambe andavano molto di più di una 8600 gts? Comunque anche la 1950pro era più veloce in dx9

costavano di più....



quindi tu sei un verde? cut

mi rispondi con una domanda che contiene una risposta alla mia domanda :D



prova ad indagare: ubisoft ha parlato di errori nel rendering (che nessuno è mai riuscito a verificare, nonostante le analisi a cui è stato proposto il gioco con le due patch). Poi si è sostenuto che gli errori di rendering erano dovuti al fatto che la patch 1.01 faceva saltare un passaggio di rendering (è proprio quello che succede abilitando l'uso di MRT). Il risultato è quello visto in precedenza: 3870 più veloce della 8800gtx e 4850 davanti alla 280gtx.
Ora sentiamo la tua versione :p

non ne ho, onestamente non è la cosa che non mi fà dormire di notte :D . leggo la tua e qualunque altra opionione, e si, credo che Nvidia abbia pagato per far togliere il supporto dx10.1 (contento?)


cut
mi sono limitato al 20-25% di vantaggio con il solo uso di MRT per color e z-ops con MSAA 4x (e, tra l'altro, con 8x con RV770 il calo è minimo, con G200 e G80/90 è drastico). Volendo si può parlare anche di altri vantaggi prestazionali o di qualità d'immagine (ma mi pare del tutto inutile).
I test a 1920 sono facilmente reperibili e la 260 sta sotto anche là (tranne in quelli personali di halduemilauno)

rimane tutto quello che ho detto (ma a 1920x1200 chi usa l'aa 8x :asd: :asd: ), in realtà :boh:

appleroof
20-07-2008, 21:32
Ma io stesso reputavo un pessimo affare la 3870X2, ed ecco ora cosa è successo (meglio una 4850 praticamente). La gtx 280 continua a calare, e tra qualche tempo almeno un senso ce l'avrà (alte risoluzioni, è innegabile la resa)

Se però tu mi dici che un 25 % non conta, io ti dico che per me la differenza la fa, o dovremmo abolire certe fasce intermedie ^^

P.s. che ha di male il triviale :stordita: ?

aggettivo che non credo si attagli a quello che dicevo (ne conosci il significato, spero :D)

per il resto, girala come vuoi sul 25%, il senso del mio post era chiarissimo (tranne che a te? :boh:) te lo rispiego: ORA COME ORA la differenza viene quantificata dai guru nel 6% in più a favore della 4870

qualcuno dice che con i giochi dx10.1 arriverà al 25%

bene, aspetto i giochi dx10.1 per magari comprarmi una bella 480 che sostiutisca la 8800gtx, ma fino ad allora se la matematica non è un'opinione rimane una differenza del 6%. Ti pare?

Mister Tarpone
20-07-2008, 21:34
e perchè non di xt? o di xtx?
perchè costavano di + (la XTX paaarecchio di +)
mentre le 8600 si trovavano a prezzi + vicini ad una 1950pro.. poi c'erano le ati 2600XT (le dirette avversarie delle 8600) che costavano leggermente meno ma facevano ribrezzo rispetto ad una 8600gts :p

michelgaetano
20-07-2008, 21:37
aggettivo che non credo si attagli a quello che dicevo (ne conosci il significato, spero :D)

per il resto, girala come vuoi sul 25%, il senso del mio post era chiarissimo (tranne che a te? :boh:) te lo rispiego: ORA COME ORA la differenza viene quantificata dai guru nel 6% in più a favore della 4870

qualcuno dice che con i giochi dx10.1 arriverà al 25%

bene, aspetto i giochi dx10.1 per magari comprarmi una bella 480 che sostiutisca la 8800gtx, ma fino ad allora se la matematica non è un'opinione rimane una differenza del 6%. Ti pare?

Ah ma certamente, è così anche per me. Io non la mettevo sul cosa comprare ora, dicevo solo la mia sul 25 % e amici :asd: a presciendere da schede, marche, dirx 10.1 etc, sottolineando come a mio parere non è una differenza irrilevante. Almeno per me.

Triviale da che io ricordi è un sinonimo per banale :P

appleroof
20-07-2008, 21:40
Ah ma certamente, è così anche per me. Io non la mettevo sul cosa comprare ora, dicevo solo la mia sul 25 % e amici :asd: a presciendere da schede, marche, dirx 10.1 etc, sottolineando come a mio parere non è una differenza irrilevante. Almeno per me.

continui a girarci intorno: il 25%+ lo considero solo se oggi è a favore di una determinata scheda piuttosto che un'altra, a parità di prezzo.

non è così tra 4870 e gtx 260, è così? (si/no, non c'è molta scelta, con i forse diciamo tutto ed il contrario di tutto).


Triviale da che io ricordi è un sinonimo per banale :P


http://www.dizionario-italiano.it/definizione-lemma.php?definizione=triviale&lemma=T079C000

yossarian
20-07-2008, 21:45
costavano di più....


andavano anche di più: molto di più



non ne ho, onestamente non è la cosa che non mi fà dormire di notte :D . leggo la tua e qualunque altra opionione, e si, credo che Nvidia abbia pagato per far togliere il supporto dx10.1 (contento?)



sinceramente non mi interessa; tu hai detto che era la mia versione (in realtà non è solo la mia, basterebbe leggere l'articolo di Anand al riguardo), io ti ho chiesto di fornire la tua versione



rimane tutto quello che ho detto (ma a 1920x1200 chi usa l'aa 8x :asd: :asd: ), in realtà :boh:

rimane un vantaggio attuale del 6% e in prospettiva futura di almeno il 30% (quanto pensi si possa guadagnare dall'oc della 260 o della 280?). A 1920 chi ha una vga con RV770 può usare MSAA 8x e lo potrà fare anche in futuro (a maggior ragione con le dx11) senza avere cali drastici delle prestazioni. E può farlo anche a 1680 o a 1600 o a qualuque altra risoluzione.

michelgaetano
20-07-2008, 21:48
continui a girarci intorno: il 25%+ lo considero solo se oggi è a favore di una determinata scheda piuttosto che un'altra, a parità di prezzo.

non è così tra 4870 e gtx 260, è così? (si/no, non c'è molta scelta, con i forse diciamo tutto ed il contrario di tutto).


Ancora.

Non me ne importa NIENTE di cosa tu compri, di quale scheda tu preferisca, di quale marca tu sostenga, delle dirx 10.1, di physix o di ogni altra cosa.

L'ho scritto sopra e lo ripeto.

Quando tra 1 anno avremo abbondanza di giochi dx10.1 (?) la 4870 potrà sfoggiare tutto il suo contenuto ultratecnologico e andare a 30fps invece che 25 della povera gtx 260 (stupore ) caso peggiore, oppure 100 invece che 80 (azz....il gioco è giocabilissimo in entrambi i casi ), caso migliore

Hai fatto questo esempio, definendo inutile o quantomeno irrilevante una differenza simile. Io ho detto la mia asserendo che non è una differenza trascurabile, in GENERALE; non rapportata alla situazione odierna. Niente 4870, 260, 1337darthvaderpincopallinorossoverdegtxhd.

STOP.

È così difficile da capire?

http://www.dizionario-italiano.it/definizione-lemma.php?definizione=triviale&lemma=T079C000[/url]

Non so che dizionario sia, eccoti il De mauro :P

http://www.demauroparavia.it/123449

appleroof
20-07-2008, 21:56
andavano anche di più: molto di più

ok, allora domani al primo che arriva e chiede: ragazzi, tra 3850 a 80€ e 9600gt a 90€ cosa mi consigliate? risponderò: un crossfireX di 4870x2 per 800€.


sinceramente non mi interessa; tu hai detto che era la mia versione (in realtà non è solo la mia, basterebbe leggere l'articolo di Anand al riguardo), io ti ho chiesto di fornire la tua versione

e te l'ho detta.

rimane un vantaggio attuale del 6% e in prospettiva futura di almeno il 30% (quanto pensi si possa guadagnare dall'oc della 260 o della 280?). A 1920 chi ha una vga con RV770 può usare MSAA 8x e lo potrà fare anche in futuro (a maggior ragione con le dx11) senza avere cali drastici delle prestazioni. E può farlo anche a 1680 o a 1600 o a qualuque altra risoluzione.

continui a battere su un punto empiricamente non dimostrabile. Dovendo consigliare cercherei di guardare a quello che uno farà oggi con una vga, domani vedremo.

e ci tengo a risottolineare che

1. le dx10 sono al capolinea come librerie, mentre ai tempi della 8600 erano appena uscite, non si può tacciare di disonestà intellettuale chi all'epoca consigliava una vga all'avanguardia piuttosto che una vecchia, a meno che questo qualcuno fosse il capoccione di una SWH, mentre oggi si consiglia una vga che tra un futuro pieno di vga del tutto nuove consentirà forse un 20% di prestazioni in più, ma nel frattempo fà il 6% + della concorrente (WOW)

2. conseguenza: quando avremo giochi dx10.1 tutti correremo a prendere vga dx11; gli altri scenderanno a compromessi, maggiori o minori, qualsiasi vga abbiano nel cofano: per ora guardiamo come vanno oggi le vga e tra le 2 contendenti di questo tread si può fare ambarabàcicìcocò per scegliere

appleroof
20-07-2008, 21:58
Ancora.

Non me ne importa NIENTE di cosa tu compri, di quale scheda tu preferisca, di quale marca tu sostenga, delle dirx 10.1, di physix o di ogni altra cosa.

L'ho scritto sopra e lo ripeto.



Hai fatto questo esempio, definendo inutile o quantomeno irrilevante una differenza simile. Io ho detto la mia asserendo che non è una differenza trascurabile, in GENERALE; non rapportata alla situazione odierna. Niente 4870, 260, 1337darthvaderpincopallinorossoverdegtxhd.

STOP.

È così difficile da capire?

no, ma assolutamente inutile e fine a se stesso, nell'economia del nostro discorso....



Non so che dizionario sia, eccoti il De mauro :P

http://www.demauroparavia.it/123449

ah...quindi intendevi "di scuola medievale"? :asd: :asd:

Kharonte85
20-07-2008, 22:00
ripeto, mi limito ai fatti e ti invito a fare altrettanto (anche se immagino sia difficile :D )
Ti ho fatto gia' l'esempio di condotte "immorali" perpetrate da ATI/AMD...non ne abbiamo viste troppe solo perche' essendo stata in condizione di inferiorita' rispetto ad nvidia, non ha lo stesso potere (un chiaro demerito, a maggior ragione quando ha avuto prodotti migliori)

feature inutili sono le patch che per abilitare MSAA con deferred rendering impongono di fare render to texture con il contenuto dello z-buffer, costringendo a fare più passaggi di rendering e a utilizzare in modo inefficiente la banda passante (che è quello che fanno le gpu nVidia DX10)

Queste le prestazioni con vista a 64 bit

http://www.hardware.fr/articles/725-22/dossier-amd-radeon-hd-4870-4850.html

queste quelle per die e quelle per watt con 3 giochi.

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=7

Il meglio ottimizzato per entrambe le architetture è bioshock e questo è il risultato sempre con vista a 64 bit

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=18

Mi pare che qualcosa di meno abbia nonostante tutto (comunque sta sotto alla hd4870 :D )
Se consideri anche le altre recensioni, a partire da quelle di questo sito, per passare a quella di http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet si nota come le schede sono equivalenti, e a seconda dei giochi prevalga l'una o l'altra...

le varie 8600 e 8400 non erano comunque in grado di far girare hw dx10; non nascondetevi dietro ad un dito, ci fate più bella figura.
C'era perfetta buona fede nell'intenzione di consigliare quelle schede (che comunque in alcuni giochi si dimostravano piu' efficaci), oggi probabilmente tornando indietro non avrei dubbi su quale sarebbe stata la scelta migliore (l'uovo oggi, la gallina l'indomani è morta :stordita: )


L'oc è del tutto aleatorio; è evidente che per vendere le le 260 hanno bisogno di tirare fuori versioni oc e abbattere i prezzi, per le 4870 questo non è necessario :D
be' è naturale, è la stessa tattica usata da AMD con la 3870 che non riusciva a competere con la 8800gt...

no, perchè nel frattempo ci saranno le vga nVidia dx11 e allora vi precipiterete a comprare quelle :p
Dipende da quale andra' meglio...


è da giorni che sto cercando di parlare di architetture e di tecnologia e mi continuo a sentir rispondere che le 260GTX si oc di più (cosa del tutto indimostrabile e irrilevante); comunque le alu di R600 sono mimd e vliw (quindi differenti da quelle di R500)
Non sono uguali, ma in qualcosa dovranno pure assomigliarsi dato che da piu' parti l'R600 è descritto come una evoluzione di r500, prima GPU ad essere a shader unificati e quindi con qualche caratteristica che "eccede" le dx9, o sbaglio?


se lo dici tu :D
Ero chiaramente ironico...:fagiano:

se si tratta di consigliare all'acquisto di una vga lo si deve fare considerando tutti gli aspetti (anche quelli che non vi fanno piacere). I dati di fatto sono che la 4870 va di più della 260GTX (di poco, per ora, ma di più) e che può vantare una compatibilità con feature dx10.1, che saranno utilizzate anche dalle dx11 con le stesse modalità, che permetteranno di avere un ulteriore incremento di prestazioni.

http://www.extrahardware.cz/duel-geforce-gtx-260-vs-radeon-hd-4870?page=0,6

per quanto riguarda alcune feature (e l'utilizzo di MRT per fare MSAA con deferred rendering è una di queste, si, e l'incremento è di quell'ordine di grandezza per le gpu singole e di poco oltre il 40% per le configurazioni dual con MSAA 4x attivo; con 8x il margine rispetto a g80 e gt200 è ancora maggiore perchè con MSAA 8x crolla lo z-fillrate dei chip NV

http://www.hardware.fr/articles/725-6/dossier-amd-radeon-hd-4870-4850.html

mettila così: oggi vanno meglio le 4870 :D

la risposta te l'ha data nVidia, facendo togliere la patch 1.01 di AC. Se poi un 20-25% di prestazioni in più non dovessero costituire una discriminante, a ,maggior ragione non lo sarebbe un 1-2% in più (ammesso che sia così) di guadagno per la presunta maggiore capacità di oc delle 260


all'epoca non c'era motivo per consigliare una vga dx9 (sia pure più veloce) rispetto ad una dx10 (con supporto solo di facciata); oggi non c'è motivo per consigliare una vga dx10.1 (di poco più veloce) rispetto ad una vga dx10.
Ovvero, all'epoca c'era motivo per consigliare una vga con supporto di facciata dx10 (anche se più lenta), oggi non c'è motivo per consigliare una vga con supporto reale dx10.1 (e visto che le dx10.1 non vi piacciono, anche in parte dx11), seppure di poco più veloce. Strana logica :sofico:
Allora

- da una parte per consigliare si prende in considerazione tutto, cosa che mi pare di aver fatto nel mio primo intervento su questo thread, poi ognuno è libero di scegliere quale peso attribuire a ciascun fattore (personalmente l'OC non lo ritengo fondamentale, dato che di solito sto @default)

- Se escludiamo AC (che infatti è stato escluso :asd:) oggi ci sono 0 giochi dx10.1 (ma non solo, non ce ne sono di annunciati e certi a breve) dove tutte quelle belle features possano essere sfruttate, altrimenti per bilanciare si potrebbe obbiettare che il supporto alla fisica potrebbe divenire un vantaggio reale per tutte le nvidia (per quel che se ne sa ha le stesse probabilità di riuscita)

- Se anche dovesse essere, gli incrementi paventati sono a 2 ulteriori condizioni: l'utilizzo dell'AA (senza AA le prestazioni saranno =) e la presenza di vista con SP1, non sempre presenti (da un lato giochi incompatibili, dall'altro l'OS utilizzato)

Quindi si ritorna al discorso iniziale: fra le due schede a parita' o quasi di prezzo oggi si decide piu' che altro a preferenza personale, altrimenti si commette l'errore di mettere troppe aspettative in API che forse non verranno mai sfruttate (dx10 docet )

invece i fanboy verdi sbandieravano il supporto alle dx10 come elemento fondamentale di scelta :D

E r600 doveva andare il doppio con le dx10, architettura orientata al futuro :sofico:

Ah il vantaggio con AA8x è un po' una banfa (buona sola per mostrare la bravura degli ingegneri ATI ma con scarsa applicazione nella realtà pratica), in primis pochi giochi lo sopportano...in secondo luogo il framerate a risoluzioni elevate scende spesso sotto la soglia della fluidita'

appleroof
20-07-2008, 22:10
Ti ho fatto gia' l'esempio di condotte "immorali" perpetrate da ATI/AMD...non ne abbiamo viste troppe solo perche' essendo stata in condizione di inferiorita' rispetto ad nvidia, non ha lo stesso potere (un chiaro demerito, a maggior ragione quando ha avuto prodotti migliori)

Se consideri anche le altre recensioni, a partire da quelle di questo sito, per passare a quella di http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet si nota come le schede sono equivalenti, e a seconda dei giochi prevalga l'una o l'altra...

C'era perfetta buona fede nell'intenzione di consigliare quelle schede (che comunque in alcuni giochi si dimostravano piu' efficaci), oggi probabilmente tornando indietro non avrei dubbi su quale sarebbe stata la scelta migliore (l'uovo oggi, la gallina l'indomani è morta :stordita: )


be' è naturale, è la stessa tattica usata da AMD con la 3870 che non riusciva a competere con la 8800gt...

Dipende da quale andra' meglio...


Non sono uguali, ma in qualcosa dovranno pure assomigliarsi dato che da piu' parti l'R600 è descritto come una evoluzione di r500, prima GPU ad essere a shader unificati e quindi con qualche caratteristica che "eccede" le dx9, o sbaglio?


Ero chiaramente ironico...:fagiano:

Allora

- da una parte per consigliare si prende in considerazione tutto, cosa che mi pare di aver fatto nel mio primo intervento su questo thread, poi ognuno è libero di scegliere quale peso attribuire a ciascun fattore (personalmente l'OC non lo ritengo fondamentale, dato che di solito sto @default)

- Se escludiamo AC (che infatti è stato escluso :asd:) oggi ci sono 0 giochi dx10.1 (ma non solo, non ce ne sono di annunciati e certi a breve) dove tutte quelle belle features possano essere sfruttate, altrimenti per bilanciare si potrebbe obbiettare che il supporto alla fisica potrebbe divenire un vantaggio reale per tutte le nvidia (per quel che se ne sa ha le stesse probabilità di riuscita)

- Se anche dovesse essere, gli incrementi paventati sono a 2 ulteriori condizioni: l'utilizzo dell'AA (senza AA le prestazioni saranno =) e la presenza di vista con SP1, non sempre presenti (da un lato giochi incompatibili, dall'altro l'OS utilizzato)

Quindi si ritorna al discorso iniziale: fra le due schede a parita' o quasi di prezzo oggi si decide piu' che altro a preferenza personale, altrimenti si commette l'errore di mettere troppe aspettative in API che forse non verranno mai sfruttate (dx10 docet )

E r600 doveva andare il doppio con le dx10, architettura orientata al futuro :sofico:

Ah il vantaggio con AA8x è un po' una banfa (buona sola per mostrare la bravura degli ingegneri ATI ma con scarsa applicazione nella realtà pratica), in primis pochi giochi lo sopportano...in secondo luogo il framerate a risoluzioni elevate scende spesso sotto la soglia della fluidita'

amen.

sonnet
20-07-2008, 22:14
perchè costavano di + (la XTX paaarecchio di +)
mentre le 8600 si trovavano a prezzi + vicini ad una 1950pro.. poi c'erano le ati 2600XT (le dirette avversarie delle 8600) che costavano leggermente meno ma facevano ribrezzo rispetto ad una 8600gts :p

fesserie, la 8600 gts costava 200 (per poi assestarsi sui 170-180 nei primi mesi) euro all'uscita, ovvero piu' della della 1950xt che allora costava sui 170 euro (da almeno inizio anno..).
La pro stava sui 130 e la x1950gt sui 115.
Capisco che uno voglia difendere il proprio acquisto, ma bisogna essere obiettivi nella vita.
La 8600 gts fu un bidone, con i titoli dx9 andava meno delle x1950 che costavano meno, e il famoso supporto dx10 si e' visto a cosa e' servito.
Purtroppo c'e' sempre qualcuno che si fa fregare..

sonnet
20-07-2008, 22:19
C'era perfetta buona fede nell'intenzione di consigliare quelle schede (che comunque in alcuni giochi si dimostravano piu' efficaci), oggi probabilmente tornando indietro non avrei dubbi su quale sarebbe stata la scelta migliore (l'uovo oggi, la gallina l'indomani è morta :stordita: )




Buona fede? Si come no, prima a consigliare una scheda che era un bidone gia' con le recensioni di allora e oggi a dire "e chi lo poteva sapere..".

Mister Tarpone
20-07-2008, 22:20
fesserie, la 8600 gts costava 200 (per poi assestarsi sui 170-180 nei primi mesi) euro all'uscita, ovvero piu' della della 1950xt che allora costava sui 170 euro (da almeno inizio anno..).
La pro stava sui 130 e la x1950gt sui 115.
Capisco che uno voglia difendere il proprio acquisto, ma bisogna essere obiettivi nella vita.
no. la gts si trovava dopo un mese già a 160€ (però c'erano le marche rinomate che continuavano a furtarci un bel pò.. è vero)mentre la pro a 140 e la XT (ci fu un breve periodo dove la xt trovava a 170€ quando la gts ne costava 145 e la pro 130€.. ma fu un offerta di un mese..) a 220€... la xtx non ne parliamo perchè costava uno sproposito. anche + di una gts 320

La 8600 gts fu un bidone, con i titoli dx9 andava meno delle x1950 che costavano meno, e il famoso supporto dx10 si e' visto a cosa e' servito.
Purtroppo c'e' sempre qualcuno che si fa fregare..

sempre meglio della proposta ati come fascia media dx10...infatti le 2600xt (la ddr4 costava quasi come la gts) erano ancor più bidoni.

cmq con gli ultimi giochi queste schede vanno meglio delle vecchie 7900 e 1950pro.. incredibile ma vero.. :asd:

sonnet
20-07-2008, 22:23
Cmq per restare in topic tra la gtx 260 e la 4870 propenderei verso quella che costa meno.
La 4870 sembra essere tecnologicamente piu' avanti, data la velocita' simile e dato il pcb piu' corto prenderei questa visti anche i 10 euri in meno.Il consumo per adesso e' leggermente a favore della gtx 260, ma credo che con il supporto del powerplay nei driver la situaizone si dovrebbe capovolgere drasticamente a favore della scheda ati.
Se la 4870 avesse avuto 1gb di memoria non avrei avuto dubbio alcuno, ma anche cosi propendo nettamente verso ati.

sonnet
20-07-2008, 22:32
no. la gts si trovava dopo un mese già a 160€ (però c'erano le marche rinomate che continuavano a furtarci un bel pò.. è vero)mentre la pro a 140 e la XT (ci fu un periodo che per un mese si trovavaa 170€ quando la gts ne costava 145 e la pro 130€) a 220€... la xtx non ne parliamo perchè costava uno sproposito. anche + di una gts 320


sempre meglio della proposta ati come fascia media dx10...infatti le 2600xt (la ddr4 costava quasi come la gts) erano ancor più bidoni.

cmq con gli ultimi giochi queste schede vanno meglio delle vecchie 7900 e 1950pro.. incredibile ma vero.. :asd:

Guarda tu ne fai un fatto di partigianeria "sempre meglio della proposta ati come fascia media dx10...infatti le 2600xt (la ddr4 costava quasi come la gts) erano ancor più bidoni."
e cerchi di mettere in luce le falle di ATI per coprire quelle di Nvidia,ma a me che non me ne puo' fregar di meno di entrambe, non mi metto certo a cercare di difendere una scheda cesso come la 2600hd.
Cesso perche' andava meno di altre schede di pari prezzo, ma devi anche essere onesto, la 2600hd costa dopo un mese (giusto per fare fare come fai tu) meno della 8600gt (che costava meno della 8600gts).
Per me quella generazione di schede di fascia "media" sia da una parte che dall'altra furono bidoni allo stesso modo ognuna in base al prezzo.
Tu fai il discorso del prezzo dopo un mese,ma non e' che il prezzo si abbasso' perche' le prestazioni facevano ridere (sempre considerando i prezzi e la concorrenza di allora) allo stesso modo di cio' che avviene oggi per la gtx 260?
Ogni scheda va contestualizzata in base al prezzo e alla concorrenza in un dato momento.
La gtx 260 oggi e' un'ottima scheda dal punto di vista prestazionale, ma nessuno mi togliera' l'idea (cosi come per la gtx 280) che chi l'ha presa al lancio pagandola quasi 400 euro un mese fa non abbia preso una bella fregatura (considerando la 4870 a 200 euro).

Mister Tarpone
20-07-2008, 22:38
ma guarda che alla fine concordo.. per come si sono rivelate le dx10 (credevo sarebbero state parecchio utili e invece...), sia 2600 che 8600 si sono dimostrate schede inutili....

oh..però almeno con bioshock ci sono riuscito a giocarci a dettaglio alto in dx10 (finto) :asd: :asd: :asd:

Mister Tarpone
20-07-2008, 22:45
cut

La gtx 260 oggi e' un'ottima scheda dal punto di vista prestazionale, ma nessuno mi togliera' l'idea (cosi come per la gtx 280) che chi l'ha presa al lancio pagandola quasi 400 euro un mese fa non abbia preso una bella fregatura (considerando la 4870 a 200 euro).

concordo perfettamente.
ora è una bella scelta. ma per 400€ non lo era di certo.. visti i prezzi della 70. lo dissi pure io...

Kharonte85
20-07-2008, 23:07
Buona fede? Si come no, prima a consigliare una scheda che era un bidone gia' con le recensioni di allora e oggi a dire "e chi lo poteva sapere..".
non diciamo fesserie, la scheda era sì piu' lenta della x1950pro ma non di molto e non sempre, le speranze erano riposte nei giochi dx10 che allora si pensava che aumentassero le prestazioni grazie alla riduzione dell'overhead (mado' quante caxxate che se ci ripenso :mad: :mad: :mad: ) inoltre prima di consigliarla si faceva la classica domanda: hai intenzione di passare a Vista? oppure si chiedeva se era interessato per un uso media center (in quel caso la gestione dei flussi video era migliore), tanto piu' che un gioco oggi se non gira su una 8600gts non gira nemmeno sulla x1950pro...

michelgaetano
20-07-2008, 23:39
concordo perfettamente.
ora è una bella scelta. ma per 400€ non lo era di certo.. visti i prezzi della 70. lo dissi pure io...

mi aggrego :D

Mister Tarpone
20-07-2008, 23:44
mi aggrego :D

ot

ogni tanto posta nel 3d della GT eh.. magari qualche consiglio tuo ad alcuni nuovi inesperti (:stordita: ) potrebbe fare comodo.... ;)

che io dopo un pò mi stufo :asd:

Sgt.Pepper89
20-07-2008, 23:58
in realtà forse tu non hai premuto su questo punto, ma la discussione su questo tread verteva tutta su quasto aspetto


in realtà la superiorità c'era, ho controllato
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/

ma non era costante, e sopratutto non c'era motivo di consigliare una vga dx9 sia pure prestante rispetto ad una dx10 (ripeto all'epoca non possedendo una palla di cristallo non si poteva sapere che di giochi dx10 non ne avremmo visto uno, le dx10 però erano appena uscite...)

ricordo le parti invertite: all'epoca i fanboy rossi sostenevano la x1950pro dicendo "tanto giochi dx10 non ce n'è, meglio una vga prestante in dx9 oggi poi quando arriveranno giochi dx10 la cambierai [alla faccia della scelta longeva :asd: ]" :D



in realtà in questo caso, se ti liberi da considerazioni di tipo tifoso, capisci che tra gtx260 e 4870 puoi limitarti a tirare una monetina tra le due: quando arriveranno giochi dx10.1 in massa quasi sicuramente staremo a discutere di "gtx300" e "hd5000" ;)

dimenticavo: imho, naturalmente :D
Allora, ricapitoliamo: all'epoca si consigliava una vga con prestazioni inferiori e tecnologia superiore. Oggi, c'è una vga con prestazioni superiori e ANCHE tecnologia superiori, e mi dici che la scelta va fatta con la monetina perchè sono la stessa cosa :stordita: ?

direi che vanno uguale




Anche la review della zotac AMP presente su questo sito è indicativa:

http://www.hwupgrade.it/articoli/skvideo/2005/media_giochi_1680.png

http://www.hwupgrade.it/articoli/skvideo/2005/media_giochi_1920.png

In piu' i partner piu' perfidi presentano guardacaso versioni spinte in modo simile, a dimostrazione del fatto che la scheda ben tollera quelle frequenze, mentre per la hd4870 al momento ho visto solo un timido 780/4000 di MSI


I grafici parlano chiaro: a default la 260 va un filo meno, oc va un filo più; ma quando è la 4870 ad andare un filo di più della 260 standard le due schede diventano "uguali", quando la gtx260 oc va un filo di più allora è una scheda più veloce. Stiamo usando due pesi e due misure?
E infine leggendo i risultati alla risoluzione più alta, possiamo dire che oggi il maggior quantitativo di ram installata non conta una cippa. E ora non ditemi "eh ma in futuro la ram maggiore servirà", per favore, sono 5 pagine che si prova a far notare che il supporto alle dx10.1 servirà :D

yossarian
21-07-2008, 00:23
ok, allora domani al primo che arriva e chiede: ragazzi, tra 3850 a 80€ e 9600gt a 90€ cosa mi consigliate? risponderò: un crossfireX di 4870x2 per 800€.


infatti tra una 1950xt ed una 8600 gts allora e una 9600gt ed un cf di 4870x2 oggi c'è la stessa differenza di prezzo :sofico:



continui a battere su un punto empiricamente non dimostrabile. Dovendo consigliare cercherei di guardare a quello che uno farà oggi con una vga, domani vedremo.

e ci tengo a risottolineare che

1. le dx10 sono al capolinea come librerie, mentre ai tempi della 8600 erano appena uscite, non si può tacciare di disonestà intellettuale chi all'epoca consigliava una vga all'avanguardia piuttosto che una vecchia, a meno che questo qualcuno fosse il capoccione di una SWH, mentre oggi si consiglia una vga che tra un futuro pieno di vga del tutto nuove consentirà forse un 20% di prestazioni in più, ma nel frattempo fà il 6% + della concorrente (WOW)



non si tratta di essere il capoccione di una SWH, bastavano le specifiche dell'HW: quando mai è stato possibile con una fascia bassa far girare giochi con nuove api? Come andavano le 6200 in dx9 (le 5200 neppure le considero)?
In quanto al 6 e al 20%, rifacciamo due conti: oggi è il 6% in più, domani sarà il 24% circa in più di quello che un RV770 può dare oggi: ergo, 6+24=30% in più di una 260.



2. conseguenza: quando avremo giochi dx10.1 tutti correremo a prendere vga dx11; gli altri scenderanno a compromessi, maggiori o minori, qualsiasi vga abbiano nel cofano: per ora guardiamo come vanno oggi le vga e tra le 2 contendenti di questo tread si può fare ambarabàcicìcocò per scegliere

tutti chi? C'è gente che una vga la conserva per anni. Anche a quelli pensate di consigliare una 260GTX in virtù di una maggiore longevità dovuta non si sa bene a cosa? In secondo luogo, il vantaggio ipotetico derivante dalle dx10.1 e relativo all'uso di MRT non sarà cancellato dalle dx11. Anche le dx11 prevedono l'uso di MRT allo stesso identico modo.



Ti ho fatto gia' l'esempio di condotte "immorali" perpetrate da ATI/AMD...non ne abbiamo viste troppe solo perche' essendo stata in condizione di inferiorita' rispetto ad nvidia, non ha lo stesso potere (un chiaro demerito, a maggior ragione quando ha avuto prodotti migliori)


cioè AVIVO e il rinominare le vga? Te ne aggiungo un'altra io: l'eseguibile di quake 3 rinominato in quack per far aumentare le prestazioni :D .
Per elencare tutte quelle di nVidia serve un thread apposito, invece :ciapet:
Forse ATi non ne ha avuto bisogno perchè ha quasi sempre avuto prodotti tecnologicamente superiori e spesso anche più veloci (dove sono finite con i nuovi titoli le 7950, ad esempio?)



Se consideri anche le altre recensioni, a partire da quelle di questo sito, per passare a quella di http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet si nota come le schede sono equivalenti, e a seconda dei giochi prevalga l'una o l'altra...


anche in quella rece, con i filtri attivi la 4870 sta sempre davanti (con aa 8x anche in maniera imbarazzante).
Poi, se consideriamo solo lost planet, le nvidia vanno decisamente meglio :D



C'era perfetta buona fede nell'intenzione di consigliare quelle schede (che comunque in alcuni giochi si dimostravano piu' efficaci), oggi probabilmente tornando indietro non avrei dubbi su quale sarebbe stata la scelta migliore (l'uovo oggi, la gallina l'indomani è morta :stordita: )


in quali giochi? Le techdemo di nVidia? Oggi, probabilmente, tornando indietro ridareste gli stessi consigli.



be' è naturale, è la stessa tattica usata da AMD con la 3870 che non riusciva a competere con la 8800gt...


stai ammettendo che la 260 non può competere con la 4870 a default? :D




Dipende da quale andra' meglio...



scommettiamo?



Non sono uguali, ma in qualcosa dovranno pure assomigliarsi dato che da piu' parti l'R600 è descritto come una evoluzione di r500, prima GPU ad essere a shader unificati e quindi con qualche caratteristica che "eccede" le dx9, o sbaglio?



anche g80 è a shader unificati: quindi anche g80 ha qualcosa in comune con r500. Anzi forse ha più di qualcosa in comune. Ad esempio l'autobilanciamento dei carichi di lavoro utilizza lo stesso tipo di logica. Le alu, però, sono completamente differenti e, di conseguenza l'ISA è differente per tutti e tre i chip.



Allora

- da una parte per consigliare si prende in considerazione tutto, cosa che mi pare di aver fatto nel mio primo intervento su questo thread, poi ognuno è libero di scegliere quale peso attribuire a ciascun fattore (personalmente l'OC non lo ritengo fondamentale, dato che di solito sto @default)



peccato che il supporto alla fisica sia implementabile anche su gpu ati e che, lo ripeto per l'ennesima volta, alcune delle feature dx10.1 che danno vantaggi prestazionali alle ati saranno utilizzati allo stesso modo anche con le dx11. L'o/c è una variabile aleatoria e i benefici di questo presunto maggiore o/c sono tutti da dimostrare.



Allora

- Se escludiamo AC (che infatti è stato escluso :asd:) oggi ci sono 0 giochi dx10.1 (ma non solo, non ce ne sono di annunciati e certi a breve) dove tutte quelle belle features possano essere sfruttate, altrimenti per bilanciare si potrebbe obbiettare che il supporto alla fisica potrebbe divenire un vantaggio reale per tutte le nvidia (per quel che se ne sa ha le stesse probabilità di riuscita)



la fisica è implementabile anche su gpu ati, il MRT per MSAA con deferred rendering non si può utilizzare su gpu nVidia.



- Se anche dovesse essere, gli incrementi paventati sono a 2 ulteriori condizioni: l'utilizzo dell'AA (senza AA le prestazioni saranno =) e la presenza di vista con SP1, non sempre presenti (da un lato giochi incompatibili, dall'altro l'OS utilizzato)



si avranno anche con l'adozione delle dx11. E se non si avranno è perchè non si saranno adottate le dx11 e allora non avrà senso comprare vga dx11 :sofico:
Non sto parlando del pacchetto completo ma di un'unica feature che è poi quella che dovrebbe essere naturalmente adoperata per fare MSAA box filter con deferred rendering. Invece adesso si ricorre ad un'operazione di render to texture (per le dx10), con la necessità di effettuare una chiamata a texture ogni volta che devo utilizzare i risultati delle z-ops, oppure una forma di blending con illuminazione che da dinamica diventa statica (perchè l'illuminazione dinamica obbliga a ricalcolare tutta la geometria ogni volta), con le dx9.



Quindi si ritorna al discorso iniziale: fra le due schede a parita' o quasi di prezzo oggi si decide piu' che altro a preferenza personale, altrimenti si commette l'errore di mettere troppe aspettative in API che forse non verranno mai sfruttate (dx10 docet )


parli delle dx11? :D



E r600 doveva andare il doppio con le dx10, architettura orientata al futuro :sofico:


sicuramente più orientata al futuro di quella di g80, visto che ati non ha avuto difficoltà a passare alle dx10.1 e ne avrà poche per passare alle 11; lo stesso, evidentemente, non si può dire per nVidia :D




Ah il vantaggio con AA8x è un po' una banfa (buona sola per mostrare la bravura degli ingegneri ATI ma con scarsa applicazione nella realtà pratica), in primis pochi giochi lo sopportano...in secondo luogo il framerate a risoluzioni elevate scende spesso sotto la soglia della fluidita'

il framerate scende sotto la soglia della fluidità a tre condizioni:
- sei fb limited (può succedere sia con ati che con nVidia)
- sei bandwidth limited (non succede né con GT200 né con RV770)
- le unità che si occupano delle z-ops nelle rbe non hanno la possibilità di fare più di 2 interpolazioni lineari (è il caso di G80 e GT200 ma non di RV670 e RV770).

Quindi, a risoluzioni per cui non si è fb limited, il msaa 8x con RV770 è tutt'altro che una banfa

yossarian
21-07-2008, 00:33
fesserie, la 8600 gts costava 200 (per poi assestarsi sui 170-180 nei primi mesi) euro all'uscita, ovvero piu' della della 1950xt che allora costava sui 170 euro (da almeno inizio anno..).
La pro stava sui 130 e la x1950gt sui 115.
Capisco che uno voglia difendere il proprio acquisto, ma bisogna essere obiettivi nella vita.
La 8600 gts fu un bidone, con i titoli dx9 andava meno delle x1950 che costavano meno, e il famoso supporto dx10 si e' visto a cosa e' servito.
Purtroppo c'e' sempre qualcuno che si fa fregare..

no. la gts si trovava dopo un mese già a 160€ (però c'erano le marche rinomate che continuavano a furtarci un bel pò.. è vero)mentre la pro a 140 e la XT (ci fu un breve periodo dove la xt trovava a 170€ quando la gts ne costava 145 e la pro 130€.. ma fu un offerta di un mese..) a 220€... la xtx non ne parliamo perchè costava uno sproposito. anche + di una gts 320


sempre meglio della proposta ati come fascia media dx10...infatti le 2600xt (la ddr4 costava quasi come la gts) erano ancor più bidoni.

cmq con gli ultimi giochi queste schede vanno meglio delle vecchie 7900 e 1950pro.. incredibile ma vero.. :asd:

i prezzi erano, all'epoca, questi (c'è la 1900xt e non la 1950 che costava meno e andava un po' di più)

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/42/#abschnitt_preisleistungverhaeltnis

e le prestazioni queste

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/27/#abschnitt_performancerating

da notare, con i filtri, il leggero vantaggio delle 1900xt (fino al 63% a 1600x1200 e solo il 49% a 1280); per la pro si va dal 13% al 22%% :read: :D

Mister Tarpone
21-07-2008, 01:02
non sono state schede molto riuscite dai.. c'è poco da fare. avevano il supporto alle dx10, migliori qualità per la riporduzione dei filmati, consumi più bassi maaa.. le precedenti ati andavan di più.

qui c'è un altra comaprativa più completa, con anche le ATi 2600XT.....

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

a 1280x1024 + filtri la proposta di fascia media ATi, la 2600xt ddr4 (nei primi mesi 140€ di scheda) andava solo un 10% + di una 1650xt... :sbonk: :rotfl:

almeno la nvidia in queste comparative appare ai livelli delle varie 7900.. e vicina ad una 1950pro...che anche se andava un pò di + aveva meno feature (anche se come abbiamo detto la feature dx10 poi si è rivelata una stronza..ta ):asd: ;)

cmq abb. deludenti come schede di fascia media ( queste dovevano esssere le sostitute delle precedenti fascia media 7600GT e x1650XT) .... le ati parecchio di +...

yossarian
21-07-2008, 01:11
non sono state schede riuscite dai.. c'è poco da fare. avevano il supporto alle dx10, migliori qualità per la riporduzione dei filmati, consumi più bassi maaa.. le precedenti ati andavan di più.

qui c'è un altra comaprativa più completa, con anche le ATi 2600XT.....

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

a 1280x1024 + filtri la proposta di fascia media ATi, la 2600xt ddr4 (nei primi mesi 140€ di scheda) andava solo un 10% + di una 1650xt... :sbonk: :rotfl:

almeno la nvidia in queste comparative appare ai livelli delle varie 7900.. e vicina ad una 1950pro...che anche se andava un pò di + aveva meno feature (anche se come abbiamo detto la feature dx10 poi si è rivelata una stronza..ta ):asd: ;)

cmq abb. deludenti come schede di fascia media ( queste dovevano esssere le sostitute delle precedenti fascia media 7600GT e x1650XT) .... le ati ancor di +...

quello che non si è capito è che questa non era la fascia media ma quella bassa: c'era troppa differenza, a livello di specifiche, con la fascia alta e la cosa era fin troppo evidente: per la 8600 GTS 32 sp contro i 128 della 8800 GTX. La stronzata non era il supporto alle dx10: la stronzata era credere che questo HW avrebbe potuto far girare decentemente codice dx10 (viste anche le difficoltà palesate con le dx9).
Il fatto che le dx10 rendano più veloci alcune operazioni è vero: il problema è cercare di capire più veloci rispetto a che, poichè le dx10 sono molto più esose in termini di richieste HW rispetto alle 9, molto più di quanto le 9 lo fossero rispetto alle 8

Mister Tarpone
21-07-2008, 01:26
quello che non si è capito è che questa non era la fascia media ma quella bassa: c'era troppa differenza, a livello di specifiche, con la fascia alta e la cosa era fin troppo evidente: per la 8600 GTS 32 sp contro i 128 della 8800 GTX. La stronzata non era il supporto alle dx10: la stronzata era credere che questo HW avrebbe potuto far girare decentemente codice dx10
vabbè la gtx aveva molti più shader ecc... ma quando uscì era una scheda pensata per andare bene a risoluzioni uber tipo 1920x.. idem la GTS...



con una semplice 1280x1024... alcuni pensavano che un architettura nuova come quella delle nuove ati o nvidia, nonostante i pochi sp, bastasse per andare bene... (specie la nvidia... che aveva prestazioni, già in dx9, molto migliori di una 2600.. e vicine alle 7900 ecc..)
..anche per il discorso delle dx10 che avrebbero dovuto dare una spintarella rispetto al dx9 , come prestazioni :sofico:

cmq la fascia bassa di quella generazione di schede erano le 2400XT di ati con 40sp e le 8500GT di nvidia con 16sp e ddr2...

Sgt.Pepper89
21-07-2008, 01:34
non sono state schede molto riuscite dai.. c'è poco da fare. avevano il supporto alle dx10, migliori qualità per la riporduzione dei filmati, consumi più bassi maaa.. le precedenti ati andavan di più.

qui c'è un altra comaprativa più completa, con anche le ATi 2600XT.....

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

a 1280x1024 + filtri la proposta di fascia media ATi, la 2600xt ddr4 (nei primi mesi 140€ di scheda) andava solo un 10% + di una 1650xt... :sbonk: :rotfl:

almeno la nvidia in queste comparative appare ai livelli delle varie 7900.. e vicina ad una 1950pro...che anche se andava un pò di + aveva meno feature (anche se come abbiamo detto la feature dx10 poi si è rivelata una stronza..ta ):asd: ;)

cmq abb. deludenti come schede di fascia media ( queste dovevano esssere le sostitute delle precedenti fascia media 7600GT e x1650XT) .... le ati parecchio di +...

Continui a tirare in ballo schede che non sono state considerate, dicendo "eh la gts era peggio ma c'era qualcosa di più peggio da parte di Ati". All'epoca infatti era unasfida tra 1950 pro (xt inizialmente, visti i prezzi di lancio delle 8600) e 8600gts.

Io propongo di mettere fine a questo inutile Ot, affermando: la 4870 va di più, e costa meno, quindi non c'è nemmeno da dover scegliere tra le due vga.
Qualcuno pensa di poter controbattere ancora :D dopo 6 pagine di confronto?

Mister Tarpone
21-07-2008, 01:36
Continui a tirare in ballo schede che non sono state considerate, dicendo "eh la gts era peggio ma c'era qualcosa di più peggio da parte di Ati". All'epoca infatti era unasfida tra 1950 pro (xt inizialmente, visti i prezzi di lancio delle 8600) e 8600gts.
premettendo il fatto che han deluso entrambe...
e perchè mai deve esser considerata una sola solo una 8600??se pure la media dx10 2600XT ddr4 (mentre la XT DDR3 contro la 86GT) che costava 140€, ed andava un 43% meno dei una 1950 Pro e un 30% meno della 86GTS era deludente??? :mbe:
che poi all'uscita di queste nuove ati la nvidia si trovava giusto a 20€ +, mica 100 :mbe:

quindi se vogliamo essser giusti, i bidoni a quei tempi erano 2. tutto qua.




Il fatto che le dx10 rendano più veloci alcune operazioni è vero: il problema è cercare di capire più veloci rispetto a che, poichè le dx10 sono molto più esose in termini di richieste HW rispetto alle 9, molto più di quanto le 9 lo fossero rispetto alle 8

ripeto, praticamente a quei tempi si credeva che un gioco in dx10 sarebbe girato più veloce rispetto al dx9. con tutte queste nuove schede...ovviamente a risoluzioni umane nel caso di 2600xt ddr4 e 8600gts...mentre le 88GTX, 88GTS e 29XT a risoluzioni ultra elevate + filtri.
quindi mentre una 1950pro o 7900GT ecc.. si sarebbero fermate alle prestazioni e qualità grafica dx9, le 2600 e 8600 avrebbero potuto godere, con lo stesso gioco, di maggiori prestazioni in modalità dx10 esprimendosi al max grazie alla loro nuova architettura.

ma alla fine così non è stato....e si è visto che molti dei primi giochi dx10 (finti...) han fatto dannare addirittura le schede di fascia alta.... purtroppo questa è stata la realtà... in questi primi esperimenti dx10, si parlava di giochi non realmente ottimizzati e di OS ancora da sistemare ecc... ma anche andando molto + avanti le cose non sono cambiate ASSOLUTAMENTE nel 99% dei casi.
cmq peccato..perchè io sinceramente ci speravo nelle performance migliorate in dx10 :asd:
:stordita: :stordita: ;)

cmq yossarian .. capita a tutti di sbagliare... ;) per esempio mi sembra che in molti sempre di questo forum si sono sbagliati (e nel thread di r600 c'erano anche utenti informati, molto tecnici :Perfido:) con le previsoni della 2900XT....che sarebbe dovuta esssere un gioiello di scheda capace di andare anche meglio di una 8800GTX (:sbonk:) , che in futuro avrebbe dato il meglio di se con i giochi + moderni ( a ri :sbonk:) e tante altre belle cosette....
e invece anche questa scheda è stata una gran bella delusione ;)

...cmq.. io ho capito che è meglio non fidarsi di tutte le cose che vengan dette nel campo dell'hw... perchè la metà sono promesse
(tipo super R600, dx10 che migliorano le prestazioni, nuovi OS più performanti ecc..) che poi non vengan mantenute... :asd:


ciaooooooooooooooooooooooooooooooooooooooooooo


____
;)

Mister Tarpone
21-07-2008, 02:22
oddio si è collegato... ora mi fa la festa per quello che ho scritto :ops: :ops:


adios :ops: :ops:

yossarian
21-07-2008, 03:09
ripeto, praticamente a quei tempi si diceva che un gioco in dx10 sarebbe girato più veloce rispetto al dx9. con tutte queste nuove schede...ovviamente a risoluzioni umane nel caso di 2600xt ddr4 e 8600gts...mentre le 88GTX, 88GTS e 29XT a risoluzioni ultra elevate + filtri.
quindi mentre una 1950pro o 7900GT ecc.. si sarebbero fermate alle prestazioni e qualità grafica dx9, le 2600 e 8600 avrebbero potuto godere, con lo stesso gioco, di maggiori prestazioni in modalità dx10 esprimendosi al max grazie alla loro nuova architettura.

ma alla fine così non è stato....e si è visto che molti giochi dx10 (finti...) han fatto dannare addirittura le schede di fascia alta.... purtroppo questa è stata la realtà.
peccato..perchè io sinceramente ci speravo nelle performance migliorate in dx10 :asd:
:stordita: :stordita: ;)



ridurre il carico di lavoro della cpu non significa automaticamente avere prestazioni migliori. Potrei avere prestazioni migliori se penso ad un gioco programmato con in mente hw dx9 ma con il vantaggio introdotto, ad esempio, a livello di cpu overhead delle dx10. Se penso, però, alle specifiche delle dx10 e le confronto con quelle delle dx9, non posso essere indotto a ritenere che un gioco dx10 possa girare più fluido di un gioco dx9 (4096 registri temporanei contro 32, 16x4096 registri costanti contro 256, 128 texture per pass contro 16; già questi dati dovrebbero indurre a riflettere su quelle che sono le richieste per HW dx10 e dovrebbero far capire quanto più pesante può essere un motore grafico dx10 rispetto ad uno dx9).



cmq yossarian .. capita a tutti di sbagliare... ;) MI sembra che pure alcuni di voi del thread di R600 vi siete sbagliati (e alcuni di quel thread erano utenti informati, molto tecnici) con le previsoni sulla 2900XT.. che sarebbe dovuta esssere un gioiello di scheda capace di andare anche meglio di una 8800GTX (:sbonk:) e tante altre belle cosette....
e invece anche questa è stata una gran bella delusione ;)


ciaooooooooooooooooooooooooooooooooooooooooooo


____
;)

voi chi? Questo dovrebbe essere un forum dove si parla di tecnologia e non un'arena in cui si confrontano opposte fazioni. Invece è proprio questo atteggiamento che porta a fare vga war, cpu war, console war; insomma, tutto tranne che fare discorsi di tipo tecnico.
In questa sede e con questi presupposti, mi pare del tutto inutile continuare una discussione che non ha nulla di tecnico e che non è possibile incanalare su binari diversi da un confronto tra un voi e un noi che esiste, evidentemente, nella testa di più di qualcuno.
R600 è stato una delusione? Sicuramente dal punto di vista delle prestazioni (anche a causa dell'hype generato); non dal punto di vista dell'architettura; pare, infatti, che ai più sia sfuggito il fatto che il passaggio da R600 a RV770 non ha affatto richiesto stravolgimenti architetturali del chip come quelli che sono stati necessari, ad esempio, nel passaggio da NV3x a NV40 (entrambi dx9).
In quanto alle prestazioni con le dx10, aspettiamo di vedere giochi nativi dx10 (o magari 10.1), visto che tutti quelli presenti sono stati sviluppati su piattaforme dx9 o, addirittura, in parte dx8 e in parte dx9 e solo da relativamente poco tempo c'è la possibilità di sviluppare avendo come modello gpu che siano almeno dx10

yossarian
21-07-2008, 03:10
http://www.hardwaresecrets.com/printpage/95/2

Mister Tarpone
21-07-2008, 03:32
voi chi? Questo dovrebbe essere un forum dove si parla di tecnologia e non un'arena in cui si confrontano opposte fazioni. Invece è proprio questo atteggiamento che porta a fare vga war, cpu war, console war; insomma, tutto tranne che fare discorsi di tipo tecnico.
In questa sede e con questi presupposti, mi pare del tutto inutile continuare una discussione che non ha nulla di tecnico e che non è possibile incanalare su binari diversi da un confronto tra un voi e un noi che esiste, evidentemente, nella testa di più di qualcuno.
R600 è stato una delusione? Sicuramente dal punto di vista delle prestazioni (anche a causa dell'hype generato); non dal punto di vista dell'architettura; pare, infatti, che ai più sia sfuggito il fatto che il passaggio da R600 a RV770 non ha affatto richiesto stravolgimenti architetturali del chip come quelli che sono stati necessari, ad esempio, nel passaggio da NV3x a NV40 (entrambi dx9).


vedi che ho modificato l'ultimo post (in ritardo perchè purtroppo il forum mi dava dei problemi) per evitare la pericolosissima GPU WAr anche se cmq nelle pagine di questo 3d ormai è già abbondante :asd: ;)


cmq quel "voi" era inteso in generale a tutti quelli che in quel periodo erano interessati alle schede ati, nonostante le 8800 già presenti sul mercato e che andavano come una sassata, perchè fedelissimi a questa marca e sicuri --anche i più esperti, e con tante argomentazioni tecniche-- che R600, una volta uscito, sarebbe stato un gioiello......cosa che non è successa assolutamente.
tutto qui.
non lo avevo scritto di certo per voler fare la guerra, con le 2 fazioni e queste bischerate qui.
era solo un esempio per dire che capita a tutti di fare un errore di valutazione, anche ai più esperti ;) !!



In quanto alle prestazioni con le dx10, aspettiamo di vedere giochi nativi dx10 (o magari 10.1), visto che tutti quelli presenti sono stati sviluppati su piattaforme dx9 o, addirittura, in parte dx8 e in parte dx9 e solo da relativamente poco tempo c'è la possibilità di sviluppare avendo come modello gpu che siano almeno dx10

si vedremo via... ;) aspettiamo (ancora..?? :asd:) sti benedetti giochi nativi dx10 :sperem:


ciao

Mister Tarpone
21-07-2008, 03:37
http://www.hardwaresecrets.com/printpage/95/2

poi lo leggerò... (con il traduttore di google.. :muro: :asd:)

Mister Tarpone
21-07-2008, 04:19
R600 è stato una delusione? Sicuramente dal punto di vista delle prestazioni (anche a causa dell'hype generato); non dal punto di vista dell'architettura;
Io parlavo dell'architettura di QUEL chip li, usato per le varie 2900xt, pro ecc.. è stata deludente.
e le speranze che la 2900XT con quella architettura si rivelasse migliore in futuro, non si sono mai avverate.


pare, infatti, che ai più sia sfuggito il fatto che il passaggio da R600 a RV770

correggimi se sbaglio (che qui l'esperto sei tu :D [ :fagiano: ])
ma giusto il funzionamento degli sp è la stesso di R600....ma mi sembra che tante altre cosette son state cambiate /corrette.. addirittura anche il tipo di bus.. o no?? :confused:

RV770 è molto di più che un R600 con + sp... in quella architettura, anche se non l'hanno proprio stravolta (quasi :D) , han cmq dovuto aggiungere, correggere e modificare tante cose.


non ha affatto richiesto stravolgimenti architetturali del chip come quelli che sono stati necessari, ad esempio, nel passaggio da NV3x a NV40 (entrambi dx9)
o come anche nel caso di Ati quando con le schede dx9 dovette passare R4x0 a R5x0 (da x800 a x1800 ) ...sbaglio?? è giusto come esempio anche questo?? :confused:

michelgaetano
21-07-2008, 08:44
ot

ot

ogni tanto posta nel 3d della GT eh.. magari qualche consiglio tuo ad alcuni nuovi inesperti (:stordita: ) potrebbe fare comodo.... ;)

che io dopo un pò mi stufo :asd:

Ma ci son stati nuovi arrivi? o.O

Vado a controllare

/ot :asd:

Sgt.Pepper89
21-07-2008, 08:49
premettendo il fatto che han deluso entrambe...
e perchè mai deve esser considerata una sola solo una 8600??se pure la media dx10 2600XT ddr4 (mentre la XT DDR3 contro la 86GT) che costava 140€, ed andava un 43% meno dei una 1950 Pro e un 30% meno della 86GTS era deludente??? :mbe:
che poi all'uscita di queste nuove ati la nvidia si trovava giusto a 20€ +, mica 100 :mbe:

quindi se vogliamo essser giusti, i bidoni a quei tempi erano 2. tutto qua.

Ma chi ha tirato in ballo la 2600xt?? Se stato solo tu, appunto per nascondere le deficienze di altre schede mostrando "eh c'era qualcosa di peggio". Io allora posso tirarti fuori che all'epoca la 7900gt costava 200 euro e andava decisamente meno della 1950 pro!! Nessuno credo sia mai stato così incosciente da consigliare una 2600xt (almeno su pci express, su agp invece era la scheda più avanzata disponibile) contro una 8600 quando c'erano le x1900. Perchè invece di continuare in OT non ti metti a commentare la mia conclusione? Forse perchè non è possibile per "voi" (come se fosse una guerra di fazioni...) riconoscere che la scheda migliore tra le due è una Ati?

Mister Tarpone
21-07-2008, 08:59
ot



Ma ci son stati nuovi arrivi? o.O

Vado a controllare

/ot :asd:

si un pò imbranatini però.. :D

Mister Tarpone
21-07-2008, 09:29
@ Sgt.Pepper89

guarda.. ti dico che la 4870 la reputo veramente ottima... :D



(:bsod: per "lo sforzo"... scherzo eh :asd: :asd: :asd:)


ciao ;)

Suhadi_Sadono
21-07-2008, 10:10
@ Sgt.Pepper89

guarda.. ti dico che la 4870 la reputo veramente ottima... :D



(:bsod: per "lo sforzo"... scherzo eh :asd: :asd: :asd:)


ciao ;)

:asd: :asd: :asd: :asd: :asd: :asd: :asd:

yossarian
21-07-2008, 11:39
poi lo leggerò... (con il traduttore di google.. :muro: :asd:)

è sufficiente che guardi le tabelle, per renderti conto delle differenti richieste in termini di HW delle dx10 rispetto alle dx9. Questo tipo di tabelle girano su internet da prima dell'uscita della serie 8 di nVidia e possono essere utili per rendersi conto almeno della potenza di calcolo necessaria a far girare codice dx10 (potebza di calcolo che le 8600, 8400, 2600 ecc non hanno, pur avendo una compatibilità dx10 teorica)

Io parlavo dell'architettura di QUEL chip li, usato per le varie 2900xt, pro ecc.. è stata deludente.
e le speranze che la 2900XT con quella architettura si rivelasse migliore in futuro, non si sono mai avverate.


sull'architettura di quel chip di cose ne sono state dette tante, alcune giuste, altre del tutto sbagliate. Di sicuro aveva dei difetti che sono stati corretti con RV770; sicuramente non è un chip adatto a far girare codice di tipo dx9 che faccia scarso uso di vertex texturing e di ottimizzazioni spostate a livello di vertex shaders (operazioni con cui R600 è molto più veloce di G80 in versione GTX o GTX Ultra). Dovendo far girare codice in cui il peso maggiore è ancora a livello di operazioni di pixel shading che spesso sono di tipo float MAD serial o INT MAD serial e dependent read (caso migliore per G80 e GT200 e caso peggiore per R600 e RV770), è emersa la minore capacità nelle operazioni di texturing e una minore potenza di calcolo (spesso buona parte delle alu restano in idle). Scenario completamente differente si ha, invece, nel caso di istruzioni di tipo float MAD parallel o float sqrt serial o, ancora di più, float 5 instruction issue (caso migliore per architetture vliw 5-way per cui è sufficiente un solo ciclo e caso peggiore per architetture scalari come quella di G80 per cui sono necessari 5 cicli per eseguire la stessa istruzione). Il codice dx10 prevede l'utilizzo di molte più istruzioni di tipo parallelo rispetto a quello dx9.



correggimi se sbaglio (che qui l'esperto sei tu :D [ :fagiano: ])
ma giusto il funzionamento degli sp è la stesso di R600....ma mi sembra che tante altre cosette son state cambiate /corrette.. addirittura anche il tipo di bus.. o no?? :confused:

RV770 è molto di più che un R600 con + sp... in quella architettura, anche se non l'hanno proprio stravolta (quasi :D) , han cmq dovuto aggiungere, correggere e modificare tante cose.


le modifiche maggiori riguardano proprio il MC, soprattutto per un motivo: il ring di R600 aveva problemi a gestire contemporaneamente traffico di dati relativo al 3D e traffico relativo ad altre operazioni; l'aver aggiunto ben 6 cluster di sp in RV770 avrebbe reso ancor più critico questo task (già la sola presenza di un numero di cluster maggiore di 4 sarebbe stato sufficiente a creare problemi, non a caso, in tutti i chip in cui è presente il ring bus, i gruppi di unità da gestire non sono più di 4). L'altra modifica sostanziale è stata proprio l'aggiunta di un gran numero di unità di calcolo che ha ridotto in maniera drastica l'impatto che un tipo di programmazione legata ancora a vecchi canoni ha su questo tipo di architettura.



o come anche nel caso di Ati quando con le schede dx9 dovette passare R4x0 a R5x0 (da x800 a x1800 ) ...sbaglio?? è giusto come esempio anche questo?? :confused:

nel passaggio dall'architettura di R3x0 a quella di R5x0 non sarebbe stato necessario rivoluzionare l'architettura per avere la compatibilità con lo sm3.0. E' stato fatto perchè la nuova architettura serviva da ponte tra quella di R3x0 e quella a shader unificati; in tal modo si potevano sperimentare alcune soluzioni che sarebbero state usate anche in seguito (una parziale forma di ring bus, il thread dispatch processor, cluster di registri posti al di fuori delle pixel pipeline, ecc).
Con NV30, invece, le cose sono andate diversamente: NV30 presentava un'architettura ancora legata al vecchio schema (4x2 con alu vect4 e più unità di tipo INT che di tipo FP, bus a 128 bit). Tanto che il chip era molto veloce con codice DX8 ma si piantava con le dx9. NV40 invece aveva architettura 16x1, alu di tipo FP scalari, bus a 256 bit)

Mastermind01
31-10-2008, 00:29
Ciao tutti la 4870 da 1 gb a quale scheda nvidia si paragona?Tra quella ati e nvidia quale e la migliore in generale?e nei giochi anche di ultima generazione con e senza filtri?
Ho E-8500 monitor 1680x1050 2 gb ram

Sgt.Pepper89
31-10-2008, 00:41
Ciao tutti la 4870 da 1 gb a quale scheda nvidia si paragona?Tra quella ati e nvidia quale e la migliore in generale?e nei giochi anche di ultima generazione con e senza filtri?
Ho E-8500 monitor 1680x1050 2 gb ram
Sta tra 260 e 280. La migliore è la 4870x2. A quella risoluzione ti consiglio di prendere una 4870 512 mega.

Suhadi_Sadono
31-10-2008, 08:32
Sta tra 260 e 280. La migliore è la 4870x2. A quella risoluzione ti consiglio di prendere una 4870 512 mega.
O la GTX260.

Mastermind01
31-10-2008, 08:42
Perche la 512 e non quella da 1 gb? Io cmq vorrei sapere tra la 4870 1 gb e gtx 260 quale e la migliore in termini generali e quanto margine di differenza c e con la gtx 280, senza guarda l hadware che c ho

Suhadi_Sadono
31-10-2008, 08:48
Perche la 512 e non quella da 1 gb? Io cmq vorrei sapere tra la 4870 1 gb e gtx 260 quale e la migliore in termini generali e quanto margine di differenza c e con la gtx 280, senza guarda l hadware che c ho
http://techreport.com/articles.x/15651/1

roma
07-11-2008, 15:58
ciao ragazzi...
mi son letto tutto il forum e non ho ancora trovato risposta al mio quesito...
ho un 24" a 1920 e voglio mandare in pensione la mia 8800 gts640 , da quanto capito:
la 4870 512MB (200€) non è sufficente , gtx260 216sp (240€) e 4870 1GB (290€) , sono motivati quei 50 euri in più o vado tranquillo su gtx260...?

Suhadi_Sadono
07-11-2008, 16:01
ciao ragazzi...
mi son letto tutto il forum e non ho ancora trovato risposta al mio quesito...
ho un 24" a 1920 e voglio mandare in pensione la mia 8800 gts640 , da quanto capito:
la 4870 512MB (200€) non è sufficente , gtx260 216sp (240€) e 4870 1GB (290€) , sono motivati quei 50 euri in più o vado tranquillo su gtx260...?
No. Vai tranquillo con la GTX ;)

Sgt.Pepper89
07-11-2008, 19:59
ciao ragazzi...
mi son letto tutto il forum e non ho ancora trovato risposta al mio quesito...
ho un 24" a 1920 e voglio mandare in pensione la mia 8800 gts640 , da quanto capito:
la 4870 512MB (200€) non è sufficente , gtx260 216sp (240€) e 4870 1GB (290€) , sono motivati quei 50 euri in più o vado tranquillo su gtx260...?
Se la 4870 512 non è sufficiente nn lo è nemmeno la gtx, visto che la differenza di prestazioni è sul 5 percento.

okorop
07-11-2008, 20:00
Se la 4870 512 non è sufficiente nn lo è nemmeno la gtx, visto che la differenza di prestazioni è sul 5 percento.

quoto :asd:

Mastermind01
08-11-2008, 12:43
Tra la 4870 da 1gb e quella da 512 quale e migliore?

okorop
08-11-2008, 12:45
Tra la 4870 da 1gb e quella da 512 quale e migliore?

la migliore è quella da 1 gb superiore anche alla gtx260 212 sp....:)

Mastermind01
08-11-2008, 12:53
Allora ho fatto bene a prendere la 4870 1 gb :D

Mister Tarpone
08-11-2008, 13:22
superiore anche alla gtx260 212 sp....:)

si nei denti.... ;)

okorop
08-11-2008, 13:24
si nei denti.... ;)

questo è quello che dicono le recensioni poi non so non ho ne la 4870 da 1gb ne quella da 216sp.....comunque qua a stare a fare diatribe per 3 fps in piu di una vga rispetto all'altra è controproducente secondo me....;)

roma
08-11-2008, 13:24
Se la 4870 512 non è sufficiente nn lo è nemmeno la gtx, visto che la differenza di prestazioni è sul 5 percento.

intendevo x il quantitativo di memoria... 512MB per una ris. di 1920*1200 mi sembran pochi... e visto che tra gtx 260 e 4870 1GB c'è differenza di qualche decina di euro chiedevo se tale differenza era giustificata...

Mastermind01
08-11-2008, 13:29
si nei denti.... ;)

Che significa?

Suhadi_Sadono
08-11-2008, 13:34
Che significa?
già:rolleyes:

pakal77
05-04-2009, 05:00
Raga sto per cambiare scheda video...ho un dubbio atroce tra queste due che costano uguale...ho anche una scheda madre crossfire quindi in caso potrei in un futuro fare un xfire...che mi consigliate tra ste due?

ATI RADEON XFX HD4870 1024MB (1GB) GDDR5
GeForce XFX GTX260 896Mb 216 Stream GDDR3

:muro: :muro: :muro: :muro: :muro: :muro:

michelgaetano
05-04-2009, 09:09
Raga sto per cambiare scheda video...ho un dubbio atroce tra queste due che costano uguale...ho anche una scheda madre crossfire quindi in caso potrei in un futuro fare un xfire...che mi consigliate tra ste due?

ATI RADEON XFX HD4870 1024MB (1GB) GDDR5
GeForce XFX GTX260 896Mb 216 Stream GDDR3

:muro: :muro: :muro: :muro: :muro: :muro:

Vanno sostanzialmente uguali, ciò che non girerà su una, non la farà certo girare l'altra. E per inciso, entrambe fanno girare praticamente tutto e a risoluzioni altissime.

Se vuoi mantenerti aperta la porta CF prenditi la 4870 :D

sommojames
05-04-2009, 09:56
Dopo aver posseduto ATI per anni, devo dire che con Nvidia mi trovo decisamente meglio a livello di driver e compatibilità con i giochi, pertanto ho scelto la 260, e probabilmente l'avrei scelta anche se avesse avuto prestazioni leggermente inferiori.

Sgt.Pepper89
05-04-2009, 13:58
Raga sto per cambiare scheda video...ho un dubbio atroce tra queste due che costano uguale...ho anche una scheda madre crossfire quindi in caso potrei in un futuro fare un xfire...che mi consigliate tra ste due?

ATI RADEON XFX HD4870 1024MB (1GB) GDDR5
GeForce XFX GTX260 896Mb 216 Stream GDDR3

:muro: :muro: :muro: :muro: :muro: :muro:

Quella che costa meno.

joy69
05-04-2009, 14:06
Ti consiglio la nvidia :D

pakal77
05-04-2009, 15:07
Ti consiglio la nvidia :D

LOL detto da uno che ha come AVATAR ATI fa ride!!!!:sofico:

halduemilauno
05-04-2009, 16:35
Raga sto per cambiare scheda video...ho un dubbio atroce tra queste due che costano uguale...ho anche una scheda madre crossfire quindi in caso potrei in un futuro fare un xfire...che mi consigliate tra ste due?

ATI RADEON XFX HD4870 1024MB (1GB) GDDR5
GeForce XFX GTX260 896Mb 216 Stream GDDR3

:muro: :muro: :muro: :muro: :muro: :muro:

http://www.hwupgrade.it/articoli/skvideo/2176/4870_260.png
;)

Nejiro
29-04-2009, 10:47
Ragazzi,stò pensando di cambiare la mia ATI 4870 con un NVidia GTX 260 per un motivo che cercherò di spiegarvi.Intanto leggendo questo topic sembra che le due schede si equivalgono in tutto,quindi di sicuro non andrei a perdere in prestazioni.Il motivo è che vorrei avvicinarmi al mondo Linux(Ubuntu)e sentendo opinioni di amici che lo usano già da un pò mi sento dire che le schede NVidia su Linux vanno molto meglio delle ATI.Voi confermate questa voce?Oppure mi posso tranquillamente tenere la mia 4870?Non ci andrei a rimettere molto vendendo la mia ATI,quindi il passaggio potrei farlo.Vi dirò che ho già provato Ubuntu con questa configurazione e devo dire che qualcosa di vero con queste ATI mi sa che c'è,praticamente come attivo i drive ATI(e c'è una nota dove scrivono che sono drive proprietari e che quindi loro non possono far nulla per migliorarli)il PC si rallenta tutto,sono quindi costretto a disabilitarli perdendo così tutte le animazioni grafiche ecc....Vero quindi che ATI non rilascia i sorgenti dei suoi drive,quindi non sono modificabili mentre NVidia si?Tra le GTX 260 che ho visto quelle che costano meno sono le Zotac,è un buon produttore oppure consigliate altro?
GRAZIE