View Full Version : Zotac GeForce GTX 260 AMP! Edition
Redazione di Hardware Upg
11-07-2008, 15:41
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2005/zotac-geforce-gtx-260-amp-edition_index.html
A poche settimane dal debutto ufficiale sul mercato analizziamo una delle prime schede GeForce GTX 260 caratterizzata dalle frequenze di clock overcloccate, sia in configurazione a singola scheda che SLI. Nel confronto sono state inserite sia le schede serie GeForce GTX 200 con impostazioni standard che le due proposte ATI della serie Radeon HD 4800.
Click sul link per visualizzare l'articolo.
ramarromarrone
11-07-2008, 15:53
nel rapporto qualità/prezzo meglio amd..ed è quello che conta
sai che differenza tra 140 e 150 frames...
appleroof
11-07-2008, 15:54
stando ai prezzi ufficiali comunicati e rilevati online, tra Zotac GeForce GTX 260 AMP! Edition e ATI Radeon HD 4870 c'è una differenza di costo di almeno 80,00€, cifra non giustificata dalle superiori prestazioni velocistiche a nostro avviso.
ovviamente voi non potete scriverlo, ma questo conferma per l'ennesima come le schede oc di fabbrica, qualunque esse siano, sono solo una fregatura per l'utente
http://www.trovaprezzi.it/prezzo_schede-grafiche_gtx260.aspx
cmq interessanti le prestazioni della gtx260 oc, ma se consideriamo che anche la 4870 si occa, siamo sempre lì: la differenza di prezzo anche tra schede default rende ancora preferibile la 4870, imho
http://www.trovaprezzi.it/prezzo_schede-grafiche_hd4870.aspx
michelgaetano
11-07-2008, 15:58
ovviamente voi non potete scriverlo, ma questo conferma per l'ennesima come le schede oc di fabbrica, qualunque esse siano, sono solo una fregatura per l'utente
http://www.trovaprezzi.it/prezzo_schede-grafiche_gtx260.aspx
cmq interessanti le prestazioni della gtx260 oc, ma se consideriamo che anche la 4870 si occa, siamo sempre lì: la differenza di prezzo anche tra schede default rende ancora preferibile la 4870, imho
http://www.trovaprezzi.it/prezzo_schede-grafiche_hd4870.aspx
Quoto.
A 195 € poi :D
I prezzi per la HD4870 partono da 195€ non da 225€... !!
Brutale910
11-07-2008, 16:02
comunque anche la gtx260 ha veramente un' ottima scalabilità in oc
michelgaetano
11-07-2008, 16:03
I prezzi per la HD4870 partono da 195€ non da 225€... !!
Anche la gtx 260 parte da 250 :) Quindi hanno tenuto in cosniderazione dei prezzi medi per entrambe, direi giusti a guardare su trovaprezzi.
Marko#88
11-07-2008, 16:16
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx+260+amp&prezzomin=-1&prezzomax=-1
la amp si trova a 444 euro...dai, buona...:asd:
lo so che non sarà il prezzo medio di vendita ma è per farci qualche risata...
4870 ancora del tutto preferibile alla gtx260 che di fatto è incomprabile allo stato attuale delle cose..
;)
Ancora non ci siamo...
Di tutte le OC edition viste questa mi sembra davvero la più misera.
Ha un sistema di dissipazione identico (o quasi) a quello standard! Che senso ha acquistare una scheda del genere?
Ormai i software da overclock li trovi in bundle in tutti i CD di installazione delle schede e, immagino, le 260 non facciano differenza. Anche l'utente più imbranato dovrebbe/potrebbe essere in grado di fare un OC del 10% senza rischiare nulla.
30€ di differenza dalla reference non sono affatto giustificati.
E dire che solo abbassando i prezzi le 260 hanno qualche chance.
appleroof
11-07-2008, 16:18
Ancora non ci siamo...
Di tutte le OC edition viste questa mi sembra davvero la più misera.
Ha un sistema di dissipazione identico (o quasi) a quello standard! Che senso ha acquistare una scheda del genere?
Ormai i software da overclock li trovi in bundle in tutti i CD di installazione delle schede e, immagino, le 260 non facciano differenza. Anche l'utente più imbranato dovrebbe/potrebbe essere in grado di fare un OC del 10% senza rischiare nulla.
30€ di differenza dalla reference non sono affatto giustificati.
E dire che solo abbassando i prezzi le 260 hanno qualche chance.
veramente sono 319 vs 250...a meno che non parli della reference Zotac, ma tanto l'una vale l'altra, la dfferenza ormai la fà il bundle
Severnaya
11-07-2008, 16:29
grande recensione come sempre
ma è possibile che escano delle schede 4870 con 1gb di memoria ram?
monsterman
11-07-2008, 16:41
io ho appena preso una 4850 e a quel che vedo se avrò bisogno di ulteriore potenza ne abbinerò un'altra totalizzando un prezzo inferiore ad una 260 amp ma avendo prestazioni + elevate.
Nvidia mi spiace averti abbandonato non mi hai mai deluso, ma i prezzi non puoi tenerli così alti con così poca differenza di prestazioni.
La vera differenza fra ATI e nVidia in questo momento imho non sta nelle prestazioni o nel paragone di prezzi, ma nella possibilità delle schede nVidia di forzare l' AA dal pannello di controllo per i giochi che usano l' Unreal engine 3.
Imho questa è una caratteristica che non ha prezo... visto che già sono molti i giochi ad usare quell' engine e moltissimi saranno quelli che lo useranno nei prossimi mesi.
Non poter attivare l' AA mi farebbe escludere a priori schede ATI.
E che io sappia... l' Unreal engine 3 non va ancora molto d' accordo che le schede ATI (per quel che riguarda l' AA).
Nei giorni scorsi in Germania vendevano le Asus HD 4870 e GTX 260 allo stesso prezzo: 210 euro. Adesso la differenza è ritornata sui 40 euro.
Negli Usa la differenza è di 30$.
Qui in Italia è ancora sui 60 euro, ma è inevitabile un riequilibrio.
Evangelion01
11-07-2008, 17:00
Sarà, ma imho a certe risoluzioni l' AA diventa marginale, la differenza non è così evidente. A parte questo la gtx 260 per essere competitiva dovrebbe costare come la 4870. Attualmente non vedo alcun motivo per preferirla a quest' ultima, la differenza di prezzo è troppo elevata. Mi chiedo quando si deciderà nvidia a abbassare i prezzi. :(
cracovia
11-07-2008, 17:09
Nei due grafici dell'ultima pagina potevate mettere anche le soluzioni CF e SLI... Oppure fare altri due grafici a parte. Per sapere lì in mezzo dove si infilerebbe un CF di 4850 e uno SLI di 9800GTX o di 8800GT...
@ appleroof
Faccio riferimento ai prezzi indicati nell'articolo che, come evidenziato da altri utenti, devono essere considerati come prezzi medi contrariamente a quanto indicato nell'articolo ([cit.] "...a partire da...").
Nei due grafici dell'ultima pagina potevate mettere anche le soluzioni CF e SLI... Oppure fare altri due grafici a parte. Per sapere lì in mezzo dove si infilerebbe un CF di 4850 e uno SLI di 9800GTX o di 8800GT...
Sono d'accordo. In ogni caso complimenti per la rece e le tanto sospirate medie finali (almeno da parte mia :p )
La vera differenza fra ATI e nVidia in questo momento imho non sta nelle prestazioni o nel paragone di prezzi, ma nella possibilità delle schede nVidia di forzare l' AA dal pannello di controllo per i giochi che usano l' Unreal engine 3.
Imho questa è una caratteristica che non ha prezo... visto che già sono molti i giochi ad usare quell' engine e moltissimi saranno quelli che lo useranno nei prossimi mesi.
Non poter attivare l' AA mi farebbe escludere a priori schede ATI.
E che io sappia... l' Unreal engine 3 non va ancora molto d' accordo che le schede ATI (per quel che riguarda l' AA).
ATI è da mesi che supporta le DirectX10.1, che permettono di applicare comodamente l'antialising anche agli engine defereed rendering come l'UE3 /Stalker etc e con grossi incrementi prestazionali (>30%) con gli engine "tradizionali". E' Epic che dovrebbe svegliarsi... ma dubito che lo farà perchè i suoi giochi sono sponsorizzati da Nvidia, come la maggiorparte dei giochi in circolazione. Se i giochi attuali supportassero tutti le DirectX10.1 per Nvidia sarebbero cavoli amari, in quanto con l'AA applicato la schede ATI volerebbero (vedere AC Dx10.1, dove una HD4850 batte tranquillamente una GTX260 e una HD4870 la GTX280). Sembra che comunque ATI si sia accordata sia con EA Games che con Blizzard perchè i loro prossimi giochi siano DirectX10.1.
ThePunisher
11-07-2008, 17:27
Prezzo ingiustificato. Tutte le GTX 260 reggono quelle frequenze.
ghiltanas
11-07-2008, 17:30
beh direi che le considerazioni finali sono oggettive e nn c'è da aggiungere nulla.
Il divario di prezzo è troppo alto attualmente e se per nvidia calare il prezzo delle 260 e 280 è molto ma molto difficile, per ati questo è decisamente meno problematico. Nel giro di un mese nn mi stupirei di vedere i prezzi della 4870 allineati sui 200 euro, con ovviamente offerte sotto i 200
halduemilauno
11-07-2008, 17:31
personalmente sconsiglio l'acquisto di tale scheda. meglio risparmiare i 50/60€ e prendere una gtx260 e all'oc ci pensa l'utente. e si son visti oc che raggiungono frequenze anche superiori a questa proposta. in quanto alla guerra dei prezzi è normale e giusto che la gtx260 costi + delle 4870 avendo ben 384 mega di ram in +. vediamo i suoi prezzi con 128 mega in +(e le prestazioni ovviamente).
imho.
;)
gianni1879
11-07-2008, 17:33
spero sia uno scherzo
http://www.trovaprezzi.it/categoria.aspx?libera=gtx260+amp&id=28&prezzoMin=&prezzoMax=&sbox=sb
:eek:
ghiltanas
11-07-2008, 17:35
nn è tanto la ram in + che ha fatto salire il prezzo imho, piuttosto la complessità del chip e il bus molto ampio
ghiltanas
11-07-2008, 17:36
spero sia uno scherzo
http://www.trovaprezzi.it/categoria.aspx?libera=gtx260+amp&id=28&prezzoMin=&prezzoMax=&sbox=sb
:eek:
senza parole :muro:
gianni1879
11-07-2008, 17:37
nn è tanto la ram in + che ha fatto salire il prezzo imho, piuttosto la complessità del chip e il bus molto ampio
considerando che sono poi ddr3 e non ddr5, anche se dicono che il prezzo delle ddr5 non è lontanissimo dalle ddr3
scheda inutile se serve per far paura alla 4870.
un leggero overclock a gpu e ram...
e la 4870 schizza di nuovo su rendendo vano questo "overclock" di fabbrica.
Penso che ora cambierò scheda video...devo sostituire la gloriosa ati x300....prendero una 3870 che ormai te la tirano dietro... tanto per quello che devo farci, al massimo se proprio prorprio lancio qualche gioco lo uso in 1280x1024, anche perchè il mio monitor non ci sta dietro sennò
ghiltanas
11-07-2008, 17:43
considerando che sono poi ddr3 e non ddr5, anche se dicono che il prezzo delle ddr5 non è lontanissimo dalle ddr3
è invece un pò di differenza credo proprio ci sia, infatti anche la x2 con 2 gb di gddr5 avrà un prezzo piuttosto altino
ghiltanas
11-07-2008, 17:44
Penso che ora cambierò scheda video...devo sostituire la gloriosa ati x300....prendero una 3870 che ormai te la tirano dietro... tanto per quello che devo farci, al massimo se proprio prorprio lancio qualche gioco lo uso in 1280x1024, anche perchè il mio monitor non ci sta dietro sennò
se vuoi un consiglio a sto punto prendi una 4850, il prezzo è molto contenuto e da parecchio ;)
volevo stare intorno ai 130euriz...accetto consigli...
ghiltanas
11-07-2008, 17:49
volevo stare intorno ai 130euriz...accetto consigli...
il consiglio è di aprire un thread nella sezione giusta, ovvero schede video -> consigli per gli acquisti, dai + info possibili, compreso il budget gli usi e il resto del sistema
se aspetto una risposta li faccio in tempo ad andare in pensione....molti scrivono sulle news e visto che non mi sembra proprio di essere off topic ho chiesto. In ogni caso ne salterà fuori una discussione
Però non discuto....e taccio...domanda ritirata!.....
ghiltanas
11-07-2008, 17:57
se aspetto una risposta li faccio in tempo ad andare in pensione....molti scrivono sulle news e visto che non mi sembra proprio di essere off topic ho chiesto. In ogni caso ne salterà fuori una discussione
nn lo dicevo in tono saccente :) , lo dicevo per te, almeno aprivi un thread pulito e potevano aiutarti meglio ;)
Si hai ragione non oso discutere con un pilastro di hwupgrade.....solo che ciò che pensavo è che tanto salterà fuori comunque la solita pantomima di Nvidia contro Ati e ne volevo aprofittare dai cervelloni che ci sono qua...cmq a posto...;-)
ghiltanas
11-07-2008, 18:04
Si hai ragione non oso discutere con un pilastro di hwupgrade.....solo che ciò che pensavo è che tanto salterà fuori comunque la solita pantomima di Nvidia contro Ati e ne volevo aprofittare dai cervelloni che ci sono qua...cmq a posto...;-)
qui siamo tutti uguali ;)
chiuso ot
killercode
11-07-2008, 18:07
Troppo cara
volevo stare intorno ai 130euriz...accetto consigli...
http://www.trovaprezzi.it/categoria.aspx?libera=hd4850&id=28&prezzoMin=&prezzoMax=&sbox=sb
;) ;)
Frosty86
11-07-2008, 18:20
Niente di che, la solita 260.
Gli incrementi prestazionali sono proporzionali all'oc, roba del tipo "chi fa da se fa per 3".
Comunque non credo avrà mercato. Se già quella base è ingiustificatamente costosa questa è proprio fuori...
Ginger79
11-07-2008, 18:37
Qui si dimostra che una comune GTX260 (con un piccolo OC) è sempre superiore (in alcuni casi di molto) alla HD 4870.
Se pensiamo che in media le HD4870 si OC molto meno in quanto già tirate di fabbrica... mentre le GTX260 salgono anche di altri 100Mhz rispetto a questa AMP è chiara la superiorità di Nvidia su tutti i fronti (tranne il prezzo).
In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.
A questo punto comincio a ricredermi e a tornare sui miei passi nonchè a fare una riflessione: perchè mai Nvidia non ha proposto queste GT200 a frequenze superiori visto che ci arrivano senza sforzi e scalano decisamente meglio della concorrenza??
Da questa recensioni si evince che una semplice GTX280 portata ad esempio a 700/1500/2300 (Ultra280 ??) potrebbe essere più performante di un Crossfire di 4870 (dunque anche della futura 4870 X2) senza far fatica.
Se i prezzi per Nvidia dovessero scendere di altri 30-40€ sarebbero ancora dolori per AMD perchè in quanto a prestazioni non c'è storia.
Ora so che spenderei volentieri 250€ per una GTX260 (che potrei portare a 700/1500/2200 senza problemi) per avere quasi le stesse prestazioni di una GTX280 reference.
Frosty86
11-07-2008, 18:43
sinceramente non vedo il senso del tuo discorso...tutte le schede si possono occare.
Se prendo una 4870 ci piazzo ancora 100mhz sul core e 100 sulla ram (bada bene che corrispondono a 400mhz) siamo daccapo, e 100mhz le prendono tutte, tutti quelli che hanno preso la 70 sono arrivati tranquillamente al fondo della colonnina permessa dai catalit, 800,appunto...
HA, si, in quanto prestazioni non c'è proprio storia, senza dubbio...(ma per piacere...)
Marko#88
11-07-2008, 18:44
Qui si dimostra che una comune GTX260 (con un piccolo OC) è sempre superiore (in alcuni casi di molto) alla HD 4870.
Se pensiamo che in media le HD4870 si OC molto meno in quanto già tirate di fabbrica... mentre le GTX260 salgono anche di altri 100Mhz rispetto a questa AMP è chiara la superiorità di Nvidia su tutti i fronti (tranne il prezzo).
In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.
A questo punto comincio a ricredermi e a tornare sui miei passi nonchè a fare una riflessione: perchè mai Nvidia non ha proposto queste GT200 a frequenze superiori visto che ci arrivano senza sforzi e scalano decisamente meglio della concorrenza??
Da questa recensioni si evince che una semplice GTX280 portata ad esempio a 700/1500/2300 (Ultra280 ??) potrebbe essere più performante di un Crossfire di 4870 (dunque anche della futura 4870 X2) senza far fatica.
Se i prezzi per Nvidia dovessero scendere di altri 30-40€ sarebbero ancora dolori per AMD perchè in quanto a prestazioni non c'è storia.
Ora so che spenderei volentieri 250€ per una GTX260 (che potrei portare a 700/1500/2200 senza problemi) per avere quasi le stesse prestazioni di una GTX280 reference.
le differenze resteranno sempre risicate...i 50-60 euri che le separano non sono risicati invece...e fare 50fps o farne 60 è la stessa cosa, meglio aver risparmiato il cinquantone...;)
Frosty86
11-07-2008, 18:49
le differenze resteranno sempre risicate...i 50-60 euri che le separano non sono risicati invece...e fare 50fps o farne 60 è la stessa cosa, meglio aver risparmiato il cinquantone...;)
Concordo, a parte il cinquantone che si sa, per il fanboy servono a pagare la marca :asd: io non vedo differenze pestazionali, anzi, una 4870 è e resta più veloce di una 260,certo, di un niente, ma tanto è. Quindi è normale ch una versione occata dell'altra riesca a ripigliarla e superarla, ma quasto non ha senso perche anche l'altra si puo overcloccare a sua volta. Quindi, imho è aria fitta, o fumo negli occhi come preferite.
michelgaetano
11-07-2008, 18:53
Se i prezzi per Nvidia dovessero scendere di altri 30-40€ sarebbero ancora dolori per AMD perchè in quanto a prestazioni non c'è storia.
???
Eh?
Ma se le architetture sono diverse? E dove sono i tuoi test sull OC delle 4870?
I soliti partigiani -_-;;;
Ginger79
11-07-2008, 19:04
Forse non ci siamo capiti. Non ho detto che la 4870 da oggi fa schifo... in quanto resta un ottima scheda ed un best buy nella sua fascia di prezzo.. tuttavia, dopo l'attenta lettura di questa recensione, mi sono ricreduto sulla GTX260 (scheda che inizialmente mi aveva deluso e non poco) e sto seriamente considerando l'ipotesi di acquistarla per sostituire l'ottima 8800GTS 320Mb in mio possesso da secoli.
Ho basato il mio ragionamento sul fatto che in OC la GTX260 dimostra chiaramente di scalare da paura (quel potenziale nascosco di cui parlavo al suo debutto è venuto a galla tutto) e dimostra altresì come l'unico errore di Nvidia sia stato quello di presentare una nuova GPU (GT200) a frequenze ben inferiori a quelle che il chip può raggiungere.
Se trovo qualche test in rete di una 4870 OC e di una GTX260 OC (e parlo di OC manuali da schede reference) capirete meglio di cosa parlo.
Forse non ci siamo capiti. Non ho detto che le 4870 da oggi fa schifo... in quanto resta un ottima scheda ed un best buy nella sua fascia di prezzo.. tuttavia, dopo l'attenta lettura di questa recensione, mi sono ricreduto sulla GTX260 (scheda che inizialmente mi aveva deluso e non poco) e sto seriamente considerando l'ipotesi di acquistarla per sostituire l'ottima 8800GTS 320Mb in mio possesso da secoli.
Ho basato il mio ragionamento sul fatto che in OC la GTX260 dimostra chiaramente di scalare da paura (quel potenziale nascosco di cui parlavo al suo debutto è venuto a galla tutto) e dimostra altresì come l'unico errore di Nvidia sia stato quello di presentare una nuova GPU (GT200) a frequenze ben inferiori a quelle che il chip può raggiungere.
Se trovo qualche test in rete di una 4870 OC e di una GTX260 OC (e parlo di OC manuali da schede reference) capirete meglio di cosa parlo.
Senza v-mod la HD4870 raggiunge gli 840Mhz come minimo, cioè il 12% di OC. Scala linearmente allo scalare delle frequenza, perciò è circa il 5% più lenta di una GXT280 a default (prendendo come riferimento la rece di hwupgrade che dice che una HD4870 è il 17% più lenta di una GTX280). Con la pencil v-mod si raggiungono tranquillamente i 950Mhz e oltre però a quello frequenza è consigliabile un raffreddamento a liquido. Quando parli di 750Mhz per la GTX260 ti riferisci con o senza v-mod?
Frosty86
11-07-2008, 19:18
Forse non ci siamo capiti. Non ho detto che la 4870 da oggi fa schifo... in quanto resta un ottima scheda ed un best buy nella sua fascia di prezzo.. tuttavia, dopo l'attenta lettura di questa recensione, mi sono ricreduto sulla GTX260 (scheda che inizialmente mi aveva deluso e non poco) e sto seriamente considerando l'ipotesi di acquistarla per sostituire l'ottima 8800GTS 320Mb in mio possesso da secoli.
Ho basato il mio ragionamento sul fatto che in OC la GTX260 dimostra chiaramente di scalare da paura (quel potenziale nascosco di cui parlavo al suo debutto è venuto a galla tutto) e dimostra altresì come l'unico errore di Nvidia sia stato quello di presentare una nuova GPU (GT200) a frequenze ben inferiori a quelle che il chip può raggiungere.
Se trovo qualche test in rete di una 4870 OC e di una GTX260 OC (e parlo di OC manuali da schede reference) capirete meglio di cosa parlo.
non si dice "must buy":D ?
Comunque, è normale se nvidia l'avesse fatto si sarebbe dato la zappa sui piedi perche avrebbe dovuto vendere a 150-200€ in meno una scheda molto vicino alla top di gamma, ha fatto la stessa cosa con la 8800gt, ma almeno la gtx era già una anno che vendeva...
Frosty86
11-07-2008, 19:20
Senza v-mod la HD4870 raggiunge gli 840Mhz come minimo, cioè il 12% di OC. Scala linearmente allo scalare delle frequenza, perciò è circa il 5% più lenta di una GXT280 a default (prendendo come riferimento la rece di hwupgrade che dice che una HD4870 è il 17% più lenta di una GTX280). Con la pencil v-mod si raggiungono tranquillamente i 950Mhz e oltre però a quello frequenza è consigliabile un raffreddamento a liquido. Quando parli di 750Mhz per la GTX260 ti riferisci con o senza v-mod?
io lascerei perdere le vmod...alla fine per guadagnare cosa? un minchia-% per dire adesso manca mezzo minchia-% in meno alla 280 che costa il doppio? imho, meglio tere temperature accettabili e fare qualche mhz in meno...
Ginger79
11-07-2008, 19:24
non si dice "must buy":D ?
Comunque, è normale se nvidia l'avesse fatto si sarebbe dato la zappa sui piedi perche avrebbe dovuto vendere a 150-200€ in meno una scheda molto vicino alla top di gamma, ha fatto la stessa cosa con la 8800gt, ma almeno la gtx era già una anno che vendeva...
Si può dire in entrambi i modi... in base alla sfumatura che vuoi dare.
Frosty86
11-07-2008, 19:28
No... si dice Best buy.
bho:D io ho sempre sentito dire must buy:D
Ginger79
11-07-2008, 19:31
bho:D io ho sempre sentito dire must buy:D
Ti ho già risposto sopra...
Must buy= Da comprare assolutamente
Best buy= Ottimo affare (come Big deal)
Frosty86
11-07-2008, 19:34
Ti ho già risposto sopra...
Must buy= Da comprare assolutamente
Best buy= Ottimo affare (come Big deal)
ha ok! Comunque il succo è sempre quello:D
Ginger79
11-07-2008, 19:35
Quando parli di 750Mhz per la GTX260 ti riferisci con o senza v-mod?
Mai parlato di 750Mhz (leggi meglio)
Ad ogni modo senza alcuna modifica ma agendo solo su NTune si prendono (rock solid) i 700/1500/2400 (per GPU/SP/RAM)
... le V-mod lasciamole stare...
thecatman
11-07-2008, 19:38
scusate,non mi ricordo più se qua è applicabile il discorso hybrid power x via dei caonsumi. grazie
Mai parlato di 750Mhz (leggi meglio)
Hai detto che in OC si raggiungono tranquillamente 100Mhz in più rispetto a questa AMP! che è a 650Mhz. Ti sarai sbagliato...
nonikname
11-07-2008, 20:04
Ogni Vga overclokkata dal costruttore , se non ha un dissipatore migliore o un qualche valore aggiunto è perfettamente inutile , specie se le freq proposte sono facilmente ottenibili dall'utente....
La 4870 per la fascia alta è imbattibile (prezzo/prestazioni) attualmente...
Nella fascia media la 9800gtx e la 4850 se la giocano ma propendo per la 9800GTX , dato che alla ati si sono dimenticati di fornire alla serie 4800 un profilo temp/rpm degno di questo nome.. :(
Le gt200 a 55nm dovrebbero uscire qualche settimana dopo le 4870x2.. quindi scenderanno ancora i prezzi sia ATI che nVIDIA !!
Dovessi cambiare VGA aspetterei dopo l'estate...anche se detto da un negoziante suona un pò strano! ;)
P.S. chissà come mai nessuno si è chiesto il perchè di uno shader clock così conservativo nelle GT200... la risposta l'avrete fra 1 mese e 2 settimane.. :D
P.S. chissà come mai nessuno si è chiesto il perchè di uno shader clock così conservativo nelle GT200... la risposta l'avrete fra 1 mese e 2 settimane.. :D
Ultra280 in arrivo, insomma... :asd:
inanzitutto bella recensione e soprattutto mi è piaciuta la comparativa finale, cioè quella della "somma" delle perfromace.
cmq a parte la recensione della vga di lugio si evidenzia come cmq la 4870 sia superiore alla gtx 260 (entrambe a default) e anche se di poco è sconsigliabile nvidia visto proprio il prezzo più alto....
ovviamente voi non potete scriverlo, ma questo conferma per l'ennesima come le schede oc di fabbrica, qualunque esse siano, sono solo una fregatura per l'utente
http://www.trovaprezzi.it/prezzo_schede-grafiche_gtx260.aspx
cmq interessanti le prestazioni della gtx260 oc, ma se consideriamo che anche la 4870 si occa, siamo sempre lì: la differenza di prezzo anche tra schede default rende ancora preferibile la 4870, imho
http://www.trovaprezzi.it/prezzo_schede-grafiche_hd4870.aspx
:asd: cmq quoto in pieno!
Sarà, ma imho a certe risoluzioni l' AA diventa marginale, la differenza non è così evidente. A parte questo la gtx 260 per essere competitiva dovrebbe costare come la 4870. Attualmente non vedo alcun motivo per preferirla a quest' ultima, la differenza di prezzo è troppo elevata. Mi chiedo quando si deciderà nvidia a abbassare i prezzi. :(
aspetta ancora un po' perchè deve spennare un po' di polli/oem per riprendersi dal tonfo che ha avuto in borsa.....
http://finance.google.com/finance?q=Nvidia
;)
alza la scala ad almeno 1 gg per quadratino ;)
spero sia uno scherzo
http://www.trovaprezzi.it/categoria.aspx?libera=gtx260+amp&id=28&prezzoMin=&prezzoMax=&sbox=sb
:eek:
no nn lo è :asd:
credo che asus rifilerà poche amp a molti utonti visto che cmq avviene come ei tempi di g80 gts cioè questi salivano esattamente come le versioni occate di fabbrica....
???
Eh?
Ma se le architetture sono diverse? E dove sono i tuoi test sull OC delle 4870?
I soliti partigiani -_-;;;
cmq la 4870 da alcuni test dimostra di scalare linearmente con il clock del core....
Ogni Vga overclokkata dal costruttore , se non ha un dissipatore migliore o un qualche valore aggiunto è perfettamente inutile , specie se le freq proposte sono facilmente ottenibili dall'utente....
La 4870 per la fascia alta è imbattibile (prezzo/prestazioni) attualmente...
Nella fascia media la 9800gtx e la 4850 se la giocano ma propendo per la 9800GTX , dato che alla ati si sono dimenticati di fornire alla serie 4800 un profilo temp/rpm degno di questo nome.. :(
bisogna solo aspettare i driver che facciano funzionare il powerplay cioè gli 8.7 whql ;)
Le gt200 a 55nm dovrebbero uscire qualche settimana dopo le 4870x2.. quindi scenderanno ancora i prezzi sia ATI che nVIDIA !!
Dovessi cambiare VGA aspetterei dopo l'estate...anche se detto da un negoziante suona un pò strano! ;)
P.S. chissà come mai nessuno si è chiesto il perchè di uno shader clock così conservativo nelle GT200... la risposta l'avrete fra 1 mese e 2 settimane.. :D
nn so chi siano le tue fonti ma da quello che si dice in giro forse per novembre si vedrà gt200 a 55nm ;)
e per le frequenze ci sono 2 risposte:
1) contenere i consumi e le temp in full load
2) un grafico che avesse "frequenza desiderata" sulle ascisse e "$ per testare il silicio" sulle ordinate avrebbe un andamento simile al quadratico (ovviamente crescente :D), capisci cosa intendo?
siccome nvidia si era sicuramente resa conto che le cose nn sarebbero andate come nel 2007 ha deciso di abbassare il più possibile i costi di ogni singolo chip, cioè già ogni gt200 + pcb gli costa ~110$ figuriamoci se avessero alzato ancora le frequenze, per poi far pagare una gtx260 magari altri 50/60€ in + di adesso (per nn parlare della 280) nn ha senso anche se si è prestazionalmente superiori..... infatti si ha una quasi comune opinione di gt200 (data senza ombra di dubbio dal prezzo...)
Ultra280 in arrivo, insomma... :asd:
Dubito che servirà a qualcosa... Si parla di un 50% di superiorità della HD4870X2 rispetto alla GTX280 con punto dell'80% dove il CF scala bene. Ah un utente affidabilissimo di extreme system in possesso della scheda ha detto che hanno risolto il problema del microstuddering, sulla sua non ve ne è traccia.
Tra 3 giorni usciranno le preview di questa scheda. Il prezzo di lancio sarà 549$, cioè circa 450€ se non meno.
cagnaluia
11-07-2008, 20:54
non ci siamo MAI con i consumi.... altro pacco anche da nvidia :mad:
Dubito che servirà a qualcosa... Si parla di un 50% di superiorità della HD4870X2 rispetto alla GTX280 con punto dell'80% dove il CF scala bene. Ah un utente affidabilissimo di extreme system in possesso della scheda ha detto che hanno risolto il problema del microstuddering, sulla sua non ve ne è traccia.
Tra 3 giorni usciranno le preview di questa scheda. Il prezzo di lancio sarà 549$, cioè circa 450€ se non meno.
Effettivamente...
E se avessero intenzione di far uscire un altro sandwitch con le stesse frequenze della gtx280?
Effettivamente...
E se avessero intenzione di far uscire un altro sandwitch con le stesse frequenze della gtx280?
Io penso che in Nvidia si stia organizzando per una GTX260@55nmX2 da lanciare verso fine 2008, una GTX280X2 è difficilmente proponibile.
gianni1879
11-07-2008, 21:05
è invece un pò di differenza credo proprio ci sia, infatti anche la x2 con 2 gb di gddr5 avrà un prezzo piuttosto altino
si vocifera che sarà solo la HD4850x2 con due giga di ram ddr3, mentre la hd4870x2 un giga di ddr5, ma lo vedremo meglio nei prossimi giorni per adesso un pò troppo speculazioni
nonikname
11-07-2008, 21:06
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8391&Itemid=34
gianni1879
11-07-2008, 21:14
Qui si dimostra che una comune GTX260 (con un piccolo OC) è sempre superiore (in alcuni casi di molto) alla HD 4870.
Se pensiamo che in media le HD4870 si OC molto meno in quanto già tirate di fabbrica... mentre le GTX260 salgono anche di altri 100Mhz rispetto a questa AMP è chiara la superiorità di Nvidia su tutti i fronti (tranne il prezzo).
In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.
A questo punto comincio a ricredermi e a tornare sui miei passi nonchè a fare una riflessione: perchè mai Nvidia non ha proposto queste GT200 a frequenze superiori visto che ci arrivano senza sforzi e scalano decisamente meglio della concorrenza??
Da questa recensioni si evince che una semplice GTX280 portata ad esempio a 700/1500/2300 (Ultra280 ??) potrebbe essere più performante di un Crossfire di 4870 (dunque anche della futura 4870 X2) senza far fatica.
Se i prezzi per Nvidia dovessero scendere di altri 30-40€ sarebbero ancora dolori per AMD perchè in quanto a prestazioni non c'è storia.
Ora so che spenderei volentieri 250€ per una GTX260 (che potrei portare a 700/1500/2200 senza problemi) per avere quasi le stesse prestazioni di una GTX280 reference.
e cosa sarebbe dimostrato?? come se rv770 non si oc.....
è solo dimostrato che a fronte di un prezzo sproporzionato, ha un lievo margine di oc, cosa che tutte le gtx260 possono fare tranquillamente anche quelle da 250€... però VOI preferite pagare 50/60€ in più per scegliere Nvidia al posto di una più economica hd4870 che ha le stesse prestazioni....
poi non so come fai a dire che scalino meglio della concorrenza... in base a che cosa poi?? :boh:
ah dimenticavo ti dice nulla Super RV770???
no perchè di parla di soli 950 MHz sul core
ghiltanas
11-07-2008, 21:24
si vocifera che sarà solo la HD4850x2 con due giga di ram ddr3, mentre la hd4870x2 un giga di ddr5, ma lo vedremo meglio nei prossimi giorni per adesso un pò troppo speculazioni
avevo erroneamente letto 550 euro per la x2, invece dicevano 550 DOLLARI, c'è una bella differenza :fagiano:
michelgaetano
11-07-2008, 21:50
avevo erroneamente letto 550 euro per la x2, invece dicevano 550 DOLLARI, c'è una bella differenza :fagiano:
549 dollari al cambio odierno sono 345 euro :fagiano:
Con 4870 e 4850 il cambio si è mantenuto perfetto, quindi speriamo!
Significherebbe 170 € circa per GPU...
:sbav:
nickfede
11-07-2008, 22:41
549 dollari al cambio odierno sono 345 euro :fagiano:
Con 4870 e 4850 il cambio si è mantenuto perfetto, quindi speriamo!
Significherebbe 170 € circa per GPU...
:sbav:
:sbav::sbav:345€ per un mostro simile.....soprattutto se hanno veramente risolto i problemi accennati prima sarebbe un BEST BUY micidiale........ne venderanno a VAGONATE......ma questa poi uscirebbe poi con frequenze standard o già OC ???
Poi sarei curioso di vedere una comparazione di schede dedicate al 3D......Fireblade e Quadro basate sui nuovi Chip.......ma sono già uscite ??
michelgaetano
12-07-2008, 01:30
:sbav::sbav:345€ per un mostro simile.....soprattutto se hanno veramente risolto i problemi accennati prima sarebbe un BEST BUY micidiale........ne venderanno a VAGONATE......ma questa poi uscirebbe poi con frequenze standard o già OC ???
Poi sarei curioso di vedere una comparazione di schede dedicate al 3D......Fireblade e Quadro basate sui nuovi Chip.......ma sono già uscite ??
Stai certo che lav edremo inizialmente sui 400.
Poi è facile che dopo un mesetto cali così, come la 4870 sta facendo :D
ma perchè non sono stati utilizzati i driver 177.41 che sono disponibili fin dal 26 del mese scorso ?
ghiltanas
12-07-2008, 10:18
:sbav::sbav:345€ per un mostro simile.....soprattutto se hanno veramente risolto i problemi accennati prima sarebbe un BEST BUY micidiale........ne venderanno a VAGONATE......ma questa poi uscirebbe poi con frequenze standard o già OC ???
Poi sarei curioso di vedere una comparazione di schede dedicate al 3D......Fireblade e Quadro basate sui nuovi Chip.......ma sono già uscite ??
a vagonate no :p , sono sempre 345 euro ;)
Stai certo che lav edremo inizialmente sui 400.
Poi è facile che dopo un mesetto cali così, come la 4870 sta facendo :D
anche meno forse, la 4870 è calata in 2 settimane :)
dasheroll
12-07-2008, 10:32
Ragazzi altra dimostrazione di come Ati ha batutto Nvidia in questa gen difatti va vista come concorrente delle Ati hd 4870 in CrossFire le GTX260 IN SLI PERò QUELLE NON IN OC (in termini di prestazioni e nn di prezzo senza contare che il CF batte anche le zotac seppur di misura cmq)le radeon hd 4870 su 15 confronti (contando ogni singolo grafico) ne vincono 9 contro 6 delle GTX260 i grafici parlano da soli...
Io ho comprato tramite Eprice 2 Ati Sapphire HD4870 (mi arrivano lunedì) penso che tramite catalyst le overclokkerò e poi magari posterò una discussione dal titolo Zotac Geforce GTX260 Amp Edition! Vs Ati Sapphire HD4870 OC e ne vedremo le differenze... cmq hanno un buona scalabilità le GTX260 in SLI.
P.s: Mi sono appena registrato quindi un salutone a tutti!
Evangelion01
12-07-2008, 10:46
Qui si dimostra che una comune GTX260 (con un piccolo OC) è sempre superiore (in alcuni casi di molto) alla HD 4870.
Se pensiamo che in media le HD4870 si OC molto meno in quanto già tirate di fabbrica... mentre le GTX260 salgono anche di altri 100Mhz rispetto a questa AMP è chiara la superiorità di Nvidia su tutti i fronti (tranne il prezzo).
Da questa recensioni si evince che una semplice GTX280 portata ad esempio a 700/1500/2300 (Ultra280 ??) potrebbe essere più performante di un Crossfire di 4870 (dunque anche della futura 4870 X2) senza far fatica.
Se i prezzi per Nvidia dovessero scendere di altri 30-40€ sarebbero ancora dolori per AMD perchè in quanto a prestazioni non c'è storia.
Ora so che spenderei volentieri 250€ per una GTX260 (che potrei portare a 700/1500/2200 senza problemi) per avere quasi le stesse prestazioni di una GTX280 reference.
L' unica cosa che è dimostrata, è che stavolta Ati ha centrato il bersaglio proponendo una vga che va di più e costa meno. Ad oggi su trovaprezzi la 4870 costa 195€, la 260 costa 250€...... solo che la 4870 va mediamente di più! Mi chiedo come fai a dire che "in quanto a prestazioni non c'è storia" ....
Questa Amp! poi è ridicolamente improponibile, costa PIU' di una 280 e va meno, mi chiedo se esista qualcuno così gonzo disposto a pigliarla a questa cifra... :asd:
In questo segmento non c' è storia, nel senso che sarebbe ridicolo comprarsi a questo prezzo la 260!
Oltrettutto anche la 4870 sale in Oc, perciò la battaglia è persa in partenza. L' unica cosa da fare per nvidia sarebbe quella di portare la 260 a 190€, allora avrebbe un perchè di esistere. La 280 poi è messa ancora peggio : 414€ ( ad oggi ) per una sola vga, quando con 270€ ci fai un Cf di 4850 che la batte in tutti i casi.... si, poi servono ali e mobo adeguati, ( che servono anche per la 280 ) però con 144€ di differenza vuoi che non mi escano? Oppure chi ha già l' occorrente può pensare al Cf di 4870 , che surclassa la 280 su tutti i fronti costando uguale.
Insomma , stavolta nvidia è fuori mercato, o taglia i prezzi in maniera decisa, oppure spera nei fanboy e nei disinformati... :p
Dal canto mio ho sempre avuto nvidia dalla mitica 8800gtx, ma stavolta se le cose restano così, passo alla concorrenza senza ombra di dubbio. ;)
dasheroll
12-07-2008, 10:47
Io direi che ha questo giro AMD/Ati ha stravinto... come ho detto prima le Radeon in Crossfire su 15 confronti ne vincono 9 mentre le GTX260 solo 6 anche se con la versione OC le cose cambiano infatti le 2 radeon hd 4870 ne vincono 8 e le ZOTAC ne vincono 7 (sempre su 15 confronti e contando ogni singolo grafico) cmq pensate che sn un OC e che costano un botto, anche le normali stra preferibili le hd 4870 In CrossFire:sofico: visto che si possono overclokkare tramite il catalyst facendo arrivare il core ha 800Mhz e le memorie a 1100Mhz equivalenti ha 4400Mhz rispetto hai 3600Mhz di default eheheh appena mi arrivano luned' le porterò tutte e due a questi valori!:D altro che ZOTAC Amp Edition! secondo me l'OC di una HD4870 arriva a pareggiare con la ZOTAC come prestazioni se nn superiori!:read:
Darkgift
12-07-2008, 10:53
La cosa incredibile ?
Zotac è riuscita a mantenere le stesse temperature del modello reference (piu o meno ) ma abbassato di brutto la rumorosità della scheda........deve aver fatto un mezzo miracolo.......xchè senno è un po difficile da spiegare...... ;)
Evangelion01
12-07-2008, 10:57
La cosa incredibile ?
Zotac è riuscita a mantenere le stesse temperature del modello reference (piu o meno ) ma abbassato di brutto la rumorosità della scheda........deve aver fatto un mezzo miracolo.......xchè senno è un po difficile da spiegare...... ;)
Più che un miracolo magari ha aggiunto qualche Hp al dissy... però considernado quanto costa, il miracolo è trovare qualcuno disposto a prenderla... ;)
http://www.hwupgrade.it/articoli/skvideo/2005/crysis_3.png
Io vorrei capire come è possibile che due GTX260 in SLI riescano a fare a malapena 30 fps fino alla 1680x1050,quando io con la mia 8800GT a quella risoluzione (e very high ovviamente) ne faccio 15-17 (che non sono giocabili certo,avevo solo provato) :mbe:
Cioè voglio dire,una GTX280 ha prestazioni pressochè doppie rispetto alla 9800GTX (a grandi linee) mentre la GTX260 va certo di meno ma non la metà,secondo i test che ho visto nei vari siti di hardware;quindi mi verrebbe da pensare che se mi compro due GTX260 e le metto in SLI dovrei riuscire a giocare più che fluidamente con Crysis (1680x1050 very high appunto),quindi 40 fps almeno li deve fare,30 mi sembrano pochini. Boh...
halduemilauno
12-07-2008, 12:18
colgo l'occasione per ringraziare(con colpevole ritardo da parte mia)la Redazione per l'aver inserito nelle considerazioni finali due utilissimi grafici riassuntivi. spero che questa pratica diventi norma.
di nuovo grazie e complimenti.
;)
Lithium_2.0
12-07-2008, 12:20
spero sia uno scherzo
http://www.trovaprezzi.it/categoria.aspx?libera=gtx260+amp&id=28&prezzoMin=&prezzoMax=&sbox=sb
:eek:
Sono gli unici ad averla (almeno tra i negozi affiliati a trovaprezzi) e ci speculano sopra, il prezzo ufficiale se hai letto l'articolo si aggirerà sui 320 euri, ma secondo me si troverà facilmente anche a meno.
Comunque, come rapporto prezzo/prestazioni è evidente come "a sto giro" è mooolto meglio ATi, e neanche di poco.
Ciao
[...]quindi mi verrebbe da pensare che se mi compro due GTX260 e le metto in SLI dovrei riuscire a giocare più che fluidamente con Crysis (1680x1050 very high appunto),quindi 40 fps almeno li deve fare,30 mi sembrano pochini. Boh...
Ma Crysis non è un gioco, è un benchmark :asd:
ed è al pari di 3DMark200X quindi non bisogna farci affidamento.
La differenza tra i prezzi minimi delle 260 e le 4870 standard è di 70 euro, se le Zontac AMP costeranno, come sembra, 30 euro in più, la differenza sarà di 100 euro per un miglioramento prestazionale minimo: 100 euro su 215 (prezzo minimo delle 4870) mi sembrano tantini, quasi il 50% in più...
Ovviamente poi sono assurdi i 70 euro di differenza tra le 260 standard e le 4870 visto che le prime vanno addirittura più lente.
Iantikas
12-07-2008, 15:34
complimenti x l'articolo...finalmente avete messi i performancerating...spero diventi la norma in tutte le rece...
...x lo stato attuale certamente meglio la HD4870 rispetto alla GTX260...xò a mio modo di vedere, se uno nn ha un bisogno impellente, meglio attendere le versioni ad 1gb e nn reference della HD4870, R700 e GT200 a 55nm...
...ciao
yossarian
12-07-2008, 16:17
Qui si dimostra che una comune GTX260 (con un piccolo OC) è sempre superiore (in alcuni casi di molto) alla HD 4870.
Se pensiamo che in media le HD4870 si OC molto meno in quanto già tirate di fabbrica... mentre le GTX260 salgono anche di altri 100Mhz rispetto a questa AMP è chiara la superiorità di Nvidia su tutti i fronti (tranne il prezzo).
In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.
A questo punto comincio a ricredermi e a tornare sui miei passi nonchè a fare una riflessione: perchè mai Nvidia non ha proposto queste GT200 a frequenze superiori visto che ci arrivano senza sforzi e scalano decisamente meglio della concorrenza??
Da questa recensioni si evince che una semplice GTX280 portata ad esempio a 700/1500/2300 (Ultra280 ??) potrebbe essere più performante di un Crossfire di 4870 (dunque anche della futura 4870 X2) senza far fatica.
Se i prezzi per Nvidia dovessero scendere di altri 30-40€ sarebbero ancora dolori per AMD perchè in quanto a prestazioni non c'è storia.
Ora so che spenderei volentieri 250€ per una GTX260 (che potrei portare a 700/1500/2200 senza problemi) per avere quasi le stesse prestazioni di una GTX280 reference.
http://www.youtube.com/watch?v=i9nXEXWlQ5Q :ciapet:
Evangelion01
12-07-2008, 16:46
http://www.youtube.com/watch?v=i9nXEXWlQ5Q :ciapet:
:rotfl:
Bella questa... :D Ovviamento quoto. :O
soliti fanboy del caxxo che non si arrendono neanche all'evidenza . La HD4870 con le sue gddr5 riesce a salire abbastanza tranquillamente di altri 1000 MHz..adesso cerco il link..
Scusa Ginger non sei un fanboy..?...allora sei un prezzolato NVidia..dopo certi toni, sai, non si può dire altro.
costa@73
12-07-2008, 17:48
In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.
Ma guarda un po' il caso..
si vede all 'inizio dell' installazione che Nvidia ha sganciato per avere una ottimizzazione del codice, o meglio ha pagato come fa' di solito(il caso assassin's creed la dice lunga ), per far andare peggio la concorrenza.
ecco che i conti tornano...
Ps: io me lo sto godendo a 1980, con tutti i dettagli al massimo e in DX 10, con la 3870!
ATI è da mesi che supporta le DirectX10.1, che permettono di applicare comodamente l'antialising anche agli engine defereed rendering come l'UE3 /Stalker etc e con grossi incrementi prestazionali (>30%) con gli engine "tradizionali". E' Epic che dovrebbe svegliarsi... ma dubito che lo farà perchè i suoi giochi sono sponsorizzati da Nvidia, come la maggiorparte dei giochi in circolazione. Se i giochi attuali supportassero tutti le DirectX10.1 per Nvidia sarebbero cavoli amari, in quanto con l'AA applicato la schede ATI volerebbero (vedere AC Dx10.1, dove una HD4850 batte tranquillamente una GTX260 e una HD4870 la GTX280). Sembra che comunque ATI si sia accordata sia con EA Games che con Blizzard perchè i loro prossimi giochi siano DirectX10.1.
Il fatto è che nessun videogiocatore serio preferirebbe Vista ad XP ora come ora, quindi le DX10.1 sono solo aria fritta, e resteranno tale per ancora molti mesi...
Ora come ora alla gente frega delle DX9 e XP, e dell' AA su questo sistema, e nVidia checchè se ne dica lo permette... mentre ATI no.
L' intelligenza sta anche nel fornire non la feature teorica più figa, ma quella che serve agli utenti in quel momento...
yossarian
12-07-2008, 18:11
Il fatto è che nessun videogiocatore serio preferirebbe Vista ad XP ora come ora, quindi le DX10.1 sono solo aria fritta, e resteranno tale per ancora molti mesi...
Ora come ora alla gente frega delle DX9 e XP, e dell' AA su questo sistema, e nVidia checchè se ne dica lo permette... mentre ATI no.
L' intelligenza sta anche nel fornire non la feature teorica più figa, ma quella che serve agli utenti in quel momento...
conosci una sola ragione tecnica per cui l'AA su unreal engine non è attivabile con gpu ATi?
Te lo chiedo perchè io non ne conosco e sospetto qualcosa di analogo a quanto visto in passato con l'impossibilità, presunta, di attivare MSAA e HDR su alcuni engine, nel periodo in cui le gpu nVidia (serie 7) non supportavano le due feature insieme :D
Cerchiamo di capire se si tratta di intelligenza o di furbizia
Iantikas
12-07-2008, 18:22
a parte ke è già qualke release di driver ke anke con ATI è possibile attivare l'AA in gioki con UE3 come Bioshock e UT3...
...inoltre x es. in CoD4 ATI permette di attivare il MSAA fino ad 8x...mentre nvidia nn va oltre il 4x...
...cmq se ci son gioki in cui una lo permette e l'altra no nn'è una limitazione della gpu ma giusto lato driver...
...ciao
p.s.: yoss se ho detto castronerie aiutami tu :D
quindi adesso oltre a spendere di più a pari prestazioni mi ritrovo un sistema che un domani prossimo (gates permettendo) non mi farà girare oltre le DX11(ovviamente vale anche per ATI)anche le "vecchie" DX10.1 che saranno adottate da tanti giochi a venire. Certo le DX10 oggi bastano..più o meno..ma perchè io oggi dovrei comprare una scheda sovrapprezzata che ha meno longevità di quella della concorrenza.Oltretutto c'è il discorso CF/SLI che posso fare sul mio sistema Intel :quegli intelligentoni la loro licenza proprietaria dello SLI se la possono infilare sai dove..?Perchè dovrei passare a chipset Nvidia o addirittura spendere altri soldi per rimanere con CPU Intel
yossarian
12-07-2008, 18:52
a parte ke è già qualke release di driver ke anke con ATI è possibile attivare l'AA in gioki con UE3 come Bioshock e UT3...
...inoltre x es. in CoD4 ATI permette di attivare il MSAA fino ad 8x...mentre nvidia nn va oltre il 4x...
...cmq se ci son gioki in cui una lo permette e l'altra no nn'è una limitazione della gpu ma giusto lato driver...
...ciao
p.s.: yoss se ho detto castronerie aiutami tu :D
il mio dubbio nasce da una semplice considerazione: si parla della difficoltà nell'implementare una forma di antialiasing con engine che fanno uso di deferred rendering. Sulle gpu nVidia si è arrangiato una sorta di antialiasing "casareccio" che forza un'illuminazione di tipo non dinamico. Questo mentre le dx10.1 danno la possibilità ai pixel shader di accedere a più render target proprio per fare deferred rendering. Questo senza tener conto della possibilità di utilizzare un cube map array per l'illuminazione dinamica.
La domanda è: per quale motivo si è forzato un AA su un HW che non lo supporta nativamente se non con pessimi risultati e non si scrive una path che ne permetta la corretta implementazione su HW che supporterebbe nativamente AA con deferred rendering?
magnusll
12-07-2008, 20:27
http://www.youtube.com/watch?v=i9nXEXWlQ5Q :ciapet:
Stralol... ma cosa sei andato a ripescare!!! Anni 80 che piu' 80 non si puo' !! :rotfl: :rotfl:
Le giacchette che indossano sono uno spettacolo... in un commento dicono "puoi beccarti l' AIDS solo a guardarlo, questo video" :D
Comunque concordo in pieno con la sostanza del commento ;)
conosci una sola ragione tecnica per cui l'AA su unreal engine non è attivabile con gpu ATi?
Te lo chiedo perchè io non ne conosco e sospetto qualcosa di analogo a quanto visto in passato con l'impossibilità, presunta, di attivare MSAA e HDR su alcuni engine, nel periodo in cui le gpu nVidia (serie 7) non supportavano le due feature insieme :D
Cerchiamo di capire se si tratta di intelligenza o di furbizia
nVidia ci ha messo un pezzo per far attivare l' AA con giochi che usavano HDR.
Non ci vedo storie di controspionaggio, imho sono semplici limiti di archiettura o di driver...
a parte ke è già qualke release di driver ke anke con ATI è possibile attivare l'AA in gioki con UE3 come Bioshock e UT3...
...inoltre x es. in CoD4 ATI permette di attivare il MSAA fino ad 8x...mentre nvidia nn va oltre il 4x...
...cmq se ci son gioki in cui una lo permette e l'altra no nn'è una limitazione della gpu ma giusto lato driver...
...ciao
p.s.: yoss se ho detto castronerie aiutami tu :D
I driver dicono di permettere questa cosa, ma moltissime persone hanno detto di non riuscire ancora ad attivare l' AA con le schede ATI e i driver più recenti... per i giochi che usano l' Unreal engine 3.
Se avessi la certezza che l' AA funzionasse... sari felice di ritornare ad ATI in un prossimo futuro... con questi prezzi e queste prestazoni...
yossarian
13-07-2008, 03:13
nVidia ci ha messo un pezzo per far attivare l' AA con giochi che usavano HDR.
Non ci vedo storie di controspionaggio, imho sono semplici limiti di archiettura o di driver...
l'UE3 utilizza deferred rendering-> RV770 è dx10.1-> le dx10.1 prevedono l'utilizzo di AA+deferred rendering (MRT per lo shader core)-> i chip nVidia non sono dx10.1-> i chip nVidia non supportano il MRT per lo shader core-> i chip NV non sono in grado di fare AA+deferred rendering in maniera corretta
l'UE3 non è dx10 ma è stata introdotta una path dx che permette ai chip NV di applicare l'AA (in maniera non corretta e trasformando in statiche le ombre dinamiche); allo stesso modo, non è stata implementata una path dx10.1 che permetterebbe ai chip ATi di fare (in maniera corretta) deferred rendering con AA.
In effetti, dei limiti di architettura ci sono :D
rollocarmelo
13-07-2008, 11:39
In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.
AHAHAHA scusa ma chiamare quel giochino da sala giochi GIOCONE mi fa scompisciare dalle risate, quando l'ho istallato ed ho visto un pupo che che salta e corre in un mondo del tutto IMMOBILE e DISEGNATO coi colori della Giotto mi sono messo a ridere e l'ho cancellato dopo 15 minuti di gioco. Apparte tutto si vede che è chiaramente ottimizzato per nvidia visto che la mia 8800gt va di più della hd4850 (nettamente superiore). Half Life 2 è 10anni luce meglio di devil may cry e pensa che è uscito 4 anni fa!!!
Non avendo ancora detto nulla nvidia riguardo la perdita del segnale video delle 8800gt, me ne guarderò bene dall'acquistare questa o qualsiasi altra scheda basata su archittetura nvidai!
l'UE3 utilizza deferred rendering-> RV770 è dx10.1-> le dx10.1 prevedono l'utilizzo di AA+deferred rendering (MRT per lo shader core)-> i chip nVidia non sono dx10.1-> i chip nVidia non supportano il MRT per lo shader core-> i chip NV non sono in grado di fare AA+deferred rendering in maniera corretta
l'UE3 non è dx10 ma è stata introdotta una path dx che permette ai chip NV di applicare l'AA (in maniera non corretta e trasformando in statiche le ombre dinamiche); allo stesso modo, non è stata implementata una path dx10.1 che permetterebbe ai chip ATi di fare (in maniera corretta) deferred rendering con AA.
In effetti, dei limiti di architettura ci sono :D
Non mi piace parlare tecnico perchè alla fine si parla di aria fritta... proprio come stai parlando tu, sorry.
Ora come ora, sotto XP, ovvero il sistema che l' 80% dei videogiocatori mondiali usa ancora, le schede video nVidia permettono di usare l' AA con i giochi che usano l' Unreal engine 3, le schede ATI no.
Lo so che non è un AA preciso perchè non si basa sul deferred shading e bla bla bla bla, fatto sta che adesso... Unreal tournament 3, Bioshock, Mass effect ed altri giochi che usano l' Unreal engine 3, possono essere giocati con AA attivato su schede nVidia, e almeno tutto quello che è poligonale viene smussato correttamente.
Meglio un AA parziale che nessun AA, senza contare che le ombre restano dinamiche, e non statiche (Cosa visibilissima a chiunque).
Le DX10.1 sono aria fritta ora come ora, e Vista è un sistema del piffero: si farà prima a passare al prossimo sistema operativo piuttosto che passare a Vista per giocare, indi... m' interessano solo le DX9, e le schede nVidia rendono meglio di quelle ATI in questo campo.
Se poi vuoi dire che non è vero o aprire una sciocca faida da fanboy... mi tiro indietro, ho avuto pacchi di schede ATI e nVidia a seconda dei momenti di splendore delle case: compro solo in base alla qualità e alle feature.
Mister Tarpone
13-07-2008, 18:37
il mio dubbio nasce da una semplice considerazione: si parla della difficoltà nell'implementare una forma di antialiasing con engine che fanno uso di deferred rendering. Sulle gpu nVidia si è arrangiato una sorta di antialiasing "casareccio" che forza un'illuminazione di tipo non dinamico. Questo mentre le dx10.1 danno la possibilità ai pixel shader di accedere a più render target proprio per fare deferred rendering. Questo senza tener conto della possibilità di utilizzare un cube map array per l'illuminazione dinamica.
La domanda è: per quale motivo si è forzato un AA su un HW che non lo supporta nativamente se non con pessimi risultati e non si scrive una path che ne permetta la corretta implementazione su HW che supporterebbe nativamente AA con deferred rendering?
ecco i pessimi risultati:
No AA
http://img363.imageshack.us/img363/5469/222222222222222222tk0.th.jpg (http://img363.imageshack.us/my.php?image=222222222222222222tk0.jpg)
SI AA
http://img363.imageshack.us/img363/4227/3333333333pf9.th.jpg (http://img363.imageshack.us/my.php?image=3333333333pf9.jpg)
qui un file da scaricare con le immagini non compresse:
http://www.megaupload.com/it/?d=FG3Y2MKH
così vedete meglio la differenza ;)
....e la perdita di prestazioni è assolutamente nella norma ;)
l'UE3 utilizza deferred rendering-> RV770 è dx10.1-> le dx10.1 prevedono l'utilizzo di AA+deferred rendering (MRT per lo shader core)-> i chip nVidia non sono dx10.1-> i chip nVidia non supportano il MRT per lo shader core-> i chip NV non sono in grado di fare AA+deferred rendering in maniera corretta
l'UE3 non è dx10 ma è stata introdotta una path dx che permette ai chip NV di applicare l'AA (in maniera non corretta e trasformando in statiche le ombre dinamiche); allo stesso modo, non è stata implementata una path dx10.1 che permetterebbe ai chip ATi di fare (in maniera corretta) deferred rendering con AA.
In effetti, dei limiti di architettura ci sono :D
le ombre dinamiche che diventano statiche, illuminazione NON dinamica?? :confused:
dai ragazzi non mi fate tirart fuori altri screen ;)
cmq...non è un AA potente ma il suo lavoro lo fa molto bene :asd:
tutti i giochi con Unreal engine graficamente migliorano grazie a questa possibilità che c'è con le schede nvidia... quindi ben venga ;) !!
ciao.....
appleroof
13-07-2008, 20:25
cut
le ombre dinamiche che diventano statiche, illuminazione NON dinamica?? :confused:
dai ragazzi non mi fate tirart fuori altri screen ;)
cmq...non è un AA potente ma il suo lavoro lo fa molto bene :asd:
tutti i giochi con Unreal engine graficamente migliorano grazie a questa possibilità che c'è con le schede nvidia... quindi ben venga ;) !!
ciao.....
in effetti non vedo alcuna di quelle cose dette :what: e devo dire che mass effect a 1920x1200 tutto max msaa2x è veramente uno splendore grafico :asd:
;)
yossarian
14-07-2008, 02:00
Non mi piace parlare tecnico perchè alla fine si parla di aria fritta... proprio come stai parlando tu, sorry.
Ora come ora, sotto XP, ovvero il sistema che l' 80% dei videogiocatori mondiali usa ancora, le schede video nVidia permettono di usare l' AA con i giochi che usano l' Unreal engine 3, le schede ATI no.
Lo so che non è un AA preciso perchè non si basa sul deferred shading e bla bla bla bla, fatto sta che adesso... Unreal tournament 3, Bioshock, Mass effect ed altri giochi che usano l' Unreal engine 3, possono essere giocati con AA attivato su schede nVidia, e almeno tutto quello che è poligonale viene smussato correttamente.
Meglio un AA parziale che nessun AA, senza contare che le ombre restano dinamiche, e non statiche (Cosa visibilissima a chiunque).
Le DX10.1 sono aria fritta ora come ora, e Vista è un sistema del piffero: si farà prima a passare al prossimo sistema operativo piuttosto che passare a Vista per giocare, indi... m' interessano solo le DX9, e le schede nVidia rendono meglio di quelle ATI in questo campo.
Se poi vuoi dire che non è vero o aprire una sciocca faida da fanboy... mi tiro indietro, ho avuto pacchi di schede ATI e nVidia a seconda dei momenti di splendore delle case: compro solo in base alla qualità e alle feature.
ecco i pessimi risultati:
No AA
http://img363.imageshack.us/img363/5469/222222222222222222tk0.th.jpg (http://img363.imageshack.us/my.php?image=222222222222222222tk0.jpg)
SI AA
http://img363.imageshack.us/img363/4227/3333333333pf9.th.jpg (http://img363.imageshack.us/my.php?image=3333333333pf9.jpg)
qui un file da scaricare con le immagini non compresse:
http://www.megaupload.com/it/?d=FG3Y2MKH
così vedete meglio la differenza ;)
....e la perdita di prestazioni è assolutamente nella norma ;)
le ombre dinamiche che diventano statiche, illuminazione NON dinamica?? :confused:
dai ragazzi non mi fate tirart fuori altri screen ;)
cmq...non è un AA potente ma il suo lavoro lo fa molto bene :asd:
tutti i giochi con Unreal engine graficamente migliorano grazie a questa possibilità che c'è con le schede nvidia... quindi ben venga ;) !!
ciao.....
in effetti non vedo alcuna di quelle cose dette :what: e devo dire che mass effect a 1920x1200 tutto max msaa2x è veramente uno splendore grafico :asd:
;)
se vi riferite all'utilizzo di MSAA e deferred lightning con DX9 e WinXP, gradirei che mi deste una definizione di ombre dinamiche.
Poi parliamo di tutto il resto (compreso il MSAA 2x che non andrebbe neppure preso in considerazione poichè chiunque sa come funziona un algoritmo di AA inizia a considerare valido un pattern che parte da 4x)
ministro
14-07-2008, 06:53
è inutile fare la differenza quando si sorpassano i 70fps.. non se ne accorge nessuno..
ghiltanas
14-07-2008, 11:04
ma come con le ati nn si può forzare l'aa con i giochi basati sull'ue3? :confused: neanche con la serie nuova? :mbe:
yossarian
14-07-2008, 11:08
ma come con le ati nn si può forzare l'aa con i giochi basati sull'ue3? :confused: neanche con la serie nuova? :mbe:
si, anche con quella vecchia, ma con le DX9 non è un vero AA, così come non lo è quello di nVidia
ghiltanas
14-07-2008, 11:11
si, anche con quella vecchia, ma con le DX9 non è un vero AA, così come non lo è quello di nVidia
sotto vista invece? cmq quello nvidia nn sarà un vero aa però è piuttosto efficacie, perchè ati nn lo permette, nn capisco :confused:
yossarian
14-07-2008, 11:17
sotto vista invece? cmq quello nvidia nn sarà un vero aa però è piuttosto efficacie, perchè ati nn lo permette, nn capisco :confused:
si può fare anche con ATi; sotto vista è possibile fare deferred shading + MSAA renderizzando e applicando il MSAA per pixel, dopo aver fatto HSR (cosa impossibile con le DX9). Con le DX10 si utilizza un solo render target, con le DX10.1 si utilizzano più render target ognuno con la sua modalità di blending. La differenza sta nella velocità con cui si renderizza la scena e nell'occupazione della bandwidth (con le DX10.1 si occupa meno banda e si risparmia un passaggio di rendering)
ghiltanas
14-07-2008, 11:22
si può fare anche con ATi; sotto vista è possibile fare deferred shading + MSAA renderizzando e applicando il MSAA per pixel, dopo aver fatto HSR (cosa impossibile con le DX9). Con le DX10 si utilizza un solo render target, con le DX10.1 si utilizzano più render target ognuno con la sua modalità di blending. La differenza sta nella velocità con cui si renderizza la scena e nell'occupazione della bandwidth (con le DX10.1 si occupa meno banda e si risparmia un passaggio di rendering)
quindi in pratica sotto vista posso forzarlo mentre sotto xp no, anche se il gioco è dx9? meglio perchè ormai uso solo vista. grazie della spiegazione ;)
yossarian
14-07-2008, 11:40
quindi in pratica sotto vista posso forzarlo mentre sotto xp no, anche se il gioco è dx9? meglio perchè ormai uso solo vista. grazie della spiegazione ;)
no; si può forzare anche sotto xp ma non è un vero MSAA. Il problema con le DX9 è che i subpixel usati per l'AA non vengono mantenuti in memoria e non possono essere riutilizzati per operazioni come il deferred shading (che è un'operazione di rendering che si fa dopo l'HSR). Questo comporta un'incompatibilità tra il MSAA e il deferred rendering (o qualunque operazione fatta dopo l'HSR, come ad esempio anche il solo deferred lightning dell'UE3). Con le DX10, invece, è possibile salvare i subpixel su un render target e mantenerli in memoria per poterli utilizzare all'occorrenza.
Iantikas
14-07-2008, 15:01
ma come con le ati nn si può forzare l'aa con i giochi basati sull'ue3? :confused: neanche con la serie nuova? :mbe:
così come in G80 e successivi anke con x1x00 e successivi si può forzare l'AA in DX9 con gioki basati sul UE3...
...oltre alla release note esistono anke rece (tipo il "the best graphics card for UT3" di pcgameshardware) ke dimostrano ke è possibile anke con ATI...oltretutto io stesso l'ho usato e nn sono certo l'unico...
...xò queste cose equivalgono ad "aria fritta"...un utente ke dice "ci son un casino d'utenti nei forum ke nn ce la fanno" è verità sacrosanta...
...se cerki "how to force AA in [uno dei vari titoli keusano l'ue3]" con google trovi gente ke ha problemi a forzarlo anke con gpu nvidia...questo xò nn significa ke le gpu nvidia nn possono farlo...
...ciao
ghiltanas
14-07-2008, 16:09
così come in G80 e successivi anke con x1x00 e successivi si può forzare l'AA in DX9 con gioki basati sul UE3...
...oltre alla release note esistono anke rece (tipo il "the best graphics card for UT3" di pcgameshardware) ke dimostrano ke è possibile anke con ATI...oltretutto io stesso l'ho usato e nn sono certo l'unico...
...xò queste cose equivalgono ad "aria fritta"...un utente ke dice "ci son un casino d'utenti nei forum ke nn ce la fanno" è verità sacrosanta...
...se cerki "how to force AA in [uno dei vari titoli keusano l'ue3]" con google trovi gente ke ha problemi a forzarlo anke con gpu nvidia...questo xò nn significa ke le gpu nvidia nn possono farlo...
...ciao
io l'ho chiesto perchè del mondo ati sono molto ma molto inesperto. in genere io lo faccio dal pannello nvidia o con programmi tipo nhancer, con ati è semplice allo stesso modo?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.