PDA

View Full Version : NVIDIA GeForce GTX 260: 24 stream processors in più


Pagine : [1] 2

Redazione di Hardware Upg
25-09-2008, 18:04
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2049/nvidia-geforce-gtx-260-24-stream-processors-in-piu_index.html

NVIDIA incrementa il numero di stream processors integrati nelle schede GeForce GTX 260, portandolo a 216; non cambiano le restanti specifiche tecniche ma vari partner hanno scelto di overcloccare di default queste schede. E' il caso di Zotac, con la propria GeForce GTX 260 AMP2! Edition

Click sul link per visualizzare l'articolo.

Jackari
25-09-2008, 18:19
mi sa che le hd4870 sono destinate presto a calare di prezzo di un pò. spero che il calo si ripercuota anche sulle hd4850.

frankie
25-09-2008, 18:19
Chiamarla 270, 261 no eh :banned:
all'ufficio marketing sono dei geni...:cool:

deglia
25-09-2008, 18:22
avrei voluto vedere quanto consumano in + le schede con 216sp,giusto x curiosità :p
bella rece e buona scheda...vedremo come si comporta in sli allora ;)

John22
25-09-2008, 18:27
Certo che ammazza... :D 300 euro per una schedina...

E io che mi sento a posto con la mia X1950Pro + Accelero S1... :asd:

Al momento dell'acquisto era una bomba, adesso mi sento un accattone :D

Damy06
25-09-2008, 18:35
beh comunque a dirla tutta,un pochetto migliorano le prestazioni o.o

Xilema
25-09-2008, 18:43
Appena comprata una GTX 260 con 192 SP per 228 €, e me ne sbatto bellamente del nuovo modello con qualche SP in più: il margine è risibile.
E noto con piacere da questi test che comunque la mia scheda sta sempre davanti alla Radeon HD 4870 alle risoluzioni che m' interessano, senza contare che la scheda nVidia mi consentirà di usare l' AA con i giochi che usano l' unreal engine 3...

Futura12
25-09-2008, 18:45
ok ho capito tutto:asd:

sniperspa
25-09-2008, 18:55
ma si dai...si abbassano le ati!:D

aceomron
25-09-2008, 19:01
il mio commento è: cosa l'hanno fatta a fare?

sniperspa
25-09-2008, 19:05
il mio commento è: cosa l'hanno fatta a fare?

Per giustificare il prezzo superiore rispetto la 4870 suppongo...

DakmorNoland
25-09-2008, 19:06
Ma le 4870 non stavano sempre davanti alle 260GTX (parlo della prima versione)? :rolleyes: Solo su questo sito misteriosamente la 260GTX è sempre davanti alla 4870! :eek: Certe cose non me le spiegherò mai...

ThePunisher
25-09-2008, 19:12
A quel prezzo non ha senso. Allo stesso prezzo della vecchia GTX 260 ce l'ha eccome.


Non capisco questa frase:

E' evidente come la "cura di overclock" praticata da Zotac con la propria scheda GeForce GTX 260 AMP2! Edition sortisca positivi effetti: le prestazioni velocistiche di questa scheda sono infatti molto più vicine a quelle della soluzione GeForce GTX 280 di quanto non lo siano le schede GeForce GTX 260 alle specifiche di default.

Ma non è ovvio? E' come dire che un motore elaborato va di più di uno identico non "ritoccato".

okorop
25-09-2008, 19:14
Ma le 4870 non stavano sempre davanti alle 260GTX (parlo della prima versione)? :rolleyes: Solo su questo sito misteriosamente la 260GTX è sempre davanti alla 4870! :eek: Certe cose non me le spiegherò mai...

quoto......non me lo spiego nemmeno io il perche :confused:

ThePunisher
25-09-2008, 19:16
quoto......non me lo spiego nemmeno io il perche :confused:

Forse sono stati utilizzati titoli\driver diversi?

Comunque l'orientamento delle rece sicuramente ha subito una svolta da questi tempi:
http://digilander.libero.it/m4puni/hwu1.jpg

Allora c'erano, evidentemente, le lamentele inverse.

ZiP!
25-09-2008, 19:16
Domanda banale per la redazione.
Confrontando i risultati di questi test con quelli eseguiti 2 mesi fa si può notare come gli fps della 4870 siano calati in praticamente tutti i giochi tranne crysis in dx10 (hl2 non lo considero perchè erano diverse le impostazioni).
Il sistema di test dovrebbe essere lo stesso, l'unica differenza è l'utilizzo dei catalyst 8.9 contro i vecchi 8.6beta o c'è qualcosa che mi sfugge che possa aver peggiorato la situazione della scheda?
Senza contare che questa recensione è in contrasto con quelle pubblicate su praticamente tutti gli altri siti, qualche dubbio in più personalmente mi sarebbe sorto e avrei indagato a riguardo.

Bhairava
25-09-2008, 19:21
Domanda banale per la redazione.
Confrontando i risultati di questi test con quelli eseguiti 2 mesi fa si può notare come gli fps della 4870 siano calati in praticamente tutti i giochi tranne crysis in dx10 (hl2 non lo considero perchè erano diverse le impostazioni).
Il sistema di test dovrebbe essere lo stesso, l'unica differenza è l'utilizzo dei catalyst 8.9 contro i vecchi 8.6beta o c'è qualcosa che mi sfugge che possa aver peggiorato la situazione della scheda?
Senza contare che questa recensione è in contrasto con quelle pubblicate su praticamente tutti gli altri siti, qualche dubbio in più personalmente mi sarebbe sorto e avrei indagato a riguardo.

Siamo alle solite. E' successo per la 3870, per la 3870x2 e ora anche per la 4870....:rolleyes:

okorop
25-09-2008, 19:24
Siamo alle solite. E' successo per la 3870, per la 3870x2 e ora anche per la 4870....:rolleyes:

quoto......da altre recensioni il divartio tra 4870 e nuova gtx è del 10% qua molto di piu.....vabbe

D3stroyer
25-09-2008, 19:28
l'hanno fatta per riprendere il primato sulle vga a singola gpu! (imho)

DarKilleR
25-09-2008, 19:32
più che altro non credo che hanno fatto i test nuovi anche con la HD4870, ma hanno semplicemente preso dal loro database quelli che avevano fatto...

Quindi i miglioramenti prestazionali dovuti ai driver etc etc non sono presenti...
E invece sono presenti i miglioramenti prestazionali dei driver nVIdia...


Almeno questo è il mio pensiero, e spero che HW upgrade non siano così poco professionali da avvantaggiare anche se di poco una marca o l'altra, sono anni che li seguo e non credo che il motivo sia questo..

appleroof
25-09-2008, 19:35
Non era del resto questo l'obiettivo diretto di NVIDIA con queste schede, quanto quello di guadagnare un certo margine di vantaggio sulle soluzioni concorrenti di ATI della serie Radeon HD 4800. Il risultato è stato ottenuto, ma continuiamo a domandarci per quale motivo NVIDIA non abbia scelto da subito di proporre le proprie schede GeForce GTX 260 con questo quantitativo di stream processors.

la "teoria" (non mia :D) che mi sembra più convincente è che, essendo le gtx260 gli "scarti" di gt200 in versione gtx 280, con l'affinamento della produzione di questi chip riescono ad avere gpu migliori, da qui la possibilità di abilitare più parti di chip

quanto al nome, mi rimane abbastanza oscuro il motivo di non differenziarle (forse lasciano scelta ai partner che devono smaltire le 192sp...) ma cmq basta guardare le caratteristiche della vga prima di comprarla (così come nell'esempio della 88gts 640/512) che ci saranno sulle scatole o indicate dagli shop on-line (i più seri lo fanno da sempre, al limite si chiede via mail prima di comprarla)....insomma non vedo tragedie, anche se è una politica senza dubbio confusionaria

infine, per chi ha una vga vecchia, tanto di guadagnato da questa versione, manco a dirlo :)

Bhairava
25-09-2008, 19:35
l'hanno fatta per riprendere il primato sulle vga a singola gpu! (imho)

Il primato sulle vga a singola gpu ce l'ha la 280 e non l'ha mai perso. :mbe:

ipertotix
25-09-2008, 19:35
Il sistema di test dovrebbe essere lo stesso, l'unica differenza è l'utilizzo dei catalyst 8.9 contro i vecchi 8.6beta o c'è qualcosa che mi sfugge che possa aver peggiorato la situazione della scheda?
Senza contare che questa recensione è in contrasto con quelle pubblicate su praticamente tutti gli altri siti, qualche dubbio in più personalmente mi sarebbe sorto e avrei indagato a riguardo.

o potrebbe anche essere che le schede nvidia della serie 2xxgtx avevano un margine di miglioramento maggiore grazie ai nuovi forceware, rispetto a quello che avevano le controparti ati (con i relativi catalyst)...ma questo è ovviamente tutto da verificare, soprattutto in vista di un possibile incremento di prestazioni con i prossimi catalyst...:rolleyes:

Sammy Jankis
25-09-2008, 19:35
Forse sono stati utilizzati titoli\driver diversi?

Comunque l'orientamento delle rece sicuramente ha subito una svolta da questi tempi:
http://digilander.libero.it/m4puni/hwu1.jpg

Allora c'erano, evidentemente, le lamentele inverse.

Da adesso comincio ufficialmente a pensare male, vogliamo parlare di questa utilissima recensione: http://www.hwupgrade.it/articoli/sistemi/2035/gmc-r-2-toast-chassis-insolito-ed-economico_index.html e del relativo banner pubblicitario apparso la settimana dopo :doh: ! Penso che ormai sia negare l'evidenza, di buono sul sito almeno rimane almeno il forum.

Bhairava
25-09-2008, 19:36
più che altro non credo che hanno fatto i test nuovi anche con la HD4870, ma hanno semplicemente preso dal loro database quelli che avevano fatto...

Quindi i miglioramenti prestazionali dovuti ai driver etc etc non sono presenti...
E invece sono presenti i miglioramenti prestazionali dei driver nVIdia...


Almeno questo è il mio pensiero, e spero che HW upgrade non siano così poco professionali da avvantaggiare anche se di poco una marca o l'altra, sono anni che li seguo e non credo che il motivo sia questo..


I confronti non vengono mai fatti copiando e incollando i vecchi. Sarebbe un gravissimo errore.

appleroof
25-09-2008, 19:37
più che altro non credo che hanno fatto i test nuovi anche con la HD4870, ma hanno semplicemente preso dal loro database quelli che avevano fatto...

Quindi i miglioramenti prestazionali dovuti ai driver etc etc non sono presenti...
E invece sono presenti i miglioramenti prestazionali dei driver nVIdia...


Almeno questo è il mio pensiero, e spero che HW upgrade non siano così poco professionali da avvantaggiare anche se di poco una marca o l'altra, sono anni che li seguo e non credo che il motivo sia questo..

driver ATI Catalyst 8.9;

http://www.hwupgrade.it/articoli/skvideo/2049/nvidia-geforce-gtx-260-24-stream-processors-in-piu_3.html

speranze ben riposte direi....:rolleyes:

okorop
25-09-2008, 19:37
Da adesso comincio ufficialmente a pensare male, vogliamo parlare di questa utilissima recensione: http://www.hwupgrade.it/articoli/sistemi/2035/gmc-r-2-toast-chassis-insolito-ed-economico_index.html e del relativo banner pubblicitario apparso la settimana dopo :doh: ! Penso che ormai sia negare l'evidenza, di buono sul sito almeno rimane almeno il forum.

quoto!!!!
conclusioni prese da qui http://www.anandtech.com/video/showdoc.aspx?i=3415
the Radeon HD 4870 1GB is a better buy than both the GTX 260 and core 216 variant

M4R1|<
25-09-2008, 19:42
@ sniperspa: concordo, cmq secondo me nn ha molto senso come vga, oggi per me le megliori sono (aggiungendoci anche un po' di longevità) tra 1680 e 1920 la 4870 e la gtx280 e tra 1920 e 2560 la 4870x2, ovviamente imho, però nn credo che in molti compreranno una vga di costo superiore alla 4870 senza sapere quanti sp possiede e quindi senza aver possibilità di determinare se è o no superiore alla 4870

appleroof
25-09-2008, 19:43
quoto!!!!
conclusioni prese da qui http://www.anandtech.com/video/showdoc.aspx?i=3415
the Radeon HD 4870 1GB is a better buy than both the GTX 260 and core 216 variant

come leggi sopra hanno usato gli ultimi catalyst, che figura che avete fatto...:stordita:

per il resto, è ovvio che siti diversi usino metodologie diverse (finchè non faranno uno standard, cioè mai :D ) e imho la cosa migliore è analizzare tutte le rece (e leggere sui forum dai possessori) per farsi un'idea più precisa possibile

i giochi utilizzati in questo test mi sembrano non particolarmente pro-nvidia o pro-ati, già questo dà un'indicazione abbastanza oggettiva (a meno di avere le bandiere del tifo da stadio sugli occhi :D )

ZiP!
25-09-2008, 19:44
più che altro non credo che hanno fatto i test nuovi anche con la HD4870, ma hanno semplicemente preso dal loro database quelli che avevano fatto...

Quindi i miglioramenti prestazionali dovuti ai driver etc etc non sono presenti...
E invece sono presenti i miglioramenti prestazionali dei driver nVIdia...


Almeno questo è il mio pensiero, e spero che HW upgrade non siano così poco professionali da avvantaggiare anche se di poco una marca o l'altra, sono anni che li seguo e non credo che il motivo sia questo..


o potrebbe anche essere che le schede nvidia della serie 2xxgtx avevano un margine di miglioramento maggiore grazie ai nuovi forceware, rispetto a quello che avevano le controparti ati (con i relativi catalyst)...ma questo è ovviamente tutto da verificare, soprattutto in vista di un possibile incremento di prestazioni con i prossimi catalyst...:rolleyes:
I risultati della 4870 sono diversi da quelli dei vecchi test quindi non riciclati, anche perchè fatti con gli 8.9 usciti da una settimana circa.
Il tu ragionamento ipertotix è perfettamente logico ed è quello che ho pensato anche io a prima lettura, ma poi sono andato a vedere i vecchi test e ho notato che giustamente i risultati della gtx260 sono migliorati, ma quelli della 4870 invece sono peggiorati.
Che dopo 4 versioni di driver i risultati siano peggiori la trovo un pò debole come motivazione, anche perchè la cosa non è stata riscontrata da nessun utente (me compreso anche se per necessità utilizzo gli 8.8 per incompatibilità con la scheda madre).
Sicuramente al posto del recensore avrei fatto una controprova almeno installato gli 8.8 per vedere se ci fossero delle differenze anche perchè (lo ripeto) i risultati qui sono in contrasto con praticamente tutti gli altri siti.

Defragg
25-09-2008, 19:49
C'è un errore, la GTX 260 216sp possiede altre 8 TMU, per un totale di 72. ;)

Bhairava
25-09-2008, 19:50
come leggi sopra hanno usato gli ultimi catalyst, che figura che avete fatto...:stordita:

per il resto, è ovvio che siti diversi usino metodologie diverse (finchè non faranno uno standard, cioè mai :D ) e imho la cosa migliore è analizzare tutte le rece (e leggere sui forum dai possessori) per farsi un'idea più precisa possibile

i giochi utilizzati in questo test mi sembrano non particolarmente pro-nvidia o pro-ati, già questo dà un'indicazione abbastanza oggettiva (a meno di avere le bandiere del tifo da stadio sugli occhi :D )

Non mi risulta che fra noi ci siano azionisti, ingegneri o direttori di marketing di ATI. Quindi, quand'anche ci fosse di mezzo una figuraccia non capisco perchè tu debba attribuitla a "noi". :rolleyes:
Forse le bandiere sugli occhi ce le hai tu, che imposti sempre la solita dialettica tipica del tifoso ("noi" abbiamo fatto gol, "voi" avete perso).

Aioria1983
25-09-2008, 19:52
Ma le 4870 non stavano sempre davanti alle 260GTX (parlo della prima versione)? :rolleyes: Solo su questo sito misteriosamente la 260GTX è sempre davanti alla 4870! :eek: Certe cose non me le spiegherò mai...

Come non quotare!
Vorrei inoltre aggiungere che si confrontano una 260GTX overckloccata e una con 24sp in più (quindi delle evoluzioni della versione "base") con una 4870 liscia!
So che delle 4870 ne esistono versioni con 1Gb di memoria e overckloccate (vedi powercolor), perchè non vengono minimamente prese in considerazione in questo genere di test?

appleroof
25-09-2008, 19:55
Non mi risulta che fra noi ci siano azionisti, ingegneri o direttori di marketing di ATI. Quindi, quand'anche ci fosse di mezzo una figuraccia non capisco perchè tu debba attribuitla a "noi". :rolleyes:
Forse le bandiere sugli occhi ce le hai tu, che imposti sempre la solita dialettica tipica del tifoso ("noi" abbiamo fatto gol, "voi" avete perso).

perchè ti senti chiamato in causa direttamente? :what: (non me lo dire: ho capito ;) )

per il resto, ho solo risposto a chi diceva una cosa "inesatta", quotando appunto i diretti interessati, non mi pare che tu sia uno di quelli...

Bhairava
25-09-2008, 19:56
perchè ti senti chiamato in causa direttamente? :what: (non me lo dire: ho capito ;) )

per il resto, ho solo risposto a chi diceva una cosa "inesatta", quotando appunto i diretti interessati, non mi pare che tu sia uno di quelli...

Vabbè, "amici" come prima! :D :ciapet:

ThePunisher
25-09-2008, 19:57
l'hanno fatta per riprendere il primato sulle vga a singola gpu! (imho)

E la GTX 280 scusa?

Eizo114
25-09-2008, 20:01
Mi viene da ridere come vi sia una tale immobilità da parte di Nvidia, sono 3 anni che reimpastano tutto variando solo SP frequenza e Banda passante! Detto questo rinnovo il mio dissenso nei confronti dei test effettuati su questo sito, anche se a malincuore dato che lo seguo da una vita e inizia a capire molto cose grazie ad esso, ora posso solo notare ancora che qui spesso i test non sono fatti male o con errori ma vi sono delle scelte ben decise spesso per questioni di accordi! Naturalmente ognuno la pensi come vuole... PS Ovvio che se lasciano che sia chiamino allo stesso modo, lo fanno per semplificare la vita ai rivenditori affinche' possano smaltire il vecchio modello di 260 evitando cosi che rimanga sul groppone a tutti no? saluti

appleroof
25-09-2008, 20:14
Mi viene da ridere come vi sia una tale immobilità da parte di Nvidia, sono 3 anni che reimpastano tutto variando solo SP frequenza e Banda passante! cut

errata corrige (diciamo così :asd: ) g80 è uscito nel novembre 2006, quasi 2 anni; r600 è uscito sei mesi poco, quasi 1 anno e mezzo

gt200 e rv770 non sono, entrambi, che evoluzioni (preferisci rimpasti?) rispettivamente di g80 e r600

Jaguar64bit
25-09-2008, 20:30
oggi sono usciti i 178.13 WHQL..


cmq...vedo che le GTX260 da questi test fanno vedere di cosa sono capaci con le ultime relise di driver ;)

Jaguar64bit
25-09-2008, 20:31
Come non quotare!
Vorrei inoltre aggiungere che si confrontano una 260GTX overckloccata e una con 24sp in più (quindi delle evoluzioni della versione "base") con una 4870 liscia!
So che delle 4870 ne esistono versioni con 1Gb di memoria e overckloccate (vedi powercolor), perchè non vengono minimamente prese in considerazione in questo genere di test?


guarda che nel test c'è anche una GTX260 192sp con frequenze a default , e mi pare si comporti bene.

gianni1879
25-09-2008, 20:38
quoto......da altre recensioni il divartio tra 4870 e nuova gtx è del 10% qua molto di piu.....vabbe

vecchi discorsi ormai già fatti in passato, oltretutto con i cat 8.9 le Ati hanno pure guadagnato in prestazioni... vabbè tanto ci sono maree di recensioni in giro

gianni1879
25-09-2008, 20:43
come leggi sopra hanno usato gli ultimi catalyst, che figura che avete fatto...:stordita:

per il resto, è ovvio che siti diversi usino metodologie diverse (finchè non faranno uno standard, cioè mai :D ) e imho la cosa migliore è analizzare tutte le rece (e leggere sui forum dai possessori) per farsi un'idea più precisa possibile

i giochi utilizzati in questo test mi sembrano non particolarmente pro-nvidia o pro-ati, già questo dà un'indicazione abbastanza oggettiva (a meno di avere le bandiere del tifo da stadio sugli occhi :D )

no così tanto per dire

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_ati_catalyst_89/8/#abschnitt_performancerating (notate i miglioramenti)

magari sarà la sk madre con questo chipset Nvida al posto dei chipset intel ad influenzare le cose... boh chissà :rolleyes:

halduemilauno
25-09-2008, 20:43
qui...
http://www.hwupgrade.it/forum/showthread.php?t=1821250
c'è il thread specifico con in prima pagina tante altre rece.
;)

DarKilleR
25-09-2008, 20:54
we scusate per la mia risposta, io non ho letto tutta la recenzione ma leggendo i commenti....la prima cosa che mi è venuta in mente è stata quella...


Non mi flagellate XD

ninja750
25-09-2008, 20:55
toh nella prima rece la 4870 andava praticamente sempre meglio della 260 192 mentre ora sempre dietro :asd: certo che a voler pensare male si fa presto :D

ZiP!
25-09-2008, 20:58
vecchi discorsi ormai già fatti in passato, oltretutto con i cat 8.9 le Ati hanno pure guadagnato in prestazioni... vabbè tanto ci sono maree di recensioni in giro
Che scheda hai?
Perchè non s'è visto alcun guadagno di prestazioni con gli 8.9 anzi c'è stata un'infinità di utenti che ha avuto problemi di ogni tipo ed è tornata agli 8.8

okorop
25-09-2008, 20:58
toh nella prima rece la 4870 andava praticamente sempre meglio della 260 192 mentre ora sempre dietro :asd: certo che a voler pensare male si fa presto :D

quoto

gianni1879
25-09-2008, 21:11
Che scheda hai?
Perchè non s'è visto alcun guadagno di prestazioni con gli 8.9 anzi c'è stata un'infinità di utenti che ha avuto problemi di ogni tipo ed è tornata agli 8.8

se guardi il link di computerbase

ninja750
25-09-2008, 21:12
ma andiamo a vedere nel dettaglio :asd:

LOL cod4 aa8x af16x :D

risoluzioni 2560x1600 / 1920x1200 / 1680x1050

precedente recensione:
gtx260: 59/81/86

attuale recensione:
gtx260: 63/97/115

cioè in 1680 è entrato in funzione il turbo boost :asd:


facciamo al contrario? company of heroes aa4x af16x :D

risoluzioni 2560x1600 / 1920x1200 / 1680x1050

precedente recensione:
4870: 35/55/66

attuale recensione:
4870: 32/49/57

cioè in 1680 è entrato in funzione il freno a mano :asd:

potrei avere tralasciato qualche impostazione dopo controllo meglio ma.. :D

Damy06
25-09-2008, 21:18
ma andiamo a vedere nel dettaglio :asd:

LOL cod4 aa8x af16x :D

risoluzioni 2560x1600 / 1920x1200 / 1680x1050

precedente recensione:
gtx260: 59/81/86

attuale recensione:
gtx260: 63/97/115

cioè in 1680 è entrato in funzione il turbo boost :asd:


facciamo al contrario? company of heroes aa4x af16x :D

risoluzioni 2560x1600 / 1920x1200 / 1680x1050

precedente recensione:
4870: 35/55/66

attuale recensione:
4870: 32/49/57

cioè in 1680 è entrato in funzione il freno a mano :asd:

potrei avere tralasciato qualche impostazione dopo controllo meglio ma.. :D

ma lol :sofico:

legolas93
25-09-2008, 21:24
ma andiamo a vedere nel dettaglio :asd:

LOL cod4 aa8x af16x :D

risoluzioni 2560x1600 / 1920x1200 / 1680x1050

precedente recensione:
gtx260: 59/81/86

attuale recensione:
gtx260: 63/97/115

cioè in 1680 è entrato in funzione il turbo boost :asd:


facciamo al contrario? company of heroes aa4x af16x :D

risoluzioni 2560x1600 / 1920x1200 / 1680x1050

precedente recensione:
4870: 35/55/66

attuale recensione:
4870: 32/49/57

cioè in 1680 è entrato in funzione il freno a mano :asd:

potrei avere tralasciato qualche impostazione dopo controllo meglio ma.. :D

ma inifatti!!!!! :read: :read:

Cosa è successo.....le Ati si sono spaventate e non vanno più?....non so...a meno che peggiorino con i driver più recenti....mi aspetterei una risposta dalla redazione!!! :D :D

Redazione ??!!:confused: :confused:

bs82
25-09-2008, 21:25
una scheda inutile, as usual... costa il 50% in più di una 4870 andando nel migliore dei casi il 20% in più....

ZiP!
25-09-2008, 21:26
una scheda inutile, as usual... costa il 50% in più di una 4870 andando nel migliore dei casi il 20% in più....

le lezioni di matematica le hai saltate mi sa :asd:

bs82
25-09-2008, 21:36
a me sa di no, visto che le 4870 da 512mb si trovano a 200 euro, questa 260 pompata verrà venduta a 300 circa... e va il 20% di più, in qualche caso... e senza tralasciare quella che pare un taroccatura dei risultati di questi test....

Rating – 2560x1600 8xAA/16xAF
ATi Radeon HD 4870 X2
261,5
Nvidia GeForce GTX 280
119,0
Nvidia GeForce GTX 260²
100,0
Nvidia GeForce GTX 260
96,3
ATi Radeon HD 4870
84,3
ATi Radeon HD 4850
67,1




Nel caso peggiore (cioè quello +significativo) va il 19% IN PIU' di una 4870....

Samires
25-09-2008, 21:52
interessante, per quale motivo ora dovrei preferire questa scheda a 300€ rispetto a 2 4850 per circa 50€ di meno??:sofico:

corradobernardi
25-09-2008, 21:55
Ma guarda un po...

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/8/

wow...

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_260_216shader/page9.asp

foartttt...

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_260_216shader/page13.asp




poi va beh la amp2 è occata... poi basterà vedere la 260 216sp vs una 4870 occata ;)

mah stranezze...

ZiP!
25-09-2008, 22:05
a me sa di no, visto che le 4870 da 512mb si trovano a 200 euro, questa 260 pompata verrà venduta a 300 circa... e va il 20% di più, in qualche caso... e senza tralasciare quella che pare un taroccatura dei risultati di questi test....

Rating – 2560x1600 8xAA/16xAF
ATi Radeon HD 4870 X2
261,5
Nvidia GeForce GTX 280
119,0
Nvidia GeForce GTX 260²
100,0
Nvidia GeForce GTX 260
96,3
ATi Radeon HD 4870
84,3
ATi Radeon HD 4850
67,1




Nel caso peggiore (cioè quello +significativo) va il 19% IN PIU' di una 4870....

mi riferivo più che altro ai prezzi. 300€ è quello della versione amp, overclockata di fabbrica e quindi totalmente inutile.
Quello che conta è la versione liscia che sempre secondo l'articolo (ma ne dubito fortemente) sarà proposta a 250-260€. C'è poi da considerare che solitamente le schede si trovano a prezzi di 10-20€ inferiori...

Zappa1981
25-09-2008, 23:15
il fatto è che a mio parere i test sono indicativi...con che metro di giudizio il test hardware sintetico riassume e detta legge sulla effettiva potenza di una scheda video? Secondo me le schede ormai si equivalgono tutte, non sono quei 5 fps in più in un gioco che dicono la differenza, tanto se ati in un gioco va meglio di nvidia, in un altro sarà l opposto...ricordate che tutto è indicativo..certo pensare che una scheda con 800shader unificati vada meno di una che ne ha 216...è un pò difficile da credere!

viper-the-best
25-09-2008, 23:43
allora non ero il solo che credeva che precedentemente la 4870 stava davanti alla 260...boh credo che i peggioramenti siano dovuti all'uso delle ati su chipset nvidia, altrimenti non me lo spiego.

comunque credo che anche se fosse così sia sempre preferibile la 4870 in prezzo/prestazioni, 210 euro contro 299...mi pareva avesse anche una migliore gestione dell'AA

SingWolf
26-09-2008, 00:03
Che scheda hai?
Perchè non s'è visto alcun guadagno di prestazioni con gli 8.9 anzi c'è stata un'infinità di utenti che ha avuto problemi di ogni tipo ed è tornata agli 8.8

Molto meglio gli 8.9, specialmente in Crysis... :read:


Ma guarda un po...

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/8/

wow...

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_260_216shader/page9.asp

foartttt...

http://www.firingsquad.com/hardware/nvidia_geforce_gtx_260_216shader/page13.asp




poi va beh la amp2 è occata... poi basterà vedere la 260 216sp vs una 4870 occata ;)

mah stranezze...

ma andiamo a vedere nel dettaglio :asd:

LOL cod4 aa8x af16x :D

risoluzioni 2560x1600 / 1920x1200 / 1680x1050

precedente recensione:
gtx260: 59/81/86

attuale recensione:
gtx260: 63/97/115

cioè in 1680 è entrato in funzione il turbo boost :asd:


facciamo al contrario? company of heroes aa4x af16x :D

risoluzioni 2560x1600 / 1920x1200 / 1680x1050

precedente recensione:
4870: 35/55/66

attuale recensione:
4870: 32/49/57

cioè in 1680 è entrato in funzione il freno a mano :asd:

potrei avere tralasciato qualche impostazione dopo controllo meglio ma.. :D

:eekk: :mano: :fuck: LOL :D

gai@
26-09-2008, 00:26
cioè secondo voi quelli di HW UPGRADE son di parte? ma dai....
secondo voi persone come Corsini e company sono di parte?
non sono mica giovincelli che se la tirano perchè a casa hanno una NVIDIA o INTEL!
penso che non gliene possa fregar di meno se privilegiare l'una o l'altra...

e poi quando era ora di dare i meriti a ATI non gli sono mai stati negati, anche di recente...

è ovvio, ora a tutti possessori di 4870 gli brucia perchè vedono questi dati, per cui diventano maliziosi... sarebbe successo lo stesso con i possessori della GTX260 se fosse accaduto il contrario...

la realtà è semplice... i drivers usati nelle varie recensioni sono diversi per cui i risultati sono diversi...

la realtà è che ATI/NVIDIA ancora una volta non sono stati in grado di dare una svolta radicale, pur avedno il migliore rapporto qualità/prezzo, come ai tempi della 9700

infine il prezzo delle gtx260 @ 216 non sarà i 300 euro, state tranquilli....forse all'inizio, ma prima di natale c'è d'aspettarsi 250-270 euro massimo
le gtx260 vecchie stanno ora a 230 euro!
www.trovaprezzi.it


PS: noi che scriviamo qua abbiamo molto potere persuasivo nei confronti di chi ci legge e non ha ancora praticità nel settore... non possiamo permetterci di esporre certi nostri pensieri delicati così come ci passano per la testa... prima di ventilare certe ipotesi bisognerebbe pensarci 100 volte... anche nei confronti di chi ci ha lavorato... queste recensioni costano non so quante ore di lavoro e rotture di maroni proprio per renderle più splendide possibile...

io non sto criticando chi si domanda come mai la 4870 ha perso terreno rispetto alla gtx dall'ultima prova... le domande sono leggittime.... ma subito a ventilare certe ipotesi non si può...

c'è poco da fare... i commenti non saranno mai obiettivi... così come i sodaggi...

se adesso qualcuno aprisse un sondaggio meglio gtx260 o ati 4870
i risultati non rispecchierebbero la realtà ma darebbero un indice della deffusione delle due schede... mi spiego:

se 100 persone votassero a questo sondaggio e il risultato fosse:

60 voti a favore della 4870
40 voti a favore della GTX260

significherebbe che 60 persone possiedono la 4870 e 40 la GTX.. non so se mi spiego...

questo per dire che siamo noi quelli di parte non loro che ci portano delle condierazioni su dei numeri e non su delle iposi o delle preferenze

ciao!

blackshard
26-09-2008, 00:42
cioè secondo voi quelli di HW UPGRADE son di parte? ma dai....

<...cut...>

condierazioni su dei numeri e non su delle iposi o delle preferenze

ciao!

Si bene, hai fatto la tua gran leccata.
Il fatto è che la gente non è scema, se vede che le recensioni sono "ritoccate" il sito non lo visita più.
E di recensioni con risultati strambi se ne stanno vedendo alcune ultimamente (tipo quella dove c'era un Intel E7200, mi pare, che facendo due conti consumava -13W...)

SingWolf
26-09-2008, 00:53
cioè secondo voi quelli di HW UPGRADE son di parte? ma dai....

...

ciao!

:tapiro:

Si bene, hai fatto la tua gran leccata.
Il fatto è che la gente non è scema, se vede che le recensioni sono "ritoccate" il sito non lo visita più.
E di recensioni con risultati strambi se ne stanno vedendo alcune ultimamente (tipo quella dove c'era un Intel E7200, mi pare, che facendo due conti consumava -13W...)

:mano:

ZiP!
26-09-2008, 00:59
cioè secondo voi quelli di HW UPGRADE son di parte? ma dai....
secondo voi persone come Corsini e company sono di parte?
non sono mica giovincelli che se la tirano perchè a casa hanno una NVIDIA o INTEL!
penso che non gliene possa fregar di meno se privilegiare l'una o l'altra...
Prova a pensare ad una scala un pò più ampia e pratica del semplice concetto del fanboy: gestisco un sito tramite ciò che scrive influenza il pubblico nella scelta di uno o dell'altro produttore.
Dato che il mercato non è una cosa proprio pulita (basti vedere la vicenda del cartello ati-nvidia appena chiusa), io produttore potrei fare dei favori in cambio di pubblicazioni magari non proprio veritiere che avvantaggiano il mio prodotto...

Nota bene: non sto dicendo che la situazione sia questa, è solo un esempio estremo.


è ovvio, ora a tutti possessori di 4870 gli brucia perchè vedono questi dati, per cui diventano maliziosi... sarebbe successo lo stesso con i possessori della GTX260 se fosse accaduto il contrario...

la realtà è semplice... i drivers usati nelle varie recensioni sono diversi per cui i risultati sono diversi...

No, non è affatto così semplice.
I drivers sono diversi, da allora sono uscite 4 versioni con un miglioramento generale lieve riscontrato da tutti gli utenti. Ora, che in una recensione cambino solo i driver e ci sia un peggioramento simile è qualcosa di improbabile, o che quantomeno andrebbe approfondito, ovviamente sempre se non c'è qualche aspetto che mi (ci) sfugge e che dovrebbe essere portato alla nostra attenzione.

gianni1879
26-09-2008, 01:05
Prova a pensare ad una scala un pò più ampia e pratica del semplice concetto del fanboy: gestisco un sito tramite ciò che scrive influenza il pubblico nella scelta di uno o dell'altro produttore.
Dato che il mercato non è una cosa proprio pulita (basti vedere la vicenda del cartello ati-nvidia appena chiusa), io produttore potrei fare dei favori in cambio di pubblicazioni magari non proprio veritiere che avvantaggiano il mio prodotto...

Nota bene: non sto dicendo che la situazione sia questa, è solo un esempio estremo.


No, non è affatto così semplice.
I drivers sono diversi, da allora sono uscite 4 versioni con un miglioramento generale lieve riscontrato da tutti gli utenti. Ora, che in una recensione cambino solo i driver e ci sia un peggioramento simile è qualcosa di improbabile, o che quantomeno andrebbe approfondito, ovviamente sempre se non c'è qualche aspetto che mi (ci) sfugge e che dovrebbe essere portato alla nostra attenzione.
quoto totalmente, certo di cose strane se ne vedono ultimamente in hwupgrade.....

ThePunisher
26-09-2008, 01:06
Prova a pensare ad una scala un pò più ampia e pratica del semplice concetto del fanboy: gestisco un sito tramite ciò che scrive influenza il pubblico nella scelta di uno o dell'altro produttore.
Dato che il mercato non è una cosa proprio pulita (basti vedere la vicenda del cartello ati-nvidia appena chiusa), io produttore potrei fare dei favori in cambio di pubblicazioni magari non proprio veritiere che avvantaggiano il mio prodotto...

Nota bene: non sto dicendo che la situazione sia questa, è solo un esempio estremo.


No, non è affatto così semplice.
I drivers sono diversi, da allora sono uscite 4 versioni con un miglioramento generale lieve riscontrato da tutti gli utenti. Ora, che in una recensione cambino solo i driver e ci sia un peggioramento simile è qualcosa di improbabile, o che quantomeno andrebbe approfondito, ovviamente sempre se non c'è qualche aspetto che mi (ci) sfugge e che dovrebbe essere portato alla nostra attenzione.


Quoto in pieno.

bs82
26-09-2008, 01:33
il fatto è che a mio parere i test sono indicativi...con che metro di giudizio il test hardware sintetico riassume e detta legge sulla effettiva potenza di una scheda video? Secondo me le schede ormai si equivalgono tutte, non sono quei 5 fps in più in un gioco che dicono la differenza, tanto se ati in un gioco va meglio di nvidia, in un altro sarà l opposto...ricordate che tutto è indicativo..certo pensare che una scheda con 800shader unificati vada meno di una che ne ha 216...è un pò difficile da credere!

Beh, questo lo dici tu. In crysis e in alcuni giochi al alte res 5 fps cambiano la vita eccome! Specialmente nella scelta della scheda video!
Se ho un lcd da 1650, prenderò la scheda che mi darà maggior soddisfazioni a quella res!

cioè secondo voi quelli di HW UPGRADE son di parte? ma dai....
secondo voi persone come Corsini e company sono di parte?
non sono mica giovincelli che se la tirano perchè a casa hanno una NVIDIA o INTEL!
penso che non gliene possa fregar di meno se privilegiare l'una o l'altra...

e poi quando era ora di dare i meriti a ATI non gli sono mai stati negati, anche di recente...


Nessuno ha accusato come pensi tu, ma gli errori si possono fare, non in fase di compilazione ma in fase di benchmark. E ultimamente se ne vedono parecchi... Come mai le altre review "mondiali" hanno tutte valori discordanti solo da questa?


PS: noi che scriviamo qua abbiamo molto potere persuasivo nei confronti di chi ci legge e non ha ancora praticità nel settore... non possiamo permetterci di esporre certi nostri pensieri delicati così come ci passano per la testa... prima di ventilare certe ipotesi bisognerebbe pensarci 100 volte...

Ah ma lo dici tu, forse tu nn puoi permetterti... io se posso di consigli ne do eccome secondo le mie esperienze.

Ad esempio nonostante questa review posso ancora dire che solo un pazzo spenderebbe quei soldi per quella gtx260 pompata, quando con meno si prende un crossfire di 4850 che vanno sempre + di una gtx280 da 390 euro.....tra l'altro tecnologicamente superiori (dx10.1 di cui ormai dimostrata e stra dimostrata l'importanza) e con la decodifica HW dei flussi video completa e efficiente.

anche nei confronti di chi ci ha lavorato... queste recensioni costano non so quante ore di lavoro e rotture di maroni proprio per renderle più splendide possibile...!


Embè? è il loro lavoro, e io come te e come altri sudiamo e lavoriamo (se non sei figlio di papà) e abbiamo ancor più bisogno di essere sicuri di come spendere al meglio i nostri soldi (anche se è sempre un "hobby")...

E sai come va a finire? Che chi compila una review si ferma li, chi ne legge 100 per comprare o proporre al suo cliente il prodotto giusto va a finire che ne sa a pacchi di più...

Non credi?

JohnPetrucci
26-09-2008, 01:49
Sono stato qualche volta critico in passato sui risultati dei test di alcune vga che hardware upgrade ha presentato.
Ma, lungi da me fare l'avvocato del diavolo, davvero, oggi non posso non fare a meno di far presente a quei tanti tifosi Ati, che probabilmente non hanno analizzato i risultati di un sito che considero affidabile come computerbase, nel dovuto modo.

Al seguente link:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/22/#abschnitt_performancerating
Noterete come analizzando i risultati complessivi con antialiasing a 4x(l'impostazione max della recensione criticata qui) o senza a.a., su tutte le risoluzioni la gtx260 sia nella versione 216sp che 192sp stia davanti alla 4870, ma che il risultato cambia con a.a. a 8x, dove la Ati 4870 gestisce meglio l'antialiasing.

Se a questo aggiungete la fondamentale considerazione che i driver usati da hardware upgrade sono più recenti e che Nvidia, passatemi il termine, in genere riesce a "migliorare" i suoi driver abbastanaza regolarmente sulle vga recenti, cosa che da parte della concorrenza avviene meno frequentemente..........e considerando inoltre la mole di giochi testati da computerbase(sicuramente tanti e utili perciò a farsi un'idea più precisa), il quadro credo sia un pò diverso da ciò che le vostre accuse più o meno velate sembrano affermare.

Inutile infatti prendere come esempi da computerbase test fatti con a.a. a 1x o a 8x e poi affermare, confrontandoli, che i risultati di hardware upgrade con a.a. a 4x favoriscono nvidia, è come confrontare patate con cipolle, tra l'altro con driver e sistemi differenti.

psychok9
26-09-2008, 01:57
Sarà... ma i dati "discordanti" sembrano dire altro...
Spero che HWUpgrade faccia una piccola indagine, magari un nuovo test su ATi 4870, e sugli improvvisi "boost" di nVidia 260 a risoluzioni basse...
E poi andrebbero testate su piattaforme neutre, mi pare ovvio... Su nVidia mi pare scontato che ATi possa avere qualche problema, "casualmente":O , in più...

ipertotix
26-09-2008, 02:41
Noterete come analizzando i risultati complessivi con antialiasing a 4x(l'impostazione max della recensione criticata qui) o senza a.a., su tutte le risoluzioni la gtx260 sia nella versione 216sp che 192sp stia davanti alla 4870, ma che il risultato cambia con a.a. a 8x, dove la Ati 4870 gestisce meglio l'antialiasing.

Se a questo aggiungete la fondamentale considerazione che i driver usati da hardware upgrade sono più recenti e che Nvidia, passatemi il termine, in genere riesce a "migliorare" i suoi driver abbastanaza regolarmente sulle vga recenti, cosa che da parte della concorrenza avviene meno frequentemente..........e considerando inoltre la mole di giochi testati da computerbase(sicuramente tanti e utili perciò a farsi un'idea più precisa), il quadro credo sia un pò diverso da ciò che le vostre accuse più o meno velate sembrano affermare.


ma che nvidia abbia migliorato le prestazioni delle sue 2 nuove schede video, su questo non ci piove e nessuno lo mette in dubbio...il punto era semmai perchè, nonostante abbiano usato i cat. 8.9, le prestazioni della 4870 utilizzata in questa rece sono calate invece di aumentare??? è una domanda legittima, che non presuppone alcunchè (nonostante alcuni abbiano VENTILATO certe ipotesi...) e che puo avere come minimo una decina di spiegazioni....come minimo...:rolleyes:
x esempio prima io stesso avevo ipotizzato che le schede nvidia all'uscita avevano un margine di miglioramento maggiore....ma questo ad esempio non spiega perchè le prestazioni delle 4870 siano calate con gli ultimi driver...:mbe:

JohnPetrucci
26-09-2008, 02:45
ma che nvidia abbia migliorato le prestazioni delle sue 2 nuove schede video, su questo non ci piove e nessuno lo mette in dubbio...il punto era semmai perchè, nonostante abbiano usato i cat. 8.9, le prestazioni della 4870 sono calate invece di aumentare??? è una domanda legittima, che non presuppone alcunchè (nonostante alcuni abbiano VENTILATO certe ipotesi...) e che puo avere come minimo una decina di spiegazioni....come minimo...:rolleyes:
x esempio prima io stesso avevo ipotizzato che le schede nvidia all'uscita avevano un margine di miglioramento maggiore....ma questo ad esempio non spiega perchè le prestazioni delle 4870 siano calate con gli ultimi driver...:mbe:
Su questo è certamente leggittimo discutere, ma su test taroccati o presunti tali a favore delle gtx260 vs le 4870, avrei qualche dubbio, visto appunto l'a.a. settato a 4x o nulla, dove il vantaggio nvidia imho è reale a differenza dell'8x dove vince Ati.

MiKeLezZ
26-09-2008, 03:05
il mio commento è: cosa l'hanno fatta a fare?La mia risposta è: perchè evidentemente possono. Un upgrade della VGA che la rende più prestazionalmente valida; non vedo di cui lamentarsi.
Anche le CPU vengono upgradate in itinere (nuovi step produttivi e clock più alti), e tutti ne sono felici.
Ma le 4870 non stavano sempre davanti alle 260GTX (parlo della prima versione)? :rolleyes: Solo su questo sito misteriosamente la 260GTX è sempre davanti alla 4870! :eek: Certe cose non me le spiegherò mai...In realtà la HD4870 e la GTX260 1° versione dovrebbero andare uguali. Se fai una media dovrebbe tornare. Poi dipende da che giochi e che impostazioni uno prende ad esame.
Il problema è che il 90% del forum è talmente esaltato dalla HD4870 che non si accorge di quanto realmente vada (tanto per quello che costa, ma non così tanto da superare le GTX).
quoto!!!!
conclusioni prese da qui http://www.anandtech.com/video/showdoc.aspx?i=3415
the Radeon HD 4870 1GB is a better buy than both the GTX 260 and core 216 variantAnandtech mi è scaduto ultimamente; i recensori si fanno condizionare da esigenze personali (vedi LPCM 7.1 per l'HTPC del salone).

JohnPetrucci
26-09-2008, 03:23
La mia risposta è: perchè evidentemente possono. Un upgrade della VGA che la rende più prestazionalmente valida; non vedo di cui lamentarsi.
Anche le CPU vengono upgradate in itinere (nuovi step produttivi e clock più alti), e tutti ne sono felici.
In realtà la HD4870 e la GTX260 1° versione dovrebbero andare uguali. Se fai una media dovrebbe tornare. Poi dipende da che giochi e che impostazioni uno prende ad esame.
Il problema è che il 90% del forum è talmente esaltato dalla HD4870 che non si accorge di quanto realmente vada (tanto per quello che costa, ma non così tanto da superare le GTX).
Anandtech mi è scaduto ultimamente; i recensori si fanno condizionare da esigenze personali (vedi LPCM 7.1 per l'HTPC del salone).
Quoto tutto, e curiosa realtà come hai evidenziato, la 4870 sembra essere sopravvalutata da un fanatismo difficilmente spiegabile.......:rolleyes:

kbytek
26-09-2008, 05:39
Ho sia la club3d 4870 oc edition che la vecchia gtx 260.

Confrontando alla risoluzione 1680 (xp64 bit) posso confermare che c'è stato un aumento delle performance sulla 260.

Sul mio sistema le schede sono in perfetta parità con un lieve margine per nvidia quantificabile in manciate di frame (non evidenti ad occhio nudo).

A parità di prezzo la superiore quantità di memoria della 260 mi fa propendere verso lei anche perchè il dissipatore di serie è nettamente superiore (consultare l'apposito forum sulla 4870 per scoprire cosa ci inventiamo per tenerla fresca).

Poi io non faccio testo perchè tengo montata la 4870 per la sua lunghezza inferiore, ho un problema con il layout della p5k e non ho voglia di cambiare mobo per una vga.

Per come si sta mettendo la situazione conviene comprare quella che costa meno e che crea meno rogne.

Quando comprai la inno3d i prezzi delle 260 erano ai minimi storici (215 euro), se tornassero a quella cifra probabilmente il consiglio sarebbe la 260 e non più la 4870.

Devo ancora provare i nuovi driver nvidia che promettono un ulteriore incremento...domani controllo.

lokalizera
26-09-2008, 05:47
C'è un modo per distinguere la 260 nuova dalla vecchia esteticamente?
c'è ancora quel rivestimento di plastica nero sulladvi che non permette di installare le gtx 260 e 280 su alcune motherboard?

gianni1879
26-09-2008, 08:30
Su questo è certamente leggittimo discutere, ma su test taroccati o presunti tali a favore delle gtx260 vs le 4870, avrei qualche dubbio, visto appunto l'a.a. settato a 4x o nulla, dove il vantaggio nvidia imho è reale a differenza dell'8x dove vince Ati.

guarda quì sono gli stessi dati identici della rece che hai postato te
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating

però fatti nella precedente recensione, dico identici perchè i singoli valori sono uguali nei vari giochi,

prendi ad es. 1600*1200 AA4x AF16x in questa rece http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating la HD4870 porta un valore di 100 (ovviamente è il valore percentuale) mentre la GT260 porta valore 99.5, ma si sottolinea che cmq la gtx260 è un pò indietro.

nella recensione fatta più recente le percentuali sono cambiate mettendo 100 alla gtx260+, però questa volta invece la 4870 è indietro alla gtx260 sempre a 1600*1200aa4x af16x.

Stesso discorso dicasi per 1280*1024 aa4x af16x, nella rece prima la hd4870 sta avanti (seppur di pochissimo), invece nella rece più recente la hd4870 sta dietro alla gtx260.



Sai spiegarmi il motivo?? hanno come vedi sbagliato a calcolare le varie percentuali, una svista può succedere a tutti

SingWolf
26-09-2008, 09:39
Sono stato qualche volta critico in passato sui risultati dei test di alcune vga che hardware upgrade ha presentato.
Ma, lungi da me fare l'avvocato del diavolo, davvero, oggi non posso non fare a meno di far presente a quei tanti tifosi Ati,

...

Inutile infatti prendere come esempi da computerbase test fatti con a.a. a 1x o a 8x e poi affermare, confrontandoli, che i risultati di hardware upgrade con a.a. a 4x favoriscono nvidia, è come confrontare patate con cipolle, tra l'altro con driver e sistemi differenti.

:tapiro: Si vede che hai la GTX 260... e per 30€ in meno potresti aver preso la 4870.... :mc:

Sarà... ma i dati "discordanti" sembrano dire altro...
Spero che HWUpgrade faccia una piccola indagine, magari un nuovo test su ATi 4870, e sugli improvvisi "boost" di nVidia 260 a risoluzioni basse...
E poi andrebbero testate su piattaforme neutre, mi pare ovvio... Su nVidia mi pare scontato che ATi possa avere qualche problema, "casualmente":O , in più...

Ma si infatti... chissà perchè fanno i test su piattaforma nVidia.... :rolleyes:

guarda quì sono gli stessi dati identici della rece che hai postato te
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating

però fatti nella precedente recensione, dico identici perchè i singoli valori sono uguali nei vari giochi,

prendi ad es. 1600*1200 AA4x AF16x in questa rece http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/23/#abschnitt_performancerating la HD4870 porta un valore di 100 (ovviamente è il valore percentuale) mentre la GT260 porta valore 99.5, ma si sottolinea che cmq la gtx260 è un pò indietro.

nella recensione fatta più recente le percentuali sono cambiate mettendo 100 alla gtx260+, però questa volta invece la 4870 è indietro alla gtx260 sempre a 1600*1200aa4x af16x.

Stesso discorso dicasi per 1280*1024 aa4x af16x, nella rece prima la hd4870 sta avanti (seppur di pochissimo), invece nella rece più recente la hd4870 sta dietro alla gtx260.



Sai spiegarmi il motivo?? hanno come vedi sbagliato a calcolare le varie percentuali, una svista può succedere a tutti

Come non quotarti, i test sballano anche lì....

Darkgift
26-09-2008, 10:02
Ieri ho pensato : mi faccio uno SLI di GTX 260 ? oppure mi compro un trench di Burberry ? da vero fan-boy ati ho optato per il trench !! ....proprio non ce la faccio a stare dietro alle sigle di Nvidia...mi mette in difficoltà quando mi chiedono "che scheda video hai?" :-))))))))))

PS: ma perchè una AMP edition costa 60 euro in piu di una 260 normale ? ma quanti sono i polli che non se la sanno overcloccare da soli ?? :-))))) deve essere pieno !!! ;)

Mparlav
26-09-2008, 10:26
Io darei un'occhiata anche alle altre recensioni, non solo computerbase (è uno tra tanti, chi ha detto che è il più autorevole?), prima di dire che i risultati sono stati taroccati da Hwupgrade.
Ma torno a ripetere: i risultati veramente affidabili sono quelli condotti su giochi con un bench interno, o usando le apposite utility che effettivamente permettono le riproducibilità dei risultati.
I bench con Fraps sono inaffidabili.

kliffoth
26-09-2008, 10:42
Visto che il pepe al culo fa bene?

Finalmente le cose iniziano ad aggiustarsi e la scheda che va un po' di piu' costa di piu'.
Era ridicolo pagare di piu' per andare peggio!
Personalmente ritengo che le differenze con la 4870 siano tali da dover ridurre ancora un poco il prezzo della scheda nVidia...purtroppo il chip nVidia pare dannatamente caro

Con questa generazione abbiamo veramente una buona scelta (io comunque vedo la 4850 come perfetta: fa andare tutto e costa poco): facciamo assestare prezzi e modelli e poi ci sara' solo l'imbarazzo.

PS: ho una certa simpatia per AMD, ma possiedo una nVidia (7600GS) e ho sempre cambiato indifferentemente, quindi mi ritengo abbastanza imparziale :)

Evangelion01
26-09-2008, 10:46
Beh, questo lo dici tu. In crysis e in alcuni giochi al alte res 5 fps cambiano la vita eccome! Specialmente nella scelta della scheda video!
Se ho un lcd da 1650, prenderò la scheda che mi darà maggior soddisfazioni a quella res!

Quoto

Nessuno ha accusato come pensi tu, ma gli errori si possono fare, non in fase di compilazione ma in fase di benchmark. E ultimamente se ne vedono parecchi... Come mai le altre review "mondiali" hanno tutte valori discordanti solo da questa?

Questo no.. rileggendo i commenti ho visto chiare accuse di partigianeria da tutte le parti... sinceramente se devo pensare così, allora posso estendere il discorso a tutte le testate di informazione. Ma a quel punto non ci si può fidare più di nessuno... mi stupisce che Corsini o chi per lui non abbia ancora risposto.

Ah ma lo dici tu, forse tu nn puoi permetterti... io se posso di consigli ne do eccome secondo le mie esperienze.

Ad esempio nonostante questa review posso ancora dire che solo un pazzo spenderebbe quei soldi per quella gtx260 pompata, quando con meno si prende un crossfire di 4850 che vanno sempre + di una gtx280 da 390 euro.....tra l'altro tecnologicamente superiori (dx10.1 di cui ormai dimostrata e stra dimostrata l'importanza) e con la decodifica HW dei flussi video completa e efficiente.

Guarda lasciamo perdere questo discorso... è dai tempi della 2900 che dici che le Ati son tecnologiacamente superiori e bla bla, quando la realtà è molto diversa. Dove sarebbe questa grande importanza delle dx 10.1 se ancora non esiste UN gioco che le sfrutti? :rolleyes:
Già pensano alle dx11.... :stordita:
Senza contare che ci son volute 3 generazioni di vga dx10 perchè Ati diventasse finalmente competitiva.
Sul rapporto prezzo - prestazioni è indubbio che la 4850 sia meglio, così come il Cf di 4850 rispetto questa 260.. però dimentichi che il Cf soffre dei classici problemi delle config multi-gpu, che non tutti son disposti ad accettare. Infatti quando ho dovuto cambiare vga avevo questo dubbio : Cf di 4850 o Gtx280? Ho scelto la seconda perchè l' ho trovata "usata" a 250€ e non potevo lasciarmela scappare, e ne son soddisfattissimo ( rumorosità a parte ). Ma forse l' avrei presa lo stesso proprio perchè non mi andava di sbattermi coi problemi del Cf : cambio mobo, driver-limited, calore e rumore elevati, ingombri ecc....

Embè? è il loro lavoro, e io come te e come altri sudiamo e lavoriamo (se non sei figlio di papà) e abbiamo ancor più bisogno di essere sicuri di come spendere al meglio i nostri soldi (anche se è sempre un "hobby")...

Questa sicurezza al 100% non esisterà mai. L' unica è guardare tutte le rece e farne una media ponderata.

E sai come va a finire? Che chi compila una review si ferma li, chi ne legge 100 per comprare o proporre al suo cliente il prodotto giusto va a finire che ne sa a pacchi di più...
Non credi?

Non c'è dubbio. ;)

gai@
26-09-2008, 10:52
Sono troppe le variabili che intervengono in un test.
Le cose possono cambiare notevolmente.

CMQ pensate come volete,
il fatto è che il quadro sta cambiando con il passare del tempo e forse non vi sta in tasca che lo cose possano cambiare...

Nelle prime recensioni, è vero, la 4870 era quel pelo avanti che assieme al prezzo minore la faceva preferire alla gtx.
la gtx all'inizio costava una botta in più di adesso...

ora però il quadro si sta ribaltando...
il prezzo delle 260 è di 10-20 euro superiore
e le prestazioni stanno aumentando ad ogni release di drivers...
per esempio i drivers usciti ieri solo in COD 4 danno un boost del 10%...

moltissime delle recensioni in giro per la rete sono abbastanza vecchie, andrebbero rifatte ora che i drivers stanno maturando sia per l'una che per l'altra scheda.

però c'è una cosa che dovrebbe farci riflettere...
stiamo parlando di una manciata di fps di differenza tra l'una e l'altra scheda, a volte a favore di una, a volte a favore di un altra...
questo dovrebbe far capire quanto simili sono le due schede sul piano prestazionale...
è possibilissimo quindi che i drivers facciano la differenza...

kliffoth
26-09-2008, 10:52
Ah, mi sono dimenticato una cosa...
PER TUTTI
ma lasciate perdere i discorsi sul singolo test o su 10 frames in piu' o in meno per la 4870 o la 260.

Quello che conta e' che la 260 nuova va un pelo di piu', la 260 vecchia un pelo di meno, tuttavia le differenze non le fanno i peli (in questo ambito :)), ma i prezzi di vendita.
Tutti i prodotti AMD e nVidia sono buoni sto giro...addirittura pure la 4670 permette di giocare!!

Bisogna solo equilibrare i prezzi per nVidia (ma ripeto...pare dura)

Evangelion01
26-09-2008, 10:57
:tapiro: Si vede che hai la GTX 260... e per 30€ in meno potresti aver preso la 4870.... :mc:

Questione di scelte.... ai prezzi attuali probabilemente anch'io avrei preso la 4870, però non tutti guardano solo le prestazioni... io per es. guardo anche il supporto hw, gli eventuali problemi di dissipazione ecc..
Inoltre vista la differenza di prestazioni tra le due alla fine per 15 o 20€ di differenza la scelta non è così scontata.

Ma si infatti... chissà perchè fanno i test su piattaforma nVidia.... :rolleyes:

Tempo fa fu fatto un test su Tom's ( e scommetto che adesso mi scaglierete qualche pietra , visto come è considerato qui :Prrr: ) specifico in cui saltava fuori che montare una vga Nvidia o Ati su chipset Nvidia non comportava nessuna differenza tangibile. Come in effetti dovrebbe essere.... ;)

atomo37
26-09-2008, 10:58
le due schede sono così vicine per prestazioni e prezzo che credo che ognuno a sto punto sia legittimato a sceglierle anche in base alla simpatia verso l'uno o l'altro brand, come tanto di solito accade.

bonzuccio
26-09-2008, 11:01
Mah avrò fatto 10 volte avanti e indietro sulla recensione e non ho trovato i consumi..
poi è impossibile che le ati vadano meno delle precedenti recensioni anche perchè per testare le ati sempre un chipset nvidia hanno usato, come sempre :cool:

gai@
26-09-2008, 11:04
Visto che il pepe al culo fa bene?

Finalmente le cose iniziano ad aggiustarsi e la scheda che va un po' di piu' costa di piu'.
Era ridicolo pagare di piu' per andare peggio!
Personalmente ritengo che le differenze con la 4870 siano tali da dover ridurre ancora un poco il prezzo della scheda nVidia...purtroppo il chip nVidia pare dannatamente caro

Con questa generazione abbiamo veramente una buona scelta (io comunque vedo la 4850 come perfetta: fa andare tutto e costa poco): facciamo assestare prezzi e modelli e poi ci sara' solo l'imbarazzo.

PS: ho una certa simpatia per AMD, ma possiedo una nVidia (7600GS) e ho sempre cambiato indifferentemente, quindi mi ritengo abbastanza imparziale :)


tieni conto che la differenza di prezzo la paghi anche a fronte ad alune tecnologie professionali implementate
( CUDA, physics, output a 10 bit, potenza elaborativa di 933 Gigaflops in elaborazioni in virgola mobile, unità di calcolo double precision)..

Ai videogiocatori può non interessare, ma queste schede non sono indirizzate solo per un pubblico di giocartori, possono essere utilizzate anche in ambiti GPU COMPUTING...

e cmq i 650 mm2 di silicio del chip sono tanti, quelli si pagano alla fonderia...

Mparlav
26-09-2008, 11:14
Infatti, stare lì a sindacare per qualche frame che favorisce una o l'altra a seconda della risoluzione, AA o gioco scelto, mi sembra una perdita di tempo.

Magari le schede fossero sempre così vicine nelle prestazioni: significherebbe sempre concorrenza accanita, che a noi va' benissimo, ma per Amd ed Nvidia è deleterio.

Nota di colore:
http://channel.hexus.net/content/item.php?item=15606

Ati ed Nvidia hanno pattaggiato extra giudiziario con l'antitrust per la mancata concorrenza per la vendita delle schede video sul mercato USA (imho, anche altre da parti, ma lì è stato dimostrato).
Per il periodo da 4 dicembre 2002 a 7 novembre 2007 tireranno fuori 850.000$ a testa (sic!) per la vendita diretta e 112.500$ per quella indiretta (ari sic!).
Con 2M di $ hanno chiuso 5 anni di prezzi "ritoccati".
Meditate gente, meditate, prima di fare il tifo per l'uno o l'altro.

E poi vi lamentate delle multe dell'Antitrust in Italia ed in EU...

kliffoth
26-09-2008, 11:26
tieni conto che la differenza di prezzo la paghi anche a fronte ad alune tecnologie professionali implementate
( CUDA, physics, output a 10 bit, potenza elaborativa di 933 Gigaflops in elaborazioni in virgola mobile, unità di calcolo double precision)..

Ai videogiocatori può non interessare, ma queste schede non sono indirizzate solo per un pubblico di giocartori, possono essere utilizzate anche in ambiti GPU COMPUTING...

e cmq i 650 mm2 di silicio del chip sono tanti, quelli si pagano alla fonderia...

ALT ALT ALT
DX 10.1, Havock, chip audio sulla scheda, UVD 2, tessellation, ...e la AMD fa andare pure CUDA.
Evitiamo polemiche inutili...il prezzo e' ancora un poco caro (non in assoulto, ma rispetto alla concorrenza)...ma la strada e' quella buona

LZar
26-09-2008, 11:35
....Nota di colore:
http://channel.hexus.net/content/item.php?item=15606

Ati ed Nvidia hanno pattaggiato extra giudiziario con l'antitrust per la mancata concorrenza per la vendita delle schede video sul mercato USA (imho, anche altre da parti, ma lì è stato dimostrato).
Per il periodo da 4 dicembre 2002 a 7 novembre 2007 tireranno fuori 850.000$ a testa (sic!) per la vendita diretta e 112.500$ per quella indiretta (ari sic!).
Con 2M di $ hanno chiuso 5 anni di prezzi "ritoccati".
Meditate gente, meditate, prima di fare il tifo per l'uno o l'altro.

E poi vi lamentate delle multe dell'Antitrust in Italia ed in EU...

Pensa a quei poveracci di AMD: già stanno pagando per l'acquisizione di ATI ed ora gli toccherà pagare una multa di quasi un milione di dollari per un vantaggio economico di cui non hanno mai goduto. Bell'affare che hanno fatto....

gai@
26-09-2008, 11:42
DX 10.1, Havock, chip audio sulla scheda, UVD 2, tessellation

beh Nvidia ha il pirevideo 2 se è per questo...
io parlo di GPU computing

LEONARDO4076
26-09-2008, 11:46
Salve ragazzi! Ma quando escono queste schede?

Mparlav
26-09-2008, 11:47
Mica tanto "poveracci": da fine 2006 a fine 2007 Amd era già proprietaria di Ati, e mi sembra probabile che avessero "voce in capitolo" sulla parte commerciale.

yossarian
26-09-2008, 11:47
tieni conto che la differenza di prezzo la paghi anche a fronte ad alune tecnologie professionali implementate
( CUDA,
con opportune modifiche gira pure su gpu ATi, ma anche su cpu AMD o Intel :D

physics, .
idem come sopra

output a 10 bit, a...

intendi la notazione 10+10+10+2 bit di tipo integer? ATi la implementa da R300; inoltre le attuali vga arrivano anche a fare blending a fp16 o fp32 (oltre che a INT16). Non mi pare questa gran cosa :D

potenza elaborativa di 933 Gigaflops in elaborazioni in virgola mobile, ..


teorica, che per la HD4850 diventa di 1000 Gflops e per la HD4870 di 1200 Gflops (sempre teorici)

unità di calcolo double precision)..



30 unità di tipo fp64 ciascuna in grado di svolgere una MADD, operanti a 1296 MHz per un totale di 77,76 Gflops (in versione 280GTX). RV770 ha, invece, 160 alu di tipo vliw in grado di svolgere, ognuna, una MADD in fp64 a 750 MHz di clock (in versione 4870), per un totale di 240 Gflops (ossia, in double precision, è circa 3 volte più veloce di GT200)



Ai videogiocatori può non interessare, ma queste schede non sono indirizzate solo per un pubblico di giocartori, possono essere utilizzate anche in ambiti GPU COMPUTING...


anche quelle con GPU ATi/AMD (anzi, se vogliamo essere pignoli, le prime GPU computing oriented erano proprio quelle della serie R5x0 di ATi)



e cmq i 650 mm2 di silicio del chip sono tanti, quelli si pagano alla fonderia...

sono 576 circa

Xilema
26-09-2008, 11:49
Vi parlo non da fanboy, perchè ho schede nVidia da 2 anni, ma in precedenza ero stato con ATI per quasi 5 anni: compro il meglio del momento... al prezzo migliore.
Oggi dovrebbe arrivarmi col corriere la GTX 260, pagata 228 euro, prezzo onestissimo dal mio punto di vista.
Cercando in rete la HD 4870 che costa meno sta sui 210-215 euro, quindi circa 10-15 euro in meno della 260.
Per me sarebbe stato indifferente prendere una o l' altra, se non per il fatto che la 260 permette di attivare l' AA con i giochi che usano l' Unreal engine 3.0 mentre la scheda ATI non lo garantisce.
Già questa differenza (che per me è abissale) mi fa propendere per il prodotto nVidia, ma se aggiungiamo che la 260 scalda decisamente meno, ha più memoria ram ed è pure più silenziosa... allora la mia scelta mi sembra più che giustificata.

yossarian
26-09-2008, 11:50
Infatti, stare lì a sindacare per qualche frame che favorisce una o l'altra a seconda della risoluzione, AA o gioco scelto, mi sembra una perdita di tempo.

Magari le schede fossero sempre così vicine nelle prestazioni: significherebbe sempre concorrenza accanita, che a noi va' benissimo, ma per Amd ed Nvidia è deleterio.

Nota di colore:
http://channel.hexus.net/content/item.php?item=15606

Ati ed Nvidia hanno pattaggiato extra giudiziario con l'antitrust per la mancata concorrenza per la vendita delle schede video sul mercato USA (imho, anche altre da parti, ma lì è stato dimostrato).
Per il periodo da 4 dicembre 2002 a 7 novembre 2007 tireranno fuori 850.000$ a testa (sic!) per la vendita diretta e 112.500$ per quella indiretta (ari sic!).
Con 2M di $ hanno chiuso 5 anni di prezzi "ritoccati".
Meditate gente, meditate, prima di fare il tifo per l'uno o l'altro.

E poi vi lamentate delle multe dell'Antitrust in Italia ed in EU...

nota positiva: l'antitrust funziona.
nota negativa: funziona in USA :D

Wolfhang
26-09-2008, 11:59
Vi parlo non da fanboy, perchè ho schede nVidia da 2 anni, ma in precedenza ero stato con ATI per quasi 5 anni: compro il meglio del momento... al prezzo migliore.
Oggi dovrebbe arrivarmi col corriere la GTX 260, pagata 228 euro, prezzo onestissimo dal mio punto di vista.
Cercando in rete la HD 4870 che costa meno sta sui 210-215 euro, quindi circa 10-15 euro in meno della 260.
Per me sarebbe stato indifferente prendere una o l' altra, se non per il fatto che la 260 permette di attivare l' AA con i giochi che usano l' Unreal engine 3.0 mentre la scheda ATI non lo garantisce.
Già questa differenza (che per me è abissale) mi fa propendere per il prodotto nVidia, ma se aggiungiamo che la 260 scalda decisamente meno, ha più memoria ram ed è pure più silenziosa... allora la mia scelta mi sembra più che giustificata.

...devo cambiare scheda ed è esattamente quello che ho pensato anch'io, attendo solo l'uscita della 260+ per vedere a che livello di prezzo si colloca, tutti diranno che 1GB di ram non serve a niente ma, visto che la scheda me la terrò per un bel pò a me fanno comodo in ottica futura, e visto che nessuno regala niente i prezzi andrebbero confrontati con queste schede: http://www.trovaprezzi.it/prezzo_schede-grafiche_hd4870_1gb.aspx

MiKeLezZ
26-09-2008, 12:16
ALT ALT ALT
DX 10.1, Havock, chip audio sulla scheda, UVD 2, tessellation, ...e la AMD fa andare pure CUDA.
Evitiamo polemiche inutili...il prezzo e' ancora un poco caro (non in assoulto, ma rispetto alla concorrenza)...ma la strada e' quella buona- DX10.1 non usate da nessun gioco
- Tesselation che sarà usato solo con le DX11
- Havok semplice mossa commerciale (è di Intel e usa la CPU) per buttare fumo negli occhi dopo gli avvenimenti di PhysX
- UVD 2 pari a Purevideo HD 2
Azz...

kliffoth
26-09-2008, 12:29
- DX10.1 non usate da nessun gioco
- Tesselation che sarà usato solo con le DX11
- Havok semplice mossa commerciale (è di Intel e usa la CPU) per buttare fumo negli occhi dopo gli avvenimenti di PhysX
- UVD 2 pari a Purevideo HD 2
Azz...

Senti se leggi i miei interventi sto dicendo che oggi scegliere l'uno l'altro e' uguale, ma che ancora il cihp nVidia costa caro pur se la strada intrapresa e' buona.
Tuttavia visto che amate le polemiche...

*Physx usato da 4 titoli (QUATTRO) e con forte decadimento prestazionale
*UVD2 non e' assolutamente pari a Purevideo
*La codifica dei flussi audio dove la metti?
*CUDA al momento ancora fumo
*Patch dx 10.1 misteriosamente sparita, ma accordo siglato ai primi di agosto per sviluppare titoli dx 10.1 (ritrovati la news, sono al lavoro ora)
*Havock e' parecchio sfruttato

Torno a ribadire quanto ho scritto ad inizio post

CarmackDocet
26-09-2008, 12:30
...il confronto prezzo/prestazioni andrebbe fatto tra la GTX260 896 MB e la HD4870 1 GB. Mi sembra ke in giro la HD4870 1 GB costi mediamente 20-30 € in +.

Quoto anke Xilema... "Per me sarebbe stato indifferente prendere una o l' altra, se non per il fatto che la 260 permette di attivare l' AA con i giochi che usano l' Unreal engine 3.0 mentre la scheda ATI non lo garantisce.
Già questa differenza (che per me è abissale) mi fa propendere per il prodotto nVidia, ma se aggiungiamo che la 260 scalda decisamente meno, ha più memoria ram ed è pure più silenziosa... allora la mia scelta mi sembra più che giustificata."

In più aggiungo ke il supporto driver nVidia è superiore a quello ATi (secondo me da anni ormai)

Viste le polemiche... una rece che taglierebbe la testa al toro potrebbe essere tra una GTX260 (sia 192 ke 216 SP) e una HD4870 1 GB (entrambe lisce), con ForceWare 178.13 e Catalyst 8.9... sia su piattaforma Intel che nVidia (x58 vs 790i).

Che ne dite in redazione?

IMHO

Byez

al135
26-09-2008, 12:32
le lezioni di matematica le hai saltate mi sa :asd:

infatti ha sbagliato va di meno.
dopo questa ennesima rece, ed ennesima scheda nvidia incredibilmente cara per quel che offre, 300 € omg, mi prendo una 4870x2 da cxxpoint.it a 330 iva esclusa dando
l'addio a malincuore alla mia gloriosa 8800 gtx e facendo i miei complimenti a nvidia per ver a suo tempo tirato fuori questo mostro. spero' pero' che quei tempi
tornino presto e ricomincino a tirar fuori schede serie. perche se io mi compro una gtx 280 VOGLIO poter giocare a QUALSIASI TITOLO (e intendo compreso crysis e warhead, stalker e tutti i prossimi titoli) a 1900 1200 (dato che ho un 24") tutto AL MASSIMO.
arrivederci

yossarian
26-09-2008, 12:33
Vi parlo non da fanboy, perchè ho schede nVidia da 2 anni, ma in precedenza ero stato con ATI per quasi 5 anni: compro il meglio del momento... al prezzo migliore.
Oggi dovrebbe arrivarmi col corriere la GTX 260, pagata 228 euro, prezzo onestissimo dal mio punto di vista.
Cercando in rete la HD 4870 che costa meno sta sui 210-215 euro, quindi circa 10-15 euro in meno della 260.
Per me sarebbe stato indifferente prendere una o l' altra, se non per il fatto che la 260 permette di attivare l' AA con i giochi che usano l' Unreal engine 3.0 mentre la scheda ATI non lo garantisce.
Già questa differenza (che per me è abissale) mi fa propendere per il prodotto nVidia, ma se aggiungiamo che la 260 scalda decisamente meno, ha più memoria ram ed è pure più silenziosa... allora la mia scelta mi sembra più che giustificata.

http://msdn.microsoft.com/en-us/library/bb975911.aspx

http://x-computer.forumfree.net/?t=21957078

http://www.talula.demon.co.uk/DeferredShading.pdf

al135
26-09-2008, 12:42
http://msdn.microsoft.com/en-us/library/bb975911.aspx

http://x-computer.forumfree.net/?t=21957078

http://www.talula.demon.co.uk/DeferredShading.pdf

bellissimo l'articolo del deferred shading...
speriamo che ora con ati in corsa prendano volume anche i prossimi giochi in dx10.1 almeno avrebbe un senso.

Futura12
26-09-2008, 12:45
il fatto è che a mio parere i test sono indicativi...con che metro di giudizio il test hardware sintetico riassume e detta legge sulla effettiva potenza di una scheda video? Secondo me le schede ormai si equivalgono tutte, non sono quei 5 fps in più in un gioco che dicono la differenza, tanto se ati in un gioco va meglio di nvidia, in un altro sarà l opposto...ricordate che tutto è indicativo..certo pensare che una scheda con 800shader unificati vada meno di una che ne ha 216...è un pò difficile da credere!

ma sopratutto pensare che la i Shader di Ati e Nvidia sono uguali è difficile da credere....ma forse sarebbe meglio che ti informi prima;)

kliffoth
26-09-2008, 12:45
In più aggiungo ke il supporto driver nVidia è superiore a quello ATi (secondo me da anni ormai)

Io direi di lasciare le polemiche da parte (10 frames in piu' o in meno lasciano il tempo che trovano): tra un poco avremo il lusso di scegliere come ci pare...
nVidia scendera' ancora

Per i driver vorrei sfatare una leggenda: il 48% dei crash di Vista dipende da nVidia (fonte microsoft...ad aprile era il 50%...basta cercare in google e si legge quanto si vuole sulla questione, con tanto di grafici a torta)

blackshard
26-09-2008, 12:55
Tempo fa fu fatto un test su Tom's ( e scommetto che adesso mi scaglierete qualche pietra , visto come è considerato qui :Prrr: ) specifico in cui saltava fuori che montare una vga Nvidia o Ati su chipset Nvidia non comportava nessuna differenza tangibile. Come in effetti dovrebbe essere.... ;)

Invece c'è un noto redattore di una notissima rivista cartacea che in gruppo di discussione ha rilevato parecchie incompatibilità.

Francamente mi fido molto di più di quel redattore che dell'intero staff di tom's hardware, che ormai è diventato una specie di giornalino, vedi anche la serietà nello scegliere i redattori della versione italiana che fanno le traduzioni pedisseque e riescono anche a sbagliare i termini tecnici...
A volte sembra di leggere uno di quegli how-to su linux tradotti pari pari dall'inglese all'italiano.

yossarian
26-09-2008, 12:57
...il confronto prezzo/prestazioni andrebbe fatto tra la GTX260 896 MB e la HD4870 1 GB. Mi sembra ke in giro la HD4870 1 GB costi mediamente 20-30 € in +.

Quoto anke Xilema... "Per me sarebbe stato indifferente prendere una o l' altra, se non per il fatto che la 260 permette di attivare l' AA con i giochi che usano l' Unreal engine 3.0 mentre la scheda ATI non lo garantisce.
Già questa differenza (che per me è abissale) mi fa propendere per il prodotto nVidia, ma se aggiungiamo che la 260 scalda decisamente meno, ha più memoria ram ed è pure più silenziosa... allora la mia scelta mi sembra più che giustificata."

In più aggiungo ke il supporto driver nVidia è superiore a quello ATi (secondo me da anni ormai)

Viste le polemiche... una rece che taglierebbe la testa al toro potrebbe essere tra una GTX260 (sia 192 ke 216 SP) e una HD4870 1 GB (entrambe lisce), con ForceWare 178.13 e Catalyst 8.9... sia su piattaforma Intel che nVidia (x58 vs 790i).

Che ne dite in redazione?

IMHO

Byez

http://www.extrahardware.cz/duel-geforce-gtx-260-vs-radeon-hd-4870?page=0,6

http://www.vbcportal.eu/index.php?ind=news&op=news_show_single&ide=3445

per la cronaca, AC usa un engine con deferred shading, come l'UE3.

Per le spiegazioni tecniche ci sono gli altri link che ho postato

blackshard
26-09-2008, 13:02
Per i driver vorrei sfatare una leggenda: il 48% dei crash di Vista dipende da nVidia (fonte microsoft...ad aprile era il 50%...basta cercare in google e si legge quanto si vuole sulla questione, con tanto di grafici a torta)

Secondo un tizio importante di Linux i driver nvidia sono anche la principale causa del crash del kernel di linux. Alla faccia della tanto decantata superiorità!

Più o meno a metà pagina:
http://punto-informatico.it/2331587/PI/News/sviluppatori-linux-aprite-vostri-driver-ora.aspx

yossarian
26-09-2008, 13:23
bellissimo l'articolo del deferred shading...
speriamo che ora con ati in corsa prendano volume anche i prossimi giochi in dx10.1 almeno avrebbe un senso.

è solo uno dei tanti reperibili online su questo ed altri argomenti. In un forum frequentato da gente che si vanta di avere conoscenze informatiche superiori alla media degli utilizzatori di un pc, dovrebbero essere più questi gli articoli da leggere e commentare che non i proclami dei PR delle varie società

MiKeLezZ
26-09-2008, 13:29
Io direi di lasciare le polemiche da parte (10 frames in piu' o in meno lasciano il tempo che trovano): tra un poco avremo il lusso di scegliere come ci pare...
nVidia scendera' ancora

Per i driver vorrei sfatare una leggenda: il 48% dei crash di Vista dipende da nVidia (fonte microsoft...ad aprile era il 50%...basta cercare in google e si legge quanto si vuole sulla questione, con tanto di grafici a torta)In realtà la leggenda che sfati non è vera.
Quei valori vanno contestualizzati al market share.
NVIDIA al momento dei report aveva il 70%, mentre ATI il 30%.
Se fai i conti noterai che la percentuale di crash è quindi identica per entrambe.
Senti se leggi i miei interventi sto dicendo che oggi scegliere l'uno l'altro e' uguale, ma che ancora il cihp nVidia costa caro pur se la strada intrapresa e' buona.
Tuttavia visto che amate le polemiche...

*Physx usato da 4 titoli (QUATTRO) e con forte decadimento prestazionale
*UVD2 non e' assolutamente pari a Purevideo
*La codifica dei flussi audio dove la metti?
*CUDA al momento ancora fumo
*Patch dx 10.1 misteriosamente sparita, ma accordo siglato ai primi di agosto per sviluppare titoli dx 10.1 (ritrovati la news, sono al lavoro ora)
*Havock e' parecchio sfruttato

Torno a ribadire quanto ho scritto ad inizio post
Va bene, scegliere l'una o l'altra è uguale, sono d'accordo (oddio non proprio uguale, dipende dalle esigenze di ognuno), ma ti sto solo correggendo su affermazioni false e tendenziose, che poco si confanno quindi con la tua frase di apertura.
- PhysX è usato da decine di giochi, con decine in arrivo, lista completa: http://www.nzone.com/object/nzone_physxgames_home.html
Ci sono gioconi come GRAW e UT3 (e l'engine di UT3 sarà usato in millemila giochi futuri).
Ci si gioca tranquillamente con una 8800GT
- UVD2 è pari a PureVideo 2 HD, e se dici di no, sei quantomeno pregato di motivarlo
- Uscita in HDMI in 7.1 LPCM, ok, questo è un vantaggio ATI (anche se comunque NVIDIA può anch'essa uscire in HDMI, solo con 2.0)
- NVIDIA ha AF perfetto, e questo è invece un vantaggio NVIDIA
- CUDA al momento è usato alla grande (vedi PhysX), ed è anche superiore a quello di ATI (che rimane handicappato da poco supporto degli sviluppatori, e l'architettura ATI vec5 è inoltre deficitaria rispetto a quella NVIDIA)
- Havok è FUMO. Havok è un motore grafico che si basa sulla CPU, perdipiù di proprietà INTEL. ATI/AMD non c'entrano nulla.
- Patch DX10.1 misterioramente sparita. Pensiamo anche male che sia colpa di NVIDIA, ma la realtà dei fatti è che non c'è. Quindi niente punto per ATI. C'est la vie.

paxxo1985
26-09-2008, 13:34
OT:Gli skifosi di tomshw bannano perche copiano gli articoli in 2 mesi.... senza accorgersi che è un articolo fatto col culo... apple vs normal pc.....W la CENSURA!!!
Scusate mi hanno bannato come tanti altri e dovevo sfogarmi...
W HWUPGRADE!!!

yossarian
26-09-2008, 13:47
- NVIDIA ha AF perfetto, e questo è invece un vantaggio NVIDIA


come (o forse meno) dell'AA per ATi :D


- CUDA al momento è usato alla grande (vedi PhysX), ed è anche superiore a quello di ATI (che rimane handicappato da poco supporto degli sviluppatori,


cuda al momento è molto poco usato se non per applicazioni di gpu computing. Gira anche su gpu ati e su cpu intel e amd (con opportune modifiche, ma penso saprai che lo stesso cuda è basato su una versione di open64 adattata per girare sull'architettura delle serie G8x/9x e Gt2x0 di nVIDIA).


e l'architettura ATI vec5 è inoltre deficitaria rispetto a quella NVIDIA)


questa mi sfugge; sarebbe deficitaria per cosa? per supportare la fisica via gpu? :confused: Potresti addurre motivazioni tecniche a questa tua affermazione? Questo a prescindere dal fatto che non è una vect5



- Havok è FUMO. Havok è un motore grafico che si basa sulla CPU, perdipiù di proprietà INTEL. ATI/AMD non c'entrano nulla.


se intel porta amd dalla sua parte e insieme supporteranno havok per la fisica, sarà physx ad avere vita molto breve.



- Patch DX10.1 misterioramente sparita. Pensiamo anche male che sia colpa di NVIDIA, ma la realtà dei fatti è che non c'è. Quindi niente punto per ATI. C'est la vie.

che misteriosamente riapparirà non appena si inizieranno a sviluppare giochi dx10 o dx11 (hai letto bene, ho scritto 10 e non 10.1 :D )

yossarian
26-09-2008, 13:48
In realtà la leggenda che sfati non è vera.
Quei valori vanno contestualizzati al market share.
NVIDIA al momento dei report aveva il 70%, mentre ATI il 30%.
Se fai i conti noterai che la percentuale di crash è quindi identica per entrambe.



ora sei tu che stai sfatando la leggenda delle presunta superiorità dei driver nVIDIA :D

gai@
26-09-2008, 13:51
ciao yossarin, prima di continuare dei dettagli tecnici che mi hai corretto,
vorrei sapere cosa ne pensi di questa rece...
come mai la situazione di è ribaltata?
non è polemica ti giuro, ma ritengo la tua opinione molto affidabile :)

yossarian
26-09-2008, 14:12
ciao yossarin, prima di continuare dei dettagli tecnici che mi hai corretto,
vorrei sapere cosa ne pensi di questa rece...
come mai la situazione di è ribaltata?
non è polemica ti giuro, ma ritengo la tua opinione molto affidabile :)

non ho fatto controlli approfonditi in merito; però se, come qualcuno sostiene, le prestazioni delle ATi sono calate dalle rece precedenti, la cosa è piuttosto sospetta. Che quelle di nVIDIA possano essere salite è normale, invece. In quanto ai risultati, molto dipende dalle piattaforme utilizzate; non solo scheda madre, intendo, ma anche sistema operativo (ad esempio, tra vista a 32 e 64 bit sembra che le cose, in parte cambino). Altro elemento, i titoli utilizzati. Ci sono titoli più favorevoli ad un'architettura ed altri più favorevoli all'altra.

In questa review, ad esempio, HL2 è leggermente favorevole ad ATi, mentre WiC e CoH lo sono ad nVIDIA. Anche con UT3, senza filtri, le nVIDIA vanno leggermente meglio. Quindi i risultati di questi giochi sono in linea con quelli che ci si potrebbe attendere.
Quelli che, invece, appaiono contrastanti con quelli di altre review, sono, in particolare, i risultati di CoD4

Bosk#91
26-09-2008, 14:54
ma usare un chip nforce anche con le schede ati non può "segare" le prestazioni di quest'ultime?
Perchè mi pareva che fosse così..

blackshard
26-09-2008, 15:03
In questa review, ad esempio, HL2 è leggermente favorevole ad ATi, mentre WiC e CoH lo sono ad nVIDIA. Anche con UT3, senza filtri, le nVIDIA vanno leggermente meglio. Quindi i risultati di questi giochi sono in linea con quelli che ci si potrebbe attendere.
Quelli che, invece, appaiono contrastanti con quelli di altre review, sono, in particolare, i risultati di CoD4

C'è anche da dire che qui si confrontano due schede nvidia overcloccate di fabbrica con la 4870 liscia.
La questione quindi non sono più tanto le prestazioni, quanto piuttosto il confronto fra il prezzo della gtx260 liscia 192sp, il prezzo della amp2 216sp ed infine quello della 4870. Molto spesso questo dettaglio sfugge!

JohnPetrucci
26-09-2008, 15:07
:tapiro: Si vede che hai la GTX 260... e per 30€ in meno potresti aver preso la 4870.... :mc:


E per cosa?:rolleyes:
Per avere meno ram, più consumi, peggior dissipatore, overclock risibile e driver non proprio degni di tale nome in più di un occasione?:muro:
Io la gtx260 l'ho pagata 225€, in pratica 10€ in più di una 4870 con 512mb e 40€ meno di una 4870 con 1gb di ram.:read:
Essere ragionevole non significa fare il tifo, ma ragionare.;)

halduemilauno
26-09-2008, 15:17
C'è anche da dire che qui si confrontano due schede nvidia overcloccate di fabbrica con la 4870 liscia.
La questione quindi non sono più tanto le prestazioni, quanto piuttosto il confronto fra il prezzo della gtx260 liscia 192sp, il prezzo della amp2 216sp ed infine quello della 4870. Molto spesso questo dettaglio sfugge!

e a tutto questo si aggiunga anche il prezzo della 4870 da un giga.
cmq avvistata una gtx260 216 a 249€.

appleroof
26-09-2008, 15:20
e a tutto questo si aggiunga anche il prezzo della 4870 da un giga.
cmq avvistata una gtx260 216 a 249€.

i dettagli sfuggono...:D

halduemilauno
26-09-2008, 15:23
i dettagli sfuggono...:D

ci siamo(noi ultimi tre e non solo)a ricordarli.
;)

calabar
26-09-2008, 15:35
Non dire così che sembra siano arrivati i portatori del verbo...

mmm... 250 euro, praticamente quanto la hd4870 1GB.

Però prima consigliavi la gtx260 che, costava 20/30 euro in più della hd4870 512 perchè aveva più memoria, ora consigli questa che a parità di prezzo con la hd4870 1GB ha meno memoria e prestazioni comunque simili (prima un lieve vantaggio per la hd4870, ora un lieve vantaggio per questa)...

Mah, parteggiare per una casa o per l'altra è proprio vero che si perde l'obiettività.

appleroof
26-09-2008, 15:38
Non dire così che sembra siano arrivati i portatori del verbo...

mmm... 250 euro, praticamente quanto la hd4870 1GB.

Però prima consigliavi la gtx260 che, costava 20/30 euro in più della hd4870 512 perchè aveva più memoria, ora consigli questa che a parità di prezzo con la hd4870 1GB ha meno memoria e prestazioni comunque simili (prima un lieve vantaggio per la hd4870, ora un lieve vantaggio per questa)...

Mah, parteggiare per una casa o per l'altra è proprio vero che si perde l'obiettività.

si, verissimo.

halduemilauno
26-09-2008, 15:42
Non dire così che sembra siano arrivati i portatori del verbo...

mmm... 250 euro, praticamente quanto la hd4870 1GB.

Però prima consigliavi la gtx260 che, costava 20/30 euro in più della hd4870 512 perchè aveva più memoria, ora consigli questa che a parità di prezzo con la hd4870 1GB ha meno memoria e prestazioni comunque simili (prima un lieve vantaggio per la hd4870, ora un lieve vantaggio per questa)...

Mah, parteggiare per una casa o per l'altra è proprio vero che si perde l'obiettività.

beh certo prima di questa gtx260 216 consigliavo ovviamente l'attuale gtx260 192 proprio per la tanta ram in + avendo prestazioni e prezzi allineati con quelli della 4870 e tenendo sempre da conto che la 4870 da un giga non costa 20€ di meno ma 40€ di + rispetto all'attuale gtx260 192.
per il resto si certo hai ragione ma appunto per fortuna c'è chi sta un pò + attento.
e cmq...
http://www.trovaprezzi.it/categoria.aspx?libera=4870+1024&id=28&prezzoMin=&prezzoMax=&sbox=sb
come vedi l'attenzione non manca.

killer978
26-09-2008, 15:44
Possibile che su questo sito le ATI vanno sempre peggio delle nvidias ultimamente :asd: eppure basta guardare in giro x il web e ovunque c'è una rece tra HD4870 vs GTX260 la prima è sempre avanti
guarda qua

http://www.anandtech.com/video/showdoc.aspx?i=3415&p=3

appleroof
26-09-2008, 15:48
Possibile che su questo sito le ATI vanno sempre peggio delle nvidias ultimamente :asd: eppure basta guardare in giro x il web e ovunque c'è una rece tra HD4870 vs GTX260 la prima è sempre avanti
guarda qua

http://www.anandtech.com/video/showdoc.aspx?i=3415&p=3

anandtech ha un forum? Mi sà che mi tocca andare là a lanciare sospetti complottosi contro il loro sito...:asd:

yossarian
26-09-2008, 15:48
C'è anche da dire che qui si confrontano due schede nvidia overcloccate di fabbrica con la 4870 liscia.
La questione quindi non sono più tanto le prestazioni, quanto piuttosto il confronto fra il prezzo della gtx260 liscia 192sp, il prezzo della amp2 216sp ed infine quello della 4870. Molto spesso questo dettaglio sfugge!

vero; ma pare sia ormai l'abitudine, quella di adoperare solo vga con gpu NV o/c di fabbrica. Chissà perchè............:D

killer978
26-09-2008, 15:49
allora non ero il solo che credeva che precedentemente la 4870 stava davanti alla 260...boh credo che i peggioramenti siano dovuti all'uso delle ati su chipset nvidia, altrimenti non me lo spiego.

comunque credo che anche se fosse così sia sempre preferibile la 4870 in prezzo/prestazioni, 210 euro contro 299...mi pareva avesse anche una migliore gestione dell'AA

il peggioramento è dovuto ai banner publicitari :asd: ultimamente su Hwup si vede solo Nvidia e Cuda :asd:

gai@
26-09-2008, 15:50
anandtech ha un forum? Mi sà che mi tocca andare là a lanciare sospetti complottosi contro il loro sito...:asd:


:D

gai@
26-09-2008, 15:52
vero; ma pare sia ormai l'abitudine, quella di adoperare solo vga con gpu NV o/c di fabbrica. Chissà perchè............:D

sei velatamente pro ATI :D
è dai tempi della radeon 32 sdr VS geforce 256 che lo sei ;)

yossarian
26-09-2008, 15:58
sei velatamente pro ATI :D
è dai tempi della radeon 32 sdr VS geforce 256 che lo sei ;)

la radeon (R100) era l'avversaria della GF2 e non della GF256.

Se è per questo, sono stato anche accusato di essere fanboy nVIDIA (leggiti l'articolo su NV40). Al contrario, qui c'è gente che non correrà mai il rischio di essere scambiata per fanATic :D
Aggiungo, senza falsa modestia, che parlo con cognizione di causa e non per slogan degni del peggior PR

kliffoth
26-09-2008, 15:59
Possibile che su questo sito le ATI vanno sempre peggio delle nvidias ultimamente :asd: eppure basta guardare in giro x il web e ovunque c'è una rece tra HD4870 vs GTX260 la prima è sempre avanti
guarda qua

http://www.anandtech.com/video/showdoc.aspx?i=3415&p=3

Ma chi se frega!!!!
Tanto tutti sanno che la 260 liscia va un pelo piu' lenta e la nuova un pelo piu' veloce della 4870...poi e' solo questione di prezzi.

PS la 4870 ha una ottima gestione della memoria: 512 Mb bastano

DjLode
26-09-2008, 16:16
sei velatamente pro ATI :D
è dai tempi della radeon 32 sdr VS geforce 256 che lo sei ;)

Controbatti ai suoi post tecnici per dimostrare che è un fanboy ATI, e, se ci riuscirai, ti darò ragione.


Aggiungo, senza falsa modestia, che parlo con cognizione di causa e non per slogan degni del peggior PR

E questa affermazione la posso confermare tutta la vita :D

killer978
26-09-2008, 16:19
Dite ciò che volete ma quando in una recensione di questo tipo, si confrontano schede okkate di fabbrica contro l'altro marchio acerrimo e storico nemico :D a freq. stock qualche dubbio mi viene sulla bonta del sito.

Si sa che a questi livelli le differenze sono minime e basta 1fps in + x far cantare vittoria a l'una o l'altra squadra :asd: schede okkate dovrebbero essere lasciate a casa oppure confrontare entrambi i marchi con schede fuori specifica ;)

mi fanno sorridere quando qualche utente giustifica l'acquisto della 260 xche ha 800 e passa mega di ram (alla 4870 ne bastano 512mb x stare avanti in tutti i giochi a 2560x1600 con AA8x :asd: ) oppure quando chiamano in causa l'AA con l'unreal engine 3 :asd: , basta attivare l'AA narrow-tend e funge anche con ATI !! poi sentire che le GTX260 sono + silenziose delle ATI quando in tutto il web si dice il contrario mi fa sbellicare :asd: o ancora sentire che RV770 è un chip caldo, quando una 4850 con sissy stock e ventola al 36% basta a tenere sotto gli 80° la GPU mentre sulle NVIDIA hanno messo una bara da 1 metro x tenerle al fresco :asd:

vabbe ciao ;)

Mparlav
26-09-2008, 16:22
Visto che la considerate una recensione "autorevole" allora smontiamola un po' :-)
Su 7 giochi utilizzati, a parte Crysis ed ET: Quake Wars ma non è neanche detto, per certo le prestazioni sono state misurate "facendosi una camminata" con Fraps.
Come facciamo a sapere che Mr Anandtech ha premuto il pulsante di recording con Fraps esattamente uguale con tutte le schede e che il percorso è stato sempre lo stesso?
Non lo sappiamo, quindi visto che vi piace dare addosso ad Hwpgrade, allora diamo addosso anche ad Anandtech ed a qualche altra decina di recensori che adottano questo metodo :-)

MiKeLezZ
26-09-2008, 16:28
come (o forse meno) dell'AA per ATi :D Cioè? Spiegati meglio. Non mi pare nella qualità di AA ATI sia superiore a NVIDIA, quantomeno se ci fermiano ai canonici 2X e 4X MSAA (altre versioni neppure le considero, e guardando i tent, è un bene...).
Al limite mi potrai dire che l'architettura ATI ha un minor decadimento prestazionale all'attivazione del AA8X (che fra l'altro la versione NVIDIA sembra buggata? mha non ho approfondito bene).
CUDA al momento è molto poco usato se non per applicazioni di gpu computing. Gira anche su gpu ati e su cpu intel e amd (con opportune modifiche, ma penso saprai che lo stesso cuda è basato su una versione di open64 adattata per girare sull'architettura delle serie G8x/9x e Gt2x0 di nVIDIA).CUDA è un aspetto marginale, ma comunque è un aspetto in cui ATI è sottomessa.
Per la lista di alcune applicazioni c'è la pagina specifica NVIDIA:
http://www.nvidia.com/object/cuda_home.html
questa mi sfugge; sarebbe deficitaria per cosa? per supportare la fisica via gpu? :confused: Potresti addurre motivazioni tecniche a questa tua affermazione? Questo a prescindere dal fatto che non è una vect5E' una VLIW, pure peggio... Comunque ecco qua perchè l'architettura NVIDIA è migliore sotto l'aspetto computing:
http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242
ora sei tu che stai sfatando la leggenda delle presunta superiorità dei driver nVIDIA :DPresunta o meno, al momento vedo tanti divertirsi con il file "atikmdag.sys" ... oppure con l'eseguibile "furmark" dispettoso ... fai una ricerchina e poi sappimi ridire :P
se intel porta amd dalla sua parteNon so perchè, questa frase mi dona allegria :D e insieme supporteranno havok per la fisica, sarà physx ad avere vita molto breve.Non dimentichiamo la futura GFX di Intel sarà su x86, percui questa ha tutto l'interesse a far restare Havok (ripeto, di SUA proprietà) sulla CPU.
Controbatti ai suoi post tecnici per dimostrare che è un fanboy ATI, e, se ci riuscirai, ti darò ragione.fAnboy forse no, ma fUnboy... Mi ricordo la sua esaltazione con il ringbus delle 2900 (miseramente fallito) oppure gli SP dello Xenos, neppure gli avessero regalato una Ferrari :P
Però non capisco cosa lo esalti nelle ATI del momento
Possibile che su questo sito le ATI vanno sempre peggio delle nvidias ultimamente :asd: eppure basta guardare in giro x il web e ovunque c'è una rece tra HD4870 vs GTX260 la prima è sempre avanti
guarda qua

http://www.anandtech.com/video/showdoc.aspx?i=3415&p=3Non so se hai letto la release note degli ultimi driver NVIDIA

Single GPU increases up to 11% in 3DMark Vantage (performance preset)
Single GPU increases up to 11% in Assassin's Creed DX10
Single GPU increases up to 15% in Bioshock DX10
Single GPU increases up to 15% in Call of Duty 4
Single GPU increases up to 8% in Enemy Territory: Quake Wars

yossarian
26-09-2008, 16:32
Visto che la considerate una recensione "autorevole" allora smontiamola un po' :-)
Su 7 giochi utilizzati, a parte Crysis ed ET: Quake Wars ma non è neanche detto, per certo le prestazioni sono state misurate "facendosi una camminata" con Fraps.
Come facciamo a sapere che Mr Anandtech ha premuto il pulsante di recording con Fraps esattamente uguale con tutte le schede e che il percorso è stato sempre lo stesso?
Non lo sappiamo, quindi visto che vi piace dare addosso ad Hwpgrade, allora diamo addosso anche ad Anandtech ed a qualche altra decina di recensori che adottano questo metodo :-)

analogamente si possono smontare anche i giochi con bench incorporato. Chi mi dice che le mappe che vengono testate non sono scritte con codice che favorisca una o l'altra architettura?
In caso di bench non in game che usano il motore grafico di un gioco, in stile 3dmark, per intenderci, chi mi dice che non c'è chi faccia driver cheating? (non sarebbe la prima volta che si verifica una cosa del genere)

MiKeLezZ
26-09-2008, 16:37
analogamente si possono smontare anche i giochi con bench incorporato. Chi mi dice che le mappe che vengono testate non sono scritte con codice che favorisca una o l'altra architettura?
In caso di bench non in game che usano il motore grafico di un gioco, in stile 3dmark, per intenderci, chi mi dice che non c'è chi faccia driver cheating? (non sarebbe la prima volta che si verifica una cosa del genere)Il punto è che sicuramente c'è tutto quello che dici, ma così va la vita, è un mondo difficile, fatto di cose imperfette. Se NVIDIA ha sudato come un suino in calore per ottimizzare il gioco XYX è la stessa cosa che sfornare una scheda video mostruosa non ottimizzata.
Bisogna guardare solo il risultato, quanti FPS fanno le VGA con il gioco, e bon.
Quel che c'è sotto non è affar nostro...

basta attivare l'AA narrow-tend e funge anche con ATI !! azz e quello lo chiami un AA? se metto il mio LCD a risoluzione non nativa ho la stessa cosa, un bel spaciugamento di font e texture
e zero cali prestazionali! bonus!

JohnPetrucci
26-09-2008, 16:39
azz e quello lo chiami un AA? se metto il mio LCD a risoluzione non nativa ho la stessa cosa, un bel spaciugamento di font e texture
e zero cali prestazionali! bonus!
LOL:D:asd: :asd: :asd:

Maury
26-09-2008, 16:43
Nutro forti dubbi su questa recensione, la differenza di prestazioni rilevate rispetto alla precedente prova è esagerata, dato il furor di popolo sollevato consiglierei alla redazione di verificare i dati o quanto meno giustificare quanto emerso :rolleyes:

Sull'uso di schede nVidia OC nelle prove concordo con chi esprime dubbi, non vanno assolutamente impiegate se il concorrente ha frequenze standard :mbe:

JohnPetrucci
26-09-2008, 16:43
mi fanno sorridere quando qualche utente giustifica l'acquisto della 260 xche ha 800 e passa mega di ram (alla 4870 ne bastano 512mb x stare avanti in tutti i giochi a 2560x1600 con AA8x :asd: ) oppure quando chiamano in causa l'AA con l'unreal engine 3 :asd: , basta attivare l'AA narrow-tend e funge anche con ATI !! poi sentire che le GTX260 sono + silenziose delle ATI quando in tutto il web si dice il contrario mi fa sbellicare :asd: o ancora sentire che RV770 è un chip caldo, quando una 4850 con sissy stock e ventola al 36% basta a tenere sotto gli 80° la GPU mentre sulle NVIDIA hanno messo una bara da 1 metro x tenerle al fresco :asd:

vabbe ciao ;)
Sorridi, ma sappi che un rumore più basso si percepisce meno di uno più acuto......:O
Sorridi ma sappi che meglio una bara di dissipatore che uno extra da comprare.:read:
Se sei felice così, sorridi e compra Ati, poi contesta tutto anche i driver non sempre all'altezza, gli overclock risibili, i consumi maggiori, e smanetta su driver e bios, così sarai ancora più allegro.:rolleyes:

MDR85
26-09-2008, 16:47
Qui c'è chi continua a dare del fanboy e del complottista a destra e sinistra, a linkare prezzi su prezzi, a parlare di quale scheda faccia o meno il caffè, ma nessuno che voglia rispondere a chi fa notare che la 4870 ha perso fps rispetto a sé stessa, e non solo rispetto alle 260.
Ignorando i vari banner ZOTAC presenti sul sito e il fatto che la stessa immagine della stessa scheda ZOTAC sia stata usata addirittura per la news dei nuovi driver NVIDIA, al posto del logo NVIDIA.
Ignorando che quelli dello staff non sono scemi, e non fanno i test superficialmente, lo han dimostrato pochi giorni fa con gli SSD Intel. Mentre con la 4870 non hanno trovato strana una riduzione ingiustificata delle prestazioni. Gli utenti l'hanno notata, invece. E per questo sono complottisti e/o fanboy.
Ma io sono un fanboy ATI, ovviamente. Perché non uso il pc per giocare, e dopo 4 GeForce ho preso una Radeon perché era l'unica che avevano in negozio con dissipatore passivo. Più fanboy ATI di me non c'è nessuno.
Già, maledetti fanboy ATI, Rossi e quindi Comunisti e Complottisti.
Certo che in oltre 130 commenti, neanche uno dallo staff. Non ci fanno una bella figura.
Io mi chiedo se certi individui si rendano o meno conto di quanto sono ridicoli nel dare del fanboy ATI addirittura ha chi ha le NVIDIA nelle configurazioni in firma.

Mparlav
26-09-2008, 16:47
Non è affatto la stessa cosa.
La questione del benching con Fraps è arcinota ed ampiamente descritta, basta andare su www.digit-life.com.
E' noto che impreciso, ma tutti continuano a considerarlo, dando peso addirittura a 2-3 fps di differenza tra le varie schede.

Che poi il gioco stesso possa girare meglio su un'architettura piuttosto che un'altra, persino per scelte di "cheating", è una questione totalmente diversa.
Mettere sullo stesso piano le 2 questioni è solo fuorviante.

calabar
26-09-2008, 16:57
Fossi nella redazione, anche io non risponderei a questa bolgia che ormai sta diventando la solita inutile lotta di opinioni.
O per lo meno, dovendo rispondere, lo farei dopo aver fatto vari test e verificato la situazione, che pare anomala.

e cmq...
http://www.trovaprezzi.it/categoria.aspx?libera=4870+1024&id=28&prezzoMin=&prezzoMax=&sbox=sb
come vedi l'attenzione non manca.
Già, così attento che se anzichè 4870 1024 avessi cercato 4870 1gb avresti trovato prezzi più bassi :rolleyes:

MiKeLezZ
26-09-2008, 17:01
Qui c'è chi continua a dare del fanboy e del complottista a destra e sinistra, a linkare prezzi su prezzi, a parlare di quale scheda faccia o meno il caffè, ma nessuno che voglia rispondere a chi fa notare che la 4870 ha perso fps rispetto a sé stessa, e non solo rispetto alle 260.
Ignorando i vari banner ZOTAC presenti sul sito e il fatto che la stessa immagine della stessa scheda ZOTAC sia stata usata addirittura per la news dei nuovi driver NVIDIA, al posto del logo NVIDIA.
Ignorando che quelli dello staff non sono scemi, e non fanno i test superficialmente, lo han dimostrato pochi giorni fa con gli SSD Intel. Mentre con la 4870 non hanno trovato strana una riduzione ingiustificata delle prestazioni. Gli utenti l'hanno notata, invece. E per questo sono complottisti e/o fanboy.
Ma io sono un fanboy ATI, ovviamente. Perché non uso il pc per giocare, e dopo 4 GeForce ho preso una Radeon perché era l'unica che avevano in negozio con dissipatore passivo. Più fanboy ATI di me non c'è nessuno.
Già, maledetti fanboy ATI, Rossi e quindi Comunisti e Complottisti.
Certo che in oltre 130 commenti, neanche uno dallo staff. Non ci fanno una bella figura.
Io mi chiedo se certi individui si rendano o meno conto di quanto sono ridicoli nel dare del fanboy ATI addirittura ha chi ha le NVIDIA nelle configurazioni in firma.Guarda, non so se hai mai provato a fare delle recensioni, o anche peggio delle prove comparate. E' un casino.
Ogni volta cambiano i valori. Riavvii? Altri ancora.
Per questo io sono il primo a tralasciare differenze nell'ordine del 5%, e mi stupisco che molti invece ci si attaccano con tutta la loro forza ("cazzo ma hai visto? Assassin's mi va a 33,2FPS invece che 34,7FPS! OWNAGE TOTALE").
Oh la tua scheda va il 2% più della mia... cazzo come mi sento inferiore, sei proprio un figo...
Bho?
Divento vecchio :(

JohnPetrucci
26-09-2008, 17:02
Già, maledetti fanboy ATI, Rossi e quindi Comunisti e Complottisti.
Certo che in oltre 130 commenti, neanche uno dallo staff. Non ci fanno una bella figura.
Io mi chiedo se certi individui si rendano o meno conto di quanto sono ridicoli nel dare del fanboy ATI addirittura ha chi ha le NVIDIA nelle configurazioni in firma.
Concordo pienamente a parte la prima parte in grassetto, che diciamo....... non è tutto verde come sembra.:D

yossarian
26-09-2008, 17:02
Cioè? Spiegati meglio. Non mi pare nella qualità di AA ATI sia superiore a NVIDIA, quantomeno se ci fermiano ai canonici 2X e 4X MSAA (altre versioni neppure le considero, e guardando i tent, è un bene...).


a parte il fatto che l'AF di nVIDIA non è affatto migliore di quello ATi, ti invito a dare un'occhiata ai test comparativi che si trovano in reta sulla qualità dell'AA. Non è solo una questione di velocità (e mi dispiace doverti dare una cocente delusione, ma quello NV non è buggato ma è proprio così), ma anche di qualità. Questo senza tener conto del fatto che i chip ATi gestiscono molto meglio di quelli nVIDIA le tipologie di AA di tipo custom, ovvero anche con algoritmi non lineari (qualitativamente superiori, soprattutto con engine che fanno deferred rendering. Ci aggiungo pure, che la predisposizione per le dx10.1 obbliga ad un aumento della precisione di calcolo e all'utilizzo di filtraggio e di blending a fp32 (RV770 è dx10.1), con tutto ciò che questo comporta a livello qualitativo.



CUDA è un aspetto marginale, ma comunque è un aspetto in cui ATI è sottomessa.
Per la lista di alcune applicazioni c'è la pagina specifica NVIDIA:
http://www.nvidia.com/object/cuda_home.html


ATi non ha bisogno di CUDA (che oltretutto, ripeto, è una versione di open64 riadattata; sai che open64 nasce per le cpu, compresa l'architettura itanium di intel che, guarda caso, è di tipo vliw?), semmai è nVIDIA che ne ha bisogno.



E' una VLIW, pure peggio... Comunque ecco qua perchè l'architettura NVIDIA è migliore sotto l'aspetto computing:
http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242


Cos'è, l'arma segreta? :D E' articolo non nuovo, che parla di cose già note (ce ne sono altre che in quell'articolo non sono neppure riportate :D ). Articolo che parla dell'architettura di GT200 ma non dimostra un bel niente sulla sua presunta superiorità nel gpu computing (ti dice niente il fatto che con fp64 GT200 ha un apotenza teorica di calcolo teorica pari a meno di 1/3 rispetto a quella di RV770? E che RV770 maschera meglio le latenze).
Poi, magari, mi spieghi per quale motivo un'architettura vliw sarebbe peggio e in che cosa rispetto ad una vect5, ammesso che tu sia in grado di farlo. :D



Presunta o meno, al momento vedo tanti divertirsi con il file "atikmdag.sys" ... oppure con l'eseguibile "furmark" dispettoso ... fai una ricerchina e poi sappimi ridire :P


continui a contraddirti; da un aparte affermi che i problemi creati dai driver ATi e NV numericamente si equivalgono, dall'altra insisti nell'affermare che i driver NV sono migliori. Noto molta confusione :read:



Non so perchè, questa frase mi dona allegria :D Non dimentichiamo la futura GFX di Intel sarà su x86, percui questa ha tutto l'interesse a far restare Havok (ripeto, di SUA proprietà) sulla CPU.



e quindi? Questo non sposta di una virgola il succo di ciò che ho detto. Come Intel (anzi di più), anche nVIDIA ha bisogno di AMD. Dimentichi che è stata nVIDIA ad offrire physx ad AMD (e non certo AMD a cercare nVIDIA)? Di conseguenza, hai poco da stare allegro.



fAnboy forse no, ma fUnboy... Mi ricordo la sua esaltazione con il ringbus di R500, neppure gli avessero regalato una Ferrari :P



nessuna esaltazione: si trattava di una soluzione elegante ad un problema che nVIDIA non ha ancora risolto con il suo MC. Soluzione non idonea a gestire senza problemi più di 4 gruppi di alu (cosa che avevo ripetuto più volte a suo tempo) e che è stata superata dall'attuale, di cui, immagino tu non conosca le caratteristiche, motivo per cui ti riesce difficile comprendere come un bus a 256 bit gestisca il traffico di dati meglio di uno a 512 bit.



Però non capisco cosa lo esalti nelle ATI del momento
Non so se hai letto la release note degli ultimi driver NVIDIA


e a te cosa esalta nelle nVIDIA del momento?

yossarian
26-09-2008, 17:04
Non è affatto la stessa cosa.
La questione del benching con Fraps è arcinota ed ampiamente descritta, basta andare su www.digit-life.com.
E' noto che impreciso, ma tutti continuano a considerarlo, dando peso addirittura a 2-3 fps di differenza tra le varie schede.

Che poi il gioco stesso possa girare meglio su un'architettura piuttosto che un'altra, persino per scelte di "cheating", è una questione totalmente diversa.
Mettere sullo stesso piano le 2 questioni è solo fuorviante.

ma anche no: se non riesco a benchare "in game" posso fare cheating come voglio, anche con miglioramenti del 70-80% da una release all'altra.
Anche questo tipo di problemi è arcinoto. Mai sentito parlare di 3dmark e clipping plane?

yossarian
26-09-2008, 17:06
Il punto è che sicuramente c'è tutto quello che dici, ma così va la vita, è un mondo difficile, fatto di cose imperfette. Se NVIDIA ha sudato come un suino in calore per ottimizzare il gioco XYX è la stessa cosa che sfornare una scheda video mostruosa non ottimizzata.
Bisogna guardare solo il risultato, quanti FPS fanno le VGA con il gioco, e bon.
Quel che c'è sotto non è affar nostro...

azz e quello lo chiami un AA? se metto il mio LCD a risoluzione non nativa ho la stessa cosa, un bel spaciugamento di font e texture
e zero cali prestazionali! bonus!

fare cheating via driver non significa sudare per ottimizzare. Anche a te, dice nulla l'accostamento 3dmark - clipping plane? In caso contrario, ti do un altro indizio: NV30. Buona ricerca :D

Severnaya
26-09-2008, 17:08
io invece fare i delle prove anche con dei pc umani, xkè quegli fps nn li raggiungerete mai con le sole schede video, ma solo col processore entreme lololol e con le ram zomg


:asd:



P.S.

In effetti l'abbassamento costante degli fps x ogni ambito è un pò streno

yossarian
26-09-2008, 17:10
Guarda, non so se hai mai provato a fare delle recensioni, o anche peggio delle prove comparate. E' un casino.
Ogni volta cambiano i valori. Riavvii? Altri ancora.
Per questo io sono il primo a tralasciare differenze nell'ordine del 5%, e mi stupisco che molti invece ci si attaccano con tutta la loro forza ("cazzo ma hai visto? Assassin's mi va a 33,2FPS invece che 34,7FPS! OWNAGE TOTALE").
Oh la tua scheda va il 2% più della mia... cazzo come mi sento inferiore, sei proprio un figo...
Bho?
Divento vecchio :(

già però, nell'ambito dello stesso test, c'è chi perde e chi guadagna :mc:

halduemilauno
26-09-2008, 17:15
Fossi nella redazione, anche io non risponderei a questa bolgia che ormai sta diventando la solita inutile lotta di opinioni.
O per lo meno, dovendo rispondere, lo farei dopo aver fatto vari test e verificato la situazione, che pare anomala.


Già, così attento che se anzichè 4870 1024 avessi cercato 4870 1gb avresti trovato prezzi più bassi :rolleyes:

ok prendo atto che in questo caso ci sono due pagine diverse. e cmq i prezzi sono superiori ai 249€ della gtx 260 216 default(cmq certo alcuni sono allineati)ma tolto i riferimenti alla 4870x2 molti di essi sono persino ben superiori a quelli postati da me nell'altro link.
ma tutto questo a che prò questa sterile polemica con quanto io andavo e vado consigliando? una volta stabilita una certa parità prestazioni/costi e tenendo appunto conto del fatto che la 4870 da un giga invece di costare 20€ di meno costi un 40€ di + dove è lo scandalo a consigliare una tal scheda adducendo oltre a quanto detto appunto una dotazione ram praticamente doppia che giustifica ampiamente i denari spesi in + e che credo fermamente un domani i 384 mega di ram in + non potranno che far comodo visto l'andazzo dei giuochi moderni. e cmq io mostro coerenza tant'è che prima per quella stessa risoluzione consigliavo la 8800gtx da 768 mega anche in virtù del suo superiore quantitativo di ram e ora c'è per l'appunto la gtx 260 da 896 mega.

JohnPetrucci
26-09-2008, 17:20
Scusa yossarian, io vorrei capirci qualcosa di più, tu, post dopo post stai elencando i vantaggi dell'architettura e delle soluzioni scelte da Ati, "smontando" diciamo così, pezzo per pezzo l'archirtettura Nvidia e le rispettive soluzioni.

Io vorrei chiederti, ma in ottica dei giochi attuali e futuri, in tempi nell'ordine di 1-2 anni, che vantaggi avrebbe un utente che sceglie Ati attualmente, che, a conti fatti poi non sembrano dare vantaggi tangibili rispetto a Nvidia a parte l'uso attuale dell' A.A. a 8x, insomma le dx 10.1 credi verranno sfruttate in tempi decenti o parliamo di tempi che superano i 2 anni, se non mai, vista l'imminenza delle dx11, perchè a quel punto non so quanto senso abbiano tutte ste crociate, da qui a 1-2 anni per non dire 6-8 mesi la situazione potrebbe variare molto e non è che gli sviluppatori vadano sempre dietro le migliori soluzioni, o vogliamo dimenticarci la pioneristica 2900xt di Ati?

Anche allora mi pare si sbandieravano ai 4 venti all'esordio vantaggi di fatto, che poi sono rimasti ignorati a livello pratico......
Per non rilevare il fatto che Nvidia non è mica un'azienda che non innova nel tempo o sbaglio?
E quanto peso ha Nvidia nella scelta delle soluzioni che poi contano davvero?

yossarian
26-09-2008, 17:20
ok prendo atto che in questo caso ci sono due pagine diverse. e cmq i prezzi sono superiori ai 249€ della gtx 260 216 default(cmq certo alcuni sono allineati)ma tolto i riferimenti alla 4870x2 molti di essi sono persino ben superiori a quelli postati da me nell'altro link.
ma tutto questo a che prò questa sterile polemica con quanto io andavo e vado consigliando? una volta stabilita una certa parità prestazioni/costi e tenendo appunto conto del fatto che la 4870 da un giga invece di costare 20€ di meno costi un 40€ di + dove è lo scandalo a consigliare una tal scheda adducendo oltre a quanto detto appunto una dotazione ram praticamente doppia che giustifica ampiamente i denari spesi in + e che credo fermamente un domani i 384 mega di ram in + non potranno che far comodo visto l'andazzo dei giuochi moderni. e cmq io mostro coerenza tant'è che prima per quella stessa risoluzione consigliavo la 8800gtx da 768 mega anche in virtù del suo superiore quantitativo di ram e ora c'è per l'appunto la gtx 260 da 896 mega.

perchè ci sono casi in cui neppure 896 MB sono sufficienti e ne serve almeno 1 GB (tipo stalker clear sky alle risoluzioni più alte)?

Mparlav
26-09-2008, 17:21
Continui a porre sullo stesso piano il cheating/ottimizzazione/profilo dei giochi dei driver con la modalità d'esecuzione dei test usando Fraps, e secondo me sbagli.
Sono 2 cose totalmente diverse.

Ma visto che hai fatto notare il cheating d'Nvidia col 3dmark di 5-6 anni fa' possiamo ricordare per par condicio quello di Ati col Furmark, cronaca di questi giorni :-)

http://www.pcgameshardware.com/aid,660771/Reviews/PCGH_driver_review_AMD_Catalyst_89_WHQL/?page=3

Ironia che Nvidia truccasse per andare più forte, ed Ati trucchi per andare più lenta ;-)

halduemilauno
26-09-2008, 17:23
perchè ci sono casi in cui neppure 896 MB sono sufficienti e ne serve almeno 1 GB (tipo stalker clear sky alle risoluzioni più alte)?

ma tu converrai con me che un conto è averne ben 384 di + e ben altro è averne appena 128 di meno.
questo solo per parlare della ram.

MiKeLezZ
26-09-2008, 17:27
a parte il fatto che l'AF di nVIDIA non è affatto migliore di quello ATiEccola là. E' andata. Niente conversazione costruttiva.
Test del AF:
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_10.html
ti invito a dare un'occhiata ai test comparativi che si trovano in reta sulla qualità dell'AA. Non è solo una questione di velocità (e mi dispiace doverti dare una cocente delusione, ma quello NV non è buggato ma è proprio così), ma anche di qualità.Non mi pare proprio, è dai tempi di G70 che l'AA NVIDIA è pari a quello ATI (a meno che non mi valuti il QxS, ma sarebbe errato), e comunque quantomeno fornisci un link.
Il bug attuale è questo: http://www.hardware.fr/news/lire/19-09-2008/ , così puoi divertirti ad aggiungerlo al tuo repertorio.
Questo senza tener conto del fatto che i chip ATi gestiscono molto meglio di quelli nVIDIA le tipologie di AA di tipo custom, ovvero anche con algoritmi non lineari (qualitativamente superiori, soprattutto con engine che fanno deferred rendering. Ci aggiungo pure, che la predisposizione per le dx10.1 obbliga ad un aumento della precisione di calcolo e all'utilizzo di filtraggio e di blending a fp32 (RV770 è dx10.1), con tutto ciò che questo comporta a livello qualitativo.Cos'è, una battuta? I tent (=custom di cui parli) sono i filtri più brutti che abbia mai visto implementati nelle schede video, e servivano solo per cercare di aumentare la velocità delle HD2900, in quanto handicappate sotto questo aspetto. Fortunatamente ATI si è ravveduta, e i custom sono rimasti giusto per folklore (perchè anche l'impostazione migliore, narrow con edge, non è paragonabile al MSAA).
ATi non ha bisogno di CUDA (che oltretutto, ripeto, è una versione di open64 riadattata; sai che open64 nasce per le cpu, compresa l'architettura itanium di intel che, guarda caso, è di tipo vliw?), semmai è nVIDIA che ne ha bisogno.Di cosa blateri? A parte che CUDA, per quello che mi viene in tasca, potrebbe esser anche un panino al prosciutto (anche se in realtà è semplicemente un ambiente C+). L'affermazione che ATI non ne abbia bisogno, mentre NVIDIA sì, fa ridere i mammiferi; perchè mai?
articolo non nuovo, che parla di cose che io già conoscevo (ce ne sono altre che in quell'articolo non sono riportate :D ). Articolo che parla dell'architettura di GT200 ma non dimostra un bel niente sulla sua presunta superiorità nel gpu computing (ti dice niente il fatto che con fp64 GT200 ha un apotenza teorica di calcolo teorica pari a meno di 1/3 rispetto a quella di RV770? E che RV770 maschera meglio le latenze).Ti dice niente che fai prima a trasportare 100kg di arena con un camion piuttosto che con 5 apette?
Poi mi tiri fuori FP64? Che non serve ad una mazza astroungarica? E comunque siamo sempre lì con il conto, che i valori di ATI sono solo teorici, perchè per sfruttare le 5 apette serve materiale che si possa facilmente dividere (come l'arena), ma se dobbiamo lavorare con 10 travi di acciaio, il camion le trasporta tutte in una volta, mentre le apette devono mettersi assieme, e ne portano 1 ogni due
Poi, magari, mi spieghi per quale motivo un'architettura vliw sarebbe peggio e in che cosa rispetto ad una vect5, ammesso che tu sia in grado di farlo. :DLa VLIW è un bagno di sangue da programmare, perchè devi sempre trovare il modo di sfruttare tutte e 5 le apette.
continui a contraddirti; da un aparte affermi che i problemi creati dai driver ATi e NV numericamente si equivalgono, dall'altra insisti nell'affermare che i driver NV sono migliori. Noto molta confusione :read: Nella vita non esiste come unico parametro il "numero di crash con Vista", sai. XP? Linux? Giochi? Applicativi? Vedi un po' te.
e quindi? Questo non sposta di una virgola il succo di ciò che ho detto. Come Intel (anzi di più), anche nVIDIA ha bisogno di AMD. Dimentichi che è stata nVIDIA ad offrire physx ad AMD (e non certo AMD a cercare nVIDIA)? Di conseguenza, hai poco da stera allegro.E quindi cosa? Se compri una VGA NVIDIA hai PHYSX, se compri una VGA ATI non hai una mazza. Devi sperare che INTEL faccia il porting per l'architettura AMD. Fantascienza. LOL. Potevi saltarlo questo pezzo, va.
nessuna esaltazione: si trattava di una soluzione elegante ad un problema che nVIDIA non ha ancora risolto con il suo MC. Soluzione non idonea a gestire senza problemi più di 4 gruppi di alu (cosa che avevo ripetuto più volte a suo tempo) e che è stata superata dall'attuale, di cui, immagino tu non conosca le caratteristiche, motivo per cui ti riesce difficile comprendere come un bus a 256 bit gestisca il traffico di dati meglio di uno a 512 bit.Pensa che ieri ho visto una CPU nuda e mi si è rizzato il pene ... ma cosa mi stai a raccontare, se voglio tali nozioni mi scarico il SDK, sai.
Dimmi qualcosa di concreto.
e a te cosa esalta nelle nVIDIA del momento?Funzionano bene con tutto e senza tante segate.
Gli utilizzatori sono anche più discreti e simpatici.

lzeppelin
26-09-2008, 17:28
edit

lzeppelin
26-09-2008, 17:35
edit

Mparlav
26-09-2008, 17:36
Ecco a voi, la vera e unica mazza austroungarica :D

http://www.filibertoputzu.it/intranet/resize2.asp?path=locandadelpittore/img4732-03-1.jpg&width=500


io credevo che non esistesse: grazie MiKeLezZ :-)

halduemilauno
26-09-2008, 17:38
ho detto che è velatamente pro ATI, non un fanboy.
E sono il primo ad ammirare quando si mette a spiegare le cose per bene.
Questa mia affermazione deriva dal fatto che in sette anni che leggo il forum l'ho sempre visto impegnato a difendere le schede ATI, ma non vuole essere una critica. :)

ma poi perchè i laureati non possono essere pure fanboy? o c'è l'immunità?
lo sto chiedendo.

appleroof
26-09-2008, 17:38
Guarda, non so se hai mai provato a fare delle recensioni, o anche peggio delle prove comparate. E' un casino.
Ogni volta cambiano i valori. Riavvii? Altri ancora.
Per questo io sono il primo a tralasciare differenze nell'ordine del 5%, e mi stupisco che molti invece ci si attaccano con tutta la loro forza ("cazzo ma hai visto? Assassin's mi va a 33,2FPS invece che 34,7FPS! OWNAGE TOTALE").
Oh la tua scheda va il 2% più della mia... cazzo come mi sento inferiore, sei proprio un figo...
Bho?
Divento vecchio :(

quoto tutto..la conclusione poi è bellissima :asd: :asd:

cut
Pensa che ieri ho visto una CPU nuda e mi si è rizzato il pene ...
cut

non resisto...:rotfl: :rotfl: :rotfl: :rotfl:

kliffoth
26-09-2008, 17:39
Pensa che ieri ho visto una CPU nuda e mi si è rizzato il pene ...

Porca miseria!!!!
Queste si che sono notizie :D

gianni1879
26-09-2008, 17:39
Fossi nella redazione, anche io non risponderei a questa bolgia che ormai sta diventando la solita inutile lotta di opinioni.
O per lo meno, dovendo rispondere, lo farei dopo aver fatto vari test e verificato la situazione, che pare anomala.


Già, così attento che se anzichè 4870 1024 avessi cercato 4870 1gb avresti trovato prezzi più bassi :rolleyes:

:asd:


http://www.trovaprezzi.it/categoria.aspx?libera=4870+1gb&id=28&prezzoMin=&prezzoMax=&sbox=sb

tanto per essere moooolto obiettivi

MiKeLezZ
26-09-2008, 17:41
fare cheating via driver non significa sudare per ottimizzare. Anche a te, dice nulla l'accostamento 3dmark - clipping plane? In caso contrario, ti do un altro indizio: NV30. Buona ricerca :DAspè, aspè, questa è bellissima. Io ti parlo di crash con le attuali ATI, e di strane linee di codice nei driver che distruggono le performance con applicativi tipo "FurMark" (per oscure ragioni) e tu mi controbatti con problemi inerenti schede video di 5 anni fa?
Cioè 5 anni fa la gente faceva le penne con i motorini e le caldarroste sopra i Barton.
Poi magari io ti controbatto con i problemi di cheating su 3DMark03 e 3DMark01 delle ATI Radeon (che erano uguali se non peggiori? http://www.digit-life.com/articles2/antidetect/index.html )
E poi se ne esce qualcuno a cantare Piccola Katy dei Pooh con i pantaloni a zampa di elefante.
Facciamo i seri, please.

appleroof
26-09-2008, 17:42
:asd:


http://www.trovaprezzi.it/categoria.aspx?libera=4870+1gb&id=28&prezzoMin=&prezzoMax=&sbox=sb

tanto per essere moooolto obiettivi

si ma tanto la 4870 non ha bisogno di 1 giga di ram: scheda inutile no? :stordita:

azz, che anche Ati si sia messa a fregare gli utenti? :sob:

JohnPetrucci
26-09-2008, 17:45
si ma tanto la 4870 non ha bisogno di 1 giga di ram: scheda inutile no? :stordita:

azz, che anche Ati si sia messa a fregare gli utenti? :sob:
No, ti sbagli su Ati possono tornare utili, su Nvidia non servono, quelli di nvidia sono brutti, sporchi e cattivi......:D
Tantè che adesso i 128mb di ram in più della Ati 4870 versione 1gb rispetto alla gtx260, misteriosamente sono diventati utili......misteri.

gianni1879
26-09-2008, 17:47
si ma tanto la 4870 non ha bisogno di 1 giga di ram: scheda inutile no? :stordita:

azz, che anche Ati si sia messa a fregare gli utenti? :sob:

dipende dalle esigenze degli utenti? no?
se uno gioca a 1600x1200 dubito che noterà benifici da 512MB a 1GB, diverso il discorso a risoluzioni molto alte.

bonzuccio
26-09-2008, 17:48
"Le schermate del D3D AF Tester mostrano chiaramente come le due soluzioni concorrenti di ATI e NVIDIA riescano a generare un livello qualitativo pressoché identico tra di loro, ben lontano da quanto eravamo abituati a vedere sia con le schede Radeon X 1000 che con quelle NVIDIA serie GeForce 7000."

Dalla rece hwupgrade linkata da Mikelezz :asd:

Ha ragione yoss l'AF nvidia non è affatto migliore di quello ATI.. non ha detto che è uguale
- perchè a conti fatti tra AA e AF deriva che la qualità di immagine delle ati serie 4000 è migliore di quella nvidia..
- perchè qualcuno ha detto che l'AF di ati non è migliore di quello nvidia

gianni1879
26-09-2008, 17:50
No, ti sbagli su Ati possono tornare utili, su Nvidia non servono, quelli di nvidia sono brutti, sporchi e cattivi......:D
Tantè che adesso i 128mb di ram in più della Ati 4870 versione 1gb rispetto alla gtx260, misteriosamente sono diventati utili......misteri.

qualcuno basava la scelta della sua GTX260 proprio della ram in più, ora che si è visto che esistono pure le Ati hd4870 con giga di ram, la scelta non si deve anche basare su quella?

il discorso vale se si parla di Nvidia e non vale se si parla di Ati?
io dico che vale per entrambe, tu hai preso una gtx260 anche per la Ram o sbaglio?

Mparlav
26-09-2008, 17:50
Per chi guarda ai fps minimi in giochi e non solo quelli medi che si pappano tranquillamente 6-700Mb e passa di memoria video, no, 1Gb non è inutile, in una scheda del livello della HD4870.

Con Crysis Warhead a 1280x1024 - 4xAA Enthusiast:
http://www.xtremesystems.org/forums/showthread.php?t=202710

oltre 700Mb.

Io ho preso una 8800GTS 640Mb pagandola 50 euro più di una 320Mb e non me ne sono mai pentito (ma io gioco a 1920x1440).
Quando faccio l'upgrade il mese prossimo, è certo che non me ne prendo uno con meno memoria :-)

halduemilauno
26-09-2008, 17:50
dipende dalle esigenze degli utenti? no?
se uno gioca a 1600x1200 dubito che noterà benifici da 512MB a 1GB, diverso il discorso a risoluzioni molto alte.

mai visto uno che a 1600x1200 consigliava un giga di ram. si è sempre parlato di 1920x1200 e oltre.

yossarian
26-09-2008, 17:51
Scusa yossarian, io vorrei capirci qualcosa di più, tu, post dopo post stai elencando i vantaggi dell'architettura e delle soluzioni scelte da Ati, "smontando" diciamo così, pezzo per pezzo l'archirtettura Nvidia e le rispettive soluzioni.



mi limito a rispondere, in stile chat (queste non sono discussioni degne di un forum tecnico), a chi fa l'esatto opposto, minimizzando i vantaggi dell'architettura ATi (non dà nessun vantaggio, questa feature è equivalente a quell'altra, ecc), esaltando quella nVIDIA (a volte anche a sproposito).



Io vorrei chiederti, ma in ottica dei giochi attuali e futuri, in tempi nell'ordine di 1-2 anni, che vantaggi avrebbe un utente che sceglie Ati attualmente, che, a conti fatti poi non sembrano dare vantaggi tangibili rispetto a Nvidia a parte l'uso attuale dell' A.A. a 8x, insomma le dx 10.1 credi verranno sfruttate in tempi decenti o parliamo di tempi che superano i 2 anni, se non mai, vista l'imminenza delle dx11, perchè a quel punto non so quanto senso abbiano tutte ste crociate, da qui a 1-2 anni per non dire 6-8 mesi la situazione potrebbe variare molto e non è che gli sviluppatori vadano sempre dietro le migliori soluzioni o vogliamo dimenticarci la pioneristica 2900xt di Ati?


il vantaggio con il MSAA 8x è dovuto al fatto che le rop's di RV770 hanno il doppio delle unità di blending rispetto a quelle di GT200 e, di conseguenza, all'aumentare del numero di sample, le prestazioni si degradano in misura molto minore.
Per quanto riguarda le dx10.1, si commettono una serie di errori di valutazione. Il più grosso è quello di pensare che saranno saltate a piè pari e che le dx11 le renderanno inutili. Le dx11 sono un'evoluzione delle 10.1 e sono del tutto compatibili con quello che queste introducono.
Il secondo è quello di pensare che è necessaria l'adozione delle dx10.1 per iniziare a vedere risultati tangibili. In un engine che fa uso di deferred rendering (tipo quello di stalker, o di AC o l'UE3), con path dx9 è impossibile applicare il MSAA (la soluzione adottata è una forma di blending che simula un MSAA 2x e un'illuminazione di tipo statico); con path dx10 si fa render to texture per poter riutilizzare i dati dello z-buffer dopo aver applicato il MSAA. Con path dx10.1 è sufficiente abilitare il multi render target per poter far uso di MSAA e deferred shading, con prestazioni aumentate del 25% circa rispetto alla path dx10. Per fare ciò è sufficiente una patch e non l'adozione della nuova versione delle API. Questo è uno dei vantaggi. Un altro è l'adozione di AA di tipo custom che trasformerebbero quello che attualmente è il maggior svantaggio dell'architettura ATi (la minor efficienza dello shader core) in un vantaggio, poichè si avrebbero più istruzioni relative ad uno stesso thread e aumenterebbe il numero di alu non in idle durante l'elaborazione. Paradossalmente, vantaggi analoghi li porterebbe l'adozione della fisica sulle gpu. Una gpu che ha un'efficienza molto elevata, come gt200 o g8x/g9x, deve, epr forza di cose, stornare alcune delle unità di calcolo adesso destinate ad elaborazioni grafiche per i calcoli fisici; una gpu come rv770, che ha delle alu su cui girano delle nops in ogni ciclo, può utilizzarle per i calcoli fisici. Di conseguenza, la perdita prestazionale risulterebbe minore.



Anche allora mi pare si sbandieravano ai 4 venti all'esordio vantaggi di fatto, che poi sono rimasti ignorati a livello pratico......
Per non rilevare il fatto che Nvidia non è mica un'azienda che non innova nel tempo o sbaglio?


dipende: non ha mai adottato lo sm1.4; è arrivata in ritardo con lo sm2.0; è arrivata prima con lo sm3.0 3 con lo sm4 (e comunque il primo chip a shader unificati è R500), ma è ferma lì da due anni (anche se la cosa è comprensibile, perchè l'adozione delle dx10.1 comporterebbe la rivoluzione dell'architettura e, a questo punto, non vale la pena farlo, ma conviene aspettare le dx11). Ha un MC che non modifica in maniera sostanziale da quello di NV20 (che fu, invece, un'innovazione). E' stata per lungo tempo ancorata all'architettura full vect delle alu che ha dovuto modificare in maniera sostanziale con NV40 (alu scalari che si ritrovano anche in G80, in cui, in più, c'è l'autobilanciamento dei carichi di lavoro). E' arrivata seconda nel gpu computing (ATi lo sta sviluppando dalla serie R5x0)



E quanto peso ha Nvidia nella scelta delle soluzioni che poi contano davvero?

nella situazione attuale, con l'arrivo di Intel nella competizione, molto meno che in passato

yossarian
26-09-2008, 17:53
Aspè, aspè, questa è bellissima. Io ti parlo di crash con le attuali ATI, e di strane linee di codice nei driver che distruggono le performance con applicativi tipo "FurMark" (per oscure ragioni) e tu mi controbatti con problemi inerenti schede video di 5 anni fa?
Cioè 5 anni fa la gente faceva le penne con i motorini e le caldarroste sopra i Barton.
Poi magari io ti controbatto con i problemi di cheating su 3DMark03 e 3DMark01 delle ATI Radeon (che erano uguali se non peggiori? http://www.digit-life.com/articles2/antidetect/index.html )
E poi se ne esce qualcuno a cantare Piccola Katy dei Pooh con i pantaloni a zampa di elefante.
Facciamo i seri, please.

quello è stato solo il caso più eclatante; pensi che sia una pratica in disuso?

appleroof
26-09-2008, 17:54
No, ti sbagli su Ati possono tornare utili, su Nvidia non servono, quelli di nvidia sono brutti, sporchi e cattivi......:D
Tantè che adesso i 128mb di ram in più della Ati 4870 versione 1gb rispetto alla gtx260, misteriosamente sono diventati utili......misteri.

:asd: :asd:

dipende dalle esigenze degli utenti? no?
se uno gioca a 1600x1200 dubito che noterà benifici da 512MB a 1GB, diverso il discorso a risoluzioni molto alte.

era un ironico riferimento a quanto affermano che "i 512mb di ram delle 4000 siano uguali ai 1000mb di Nvidia"...capisci che le cose vengono spesso usate a seconda del proprio scopo...:asd:

tanto per dire, sostengo sin dalla prima gtx260 che le schede in sostanza si equivalgono: prima la gtx260 era un pelo sotto alla 4870, adesso è un pelo sopra (cosa che fà più onore ai progettisti Nvidia, obiettivamente, dove quelli Ati hanno dovuto mettere mano molto più pesantemente al progetto originario, visto che le attuali vga sono rispettivamente evoluzioni dirette di g80/r600 -questo tanto per parlare di capacità tecnologica, e non tiratemi in ballo la storia dei giochi non adatti che non regge :D -)




"Le schermate del D3D AF Tester mostrano chiaramente come le due soluzioni concorrenti di ATI e NVIDIA riescano a generare un livello qualitativo pressoché identico tra di loro, ben lontano da quanto eravamo abituati a vedere sia con le schede Radeon X 1000 che con quelle NVIDIA serie GeForce 7000."

Dalla rece hwupgrade linkata da Mikelezz :asd:

Ha ragione yoss l'AF nvidia non è affatto migliore di quello ATI.. non ha detto che è uguale
- perchè a conti fatti tra AA e AF deriva che la qualità di immagine delle ati serie 4000 è migliore di quella nvidia..
- perchè qualcuno ha detto che l'AF di ati non è migliore di quello nvidia

azz e mo chi glielo dice ai "complottisti"? :D :D

halduemilauno
26-09-2008, 17:56
qualcuno basava la scelta della sua GTX260 proprio della ram in più, ora che si è visto che esistono pure le Ati hd4870 con giga di ram, la scelta non si deve anche basare su quella?

il discorso vale se si parla di Nvidia e non vale se si parla di Ati?
io dico che vale per entrambe, tu hai preso una gtx260 anche per la Ram o sbaglio?

però quando io consigliavo la gtx260 proprio in virtù della sua ram superiore mi si faceva presente la questione prezzo. ora i 20€ in + per la gtx valgono e i 40€ in + della 4870 da un giga non valgono?
e ora che la gtx260 216 costa nonostante tutto lo stesso sempre meno della 4870 da un giga e la differenza prestazionale comincia a farsi sentire?????

lzeppelin
26-09-2008, 18:02
sono anni che sono qui nel forum, come mio fratello, e davvero non ci sarò mai pace in queste discussioni...
spero almeno che queste schede alla fine vengano usate per giocare e non solo per fare test

gianni1879
26-09-2008, 18:02
era un ironico riferimento a quanto affermano che "i 512mb di ram delle 4000 siano uguali ai 1000mb di Nvidia"...capisci che le cose vengono spesso usate a seconda del proprio scopo...:asd:

tanto per dire, sostengo sin dalla prima gtx260 che le schede in sostanza si equivalgono: prima la gtx260 era un pelo sotto alla 4870, adesso è un pelo sopra (cosa che fà più onore ai progettisti Nvidia, obiettivamente, dove quelli Ati hanno dovuto mettere mano molto più pesantemente al progetto originario, visto che le attuali vga sono rispettivamente evoluzioni dirette di g80/r600 -questo tanto per parlare di capacità tecnologica, e non tiratemi in ballo la storia dei giochi non adatti che non regge :D -)




che le vga si equivalgono e che la scelta è sempre stata personale l'ho sempre detto pure io, prima era anche un discorso di convenienza economica della ati, adesso le cose si equivalgono pure in questo.

Rv770 è un'evoluzione come tu stesso dici "pesante" di rv670 nessuno ha mai detto il contrario ;)

Mister Tarpone
26-09-2008, 18:06
era un ironico riferimento a quanto affermano che "i 512mb di ram delle 4000 siano uguali ai 1000mb di Nvidia"...capisci che le cose vengono spesso usate a seconda del proprio scopo...:asd:

tanto per dire, sostengo sin dalla prima gtx260 che le schede in sostanza si equivalgono: prima la gtx260 era un pelo sotto alla 4870, adesso è un pelo sopra (cosa che fà più onore ai progettisti Nvidia, obiettivamente, dove quelli Ati hanno dovuto mettere mano molto più pesantemente al progetto originario, visto che le attuali vga sono rispettivamente evoluzioni dirette di g80/r600 -questo tanto per parlare di capacità tecnologica, e non tiratemi in ballo la storia dei giochi non adatti che non regge :D -)


quotone !! !!!

gianni1879
26-09-2008, 18:06
però quando io consigliavo la gtx260 proprio in virtù della sua ram superiore mi si faceva presente la questione prezzo. ora i 20€ in + per la gtx valgono e i 40€ in + della 4870 da un giga non valgono?
e ora che la gtx260 216 costa nonostante tutto lo stesso sempre meno della 4870 da un giga e la differenza prestazionale comincia a farsi sentire?????

Io non vedo sti 40€ in più della versione da un giga della Ati rispetto alla gtx260:
http://www.trovaprezzi.it/categoria.aspx?libera=gtx260&id=28&prezzoMin=&prezzoMax=&sbox=sb il prezzo più basso con disponibilità immediata é 240€

http://www.trovaprezzi.it/categoria.aspx?libera=4870+1gb&id=28&prezzoMin=&prezzoMax=&sbox=sb
255€ per la versione da un giga della hd4870

appleroof
26-09-2008, 18:09
sono anni che sono qui nel forum, come mio fratello, e davvero non ci sarò mai pace in queste discussioni...
spero almeno che queste schede alla fine vengano usate per giocare e non solo per fare test

quoto...;)

che le vga si equivalgono e che la scelta è sempre stata personale l'ho sempre detto pure io, prima era anche un discorso di convenienza economica della ati, adesso le cose si equivalgono pure in questo.

amen ;)


Rv770 è un'evoluzione come tu stesso dici "pesante" di rv670 nessuno ha mai detto il contrario ;)

esatto, proprio per questo però rappresenta una contraddizione dire (non tu nello specifico) che quelle Ati siano più tecnologicamente avanzate...è l'esatto opposto ed hanno dovuto rincorrere per quasi un anno e mezzo, e adesso che ci sono arrivano le dx11 e la "battaglia" si sposta là :doh: (con anche Intel a buttarcisi....)

Mparlav
26-09-2008, 18:12
E ti dirò una cosa: io spero vivamente che Intel Larrabee sia un flop colossale, soprattutto a livello di driver, perchè se malauguratamente "c'azzeccano" col loro progetto, è davvero finita per Intel ed Amd.

halduemilauno
26-09-2008, 18:14
Io non vedo sti 40€ in più della versione da un giga della Ati rispetto alla gtx260:
http://www.trovaprezzi.it/categoria.aspx?libera=gtx260&id=28&prezzoMin=&prezzoMax=&sbox=sb il prezzo più basso con disponibilità immediata é 240€

http://www.trovaprezzi.it/categoria.aspx?libera=4870+1gb&id=28&prezzoMin=&prezzoMax=&sbox=sb
255€ per la versione da un giga della hd4870

allora mettiamola cosi quando ci sono 20€ in + per 384 mega di ram in + gli € in + contano tantissimo e la ram in + niente o poco. quando i 20€ sono in + per 128 mega di ram i 20€ in + non contano nulla ma in compenso i 128 mega di ram in + contano tantissimo.
che vi inventate contro la gtx260 216 a 249€?

gianni1879
26-09-2008, 18:15
quoto...;)



amen ;)




esatto, proprio per questo però rappresenta una contraddizione dire (non tu nello specifico) che quelle Ati siano più tecnologicamente avanzate...è l'esatto opposto ed hanno dovuto rincorrere per quasi un anno e mezzo, e adesso che ci sono arrivano le dx11 e la "battaglia" si sposta là :doh: (con anche Intel a buttarcisi....)
vabbè è grazie a questa battaglia che ci sono vga tra i 100 e 200 euro che sono mostriciattoli ;)

gianni1879
26-09-2008, 18:16
E ti dirò una cosa: io spero vivamente che Intel Larrabee sia un flop colossale, soprattutto a livello di driver, perchè se malauguratamente "c'azzeccano" col loro progetto, è davvero finita per Intel ed Amd.

purtroppo hai ragione....

appleroof
26-09-2008, 18:17
E ti dirò una cosa: io spero vivamente che Intel Larrabee sia un flop colossale, soprattutto a livello di driver, perchè se malauguratamente "c'azzeccano" col loro progetto, è davvero finita per Intel ed Amd.

in giro per la rete leggo solo "scetticismo" per ora...tocca aspettare per capire se è sottovalutazione o no...di certo in qualche modo rappresenta una scossa al mercato, ed in genere queste cose fanno sempre bene alla fine...

cmq se ne parla qui:

http://www.hwupgrade.it/forum/showthread.php?t=1388472

JohnPetrucci
26-09-2008, 18:23
qualcuno basava la scelta della sua GTX260 proprio della ram in più, ora che si è visto che esistono pure le Ati hd4870 con giga di ram, la scelta non si deve anche basare su quella?

il discorso vale se si parla di Nvidia e non vale se si parla di Ati?
io dico che vale per entrambe, tu hai preso una gtx260 anche per la Ram o sbaglio?
Esattamente e sono più volte stato sbeffeggiato dai fanatici della 4870 a 512mb, manco fosse un difetto!:rolleyes:

JohnPetrucci
26-09-2008, 18:30
mi limito a rispondere, in stile chat (queste non sono discussioni degne di un forum tecnico), a chi fa l'esatto opposto, minimizzando i vantaggi dell'architettura ATi (non dà nessun vantaggio, questa feature è equivalente a quell'altra, ecc), esaltando quella nVIDIA (a volte anche a sproposito).



il vantaggio con il MSAA 8x è dovuto al fatto che le rop's di RV770 hanno il doppio delle unità di blending rispetto a quelle di GT200 e, di conseguenza, all'aumentare del numero di sample, le prestazioni si degradano in misura molto minore.
Per quanto riguarda le dx10.1, si commettono una serie di errori di valutazione. Il più grosso è quello di pensare che saranno saltate a piè pari e che le dx11 le renderanno inutili. Le dx11 sono un'evoluzione delle 10.1 e sono del tutto compatibili con quello che queste introducono.
Il secondo è quello di pensare che è necessaria l'adozione delle dx10.1 per iniziare a vedere risultati tangibili. In un engine che fa uso di deferred rendering (tipo quello di stalker, o di AC o l'UE3), con path dx9 è impossibile applicare il MSAA (la soluzione adottata è una forma di blending che simula un MSAA 2x e un'illuminazione di tipo statico); con path dx10 si fa render to texture per poter riutilizzare i dati dello z-buffer dopo aver applicato il MSAA. Con path dx10.1 è sufficiente abilitare il multi render target per poter far uso di MSAA e deferred shading, con prestazioni aumentate del 25% circa rispetto alla path dx10. Per fare ciò è sufficiente una patch e non l'adozione della nuova versione delle API. Questo è uno dei vantaggi. Un altro è l'adozione di AA di tipo custom che trasformerebbero quello che attualmente è il maggior svantaggio dell'architettura ATi (la minor efficienza dello shader core) in un vantaggio, poichè si avrebbero più istruzioni relative ad uno stesso thread e aumenterebbe il numero di alu non in idle durante l'elaborazione. Paradossalmente, vantaggi analoghi li porterebbe l'adozione della fisica sulle gpu. Una gpu che ha un'efficienza molto elevata, come gt200 o g8x/g9x, deve, epr forza di cose, stornare alcune delle unità di calcolo adesso destinate ad elaborazioni grafiche per i calcoli fisici; una gpu come rv770, che ha delle alu su cui girano delle nops in ogni ciclo, può utilizzarle per i calcoli fisici. Di conseguenza, la perdita prestazionale risulterebbe minore.



dipende: non ha mai adottato lo sm1.4; è arrivata in ritardo con lo sm2.0; è arrivata prima con lo sm3.0 3 con lo sm4 (e comunque il primo chip a shader unificati è R500), ma è ferma lì da due anni (anche se la cosa è comprensibile, perchè l'adozione delle dx10.1 comporterebbe la rivoluzione dell'architettura e, a questo punto, non vale la pena farlo, ma conviene aspettare le dx11). Ha un MC che non modifica in maniera sostanziale da quello di NV20 (che fu, invece, un'innovazione). E' stata per lungo tempo ancorata all'architettura full vect delle alu che ha dovuto modificare in maniera sostanziale con NV40 (alu scalari che si ritrovano anche in G80, in cui, in più, c'è l'autobilanciamento dei carichi di lavoro). E' arrivata seconda nel gpu computing (ATi lo sta sviluppando dalla serie R5x0)




nella situazione attuale, con l'arrivo di Intel nella competizione, molto meno che in passato
Thanks per la spiegazione esaustiva, a volte si riesce a dialogare civilmente su questo forum.:)

Severnaya
26-09-2008, 18:41
bhe come sempre nn ti regala niente nessuno, i prezzi sono proporzionati alle prestazioni


il fattodi prendere una o l'altra scheda a distanza di anni è indifferente, tanto gli fps calano col passare del tempo (leggasi giochi nuovi :asd:)


ma alla fine a che conclusione siete giunti?


ma sopratutto xkè vedo € al posto del simbolo dell'euro?!

uso firefox 3.0.2

Mparlav
26-09-2008, 18:42
x appleroof: in genere si, un terzo incomodo non guasterebbe, ma qui parliamo d'Intel che già riesce ad essere il primo produttore di schede video, pur facendo solo integrati. E' troppo grosso per i 2 concorrenti.
Se riesce a fare una scheda video discrete che funziona davvero, dove andrà a finire la concorrenza di oggi?
Sta' investendo qualche miliardo di $ nel progetto Larrabee, e questo non mi fa' essere affatto ottimista per il futuro :-/

Godiamoci Ati ed Nvidia finchè ci sono.

Wolfhang
26-09-2008, 19:01
Io non vedo sti 40€ in più della versione da un giga della Ati rispetto alla gtx260:
http://www.trovaprezzi.it/categoria.aspx?libera=gtx260&id=28&prezzoMin=&prezzoMax=&sbox=sb il prezzo più basso con disponibilità immediata é 240€

http://www.trovaprezzi.it/categoria.aspx?libera=4870+1gb&id=28&prezzoMin=&prezzoMax=&sbox=sb
255€ per la versione da un giga della hd4870

...in un noto sito online è disponibilissima a 228€ e ti danno anche assassin creed...ti basta??

JohnPetrucci
26-09-2008, 19:59
x appleroof: in genere si, un terzo incomodo non guasterebbe, ma qui parliamo d'Intel che già riesce ad essere il primo produttore di schede video, pur facendo solo integrati. E' troppo grosso per i 2 concorrenti.
Se riesce a fare una scheda video discrete che funziona davvero, dove andrà a finire la concorrenza di oggi?
Sta' investendo qualche miliardo di $ nel progetto Larrabee, e questo non mi fa' essere affatto ottimista per il futuro :-/

Godiamoci Ati ed Nvidia finchè ci sono.
Ci hanno provato Matrox, Vodoo, STMicroelectronics a produrre vga per gaming e per periodi più o meno importanti ci sono anche riuscite.
Oggi con il livello tecnologico raggiunto da Ati e Nvidia dubito che Intel possa competere sul fronte delle vga discrete, medie o high-end, cioè per gaming e workstation nel medio-breve periodo.
Parliamoci chiaro, se Amd avesse avuto la capacità di imbarcarsi da zero in questo settore, non avrebbe comprato Ati.
Certo, Intel parte avvantaggiata essendo produttore di vga integrate, ma ne passerà acqua sotto i ponti prima di competere nel settore in cui Ati e Nvidia la fanno da padrone, anche se poi globalmente Intel ha il tasso percentuale più importante di vga vendute, qua parliamo di schede più o meno serie.

yossarian
26-09-2008, 20:03
Eccola là. E' andata. Niente conversazione costruttiva.
Test del AF:
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_10.html
Non mi pare proprio, è dai tempi di G70 che l'AA NVIDIA è pari a quello ATI (a meno che non mi valuti il QxS, ma sarebbe errato), e comunque quantomeno fornisci un link.


test dell'antialising

http://enthusiast.hardocp.com/article.html?art=MTUzMiw0LCxoZW50aHVzaWFzdA==


Il bug attuale è questo: http://www.hardware.fr/news/lire/19-09-2008/ , così puoi divertirti ad aggiungerlo al tuo repertorio.

ma che guaio; è solo un bug qualitativo :D . Il che significa che una volta sistemato (ammesso che lo sia), le prestazioni non aumenteranno :D



Cos'è, una battuta? I tent (=custom di cui parli) sono i filtri più brutti che abbia mai visto implementati nelle schede video, e servivano solo per cercare di aumentare la velocità delle HD2900, in quanto handicappate sotto questo aspetto. Fortunatamente ATI si è ravveduta, e i custom sono rimasti giusto per folklore (perchè anche l'impostazione migliore, narrow con edge, non è paragonabile al MSAA).


un consiglio: studia gli algoritmi di AA sia box filter che non. Da come parli si vede che non ne capisci molto. Prova anche ad entrare nell'ottica che non esistono solo algoritmi di interpolazione lineare (stiamo andando sul difficile? :D ) e prova a chiederti cosa si può implementare via rop's e cosa no. Se fossi stato un po' meno arrogante avrei perso tempo a spiegartelo. Magari un po' di erudizione in materiati farebbe arrivare alla conclusione che i tent non sono algoritmi di tipo custom e che non hanno niente a che vedere con algoritmi di grado superiore al primo e, infine, che ne esistono di diversi tipi con livelli qualitativi differenti




Di cosa blateri? A parte che CUDA, per quello che mi viene in tasca, potrebbe esser anche un panino al prosciutto (anche se in realtà è semplicemente un ambiente C+). L'affermazione che ATI non ne abbia bisogno, mentre NVIDIA sì, fa ridere i mammiferi; perchè mai?




da come ne parli, effettivamente inizio a pensare che lo ritieni, all'incirca, delle dimensioni e del sapore di un panino al prosciutto :D


[QUOTE=MiKeLezZ;24299627]

Poi mi tiri fuori FP64? Che non serve ad una mazza astroungarica?

anche qui dimostri scarsa conoscenza pari solo alla prosopopea con cui ti esprimi: ti sfugge che fp64 è un requisito fondamentale per il gpgpu :read:



Ti dice niente che fai prima a trasportare 100kg di arena con un camion piuttosto che con 5 apette?
E comunque siamo sempre lì con il conto, che i valori di ATI sono solo teorici, perchè per sfruttare le 5 apette serve materiale che si possa facilmente dividere (come l'arena), ma se dobbiamo lavorare con 10 travi di acciaio, il camion le trasporta tutte in una volta, mentre le apette devono mettersi assieme, e ne portano 1 ogni due


mai paragone fu più sbagliato:D ; un'alu di GT200 è tutt'altro che un camion rispetto ad una minialu di RV770. Una è capace di 3 flops, l'altra di 2; ma dell'altra, in ogni alu ce ne sono 5 (ossia 10 operazioni in parallelo contro 2+1 in serie). Chi è il camion? :D




La VLIW è un bagno di sangue da programmare, perchè devi sempre trovare il modo di sfruttare tutte e 5 le apette.


continui a parlare per frasi fatte e per sentito dire. Hai fatto un'affermazione precisa, ossia che un'architettura vliw è peggio di una vect5. Documentala con i fatti, spiegando vantaggi e svantaggi dell'una e dell'altra. Poi ne riparliamo.





Nella vita non esiste come unico parametro il "numero di crash con Vista", sai. XP? Linux? Giochi? Applicativi? Vedi un po' te.


infatti si è parlato anche di crash con xp, con linux, giochi, etc. E non mi pare che le cose cambino (ambiente windows non significa applicazioni desktop di vista)




E quindi cosa? Se compri una VGA NVIDIA hai PHYSX, se compri una VGA ATI non hai una mazza.

se compri una vga nvidia non hai una mazza allo stesso modo; physx è stato implementato, finora, in pochissimi titoli e solo a livello di techdemo, in situazioni "semplici" dal punto di vista della gestione del 3D.



Devi sperare che INTEL faccia il porting per l'architettura AMD. Fantascienza. LOL. Potevi saltarlo questo pezzo, va.

e tu devi sperare che non lo faccia :D


Pensa che ieri ho visto una CPU nuda e mi si è rizzato il pene ... ma cosa mi stai a raccontare, se voglio tali nozioni mi scarico il SDK, sai.
Dimmi qualcosa di concreto.


si, come no, un sdk :Prrr: . Continua a masturbarti con le gpu nude, quelle con i die belli grossi :D



Funzionano bene con tutto e senza tante segate.


vedi sopra :D


Gli utilizzatori sono anche più discreti e simpatici.

ne abbiamo un esemplare? :D

yossarian
26-09-2008, 20:04
Thanks per la spiegazione esaustiva, a volte si riesce a dialogare civilmente su questo forum.:)

con le persone civili si :)

Futura12
26-09-2008, 20:11
...in un noto sito online è disponibilissima a 228€ e ti danno anche assassin creed...ti basta??

e aggiungo che ho trovato in un noto sito la 260GTX 216SP a 249€ ora come la mettiamo?

Bhairava
26-09-2008, 20:16
con le persone civili si :)

Complimenti, ho sempre un sacco di cosa da imparare dai tuoi post ultratecnici. :)

killer978
26-09-2008, 20:26
C'è gente che parla senza cognizione di causa, sento dire che i filtri custom delle schede ATI non servono a nulla oppure che fanno pena, da persone che magari hanno una 7300 nel case :asd: provate prima di parlare, come si può dire che i driver ATI o Nvidia fanno schifo se non si provano certe VGA con i giochi, non si può andare avanti sempre x sentito dire!!!

Intanto ringrazio ATI che con 128€ mi ha fatto un bel regalo :asd: c'è gente che una settimana prima di me ha comprato delle 9800 a 320€ :asd:

yossarian
26-09-2008, 20:27
Complimenti, ho sempre un sacco di cosa da imparare dai tuoi post ultratecnici. :)

ti ringrazio, anche se non sono post ultratecnici; anzi non li reputo neppure tecnici, a dire la verità. Ho quasi l'impressione di essere in chat :D

Bhairava
26-09-2008, 20:31
ti ringrazio, anche se non sono post ultratecnici; anzi non li reputo neppure tecnici, a dire la verità. Ho quasi l'impressione di essere in chat :D

Vabbè, immagino che tu possa fare anche molto meglio, ma rispetto alla media di questo forum (fatto di fanboy e non di persone che hanno voglia di imparare) i tuoi post sono ultratecnici.

killer978
26-09-2008, 20:31
ti ringrazio, anche se non sono post ultratecnici; anzi non li reputo neppure tecnici, a dire la verità. Ho quasi l'impressione di essere in chat :D

A volte sarebbe meglio non rispondere a delle provocazioni ;) c'è gente che pur di dire qualcosa parla a sproposito :asd:

cmq anche a me fa piacere leggere i tuoi post :D peccato che siete rimasti in pochi a conoscere davvero come son fatte le VGA ;) la gente si allontana quando viene provocata da persone incompetenti ed arroganti ;)

Bhairava
26-09-2008, 20:33
A volte sarebbe meglio non rispondere a delle provocazioni ;) c'è gente che pur di dire qualcosa parla a sproposito :asd:

cmq anche a me fa piacere leggere i tuoi post :D peccato che siete rimasti in pochi a conoscere davvero come son fatte le VGA ;) la gente si allontana quando viene provocata da persone incompetenti ed arroganti ;)

Già, la maggior parte delle persone veramente competenti non scrivono più su questo forum, allontanate dalla stupidità del fanboysmo. :(

gianni1879
26-09-2008, 20:41
...in un noto sito online è disponibilissima a 228€ e ti danno anche assassin creed...ti basta??

nel negozio sotto casa costa pure di meno, parlavo di medie sui motori di ricerca se poi il singolo negozio la regala sono altri discorsi.

Nello stesso negozio la HD4870 overcloccata costa 200€ ti basta?
ATI HD4870 Powercolor 512MB PCS+ PCI-E,2xD,T,A con dissipatore Custom e frequenze maggiorate Engine Clock: 800MHz, Memory Clock: 950MHz

gianni1879
26-09-2008, 20:43
Già, la maggior parte delle persone veramente competenti non scrivono più su questo forum, allontanate dalla stupidità del fanboysmo. :(

effettivamente le persone preparate si contano su una punta di dita ormai... molti sono su altri lidi... chissà come mai

ninja750
26-09-2008, 21:05
Qui c'è chi continua a dare del fanboy e del complottista a destra e sinistra, a linkare prezzi su prezzi, a parlare di quale scheda faccia o meno il caffè, ma nessuno che voglia rispondere a chi fa notare che la 4870 ha perso fps rispetto a sé stessa, e non solo rispetto alle 260.
Ignorando i vari banner ZOTAC presenti sul sito e il fatto che la stessa immagine della stessa scheda ZOTAC sia stata usata addirittura per la news dei nuovi driver NVIDIA, al posto del logo NVIDIA.
Ignorando che quelli dello staff non sono scemi, e non fanno i test superficialmente, lo han dimostrato pochi giorni fa con gli SSD Intel. Mentre con la 4870 non hanno trovato strana una riduzione ingiustificata delle prestazioni. Gli utenti l'hanno notata, invece. E per questo sono complottisti e/o fanboy.
Ma io sono un fanboy ATI, ovviamente. Perché non uso il pc per giocare, e dopo 4 GeForce ho preso una Radeon perché era l'unica che avevano in negozio con dissipatore passivo. Più fanboy ATI di me non c'è nessuno.
Già, maledetti fanboy ATI, Rossi e quindi Comunisti e Complottisti.
Certo che in oltre 130 commenti, neanche uno dallo staff. Non ci fanno una bella figura.
Io mi chiedo se certi individui si rendano o meno conto di quanto sono ridicoli nel dare del fanboy ATI addirittura ha chi ha le NVIDIA nelle configurazioni in firma.

*

appleroof
26-09-2008, 21:13
Già, la maggior parte delle persone veramente competenti non scrivono più su questo forum, allontanate dalla stupidità del fanboysmo. :(

come non quotare...:rolleyes:

cut
si, come no, un sdk :Prrr: . Continua a masturbarti con le gpu nude, quelle con i die belli grossi :D

yossaran mi stupisci :eek:

cmq anche tu mi hai fatto sbellicare :asd: :asd: :asd:

cut

ne abbiamo un esemplare? :D

tu mi stai simpatico, io a te no? :sob:

MiKeLezZ
26-09-2008, 21:26
test dell'antialising

http://enthusiast.hardocp.com/article.html?art=MTUzMiw0LCxoZW50aHVzaWFzdA==Azz, che link ragazzi... che link!!!

We can’t see any difference between 2X and 4X AA in normal view.

In Crysis, we really can’t see any differences in AA image quality at 2X or 4X.

(NVIDIA's) 8xQ MSAA matches up perfectly with ATI’s 8X MSAA.

When we look at NVIDIA’s regular MSAA modes, 2X, 4X and 8xQ AA we generally find image quality to be similar between AMD and NVIDIA.

When we bumped AA up a notch and looked at AMD’s 8X MSAA compared to NVIDIA’s 8xQ MSAA we also saw equivalent image quality between these two modes.

We are simply hard-pressed to call one’s AA better than the other’s at 2X, 4X, and 8X/8xQ

for scaling up to 12X CFAA and 24X CFAA we had to lower the resolution even further to 1280x1024.


Che differenze!!! Mamma mia. Guarda dopo aver visto cotali differenze (perdipiù zoomate a 200x) penso correrò a comprare 18 HD4870 da tenere sulla scrivania come reliquie...

...no.
Già, la maggior parte delle persone veramente competenti non scrivono più su questo forum, allontanate dalla stupidità del fanboysmo. :(Le persone veramente competenti fanno di meglio nella vita. Il sign Vifani ha fatto carriera, ahinoi.
Qua spesso sembra di vedere discutere Fracchia contro Pinotto

Wolfhang
26-09-2008, 21:34
nel negozio sotto casa costa pure di meno, parlavo di medie sui motori di ricerca se poi il singolo negozio la regala sono altri discorsi.

Nello stesso negozio la HD4870 overcloccata costa 200€ ti basta?
ATI HD4870 Powercolor 512MB PCS+ PCI-E,2xD,T,A con dissipatore Custom e frequenze maggiorate Engine Clock: 800MHz, Memory Clock: 950MHz

allora mettiamo i puntini sulle i:
devo cambiare scheda e la mia scelta si era ristretta tra la 4870 e la gtx260, addocchio la 4870PCS a 200€ e chiedo nel thred specifico silenziosità ed efficenza di questo dissipatore dedicato, mi viene risposto che è rumoroso anche alla minima velocità (cerca su youtube le sinfonie relative) e mi viene consigliato di eliminare la ventola originale e di piazzargli sopra due ventole da 12 cm :eek: o sostituirlo con uno più performante :eek: cominciamo bene dico io, compro una scheda con dissipatore dedicato e va peggio di quello standard, allora inizio a leggere qualche pagino e scopro che alcune 4870 si sono arrostite a default testandole con furmark :eek: sbattimenti vari per cercare il sistema per dissiparle meglio, un sistema raffredda bene la gpu ma non le ram, l'altro raffredda anche le ram ma non il vrm e via discorrendo (andare a leggere per credere) lo stesso utente che mi aveva risposto a riguardo della 4870PCS dopo aver sostituito il super dissi si ritrova con una scheda da mandare in rma, morale della favola: tenetevi ben stretta la vostra 4870 che io mi prendo una più efficiente GTX260, la monto così com'è e non ci penso più....

SingWolf
26-09-2008, 22:24
si, come no, un sdk :Prrr: . Continua a masturbarti con le gpu nude, quelle con i die belli grossi :D


:rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

Defragg
26-09-2008, 23:19
Eccola là. E' andata. Niente conversazione costruttiva.

...cut...

Pensa che ieri ho visto una CPU nuda e mi si è rizzato il pene ... ma cosa mi stai a raccontare, se voglio tali nozioni mi scarico il SDK, sai.
Dimmi qualcosa di concreto.
Funzionano bene con tutto e senza tante segate.
Gli utilizzatori sono anche più discreti e simpatici.

Lungi da me dal discutere dei tuoi gusti sessuali, ma questo non mi pare proprio l'atteggiamento di chi vuole avere una conversazione costruttiva, anzi. ;)

gianni1879
26-09-2008, 23:29
allora mettiamo i puntini sulle i:
devo cambiare scheda e la mia scelta si era ristretta tra la 4870 e la gtx260, addocchio la 4870PCS a 200€ e chiedo nel thred specifico silenziosità ed efficenza di questo dissipatore dedicato, mi viene risposto che è rumoroso anche alla minima velocità (cerca su youtube le sinfonie relative) e mi viene consigliato di eliminare la ventola originale e di piazzargli sopra due ventole da 12 cm :eek: o sostituirlo con uno più performante :eek: cominciamo bene dico io, compro una scheda con dissipatore dedicato e va peggio di quello standard, allora inizio a leggere qualche pagino e scopro che alcune 4870 si sono arrostite a default testandole con furmark :eek: sbattimenti vari per cercare il sistema per dissiparle meglio, un sistema raffredda bene la gpu ma non le ram, l'altro raffredda anche le ram ma non il vrm e via discorrendo (andare a leggere per credere) lo stesso utente che mi aveva risposto a riguardo della 4870PCS dopo aver sostituito il super dissi si ritrova con una scheda da mandare in rma, morale della favola: tenetevi ben stretta la vostra 4870 che io mi prendo una più efficiente GTX260, la monto così com'è e non ci penso più....
tutti questi sbattimenti li so, ma trattano persone che hanno voluto sostituire il dissy originale con uno diverso, non curando la dissipazione dei mos-fet, morale l'alimentazione ha ceduto e la vga non partiva più.
La pcs che tu mensioni è rumorosa secondo alcuni, il rumore come sempre va personale, e le temp in ogni caso erano inferiori rispetto allo stock, se poi uno smonta il dissy e combina casini non penso Ati centra molto, dato che tutte le hd4870 con dissy reference non hanno avuto problemi.

detto questo uno sceglie ciò che piace, hai scelto la gtx buon per te, nessuno sta criticando, ma nemmeno criticare chi sceglie Ati, e non facciamo disinformazione.

SingWolf
26-09-2008, 23:39
io con la mia X2 non ho problemi di temperature figuriamoci con quella singola...

46° e 39° in idle e ventola a 34%!!!! la 4870 starà a 35°.... ;)

MiKeLezZ
27-09-2008, 00:26
Lungi da me dal discutere dei tuoi gusti sessuali, ma questo non mi pare proprio l'atteggiamento di chi vuole avere una conversazione costruttiva, anzi. ;)azz, se non si può più scherzare diventa pesa la situescion, con fuoco incrociato dai due schieramenti ...
e già l'argomento trattato non mi pare dei più seri ("la mia schedina fa 0,2FPS più della tua gneg negne") ...
ciap

yossarian
27-09-2008, 00:52
come non quotare...:rolleyes:



yossaran mi stupisci :eek:

cmq anche tu mi hai fatto sbellicare :asd: :asd: :asd:



tu mi stai simpatico, io a te no? :sob:

tu si, anche qundo provochi lo fai con garbo e intelligenza :)

Azz, che link ragazzi... che link!!!

We can’t see any difference between 2X and 4X AA in normal view.

In Crysis, we really can’t see any differences in AA image quality at 2X or 4X.

(NVIDIA's) 8xQ MSAA matches up perfectly with ATI’s 8X MSAA.

When we look at NVIDIA’s regular MSAA modes, 2X, 4X and 8xQ AA we generally find image quality to be similar between AMD and NVIDIA.

When we bumped AA up a notch and looked at AMD’s 8X MSAA compared to NVIDIA’s 8xQ MSAA we also saw equivalent image quality between these two modes.

We are simply hard-pressed to call one’s AA better than the other’s at 2X, 4X, and 8X/8xQ

for scaling up to 12X CFAA and 24X CFAA we had to lower the resolution even further to 1280x1024.


Che differenze!!! Mamma mia. Guarda dopo aver visto cotali differenze (perdipiù zoomate a 200x) penso correrò a comprare 18 HD4870 da tenere sulla scrivania come reliquie...

...no.
Le persone veramente competenti fanno di meglio nella vita. Il sign Vifani ha fatto carriera, ahinoi.
Qua spesso sembra di vedere discutere Fracchia contro Pinotto

quota anche il resto, non fare come tuo solito che estrapoli da un contesto l'unica frase o l'unico grafico che sembrano avvalorare le tue tesi ignorando tutto il resto. Con me questi giochetti non funzionano :Prrr:

magari questo

In the first screenshot of the power lines it seems that the Radeon HD 4870’s 4X AA looks better than the GeForce GTX 260’s 4X AA.

o magari questo

To us, looking very closely at these image quality screenshots, it seems that ATI’s 12X CFAA actually looks slightly better than NVIDIA’s 16X CSAA. If you look closely at the power lines there seems to be better color blending and a better gradient with 12X CFAA. It is harder to tell with the second and third screenshots however. Looking closely at 24X CFAA we also find it to be slightly better than 16xQ CSAA on the power lines, but equally as nice as 16xQ on the other images.


oppure questo
To us, again, looking closely, it seems that 8X Adaptive AA looks better than 8X CS TR SSAA, but in normal view hard to tell. That tree in the first screenshot just doesn’t look as good even at 16X CS TR SSAA as it does at ATI’s 8X AD AA. The thing is though, we really have to look closely to see these kinds of differences, in normal view it is hard to see a difference.

Ovvio che siano minime (anche se nVIDIA no ha niente di minimamente paragonabile al 24x di ATi a livello qualitativo), ma ci sono; e sicuramente quelle relative all'AF (un vantaggio per nVIDIA) secondo te, non sono più evidenti :read:


Le persone veramente competenti fanno di meglio nella vita. Il sign Vifani ha fatto carriera, ahinoi.
Qua spesso sembra di vedere discutere Fracchia contro Pinotto

scriverai ancora a lungo su questo forum, immagino :D

MiKeLezZ
27-09-2008, 01:30
quota anche il resto, non fare come tuo solito che estrapoli da un contesto l'unica frase o l'unico grafico che sembrano avvalorare le tue tesi ignorando tutto il resto. Con me questi giochetti non funzionano :Prrr:Bhe sono andato a prendere frasi direttamente dalle conclusioni.
To us, looking very closely at these image quality screenshots, it seems that ATI’s 12X CFAA actually looks slightly better than NVIDIA’s 16X CSAA. If you look closely at the power lines there seems to be better color blending and a better gradient with 12X CFAA. It is harder to tell with the second and third screenshots however. Looking closely at 24X CFAA we also find it to be slightly better than 16xQ CSAA on the power lines, but equally as nice as 16xQ on the other images.
Cioè, a questi "SEMBRA" che il CFAA 12X di ATI (ma chi l'ha mai usato? poco sopra affermano pure che per sfruttarlo bisogna abbassare la risoluzione - un controsenso assoluto - ) "RISULTI" leggerissimamente meglio del NVIDIA 16X CSAA (anche qui, alzi la mano non chi l'ha usato, ma chi ne ha sentito mai parlare) perchè, guardando molto attentamente lo screenshot zoomato del 200X (LOL), le lineette dei tralicci (LOL), anzi, mi correggo, la linea di due pixel che rappresenta la linea del traliccio (LOL), ha un po' meno sbavature di colore - anche se è tutto un grigiume - (LOL).
Però, se guardi gli altri due screenshot, questo di cui sopra non risulta (LOL^2).
Eh sì, le ATI sono proprio migliori qualitativamente sotto il profilo AA...
...no.
anche se nVIDIA no ha niente di minimamente paragonabile al 24x di ATi a livello qualitativoEh bhe questo sarà anche vero, ma capisci bene che grande problema.
Di contro con ATI sotto Vista non puoi settare un'opzione stupida come il V-Sync.
e sicuramente quelle relative all'AF (un vantaggio per nVIDIA) secondo te, non sono più evidenti :read:C'è una lieve differenza fra un CSAA 16X che non userai mai in tutta la tua vita (è più intelligente comprarsi un LCD a risoluzione maggiore a questi punti, l'AA non è altro che un escamotage per sopperire alla bassa risoluzione degli schermi) e un AF che ormai è fissato di default a 16X per tutti i giochi (da Crysis ad AcchiappaLaPaperella).
scriverai ancora a lungo su questo forum, immagino :D17000 la dicono lunga, ma anche te vedo ti impegni abbastanza.

SingWolf
27-09-2008, 01:48
Di contro con ATI sotto Vista non puoi settare un'opzione stupida come il V-Sync.

Ma come no??? :confused:

yossarian
27-09-2008, 01:51
Bhe sono andato a prendere frasi direttamente dalle conclusioni.
Cioè, a questi "SEMBRA" che il CFAA 12X di ATI (ma chi l'ha mai usato? poco sopra affermano pure che per sfruttarlo bisogna abbassare la risoluzione - un controsenso assoluto - ) "RISULTI" leggerissimamente meglio del NVIDIA 16X CSAA (anche qui, alzi la mano non chi l'ha usato, ma chi ne ha sentito mai parlare) perchè, guardando molto attentamente lo screenshot zoomato del 200X (LOL), le lineette dei tralicci (LOL), anzi, mi correggo, la linea di due pixel che rappresenta la linea del traliccio (LOL), ha un po' meno sbavature di colore - anche se è tutto un grigiume - (LOL).
Però, se guardi gli altri due screenshot, questo di cui sopra non risulta (LOL^2).
Eh sì, le ATI sono proprio migliori qualitativamente sotto il profilo AA...
...no.


certo, quelle che ti facevano comodo, tanto per non smentirti; continui, inoltre, a perseverare nella tua ignoranza; è evidente che non conosci neppure l'utilizzo delle funzioni di "transparent AA", quello che si usa sulle texture trasparenti (hai presente quelle che devono simulare superfici trasparenti o attraverso le quali si può vedere, come fogliame, un cancello, una rete, insomma quella roba strana che in gioco non si trova mai :D ).
Ah già, ma che cos'è l'AA? Il problema sta a monte :D


Eh bhe questo sarà anche vero, ma capisci bene che grande problema.
Di contro con ATI sotto Vista non puoi settare un'opzione stupida come il V-Sync.


questi non sono catalyst, vero (sono solo i primi due che ho trovato)?

http://forums.pugetsystems.com/showthread.php?t=2724

http://forums.guru3d.com/showthread.php?t=216638 :D



C'è una lieve differenza fra un CSAA 16X che non userai mai in tutta la tua vita (è più intelligente comprarsi un LCD a risoluzione maggiore a questi punti, l'AA non è altro che un escamotage per sopperire alla bassa risoluzione degli schermi) e un AF che ormai è fissato di default a 16X per tutti i giochi (da Crysis ad AcchiappaLaPaperella).


mi dispiace doverti ancora contraddire ma il CSAA lo si usa eccome. Inoltre l'AA non serve solo per le "scalettature"; quello si chiama edge antialising e non è l'unico possibile o l'unico disponibile.
Poichè non ho tempo né voglia di spiegarti come l'elaborazione dei segnali digitali, che cos'è la banda di Nyquist e via discorrendo, ti consiglio di fare qualche lettura di approfondimento al riguardo, per evitare ulteriori figuracce. In quanto all'AF, ti ripeto, tra quello ATi è quello nVIDIA ti sfido a trovare le differenze a livello visivo anche con ingrandimenti del 200% :D




17000 la dicono lunga, ma anche te vedo ti impegni abbastanza.

non certo al tuo livello e me ne dolgo assai :sofico: .
Complimenti anche per la topica presa su Vifani; lui, al pari di altri che sanno di cosa parlano (fek e cdmauro, tanto per citarne un paio), pare continuino a postare sul forum di HWU, ma non in questa sezione. Tra l'altro, Vifani è anche moderatore. Ciò sembrerebbe avvalorare la tesi di chi sostiene che non trovino interessanti chat e trolleggiamenti vari :D

Bhairava
27-09-2008, 01:52
Di contro con ATI sotto Vista non puoi settare un'opzione stupida come il V-Sync.


:mbe:

yossarian
27-09-2008, 02:37
Ma come no??? :confused:

:mbe:

l'importante è che ci creda lui: spara nel mucchio sperando di cogliere da qualche parte :D

Bhairava
27-09-2008, 02:44
l'importante è che ci creda lui: spara nel mucchio sperando di cogliere da qualche parte :D

Quella del v-sync dove l'ha sentita? :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Io gioco solo con v-sync attivo perchè odio il tearing, e non ho una vga Nvidia. :rolleyes:

SingWolf
27-09-2008, 02:53
Quella del v-sync dove l'ha sentita? :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Io gioco solo con v-sync attivo perchè odio il tearing, e non ho una vga Nvidia. :rolleyes:

Quotono, insopportabile senza il V-Sync... :O
Anch'io ho una ATI... :rolleyes:

gianni1879
27-09-2008, 08:06
oddio è diventata una guerra senza esclusioni di colpi :D

Maury
27-09-2008, 11:47
Ahahah Yoss quella dei DIE belli grossi è da incorniciare :D

DakmorNoland
27-09-2008, 11:49
allora mettiamo i puntini sulle i:
devo cambiare scheda e la mia scelta si era ristretta tra la 4870 e la gtx260, addocchio la 4870PCS a 200€ e chiedo nel thred specifico silenziosità ed efficenza di questo dissipatore dedicato, mi viene risposto che è rumoroso anche alla minima velocità (cerca su youtube le sinfonie relative) e mi viene consigliato di eliminare la ventola originale e di piazzargli sopra due ventole da 12 cm :eek: o sostituirlo con uno più performante :eek: cominciamo bene dico io, compro una scheda con dissipatore dedicato e va peggio di quello standard, allora inizio a leggere qualche pagino e scopro che alcune 4870 si sono arrostite a default testandole con furmark :eek: sbattimenti vari per cercare il sistema per dissiparle meglio, un sistema raffredda bene la gpu ma non le ram, l'altro raffredda anche le ram ma non il vrm e via discorrendo (andare a leggere per credere) lo stesso utente che mi aveva risposto a riguardo della 4870PCS dopo aver sostituito il super dissi si ritrova con una scheda da mandare in rma, morale della favola: tenetevi ben stretta la vostra 4870 che io mi prendo una più efficiente GTX260, la monto così com'è e non ci penso più....


Scusa e prendere una classica Sapphire con un normalissimo dissipatore reference?? Che oltre ad essere silenzioso è efficientissimo?? Non è certo colpa di AMD se certi partner fanno delle cavolate assurde montando sistemi di raffreddamento non adeguati dai! Smettiamola con sta disinformazione!

Per il discorso che si faceva che la 260GTX ha molta più ram della 4870, per me non ha senso! Intanto la 4870 monta delle ram GDDR5 molto più veloci della controparte, e poi basta vedere i test seri e si nota come la 4870 fino almeno a 1920x1200 con anche i filtri attivi (8x AA e 16x AF) sta davanti alla 260GTX nonostante quest'ultima abbia quasi 400MB in più di ram!

bonzuccio
27-09-2008, 12:50
Eh sì, le ATI sono proprio migliori qualitativamente sotto il profilo AA...
...no.
..

C'è anche da considerare il fatto che su quel sito hanno testato la 4870 contro una 260 OC.. :asd:
C'è sicuramente stata attenzione nel rispettare la "linea" editoriale
da quel sito qualsiasi insicurezza vada contro le loro convinzioni diviene verità assoluta per chi cerca imparzialità

yossarian
27-09-2008, 13:02
C'è anche da considerare il fatto che su quel sito hanno testato la 4870 contro una 260 OC.. :asd:
C'è sicuramente stata attenzione nel rispettare la "linea" editoriale
da quel sito qualsiasi insicurezza vada contro le loro convinzioni diviene verità assoluta per chi cerca imparzialità

un paio di considerazioni:
hardocp non è mai passato per essere un sito pro ATi (anzi.......)
hardocp è stato l'unico sito che ha fatto un'analisi approfondita della qualità dell'AA delle 2 gpu

SingWolf
27-09-2008, 13:09
Scusa e prendere una classica Sapphire con un normalissimo dissipatore reference?? Che oltre ad essere silenzioso è efficientissimo?? Non è certo colpa di AMD se certi partner fanno delle cavolate assurde montando sistemi di raffreddamento non adeguati dai! Smettiamola con sta disinformazione!

Per il discorso che si faceva che la 260GTX ha molta più ram della 4870, per me non ha senso! Intanto la 4870 monta delle ram GDDR5 molto più veloci della controparte, e poi basta vedere i test seri e si nota come la 4870 fino almeno a 1920x1200 con anche i filtri attivi (8x AA e 16x AF) sta davanti alla 260GTX nonostante quest'ultima abbia quasi 400MB in più di ram!

Come non quotare... ;)

Ahahah Yoss quella dei DIE belli grossi è da incorniciare :D

:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

MiKeLezZ
27-09-2008, 13:12
Quella del v-sync dove l'ha sentita? :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Io gioco solo con v-sync attivo perchè odio il tearing, e non ho una vga Nvidia. :rolleyes:Sì, ma lo fai con barbatrucchi, il punto era quello (ma almeno leggere?).

Thò.
CCC does not force vsync for me on my 4870 x2. Only in game I am able to.
Stalker's vsync doesnt work in game for some reason, so I am at a loss right now. I use vista 64, and tried ATi tray tools which worked, but the test mode I had to use to get the driver working didnt like itunes, and I ended up having to reinstall windows after it was corrupted.
http://forums.guru3d.com/showthread.php?t=273251

C'è anche il problema del Triple Buffering, opzione che va a braccetto con il V-Sync:
I have horrible ticking frame rate enabling VSYNC. IF VSYNC is off, it is smooth, but now I have to see nasty video tearing on my screen. Not exactly what I expect in $600 dollar video card.
Will there be a fix for VSYNC?? Or is there a way to prevent screen tearing without VSYNC?
You need to enable "Triple Buffering". Unfortunately, currently it's not available for Vista.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=99143&enterthread=y


Altre chicche. Giusto per zittire le comari che sono subito salite a montare il cappio.

Sul Adaptive tanto amato:
My bro just upgraded to the 4870x2 and is having the same problem. Adaptive AA on isn't very good at all, what have ATI done to it?
Tried x8AA box & x16AA box but no joy.
In some games, AA DOESN'T WORK. PERIOD.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=98985&enterthread=y

Ma i giochi almeno partono?
I have the ATI Radeon HD4870 and installed the newest Drivers. I have problems running certain Games, like Hellgate London freezes my Computer when I try to start it. (Just a black screen)
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=99816&enterthread=y

E quando partono...
Getting major texture corruption with 4850's in crossfire with any drivers after the 8.5 that came with the cards
I too had problems with textures and corruption. I've the same cards all be it with custom coolers. I found it to be drivers
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=99765&enterthread=y

Ti piacciono gli schermi blu?
I'm beginning to wonder why I've bought a 2900 PRO..
Catalyst's display drivers are completely unstable. After playing several games for a few minutes, the game either crashes completely or a Blue Screen of death appears.
The blue screen always references some ATI.dll file or displays the error of Page Fault In Non Page Area.
Actually, I'm still having problems in numerous games with Catalyst 8.8 with A.I. disabled or enabled. Why are older games crashing due to video related errors when they are old?
Actually, every game I've tried plays for a while and then has a fatal exception or a blue screen error referencing video.
Screw it, I'm sick of Computer gaming.
ATI fix your garbage.
For me the 8.7's have problems outside of games. Nothing crushing, but I can't put the system to sleep for instance. When it wakes up from sleep the screen remains blank. I have to reboot in order to get the screen back.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=98088&enterthread=y

E giocare ai vecchi titoli? Mi auguro di no...
I have been patient with my new card. Sapphire 3850 AGP. Now it runs with catalyst 8.9.
Absoluty nice (5fps) five fps in a 8 years old game RTCW (q3 ENGINE) with r_primitives 0. It is default. I have to set "r_primitives 2" in the game console for play that old game LMAO.
I notice this too. Since I've upgradedto my HD3850 PCI-e, I find more, & more of my old 3D games have problems. Since 8.8 Catalyst, I can't get D2X-XL (Descent 2 OpenGL mod) to run anymore. A few others have textures missing, or corruption. I have tried everything.

E le feature? Neanche?
I recently swapped my old Geforce 6600 with a used Radeon x1900. And while I'm still impressed with the performance of this card I'm starting to severly miss some features of the old nVidia drivers that actually seem much more needed now than they were before.
Catalyst AI doesn't seem to work well with some older games, like "Stubbs the Zombie" for example so it is vital that I can configure the driver to turn it off whenever that game launches. This was a matter of a few easy clicks with the nvidia drivers (the feature was called "Application Profiles" -> http://www.nvidia.com/object/profiles.html )
Frankly that is quite disappointing to hear and obviously a ludicrous statement from Ati. Making older games work with the current Ati drivers takes much more effort than it ever did with Nvidia, especially the Catalyst AI feature seems to have some issues with older games (or the other way round).
There is about a million and one uses for Nvidia's "application profiles" feature, like forcing AA or enabling V-Synch for games that won't let you set this, disabling certain features for games that have problems with it etc.
Having to do this manually every time is very, very irritating and annoying.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=100430&enterthread=y

Vabbè, ma gli 8.9 nuovi di zecca, risolvono?
I did a fresh install of Vista 32 bit and downloaded the 8.9 drivers. They will not install correctly. I get a message saying drivers not properly installed and my cards are remarked in device manager. I had the same problem with the 8.8 drivers.
i am having the same problem
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=100662&enterthread=y

OK, mi accontento del 2D... esce il video?
Well after a move from Vista back to Xp i reinstalled Vista and found some energy to restart my journey through the misterious ways of Ati and Vista compatibility.
In my ticket to Ati/Amd i did report that my 19" Viewsonic Vx922 goes into No display mode after the small loading bar from Vista. This doesnt happen without drivers, so as soon as i put Catalyst 8.7,8.8 or 8.9 it does this.
So DVI,Catalyst and Vista is a no-no with that display.
I have the exact same problem
Only solution for now is switch to XP or use the VGA mode.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=100529&enterthread=y

Meglio che non ti chieda del Dual Screen, giusto...
Basically, if I have my computer set to single screen, it's absolutely stable. I can throw whatever I want at it and it'll be fine.
But if I set dual screen, whether clone or extended, then after a day or so of non-3D activity, I will get a VPU recover. These keep happening and after 2-3 of those, the system will finally bluescreen.
This has happened with my 3850 and my 4850 even on clean installs of Vista 64 and has not been improved or fixed through the entire Catalyst 8 series. Even a new Silverstone 500W PSU didn't help.


Basta dai, ci si rovina l'appetito.

certo, quelle che ti facevano comodo, tanto per non smentirti; continui, inoltre, a perseverare nella tua ignoranzaQuesta è un'offesa personale.
Usare conoscenze tecniche (imparate sul forum di VR-Zone) per cercare di giustificare una propria preferenzia di brand può funzionare solo con i ragazzini.
Con me si parla di cose concrete di cui tutti beneficiano, non di ringbus e branch prediction.
Poichè non ho tempo né voglia di spiegarti come l'elaborazione dei segnali digitali, che cos'è la banda di Nyquist e via discorrendoQuesta è un'altra offesa personale (e dubito ti convenga insistere su questo punto, a meno di fornire qualche cartaccia...).
E' particolarmente ilare che la conoscenza di tali argomenti non risolva ciò di cui stiamo discutendo, della qualità dei video, quantità di feature, e stabilità dei driver: potrebbe parlarne benissimo anche il panettiere sotto casa (con tutto il rispetto per la categoria - e probabilmente sarebbe anche più obiettivo -).
Complimenti anche per la topica presa su Vifani; lui, al pari di altri che sanno di cosa parlano pare continuino a postare sul forum di HWU, ma non in questa sezione.Simpatica comunque notare una sua ultima divagazione nell'ambito delle VGA, sul thread dal titolo: "PERCHé ATI VA PEGGIO?" (il nome è tutto un programma)
L'unica motivazione reale che ha portato R600 a non brillare è che di fatto c'è qualche problema di architettura.
Ritengo che l'architettura di R600 sia troppo sbilanciata sulle operazioni sugli shaders a scapito delle texture units e delle ROPs che risultano essere, IMHO, sottodimensionate.
Nonostante tutto le sue prestazioni non esaltanti non possono essere dovute solo a questo motivo. Probabilmente c'è qualcosa di vero sull'AA non funzionante nelle ROPs e forzato via shaders.
http://www.hwupgrade.it/forum/showpost.php?p=18563637&postcount=24

A differenza di altri (il nickname inizia con la y) che si son messi a sbrodolare R600 ogni dove.

Su ciò scritto in grassetto hai proprio ragione.
Ciò sembrerebbe avvalorare la tesi di chi sostiene che non trovino interessanti chat e trolleggiamenti variInfatti si diletta nel thread-chat iPhone da lui posseduto, e in Off-Topic, su argomenti di Attualità e sul Gran Premio della F1.
Ah yoss... ma famme il piacere, và...

(Se leggesse - chiedo di scusarmi per averlo tirato in ballo - non mi piace parlare su altre persone.)

SingWolf
27-09-2008, 13:18
Thò.
http://forums.guru3d.com/showthread.php?t=273251
CCC does not force vsync for me on my 4870 x2. Only in game I am able to.
Stalker's vsync doesnt work in game for some reason, so I am at a loss right now. I use vista 64, and tried ATi tray tools which worked, but the test mode I had to use to get the driver working didnt like itunes, and I ended up having to reinstall windows after it was corrupted.

C'è anche il problema del Triple Buffering, opzione che va a braccetto con il V-Sync.
Thò:
I have horrible ticking frame rate enabling VSYNC. IF VSYNC is off, it is smooth, but now I have to see nasty video tearing on my screen. Not exactly what I expect in $600 dollar video card.
Will there be a fix for VSYNC?? Or is there a way to prevent screen tearing without VSYNC?
You need to enable "Triple Buffering". Unfortunately, currently it's not available for Vista.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=99143&enterthread=y

Altre chicche. Giusto per zittire le comari che sono subito salite a montare il cappio.



:doh: Ma se a me con la 4870X2 funziona perfettamente cosa mi vieni a scrivere?!?!? :read:

killer978
27-09-2008, 13:33
:doh: Ma se a me con la 4870X2 funziona perfettamente cosa mi vieni a scrivere?!?!? :read:

Io sono sempre del parere che uno può scriver ciò che vuole, poi bisogna vedere la realtà :D ripeto c'è gente che non ha mai avuto una VGA ATI o NVIDIA e parla tanto per parlare :D quella del V-Sync l'ho messa sul desk :asd:
Mi hanno detto che le 280GTX fanno solo 10fps con Euro truck :eek: ho sentito che le memorie delle 260 dopo un anno si dimezzano perche l'alimentazione non è adeguata :eek: e le 9800GTX+ non sono a 55nm ma a 65nm :cool:

anche io posso scrivere ciò che voglio, e vedrai che qualcuno che legge il mio post un domani dirà che le GTX fanno schifo xche la letto sul web :asd:

A me piace COMPRARE provare e dopo parlare ;)

yossarian
27-09-2008, 13:41
Thò.
CUT



bella raccolta che Non dimostra, purtroppo per te, un bel niente; il web è pieno di gente con vga nvidia che ha gli stessi problemi e altri ancora. Il fatto che tizio abbia un problema con il v-sync non indica che tutti quelli che hanno la stessa vga abbiano gli stessi problemi. Ti sfugge il concetto? La dimostrazione? Parli di v-sync non funzionante e basta fare una ricerca per scoprire che 2 tra i primi link riguardano quel problema con vga nvidia. E allora? :D



Questa è un'offesa personale.

E' sempre opportuno conoscere i fondamenti della propria lingua d'origine: ignoranza significa non essere a conoscenza e tu non stai dimostrando di conoscere gli argomenti di cui pretendi di parlare; quindi la mia è una semplice constatazione fatta in base a quello che scrivi. Se c'è qualcuno che sta offendendo la tua intelligenza sei tu stesso.


Usare conoscenze tecniche (imparate sul forum di VR-Zone) per cercare di giustificare una propria preferenzia di brand può funzionare solo con i ragazzini.

parli di te? Lo chiedo perchè non ho mai frequentato il forum di vr-zone :Prrr:



Con me si parla di cose concrete di cui tutti beneficiano, non di ringbus e branch prediction.


purtroppo per te, quelle sono cose concrete. Noto che stai cercando di spostare la discusione sul personale. Cos'è, esauriti gli argomenti?



Questa è un'altra offesa personale (e dubito ti convenga insistere su questo punto, a meno di fornire qualche cartaccia...).


cos'è una minaccia? Pensi di spaventare qualcuno? Alla prossima sei segnalato



E' particolarmente ilare che la conoscenza di tali argomenti non risolva ciò di cui stiamo discutendo, della qualità dei video, quantità di feature, e stabilità dei driver: potrebbe parlarne benissimo anche il panettiere sotto casa (con tutto il rispetto per la categoria - e probabilmente sarebbe anche più obiettivo -).


di te sicuramente :D



Simpatica comunque notare la sua più recente divagazione nell'ambito delle VGA, sul thread dal titolo
"PERCHé ATI VA PEGGIO?"
L'unica motivazione reale che ha portato R600 a non brillare è che di fatto c'è qualche problema di architettura.
Ritengo che l'architettura di R600 sia troppo sbilanciata sulle operazioni sugli shaders a scapito delle texture units e delle ROPs che risultano essere, IMHO, sottodimensionate.
Nonostante tutto le sue prestazioni non esaltanti non possono essere dovute solo a questo motivo. Probabilmente c'è qualcosa di vero sull'AA non funzionante nelle ROPs e forzato via shaders.
http://www.hwupgrade.it/forum/showpost.php?p=18563637&postcount=24



e allora? Si tratta del parere personale di Vifani che non è intervenuto in questo thread e non vedo per quale motivo debba essere tirato in ballo. Se ti interessa il suo parere, chiamalo direttamente in causa. In ogni caso, parla di un arogmento a te del tutto oscuro (tu sei per le cose concrete, vero? Cos'è questo AA di cui potrebbe parlare il panettiere? :Prrr: )



Su questo hai proprio ragione.
Infatti si diletta nel thread-chat iPhone da lui posseduto, e nel Off-Topic, con argomenti di Attualità e sul Gran Premio della Ferrari.
Ah yoss... ma famme il piacere, và


evidentemente li ritiene più costruttivi che stare a sentire le scenate isteriche di qualcuno, su questo forum, quando gli si tocca mamma nvidia :rolleyes:



(Se leggesse - chiedo di scusarmi per averlo tirato in ballo - non mi piace parlare su altre persone.)

strano a dirsi :D

Bhairava
27-09-2008, 13:49
Sì, ma lo fai con barbatrucchi, il punto era quello (ma almeno leggere?).

Thò.
CCC does not force vsync for me on my 4870 x2. Only in game I am able to.
Stalker's vsync doesnt work in game for some reason, so I am at a loss right now. I use vista 64, and tried ATi tray tools which worked, but the test mode I had to use to get the driver working didnt like itunes, and I ended up having to reinstall windows after it was corrupted.
http://forums.guru3d.com/showthread.php?t=273251

C'è anche il problema del Triple Buffering, opzione che va a braccetto con il V-Sync:
I have horrible ticking frame rate enabling VSYNC. IF VSYNC is off, it is smooth, but now I have to see nasty video tearing on my screen. Not exactly what I expect in $600 dollar video card.
Will there be a fix for VSYNC?? Or is there a way to prevent screen tearing without VSYNC?
You need to enable "Triple Buffering". Unfortunately, currently it's not available for Vista.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=99143&enterthread=y


Altre chicche. Giusto per zittire le comari che sono subito salite a montare il cappio.

Sul Adaptive tanto amato:
My bro just upgraded to the 4870x2 and is having the same problem. Adaptive AA on isn't very good at all, what have ATI done to it?
Tried x8AA box & x16AA box but no joy.
In some games, AA DOESN'T WORK. PERIOD.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=98985&enterthread=y

Ma i giochi almeno partono?
I have the ATI Radeon HD4870 and installed the newest Drivers. I have problems running certain Games, like Hellgate London freezes my Computer when I try to start it. (Just a black screen)
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=99816&enterthread=y

E quando partono...
Getting major texture corruption with 4850's in crossfire with any drivers after the 8.5 that came with the cards
I too had problems with textures and corruption. I've the same cards all be it with custom coolers. I found it to be drivers
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=99765&enterthread=y

Ti piacciono gli schermi blu?
I'm beginning to wonder why I've bought a 2900 PRO..
Catalyst's display drivers are completely unstable. After playing several games for a few minutes, the game either crashes completely or a Blue Screen of death appears.
The blue screen always references some ATI.dll file or displays the error of Page Fault In Non Page Area.
Actually, I'm still having problems in numerous games with Catalyst 8.8 with A.I. disabled or enabled. Why are older games crashing due to video related errors when they are old?
Actually, every game I've tried plays for a while and then has a fatal exception or a blue screen error referencing video.
Screw it, I'm sick of Computer gaming.
ATI fix your garbage.
For me the 8.7's have problems outside of games. Nothing crushing, but I can't put the system to sleep for instance. When it wakes up from sleep the screen remains blank. I have to reboot in order to get the screen back.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=98088&enterthread=y

E giocare ai vecchi titoli? Mi auguro di no...
I have been patient with my new card. Sapphire 3850 AGP. Now it runs with catalyst 8.9.
Absoluty nice (5fps) five fps in a 8 years old game RTCW (q3 ENGINE) with r_primitives 0. It is default. I have to set "r_primitives 2" in the game console for play that old game LMAO.
I notice this too. Since I've upgradedto my HD3850 PCI-e, I find more, & more of my old 3D games have problems. Since 8.8 Catalyst, I can't get D2X-XL (Descent 2 OpenGL mod) to run anymore. A few others have textures missing, or corruption. I have tried everything.

E le feature? Neanche?
I recently swapped my old Geforce 6600 with a used Radeon x1900. And while I'm still impressed with the performance of this card I'm starting to severly miss some features of the old nVidia drivers that actually seem much more needed now than they were before.
Catalyst AI doesn't seem to work well with some older games, like "Stubbs the Zombie" for example so it is vital that I can configure the driver to turn it off whenever that game launches. This was a matter of a few easy clicks with the nvidia drivers (the feature was called "Application Profiles" -> http://www.nvidia.com/object/profiles.html )
Frankly that is quite disappointing to hear and obviously a ludicrous statement from Ati. Making older games work with the current Ati drivers takes much more effort than it ever did with Nvidia, especially the Catalyst AI feature seems to have some issues with older games (or the other way round).
There is about a million and one uses for Nvidia's "application profiles" feature, like forcing AA or enabling V-Synch for games that won't let you set this, disabling certain features for games that have problems with it etc.
Having to do this manually every time is very, very irritating and annoying.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=100430&enterthread=y

Vabbè, ma gli 8.9 nuovi di zecca, risolvono?
I did a fresh install of Vista 32 bit and downloaded the 8.9 drivers. They will not install correctly. I get a message saying drivers not properly installed and my cards are remarked in device manager. I had the same problem with the 8.8 drivers.
i am having the same problem
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=100662&enterthread=y

OK, mi accontento del 2D... esce il video?
Well after a move from Vista back to Xp i reinstalled Vista and found some energy to restart my journey through the misterious ways of Ati and Vista compatibility.
In my ticket to Ati/Amd i did report that my 19" Viewsonic Vx922 goes into No display mode after the small loading bar from Vista. This doesnt happen without drivers, so as soon as i put Catalyst 8.7,8.8 or 8.9 it does this.
So DVI,Catalyst and Vista is a no-no with that display.
I have the exact same problem
Only solution for now is switch to XP or use the VGA mode.
http://forums.amd.com/game/messageview.cfm?catid=279&threadid=100529&enterthread=y

Meglio che non ti chieda del Dual Screen, giusto...
Basically, if I have my computer set to single screen, it's absolutely stable. I can throw whatever I want at it and it'll be fine.
But if I set dual screen, whether clone or extended, then after a day or so of non-3D activity, I will get a VPU recover. These keep happening and after 2-3 of those, the system will finally bluescreen.
This has happened with my 3850 and my 4850 even on clean installs of Vista 64 and has not been improved or fixed through the entire Catalyst 8 series. Even a new Silverstone 500W PSU didn't help.


Basta dai, ci si rovina l'appetito.

Questa è un'offesa personale.
Usare conoscenze tecniche (imparate sul forum di VR-Zone) per cercare di giustificare una propria preferenzia di brand può funzionare solo con i ragazzini.
Con me si parla di cose concrete di cui tutti beneficiano, non di ringbus e branch prediction.
Questa è un'altra offesa personale (e dubito ti convenga insistere su questo punto, a meno di fornire qualche cartaccia...).
E' particolarmente ilare che la conoscenza di tali argomenti non risolva ciò di cui stiamo discutendo, della qualità dei video, quantità di feature, e stabilità dei driver: potrebbe parlarne benissimo anche il panettiere sotto casa (con tutto il rispetto per la categoria - e probabilmente sarebbe anche più obiettivo -).
Simpatica comunque notare una sua ultima divagazione nell'ambito delle VGA, sul thread dal titolo: "PERCHé ATI VA PEGGIO?" (il nome è tutto un programma)
L'unica motivazione reale che ha portato R600 a non brillare è che di fatto c'è qualche problema di architettura.
Ritengo che l'architettura di R600 sia troppo sbilanciata sulle operazioni sugli shaders a scapito delle texture units e delle ROPs che risultano essere, IMHO, sottodimensionate.
Nonostante tutto le sue prestazioni non esaltanti non possono essere dovute solo a questo motivo. Probabilmente c'è qualcosa di vero sull'AA non funzionante nelle ROPs e forzato via shaders.
http://www.hwupgrade.it/forum/showpost.php?p=18563637&postcount=24

A differenza di altri (il nickname inizia con la y) che si son messi a sbrodolare R600 ogni dove.

Su ciò scritto in grassetto hai proprio ragione.
Infatti si diletta nel thread-chat iPhone da lui posseduto, e in Off-Topic, su argomenti di Attualità e sul Gran Premio della F1.
Ah yoss... ma famme il piacere, và...

(Se leggesse - chiedo di scusarmi per averlo tirato in ballo - non mi piace parlare su altre persone.)


AAAAAAAAAAAAAAAHAHAHAHA, la tua credibilità è ormai precipitata nella Fossa delle Marianne. Non ha senso andare a cercare in giro per il web i casi di malfunzionamenti o "presunti" tali. Perchè ne troverai a bizzeffe sia per Nvidia che per ATI. Fanno testo solo se sono bug riconosciuti e conclamati: non dimenticare che ci sono anche molte persone incompetenti.
Il v-sync funziona perfettamente, si può applicare dal manù dei giochi o dal pannello ATI. Se su qualche gioco non dovesse andare, e può capitare, basta andare sul pannello e forzare triple buffering e v-sync, dov'è il barbatrucco scusa? Il fine è sincronizzare i frames al refresh rate dello schermo per evitare il tearing? E allora, un metodo vale l'altro.
Stai facendo ridere tutto il forum, almeno spiegaci perchè ti stai affannando così tanto a scrivere boutade e gettare merda su ATI, ma chi te lo fa fare...ma ti pagano? :asd:

:rolleyes: :nono:

yossarian
27-09-2008, 13:53
AAAAAAAAAAAAAAAHAHAHAHA, la tua credibilità è ormai precipitata nella Fossa delle Marianne. Non ha senso andare a cercare in giro per il web i casi di malfunzionamenti o "presunti" tali. Perchè ne troverai a bizzeffe sia per Nvidia che per ATI. Fanno testo solo se sono bug riconosciuti e conclamati: non dimenticare che ci sono anche molte persone incompetenti.
Il v-sync funziona perfettamente, si può applicare dal manù dei giochi o dal pannello ATI. Se su qualche gioco non dovesse andare, e può capitare, basta andare sul pannello e forzare triple buffering e v-sync, dov'è il barbatrucco scusa? Il fine è sincronizzare i frames al refresh rate dello schermo per evitare il tearing? E allora, un metodo vale l'altro.
Stai facendo ridere tutto il forum, almeno spiegaci perchè ti stai affannando così tanto a scrivere boutade e gettare merda su ATI, ma chi te lo fa fare...ma ti pagano? :asd:

:rolleyes: :nono:

stai parlando di cose astratte; parla di cose concrete di cui può discutere, con obiettività, anche il panettiere sotto casa di MiKeLeZz :D

Bhairava
27-09-2008, 13:58
stai parlando di cose astratte; parla di cose concrete di cui può discutere, con obiettività, anche il panettiere sotto casa di MiKeLeZz :D

Ah hai ragione. Infatti volevo dire che queste schede ATI fanno schifo perchè non sono buone da usare come matterello per stendere la pasta per la pizza. :mc:

Se ci avessero messo più tucs e frops avrei potuto anche usare la ventola per montare la panna, ma come cacchio le progettano ste schede grafiche? :muro: :D :ciapet:

yossarian
27-09-2008, 13:59
Ah hai ragione. Infatti volevo dire che queste schede ATI fanno schifo perchè non sono buone da usare come matterello per stendere la pasta per la pizza. :mc:

Se ci avessero messo più tucs e frops avrei potuto anche usare la ventola per montare la panna, ma come cacchio le progettano ste schede grafiche? :muro: :D :ciapet:

adesso va meglio :D

(con la storia delle tucs e frops mi hai fatto rotolare dalle risate anche nel pvt) :D

MiKeLezZ
27-09-2008, 13:59
questa mi sfugge; sarebbe deficitaria per cosa? per supportare la fisica via gpu? :confused: Potresti addurre motivazioni tecniche a questa tua affermazione?
Hai fatto un'affermazione precisa, ossia che un'architettura VLIW è peggio di una VECT5.

Documentala con i fatti, spiegando vantaggi e svantaggi dell'una e dell'altra.

Espleta poi cosa è la ALU e quale è stata la sua evoluzione.

Per la lode, spiegare l'acronimo EPIC, come funziona, e dove si pone nella scala delle architetture.

A professò, preferivo le domande a risposta multipla!
LOL ma chi ti credi di essere...


http://www.hwupgrade.it/forum/showpost.php?p=18586431&postcount=64
In linea di massima l'architettura di ATI è meno "generica" di quella di NVIDIA, nel senso che è troppo dipendente dal modo in cui sono fatti gli shader in ogni gioco e dal modo in cui il driver li ottimizza, mentre in G8x le possibilità di sfruttare al 100% le varie unità di calcolo sono superiori.


http://it.wikipedia.org/wiki/GPGPU
L'approccio di nVidia con CUDA è in realtà certamente più accessibile da parte dei programmatori rispetto al CTM di ATi. Quest'ultimo infatti consente l'interazione con la GPU ad un livello certamente più potente rispetto a quanto offerto da CUDA, ma a fronte di una maggiore difficoltà di implementazione dato che è richiesta la conoscenza di un linguaggio di tipo assembly, in luogo del tradizionale C++ previsto dalla soluzione di casa nVidia. CTM inoltre, proprio perché basato su un linguaggio di programmazione di più basso livello, è specifico per una specifica famiglia di GPU, mentre CUDA ha dalla sua la flessibilità di poter spostare applicazioni sviluppate in qualsiasi momento, anche su future generazioni di GPU nVidia.


http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=5
For general purpose computing a single monolithic GPU is much more useful than two smaller GPUs packaged together.
GPUs eschew the overhead of coherency for caches in a single chip. Since there is no coherency even on a single GPU, there is certainly no coherency between multiple GPUs.
This means that there is no way to use multiple GPUs for a general purpose application, unless the developer is willing to manually manage the sharing of data and communication; and while CUDA is an excellent programming model, it does little help developers here.
Undoubtedly, NVIDIA's interest in GPUs as a computational device was a key motivator for NVIDIA to pursue a monolithic GPU and is a tangible demonstration of the importance of compute oriented GPUs for NVIDIA.


http://www.tomshardware.com/reviews/nvidia-cuda-gpu,1954-14.html
So, CUDA is not a gimmick intended for researchers who want to cajole their university into buying them a GeForce. CUDA is genuinely usable by any programmer who knows C, provided he or she is ready to make a small investment of time and effort to adapt to this new programming paradigm. That effort won’t be wasted provided your algorithms lend themselves to parallelization. We should also tip our hat to Nvidia for providing ample, quality documentation to answer all the questions of beginning programmers.

Defragg
27-09-2008, 14:00
azz, se non si può più scherzare diventa pesa la situescion, con fuoco incrociato dai due schieramenti ...
e già l'argomento trattato non mi pare dei più seri ("la mia schedina fa 0,2FPS più della tua gneg negne") ...
ciap

Non hai colto il mio sarcasmo, comunque nell'ottica di ognuno non devono c'entrare gli 0,2 fps in più o in meno, o la qualità infinitesimalmente superiore, se la scheda mi fa il caffè, se mi massaggia i piedi, se mi massaggia qualcos'altro, se fa rumore, se consuma come un phon acceso...
L'importante è che la somma di tutti questi valori intrinsechi mi dica qual'è realmente, la scheda più conveniente da acquistare.
Ovviamente ho tirato in ballo esempi strani per rendere l'idea.

yossarian
27-09-2008, 14:13
A professò, preferivo le domande a risposta multipla!
LOL ma chi ti credi di essere...


http://www.hwupgrade.it/forum/showpost.php?p=18586431&postcount=64



http://it.wikipedia.org/wiki/GPGPU



http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=5



http://www.tomshardware.com/reviews/nvidia-cuda-gpu,1954-14.html

continui a non rispondere ma a citare articoli e interventi che non aggiungono e non spiegano neinte di nuovo, alcuni dei quali sono facilmente confutabili dai fatti (le spiegazioni teoriche preferisco evitartele per non rovinarti il pranzo). E continui a fare affermazioni senza giustificarle (tipo quella del forum di vr-zone).

Partiamo dall'affermazione che un chip monoltico sia migliore di un cluster e che un cluster di chip non è adatto per il gp computing. Le attuali cpu sono multicore e sono cpu di tipi gp. Le gpu stanno evolvendo verso un modello ibrido con molte caratteristiche anche fisiche delle cpu, comprese alu di tipo INTEGER, ad esempio (ops, scusami, non volevo :D ). Il progetto larrabee di intel (che in fatto di cpu non è l'ultima arrivata e, a differenza di AMD prima dell'acquisizione di ATi, ha anche esperienza di gpu) prevede un cluster di stream processor (veri, non quelli di nVIDIA che sono semplici alu con i relativi registri) destinato a fare gpu computing.

Altra affermazione su CUDA e CTM. Si tratta di cose differenti (lo sapevano tutti); inoltre, come già detto, CUDA non è un'invenzione di nVIDIA o qualcosa che può girare solo su chip nVIDIA (documentarsi please :read: ). Infine, dovresti sapere che un linguaggio di basso livello permette di interfacciarsi direttamente con il chip (che è comunque programmato a basso livello), senza l'intermediazione di traduttori o compilatori di sorta. Quindi, è evidente, che cuda e ctm nascono in ambiti diversi e con scopi diversi e non ha senso paragonarli.

Le spiegazioni teoriche del come e del perchè sono rimandate a dopo la ricreazione. Bambini, mi raccomando, non fate confusione :D

In quanto alla domanda: ma chi ti credi di essere, te la giro volentiari in attesa di risposta :D

MiKeLezZ
27-09-2008, 14:17
AAAAAAAAAAAAAAAHAHAHAHA, la tua credibilità è ormai precipitata nella Fossa delle Marianne.
Non ha senso andare a cercare in giro per il web i casi di malfunzionamenti o "presunti" tali. Perchè ne troverai a bizzeffe [...].
Il v-sync funziona perfettamente, si può applicare dal manù dei giochi o dal pannello ATI. Se su qualche gioco non dovesse andare, e può capitare, basta andare sul pannello e forzare triple buffering e v-sync, dov'è il barbatrucco scusa? Un metodo vale l'altro.
Fanno testo solo se sono bug riconosciuti e conclamati: non dimenticare che ci sono anche molte persone incompetenti.
Stai facendo ridere tutto il forum [...]!


FIRMA LA PETIZIONE A FAVORE DI ATI TRAY TOOLS (http://sna696.helloweb.eu/petition/index.php)

Thread Ufficiale Ati Tray Tools
(http://www.hwupgrade.it/forum/showthread.php?t=1816364)
Questo reply è fantastico, penso che me lo stamperò per attaccarlo in bacheca.

Immagino che la petizione per ATI TRAY TOOLS e il topic ufficiale su ATI TRAY TOOLS (programma di terzi e non di ATI) che mantieni in firma siano perchè il CCC di ATI sia meravigliosamente efficiente, vero?

Sono talmente basito che per continuare a leggere questi isterismi mi serve un altro caffè.




p.s.
Se seguite il link di cui sopra:

""Ati Tray Tools vive anche grazie all'aiuto degli utenti di hwupgrade.it""

strappalacrime!!! :friend:

Penso dovremmo tutti aiutare l'amico Bhairava donando 1 euro a sostegno di Tray Tools, datosi ATI non è capace di fornirne uno decente :(

p.p.s. "Quelli di hwupgrade" sono così disperati dal CCC di ATI che gli hanno già regalato DUE HD4850 per convincerlo a non bloccare gli update

JohnPetrucci
27-09-2008, 14:21
Questo reply è fantastico, penso che me lo stamperò per attaccarlo in bacheca.

Immagino che la petizione per ATI TRAY TOOLS e il topic ufficiale su ATI TRAY TOOLS siano perchè il CCC di ATI sia meravigliosamente efficiente, vero?

Sono talmente basito che per continuare a leggere questi isterismi mi serve un altro caffè.




p.s.
Se seguite il link di cui sopra:

""Ati Tray Tools vive anche grazie all'aiuto degli utenti di hwupgrade.it""

strappalacrime!!! :friend:

Penso dovremmo tutti aiutare l'amico Bhairava donando 1 euro a sostegno di Tray Tools, datosi ATI non è capace di fornirne uno decente :(
Non posso che quotare, si discuta quanto si vuole, io ho avuto varie Ati e Nvidia, ma a livello driver mi sono sempre trovato meglio con i driver Nvidia, da quando Ati ha introdotto i CCC poi.......:muro: :rolleyes:
E non mi si paragoni il pannello dei driver nvidia attuale ai CCC perchè mi vien da ridere, la prima cosa che associo ai CCC e a cui penso immediatamente, è un bradipo obeso che scala un albero con tutta calma.

leoneazzurro
27-09-2008, 14:22
Sigh.

Mi dispiace molto che si vada sempre a finire così nelle discussioni senza ottenerne un profitto.

Yossarian, ti avevo già chiesto di non partecipare ai flame, e per questo sono costretto a 3 giorni di sospensione.

Mikelezz, oltre alle precedenti ammonizioni, direi che c'è stato abbastanza materiale per i 7 giorni di sospensione che ti verranno sanzionati da ora.

E, per inciso, Yossarian è una persona che lavora nel campo, per cui sicuramente conosce le GPU meglio di qualsiasi altro su questo forum.

ZiP!
27-09-2008, 14:22
Questo reply è fantastico, penso che me lo stamperò per attaccarlo in bacheca.

Immagino che la petizione per ATI TRAY TOOLS e il topic ufficiale su ATI TRAY TOOLS che mantieni in firma siano perchè il CCC di ATI sia meravigliosamente efficiente, vero?

Sono talmente basito che per continuare a leggere questi isterismi mi serve un altro caffè.




p.s.
Se seguite il link di cui sopra:

""Ati Tray Tools vive anche grazie all'aiuto degli utenti di hwupgrade.it""

strappalacrime!!! :friend:

Penso dovremmo tutti aiutare l'amico Bhairava donando 1 euro a sostegno di Tray Tools, datosi ATI non è capace di fornirne uno decente :(

p.p.s. Quelli di hwupgrade gli hanno già mandato una HD4870
MiKeLezZ scusa ma ora stai scadendo nel ridicolo.
Immagino che tu non abbia mai usato rivatuner quindi?

Bhairava
27-09-2008, 14:25
Questo reply è fantastico, penso che me lo stamperò per attaccarlo in bacheca.

Immagino che la petizione per ATI TRAY TOOLS e il topic ufficiale su ATI TRAY TOOLS siano perchè il CCC di ATI sia meravigliosamente efficiente, vero?

Sono talmente basito che per continuare a leggere questi isterismi mi serve un altro caffè.




p.s.
Se seguite il link di cui sopra:

""Ati Tray Tools vive anche grazie all'aiuto degli utenti di hwupgrade.it""

strappalacrime!!! :friend:

Penso dovremmo tutti aiutare l'amico Bhairava donando 1 euro a sostegno di Tray Tools, datosi ATI non è capace di fornirne uno decente :(

Secondo me devi prenderti uno Xanax e dimenticare i dispiaceri della vita. :D
Il CCC personalmente mi fa schifo, e non l'ho mai nasconsto, anzi, l'ho detto e ridetto sia nei 3d delle schede ATI sia altrove.
Le mie iniziative sono volte a finanziare un progetto straordinario di un geniale programmatore. Il CCC pur non piacendomi è perfettamente sufficiente per gestire tutte le funzionalità delle schede ATI. Ati Tray Tool offre una serie di funzionalità aggiuntive incredibilmente utili, come i grafici di monitoraggio e l'On Screen Display, oltre che una serie di twaek per i quali ti rimandi qui: http://forums.guru3d.com/showthread.php?t=217673.
Detto questo, il discorso che stai facendo ci sta portando fuori strada.
Hai detto che sulle schede ATI il v.sync non funziona. Ti stiamo dicendo tutti che la cosa è palesemente falsa. Rispondimi su questo, anziche arrampicati sui vetri e cercare una scappatoia alla magnifica fuguraccia che stai facendo. :rotfl:

Mr_Paulus
27-09-2008, 14:25
Non posso che quotare, si discuta quanto vuole ma io ho avuto varie Ati e Nvidia, ma a livello driver mi sono sempre trovato meglio con i driver Nvidia, da quando Ati ha introdotto i CCC poi.......:muro: :rolleyes:
E non mi si paragoni il pannello dei driver nvidia attuale ai CCC perchè mi vien da ridere, e penso immediatamente ad un bradipo che scala un albero con tutta calma.

bah, io ho appena fatto il funerale alla mia 6800 e sono passato ad ati e tutta sta differenza tra il pannello nvidia e il ccc non la vedo.

leoneazzurro
27-09-2008, 14:32
Alcune precisazioni per chi fosse interessato:

- il custom filter AA di ATI non nasce certo per i filtri box o tent, ma per la realizzazione di un antialiasing corretto in presenza di tecniche di rendering come HDR che richiedono algoritmi non lineari per avere dei risultati privi di artefatti, mentre il normale MSAA ad interpolazione lineare, anche con trasparenze abilitate, può causare la comparsa di artefatti in presenza di queste tecniche di rendering. Un tipo di AA reso possibile solo con il CFAA è l'edge detect.

- ATI non ha solo CTM (che non è comunque il corrispettivo di CUDA) ma sta lavorando allo sviluppo di OpenCL

JohnPetrucci
27-09-2008, 14:34
bah, io ho appena fatto il funerale alla mia 6800 e sono passato ad ati e tutta sta differenza tra il pannello nvidia e il ccc non la vedo.

Punti di vista, e ti assicuro che sono una persona obbiettiva, non prediligo i driver nvidia per tifo, altrimenti in passato non avrei avuto a comprare schede ati, e non escludo di farlo in futuro, ma attualmente ho una gtx260 di cui mi ritengo soddisfatto, sia a livello driver, qualitativo, sui consumi, sul dissipatore(silenziosità e prestazioni) etc..
Con questo non dirò mai ad uno che si è preso una Ati 4870 con 1gb che ha fatto male perchè 1gb non serve a nulla o che 128mb in più rispetto alla mia vga non servono, come invece più volte tifosi Ati della versione 512mb della 4870 mi hanno rinfacciato nel confronto con la mia scheda.
Purtroppo su questo forum bimbiminkia ce ne sono fin troppi.:rolleyes:

Volevo soltanto aggiungere che mi dispiace per la sospensione di yossarian e Mikelezz, sono 2 utenti che imho quando non si imbattono in polemiche svolgono un servizio informativo su questo forum di cui gli sono grato e cmq non credo patteggino per una casa o l'altra, diciamo che la dialettica a volte porta anche a questo tipo di confronti, e ad ogni modo, sia Ati o Nvidia sono 2 aziende leader nel campo vga che si alternano periodicamente nelle innovazioni evolutive, e che non è scritto da nessuna parte che chi ha le migliori del momento trovi seguito tra gli sviluppatori.
Questo non fa piacere, e di fatto rende nulle e/o inutili innovazioni importanti, cosa di cui non si può certo stare allegri, a prescindere dalle proprie preferenze.

Mr_Paulus
27-09-2008, 14:48
Punti di vista, e ti assicuro che sono una persona obbiettiva, non prediligo i driver nvidia per tifo, altrimenti in passato non avrei avuto a comprare schede ati, e non escludo di farlo in futuro, ma attualmente ho una gtx260 di cui mi ritengo soddisfatto, sia a livello driver, qualitativo, sui consumi, sul dissipatore(silenziosità e prestazioni) etc..
Con questo non dirò mai ad uno che si è preso una Ati 4870 con 1gb che ha fatto male perchè 1gb non serve a nulla o che 128mb in più rispetto alla mia vga non servono, come invece più volte tifosi Ati della versione 512mb della 4870 mi hanno rinfacciato nel confronto con la mia scheda.
Purtroppo su questo forum bimbiminkia ce ne sono fin troppi.:rolleyes:

su questo concordo, alla fine c'è sempre chi dice è meglio ati/nvidia, l'importante è discuterne civilmente e essere soddisfatti delle proprie scelte.
(oddio poi io non sono proprio soddisfatto della mia scelta perchè sono passato da una 6800 a una 9200SE ma vabbè :asd: )

Bhairava
27-09-2008, 14:52
Volevo soltanto aggiungere che mi dispiace per yossarian e Mikelezz, sono 2 utenti che imho quando non si imbattono in polemiche svolgono un servizio informativo su questo forum di cui gli sono grato e cmq non credo patteggino per una casa o l'altra, diciamo che la dialettica a volte porta anche a questo tipo di confronti, e ad ogni modo, sia Ati o Nvidia sono 2 aziende leader nel campo vga che si alternano periodicamente nelle innovazioni evolutive, e che non è scritto da nessuna parte che chi ha le migliori del momento trovi seguito tra gli sviluppatori.
Questo non fa piacere, e di fatto rende nulle e/o inutili innovazioni importanti, cosa di cui non si può certo stare allegri, a prescindere dalle proprie preferenze.

Guarda che Mikelez fa solo disinformazione. Hai mai visto yoss fare di tutto per mettere in cattiva luce nVidia? Affannarsi a gettare merda e a dimostrare che le geffo fanno schifo?
Le persone serie hanno di meglio da fare che andare in giro a perorare la causa di una multinazionale. (chissà perchè poi...mi viene il sospetto che tipi come Mikelezz, Halduemilauno, Fire Hurrucan, siano pagati...altrimenti non mi spiego il perchè..varamente io non capisco).

JohnPetrucci
27-09-2008, 14:57
Guarda che Mikelez fa solo disinformazione. Hai mai visto yoss fare di tutto per mettere in cattiva luce nVidia? Affannarsi a gettare merda e a dimostrare che le geffo fanno schifo?
Le persone serie hanno di meglio da fare che andare in giro a perorare la causa di una multinazionale. (chissà perchè poi...mi viene il sospetto che tipi come Mikelezz, Halduemilauno, Fire Hurrucan, siano pagati...altrimenti non mi spiego il perchè..varamente io non capisco).
Io non la vedrei sotto questa ottica, ogni persona ha dei modi più o meno diciamo "passionali" di portare avanti le proprie tesi, se tu sapessi come divento io quando tocchiamo il tasto della politica.....:D, e non sono iscritto a nessun partito ma ho i miei ideali.;)
Io credo che Mikelezz ci metta troppa passione e perda a volte il senso della misura, ma non credo assolutamente che gente come lui o halduemilaeuno per tirarne in ballo due citati da te, siano di parte.
Sulle simpatie e antipatie poi si può discutere quanto si vuole, ma essere proprio di parte è altra cosa, e cmq ti ripeto su questo forum ce ne sono parecchi di tifosi reali, ma non è questo il caso.

leoneazzurro
27-09-2008, 15:03
Evitiamo di continuare a parlare degli utenti e ritorniamo a parlare di tecnica?

Grazie.

Bhairava
27-09-2008, 15:08
Io non la vedrei sotto questa ottica, ogni persona ha dei modi più o meno diciamo "passionali" di portare avanti le proprie tesi, se tu sapessi come divento io quando tocchiamo il tasto della politica.....:D, e non sono iscritto a nessun partito ma ho i miei ideali.;)
Io credo che Mikelezz ci metta troppa passione e perda a volte il senso della misura, ma non credo assolutamente che gente come lui o halduemilaeuno per tirarne in ballo due citati da te, siano di parte.
Sulle simpatie e antipatie poi si può discutere quanto si vuole, ma essere proprio di parte è altra cosa, e cmq ti ripeto su questo forum ce ne sono parecchi.

Il problema non è la libertà di portare avanti o no le proprie tesi. Io non capisco l'atteggiamento che porta moltissimi utenti (ne ho citati solo alcuni) a spendersi e affannarsi per denigrare ATI, che altro non è che una multinazionale che produce gpu. Io non mi sognerei mai di andare in giro per il forum a dire che Nvidia fa schifo. Le Geforce sono schede eccellenti e se io avessi soldi da buttare sicuramente acquisterei una gtx280, una gtx260, una 4870x2, anche solo per provarle, perchè le schede grafiche mi piacciono e mi piace testare la loro efficienza nei giochi. Rispetto chi compra nVidia, come chi compra un frullatore Imetec piuttosto che uno di un altro brand. Capisci? Non me ne frega un cacchio, mi basta che funzioni e che mi soddisfi.
Poi possiamo discutere degli eventuali difetti e pregi di ogni brand, ma discutiamo sui dati tecnici e su dati effetivi.
Non ho problemi a riconoscere che io non sono all'altezza di seguire i discorsi di Yoss e Mikelezz, perchè non conosco l'architettura di una gpu (mi sono promesso di informarmi). Ma l'atteggiamenti partigiano proprio mi fa ridere, non ne capisco la ragione. E quell'atteggiamento è stato evidente quando Mikelezz ha scritto che con le schede ATI non è possibile attivare il v-sync. Ma scherziamo? Io compro da anni le schede ATI e ho sempre giocato con il v-sync attivo, ma quale credibilità posso attribuire a un utente che si sbatte così tanto per dimostrare che Nvidia è meglio, usando affermazioni false e dimostrando di non poter essere obiettivo perchè "offuscato" da una passione quasi "calcistica"?
Ma vuole comprare nvidia? Che compri nvidia! Ma non venga a raccontare frottole!