View Full Version : [THREAD UFFICIALE] Geforce 9800GTX + / GTS250
Pagine :
1
2
3
4
[
5]
6
7
8
9
10
11
12
13
14
Fire Hurricane
16-07-2008, 17:44
scusate la mia domanda idiota...percaso esistono motitor con risoluzioni intermedie a 1600 e 1900?
penso di no o comunque non sono standard
sta volta non ho alzato la voce, mi ha aggredito subito senza lasciarmi scampo.
mi è sembrato esasperato :ciapet:
:asd: un predator non poteva fare di peggio!
ot--per curiosità, come mai hai un avatar-amd?
i 40€ in + che citavo son diventati 27.5€.
http://www.trovaprezzi.it/categoria.aspx?libera=GTX260&id=28&prezzoMin=&prezzoMax=&sbox=sb
http://www.trovaprezzi.it/categoria.aspx?libera=4870&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)
direi che a questo punto si puo scegliere solo più per simpatia...
tuttavia, i prezzi di una scheda leggermente inferiore sono ancora leggermente superiori...Bho se qualcuno giudica importanti gli 800mb di ram....ci sta benissimo, ma taanto alle res. dove diverrebbero utili la gpu perderebbe qualche colpo...imho
yossarian
16-07-2008, 17:51
allora vedi che è una drittata perchè se fa di necessità fa virtù...
e poi ricordo che all'epoca del g80 anche tu ti complimentavi con nvidia per la drittata. e dato che il gt200 ne è figlio legittimo...come anche credo il gt300.
aspetta che nvidia adotti lo stesso pp a 55nm e poi vediamo a pari pp il risultato finale.
tocca aspettare. magari pure poco.
chissa.
nVidia con G80 e successivi ha scelto una strada più semplice per certi versi, quella del chip competamente in grado di bilanciuare i carichi e di ottenere in HW il massimo parallelismo (il che permette di avere le massime prestazioni con quasi tutte le applicazioni, comprese quelle dx9 e precedenti, funziona praticamente da subito e non necessita di particolari ottimizzazioni via SW); dall'altra è una scelta che all'aumentare della complessità dei chip rende la progettazione dell'HW sempre più difficile e pone dei limiti architetturali (l'avere uno shader core molto ingombrante, la necesità di introdurre alu fisiche fp64 per avere i calcoli in dp, ecc). Il fatto che abbia detto che si tratta di una necessità non contraddice l'ammirazione che ho detto di provare per la scelta di quella soluzione. Anzi lo riibadisco e ritengo che sia G80 che GT200 sono degli ottimi chip, che nVidia ha fatto un gran lavoro e che, per le soluzioni scelte, difficilmente si sarebbe potuto fare di meglio.
In quanto all'adozione del pp a 55 nm, si devono sottolineare due cose: ATi è in vantaggio di un pp e sta già lavorando allo shrink di RV770. ATi ha fatto una scelta differente a livello di dimensioni del chip: riesci a immaginare a quali prestazioni avrebbe potuto avere un ipotetico chip con le caratteristiche di RV770 grande quanto un GT200 a 55 nm (ovvero circa 420 mm^2)?
halduemilauno
16-07-2008, 18:04
nVidia con G80 e successivi ha scelto una strada più semplice per certi versi, quella del chip competamente in grado di bilanciuare i carichi e di ottenere in HW il massimo parallelismo (il che permette di avere le massime prestazioni con quasi tutte le applicazioni, comprese quelle dx9 e precedenti, funziona praticamente da subito e non necessita di particolari ottimizzazioni via SW); dall'altra è una scelta che all'aumentare della complessità dei chip rende la progettazione dell'HW sempre più difficile e pone dei limiti architetturali (l'avere uno shader core molto ingombrante, la necesità di introdurre alu fisiche fp64 per avere i calcoli in dp, ecc). Il fatto che abbia detto che si tratta di una necessità non contraddice l'ammirazione che ho detto di provare per la scelta di quella soluzione. Anzi lo riibadisco e ritengo che sia G80 che GT200 sono degli ottimi chip, che nVidia ha fatto un gran lavoro e che, per le soluzioni scelte, difficilmente si sarebbe potuto fare di meglio.In quanto all'adozione del pp a 55 nm, si devono sottolineare due cose: ATi è in vantaggio di un pp e sta già lavorando allo shrink di RV770. ATi ha fatto una scelta differente a livello di dimensioni del chip: riesci a immaginare a quali prestazioni avrebbe potuto avere un ipotetico chip con le caratteristiche di RV770 grande quanto un GT200 a 55 nm (ovvero circa 420 mm^2)?
quando per battuta paragonavo gli shader ati con quelli nvidia definendoli grandi grossi e fregnoni(e tu che sei di Roma capisci + degli altri cosa significhi)a parte andare a prendere il calibro, incazzarsi e poi a dirmi che non si possono fare paragoni tu adesso mi chiedi addirittura di immaginarmelo??????
esatto ati è in vantaggio di un pp. infatti dico aspettiamo il pari pp.
sta lavorando a un suo shrink ok ne prendo atto e vedremo.
non credo che nvidia stia pensando solo al nuovo pp da 55nm e basta.
è un continuo rincorrersi.
ps per il grassettato forza Roma.
;)
perchè si può spingere ancora di + sul fronte shader. sia relativo perchè hanno gia in partenza clock diversi e sia perchè sono separati quindi quando il core arriva al capolinea magari con gli shader puoi salire ancora di +.
una cosa è 625/625 che diventano 700/700 e un'altra è 738/1836 che diventano 840/2100. e a 840/2100 c'è il rischio che puoi cominciare a dare fastidio alla 4870. rischio. alle ris. tipiche della 9800gtx+ ovviamente.
ma cosa c'entra lo shader clock separato?? Se la mettiamo da questo punto di vista allora potrei benissimo risponderti che su una sono 128sp che vanno da 1836 a 2100 mentre sull'altra sono 800 che vanno da 625 a 700!!! Le cose non cambiano eh!! :D
E poi non guardiamo il lato numerico del clock, guardiamo il lato prestazioni: a 690/1050 ho guadagnato il 13% di performance in crysis e TUTTI sono riusciti ad arrivare come minimo a 700/1100 senza vmod (quindi arrotondiamo al 15%, anche se è di più di sicuro). Con un overvolt a 1.2v (possibile senza vmod) si arriva a 730 come minimo, quindi facciamo un "quasi 20%". Secondo te la 9800GTX+ occata quanto guadagna? Se guadagna il 10%/15% è già tantissimo, IMHO. :)
+12% di rv770 a 700 MHz
+13% core e +14% shaders su G92b
Non mi pare tutto questo abisso incrementale di differenza tra le due vga, differiscono si e no di un 1/2%
Certo come se la hd4870 non si overclocchi per nulla.... la HD4850 è distante dal 20/30% rispetto alla HD4870, questo rischio con la 9800gtx+ non c'è di raggiungerla.......
e poi bisogna vedere quanto scala la 4850 all'overclock e quanto la 9800GTX, la 1° scala quasi linermente (+13% sul core clock = +13% sulle performance se si occano anche 1 po' le RAM), la 2° invece da voci sentite non pare scalare linearmente, ma pare scalare meno. Ovviamente non avendo avuto la scheda non posso dirlo, però posso dire che la 4850 scala quasi linearmente. ;)
si parlava di consumi, non di prestazioni: dovevi proprio sottolinearlo nel tread della 9800gtx+, nevvero? :)
beh non ha detto nulla di male o di falso, ha solo detto la verità e nel 3d della 9800gtx+ penso che sia normalissimo confrontarla con le sua diretta concorrente (4850).
Proprio la questione dei filtri è ciò che mi fa preferire la 4850 alle 9800GTX anche se le vga fossero a parità di prezzo.
Un po' come accade tra 9600GT e 3870, la 1° in genere va + lenta della seconda, ma con i filtri la 1° si mangia la 2° e infatti tra le 2 preferisco la 1° (tant'è che la stavo anche comprando a fine maggio, per fortuna che ho voluto aspettare la 4850)! ;)
euronymous86x
16-07-2008, 18:35
perchè si può spingere ancora di + sul fronte shader. sia relativo perchè hanno gia in partenza clock diversi e sia perchè sono separati quindi quando il core arriva al capolinea magari con gli shader puoi salire ancora di +.
una cosa è 625/625 che diventano 700/700 e un'altra è 738/1836 che diventano 840/2100. e a 840/2100 c'è il rischio che puoi cominciare a dare fastidio alla 4870. rischio. alle ris. tipiche della 9800gtx+ ovviamente.
Quindi tu dici che con quelle frequenze può dare fastidio ad una 4870 ? Dove lo hai letto ?
Non mi sembra che sia così, qui c'è una 9800gtx messa a liquido che va di più di una 9800gtx+ http://www.guru3d.com/article/bfg-geforce-9800-gtx-h2oc-review/12
Di quanto l'hai overcloccata la tua scheda video ?
Piuttosto, che monitor consigliereste , un 1280x1024 è poco ?
invece si posso dimostrarlo caro mio, fai un saltino nel thread ufficiale, nessuna sale a oltre 700Mhz in daily. Oppure puoi benissimo guardare le recensioni. Nessuno ce la fa.
Ma chi ha parlato di Physix ???
Stai delirando :ciapet:
MODERA I TERMINI CMQ.
... non voglio alimentare il flame, ma forse un giretto nel 3d ufficiale della 4850 dovresti farlo tu e non michelgaetano che lo legge da quando è aperto! ;)
direi che a questo punto si puo scegliere solo più per simpatia...
tuttavia, i prezzi di una scheda leggermente inferiore sono ancora leggermente superiori...Bho se qualcuno giudica importanti gli 800mb di ram....ci sta benissimo, ma taanto alle res. dove diverrebbero utili la gpu perderebbe qualche colpo...imho
esatto, per lo scontro GTX260 - 4870 anche per me si sceglie solo x simpatia ora come ora, anzi, probabilmente io stesso (che in genere simpatizzo x ATI) prenderei una GTX260 a quei prezzi visto che consuma pure meno in IDLE. Ati ora deve abbassare il prezzo della 4870... :)
halduemilauno
16-07-2008, 18:43
Quindi tu dici che con quelle frequenze può dare fastidio ad una 4870 ? Dove lo hai letto ?
Non mi sembra che sia così, qui c'è una 9800gtx messa a liquido che va di più di una 9800gtx+ http://www.guru3d.com/article/bfg-geforce-9800-gtx-h2oc-review/12
una 9800gtx oc a liquido(e quindi con frequenze superiori alla stessa 9800gtx+)che va + di una 9800gtx+????
:eek: :D
tornando seri che centra quella rece con la 9800gtx+ oc????? specie quando essa è oc a 840/2100/2400????
quando per battuta paragonavo gli shader ati con quelli nvidia definendoli grandi grossi e fregnoni(e tu che sei di Roma capisci + degli altri cosa significhi)a parte andare a prendere il calibro, incazzarsi e poi a dirmi che non si possono fare paragoni tu adesso mi chiedi addirittura di immaginarmelo??????
esatto ati è in vantaggio di un pp. infatti dico aspettiamo il pari pp.
sta lavorando a un suo shrink ok ne prendo atto e vedremo.
non credo che nvidia stia pensando solo al nuovo pp da 55nm e basta.
è un continuo rincorrersi.
ps per il grassettato forza Roma.
;)
eheh :D
ancora ci dai con grandi grossi e fregnoni :asd:
ormai è uno slogan :asd: :asd: :asd:
;)
euronymous86x
16-07-2008, 18:49
In che senso tornando seri ? Se da 730 mhz arrivando a 790 mhz guadagna pochi fps mentre ne guadagna di più in % da 675 a 730 , aumentando il core ad 840 non si dovrebbe guadagnare ancora di meno ?
Dove hai letto che una 9800gtx+ OC a quelle frequenze minaccia la 4870 ?
Solo per capire perchè in quella recensione persino la super megacazzuta 9800gtx+ messa a liquido in certi casi viene battuta dalla 4850 .
Per questo mi sembrava strano e vorrei capire per giustificare un prossimo acquisto :) .
halduemilauno
16-07-2008, 18:56
ma cosa c'entra lo shader clock separato?? Se la mettiamo da questo punto di vista allora potrei benissimo risponderti che su una sono 128sp che vanno da 1836 a 2100 mentre sull'altra sono 800 che vanno da 625 a 700!!! Le cose non cambiano eh!! :D
E poi non guardiamo il lato numerico del clock, guardiamo il lato prestazioni: a 690/1050 ho guadagnato il 13% di performance in crysis e TUTTI sono riusciti ad arrivare come minimo a 700/1100 senza vmod (quindi arrotondiamo al 15%, anche se è di più di sicuro). Con un overvolt a 1.2v (possibile senza vmod) si arriva a 730 come minimo, quindi facciamo un "quasi 20%". Secondo te la 9800GTX+ occata quanto guadagna? Se guadagna il 10%/15% è già tantissimo, IMHO. :)
allora la tua scheda si oc da 625 a 700(arrotondiamo) sia per il core che quindi per gli shader. mentre l'altra si oc di 100 sul core e di 250 sugli shader(niente v mod.) e le cose non cambiano. e stiamo parlando di schede che nel complesso, a default, potremmo dire che stanno li li.
:rotfl: :rotfl: :rotfl:
halduemilauno
16-07-2008, 19:03
eheh :D
ancora ci dai con grandi grossi e fregnoni :asd:
ormai è uno slogan :asd: :asd: :asd:
;)
no no tranquilli. ho solo ritirato fuori la vecchia battuta perchè richiesta dalle circostanze.
allora la tua scheda si oc da 625 a 700(arrotondiamo) sia per il core che quindi per gli shader. mentre l'altra si oc di 100 sul core e di 250 sugli shader(niente v mod.) e le cose non cambiano. e stiamo parlando di schede che nel complesso, a default, potremmo dire che stanno li li.
:rotfl: :rotfl: :rotfl:
stanno li senza filtri...
cmq ti ripeto che in una salgono di 75mhz 800sp nell'altra salgono di 250mhz 128sp... il risultato non è proprio lo stesso, IMHO. :read:
(mi risponderai dicendo che gli 800sp sono grandi grossi e fregnoni? :p )
:asd:
no no tranquilli. ho solo ritirato fuori la vecchia battuta perchè richiesta dalle circostanze.
dovresti metterla in firma :asd: :asd:
appleroof
16-07-2008, 19:04
beh non ha detto nulla di male o di falso, ha solo detto la verità e nel 3d della 9800gtx+ penso che sia normalissimo confrontarla con le sua diretta concorrente (4850).
Proprio la questione dei filtri è ciò che mi fa preferire la 4850 alle 9800GTX anche se le vga fossero a parità di prezzo.
Un po' come accade tra 9600GT e 3870, la 1° in genere va + lenta della seconda, ma con i filtri la 1° si mangia la 2° e infatti tra le 2 preferisco la 1° (tant'è che la stavo anche comprando a fine maggio, per fortuna che ho voluto aspettare la 4850)! ;)
esatto, ma non guardare solo il contenuto del mio post, ma anche quello quotato, il contesto in cui lo si diceva ecc...
in tutto ciò quella frase (vera in sè) suona gratuita e quindi un pò "forzata" tutto qui, ovviamente nulla di drammatico ci mancherebbe altro (fossero quelli i flamers non ci sarebbe bisogno di moderatori nei forum :asd: ) , se lo avessi fatto io magari me lo avrebbero fatto notare come è successo 10000000000 volte :)
euronymous86x
16-07-2008, 19:04
In che senso tornando seri ? Se da 730 mhz arrivando a 790 mhz guadagna pochi fps mentre ne guadagna di più in % da 675 a 730 , aumentando il core ad 840 non si dovrebbe guadagnare ancora di meno ?
Dove hai letto che una 9800gtx+ OC a quelle frequenze minaccia la 4870 ?
Solo per capire perchè in quella recensione persino la super megacazzuta 9800gtx+ messa a liquido in certi casi viene battuta dalla 4850 .
Per questo mi sembrava strano e vorrei capire per giustificare un prossimo acquisto :) .
:help:
esatto, ma non guardare solo il contenuto del mio post, ma anche quello quotato, il contesto in cui lo si diceva ecc...
in tutto ciò quella frase (vera in sè) suona gratuita e quindi un pò "forzata" tutto qui, ovviamente nulla di drammatico ci mancherebbe altro (fossero quelli i flamers non ci sarebbe bisogno di moderatori nei forum :asd: ) , se lo avessi fatto io magari me lo avrebbero fatto notare come è successo 10000000000 volte :)
si beh forse è vero quello che dici e visto il contesto era anche "dicibile" ( :asd: )
P.s.: anche se lo avessi detto io me lo avreste fatto notare. :Prrr:
Ma è già in vendita in italia la GTX+? Il trovaprezzi non distingue il + e quindi e mi compaiono anche le GTX "lisce"...
:help:
la 4850 batte la 9800GTX supermegaOC solo in situazioni diciamo "limite" (anche se per me non lo sono tali) cioè con filtri 8x e da 1680x1050 in su.
Per il resto è impossibile che una 9800GTX raggiunga o superi una 4870 anche se si parla della GTX+ super mega occata. A meno che non si parli di LOST PLANET, ma allora anche una 9600GT supera la 4870 :asd: :asd:
halduemilauno
16-07-2008, 19:13
stanno li senza filtri...
cmq ti ripeto che in una salgono di 75mhz 800sp nell'altra salgono di 250mhz 128sp... il risultato non è proprio lo stesso, IMHO. :read:
(mi risponderai dicendo che gli 800sp sono grandi grossi e fregnoni? :p )
:asd:
no basta battute.
appleroof
16-07-2008, 19:14
si beh forse è vero quello che dici e visto il contesto era anche "dicibile" ( :asd: )
P.s.: anche se lo avessi detto io me lo avreste fatto notare. :Prrr:
Ma è già in vendita in italia la GTX+? Il trovaprezzi non distingue il + e quindi e mi compaiono anche le GTX "lisce"...
ovvio, non c'azzeccava niente :D ;)
yossarian
16-07-2008, 19:16
quando per battuta paragonavo gli shader ati con quelli nvidia definendoli grandi grossi e fregnoni(e tu che sei di Roma capisci + degli altri cosa significhi)a parte andare a prendere il calibro, incazzarsi e poi a dirmi che non si possono fare paragoni tu adesso mi chiedi addirittura di immaginarmelo??????
in effetti sono gli shader di nVidia ad essere più grandi e grossi :D .
Comunque non è difficile fare due calcoli: in quello spazio in più (420 mm^2 ipotetici contro gli attuali 256 reali) si potrebbe allocare circa il 60% dello shader core di RV770, ovvero altre 480 alu (o se preferisci, altri 96 sp da 5 alu ciascuno), il che porterebbe il totale a 256 sp o 1280 alu con relative TU.
Ovviamente a quel punto lieviterebbero, inevitabilmente, anche i costi di produzione di RV770 e, di conseguenza, i prezzi delle vga, nonchè i consumi oltre che, last but not the least, le prestazioni.
esatto ati è in vantaggio di un pp. infatti dico aspettiamo il pari pp.
sta lavorando a un suo shrink ok ne prendo atto e vedremo.
non credo che nvidia stia pensando solo al nuovo pp da 55nm e basta.
è un continuo rincorrersi.
;)
infatti è un continuo rincorrersi ma se ATi poteva scegliere la strada del celolunghismo e non l'ha fatto, al contrario, nVidia, col processo produttivo (65 nm) e l'architettura che aveva a disposizione, non poteva fare diversamente da come ha fatto, salvo realizzare un chip ancora più grande, con rese produttive inferiori alle già non eccelse del GT200, oppure rinunciare ai calcoli in dp e riservare tutto lo spazio ad alu fp32.
nVidia non sta pensando solo ai 55 nm, ma è un fatto che ancora deve arrivare ai 55 nm (sta per uscire il primo chip basato su un'architettura ormai consolidata e meno complessa di quella di GT200 col nuovo pp non ancora affinato).
Nulla impedisce di fantasticare su un prossimo chip, da qui a 2 o 3 mesi, a 40 nm, dx11, con centinaia di unità di calcolo in più: ma si tratta appunto di fantasie
yossarian
16-07-2008, 19:19
si parlava di consumi, non di prestazioni: dovevi proprio sottolinearlo nel tread della 9800gtx+, nevvero? :)
era necessario, dal momento in cui, quando si parla di consumi ci si riferisce ad una review e quando di prestazioni ad un'altra, in base a quella che fa più comodo prendere :D
Ovviamente non parlo di te, ma mi sembra un'usanza assai diffusa :D
appleroof
16-07-2008, 19:19
cut
infatti è un continuo rincorrersi ma se ATi poteva scegliere la strada del celolunghismo e non l'ha fatto, al contrario, nVidia, col processo produttivo (65 nm) cut
e r700 che è? :D
era necessario, dal momento in cui, quando si parla di consumi ci si riferisce ad una review e quando di prestazioni ad un'altra, in base a quella che fa più comodo prendere :D
Ovviamente non parlo di te, ma mi sembra un'usanza assai diffusa :D
assolutamente :asd:
e r700 che è? :D
beh... non è un chip monolitico, è una VGA multigpu... :read:
halduemilauno
16-07-2008, 19:25
in effetti sono gli shader di nVidia ad essere più grandi e grossi :D .
Comunque non è difficile fare due calcoli: in quello spazio in più (420 mm^2 ipotetici contro gli attuali 256 reali) si potrebbe allocare circa il 60% dello shader core di RV770, ovvero altre 480 alu (o se preferisci, altri 96 sp da 5 alu ciascuno), il che porterebbe il totale a 256 sp o 1280 alu con relative TU.
Ovviamente a quel punto lieviterebbero, inevitabilmente, anche i costi di produzione di RV770 e, di conseguenza, i prezzi delle vga, nonchè i consumi oltre che, last but not the least, le prestazioni.
infatti è un continuo rincorrersi ma se ATi poteva scegliere la strada del celolunghismo e non l'ha fatto, al contrario, nVidia, col processo produttivo (65 nm) e l'architettura che aveva a disposizione, non poteva fare diversamente da come ha fatto, salvo realizzare un chip ancora più grande, con rese produttive inferiori alle già non eccelse del GT200, oppure rinunciare ai calcoli in dp e riservare tutto lo spazio ad alu fp32.
nVidia non sta pensando solo ai 55 nm, ma è un fatto che ancora deve arrivare ai 55 nm (sta per uscire il primo chip basato su un'architettura ormai consolidata e meno complessa di quella di GT200 col nuovo pp non ancora affinato).
Nulla impedisce di fantasticare su un prossimo chip, da qui a 2 o 3 mesi, a 40 nm, dx11, con centinaia di unità di calcolo in più: ma si tratta appunto di fantasie
mai sentito. cmq personalmente ho detto prossima primavera. quindi altro che 2/3 mesi 8/10 mesi.
in quanto al resto è evidente che ati ha fatto una scelta diversa che non prevede e/o permette il mega chippone in stile nvidia come tu hai ben disegnato. scelte o magari consapevolezza che tutto questo ha un costo in ricerca e sviluppo che magari non se lo può permettere e da li la scelta tanto saggia quanto obbligata di fare un chip + umano e metterne due per pareggiare/superare i conti dell'avversario.
strade diverse. quante volte è stato detto...
appleroof
16-07-2008, 19:25
beh... non è un chip monolitico, è una VGA multigpu... :read:
è multi gpu solo perchè gli conviene farla così, non certo perchè Ati ha rinunciato al legittimo celolunghismo (che ad esempio spiega nel recente passato la 9800gx2) che c'è da anni e anni ;)
yossarian
16-07-2008, 19:31
e r700 che è? :D
uno step ulteriore verso un approccio multigpu (o meglio multichip) di tipo modulare
appleroof
16-07-2008, 19:39
uno step ulteriore verso un approccio multigpu (o meglio multichip) di tipo modulare
si questo è chiaro ormai e credo sia def. questa la strada di Ati, almeno per il futuro prox (tra l'altro intelligente devo dire, visti i risultati) ed è una scelta tecnica in senso stretto
ma per celolunghismo intendo stare sempre (per quanto possibile) avanti alla concorrenza, con la "scheda ammiraglia" e 4870x2 ha l'obiettivo di battere in prestazioni gtx 280, allora Nvidia cercherà di ribaltare la situazione con gtx290, allora Ati...
insomma celolunghismo=fascia entusiasth (con 1, 2, 3, 20 chip l'importante è il risultato)
yossarian
16-07-2008, 20:40
la 4850 batte la 9800GTX supermegaOC solo in situazioni diciamo "limite" (anche se per me non lo sono tali) cioè con filtri 8x e da 1680x1050 in su.
Per il resto è impossibile che una 9800GTX raggiunga o superi una 4870 anche se si parla della GTX+ super mega occata. A meno che non si parli di LOST PLANET, ma allora anche una 9600GT supera la 4870 :asd: :asd:
situazioni che, volendo parlare di longevità, con le dx10.1 e con le dx11 diventeranno lo standard (parlo di MSAA almeno in modalità 4x e blending a 16 bit anzichè 8 come requisito minimo per le dx10.1 )
Stai delirando :ciapet:
MODERA I TERMINI CMQ.
moderali tu e rispetta la tua parola data in pvt.
>bYeZ<
si questo è chiaro ormai e credo sia def. questa la strada di Ati, almeno per il futuro prox (tra l'altro intelligente devo dire, visti i risultati) ed è una scelta tecnica in senso stretto
ma per celolunghismo intendo stare sempre (per quanto possibile) avanti alla concorrenza, con la "scheda ammiraglia" e 4870x2 ha l'obiettivo di battere in prestazioni gtx 280, allora Nvidia cercherà di ribaltare la situazione con gtx290, allora Ati...
insomma celolunghismo=fascia entusiasth (con 1, 2, 3, 20 chip l'importante è il risultato)
ok ho capito, pensavo intendessi celolunghismo=megachippone, comunque è vero che ATI e NVIDIA hanno sempre combattuto per il celolunghismo, ultimamente ATI in modo diverso, ma sempre x quello. (e devo dire che la 4870x2 sembra ancora + mastodontica e celolunghista della GTX280, sia in dimensioni che in consumo). Eheh :D
situazioni che, volendo parlare di longevità, con le dx10.1 e con le dx11 diventeranno lo standard (parlo di MSAA almeno in modalità 4x e blending a 16 bit anzichè 8 come requisito minimo per le dx10.1 )
spero che diventino lo standard, anche perchè sinceramente dell'AA io non posso farne proprio a meno, nemmeno a 1920x1200 dove in genere le scalettature si vedono molto meno! :)
Infatti ho sempre preferito ATI rispetto ad nvidia proprio x le performance con AA attivo, anche se con R600 avrei preferito nvidia (infatti stavo per prendere la 9600GT), per fortuna ke con RV770 ATI è ritornata sulla sua strada.
Comunque anche GT200 gestisce bene l'AA, meglio che G80/G92 e al pari di RV770... :)
euronymous86x
17-07-2008, 07:39
In che senso tornando seri ? Se da 730 mhz arrivando a 790 mhz guadagna pochi fps mentre ne guadagna di più in % da 675 a 730 , aumentando il core ad 840 non si dovrebbe guadagnare ancora di meno ?
Dove hai letto che una 9800gtx+ OC a quelle frequenze minaccia la 4870 ?
Solo per capire perchè in quella recensione persino la super megacazzuta 9800gtx+ messa a liquido in certi casi viene battuta dalla 4850 .
Per questo mi sembrava strano e vorrei capire per giustificare un prossimo acquisto :) .
Quindi non è vera la frase in grassetto sottolineata ? Nemmeno mi ha risposto .. :mbe:
halduemilauno
17-07-2008, 08:14
Quindi non è vera la frase in grassetto sottolineata ? Nemmeno mi ha risposto .. :mbe:
http://www.legitreviews.com/article/732/2/
ti fai un'idea delle sue capacità.
euronymous86x
17-07-2008, 08:20
Appunto, non mi sembra che sia granchè considerando il fatto che costano quasi uguale .. http://www.pctuner.net/articoli/schede_video/1067/HIS-Radeon-HD4870-grande-potenza-e-prezzo-interessante/6.html
halduemilauno
17-07-2008, 08:29
Appunto, non mi sembra che sia granchè considerando il fatto che costano quasi uguale .. http://www.pctuner.net/articoli/schede_video/1067/HIS-Radeon-HD4870-grande-potenza-e-prezzo-interessante/6.html
allora non è la sezione giusta questa. se ne dovrebbe parlare in consigli per gli acquisti.
ora la 9800gt+ è superiore alla 4850. se la oc da 800/2000/24000 in su è chiaro che si avvicina molto e in qualche caso supera la 4870 ma la 4870 default. il mio discorso era solo per far capire quanto questa scheda la 9800gtx+ si oc e quanto il suo oc fosse prestante. è chiaro ora. la 4870 è un'altra fascia di scheda essa si confronta con la gtx260. ora tu quanto hai da spendere? che monitor hai? che pc hai?
ti consiglio di aprire un thread nella sezione indicata e li ti si potrà dare tutte le risposte che vuoi.
Mister Tarpone
17-07-2008, 08:33
Appunto, non mi sembra che sia granchè considerando il fatto che costano quasi uguale .. http://www.pctuner.net/articoli/schede_video/1067/HIS-Radeon-HD4870-grande-potenza-e-prezzo-interessante/6.html
Crysis che in very high fa 37fps a 1920x1200 con la 4870 e quasi 30 con la 9800GTX??? :rotfl:
ma via... basta con sti errori madornali :asd:
euronymous86x
17-07-2008, 08:35
Crysis che in very high fa 37fps a 1920x1200 con la 4870 e quasi 30 con la 9800GTX??? :rotfl:
ma via... basta con sti errori madornali :asd:
In che senso ? http://www.techpowerup.com/reviews/Powercolor/HD_4850/23.html
Vuoi dire che è meglio una gtx ? Il fatto è che spendendo poco più mi prenderei una 4870 .. Bho ..
Mister Tarpone
17-07-2008, 08:39
Vuoi dire che è meglio una gtx ? Il fatto è che spendendo poco più mi prenderei una 4870 .. Bho ..
No. voglio dire che è impossibile che abbiano quelle prestazioni in very high...
quindi si saranno sbagliati... quei fps li con Crysis son possibili solo con impostazioni su high.. :asd:
halduemilauno
17-07-2008, 08:39
In che senso ? http://www.techpowerup.com/reviews/Powercolor/HD_4850/23.html
Vuoi dire che è meglio una gtx ? Il fatto è che spendendo poco più mi prenderei una 4870 .. Bho ..
in questa rece la 9800gtx+ non c'è. stai postando nel thread di una scheda che nelle rece che posti non c'è. fai come ti ho consigliato aprine uno nella sezione giusta e comincia col dire tutte le info richieste.
http://www.hwupgrade.it/forum/forumdisplay.php?f=71
euronymous86x
17-07-2008, 08:41
Crysis che in very high fa 37fps a 1920x1200 con la 4870 e quasi 30 con la 9800GTX??? :rotfl:
ma via... basta con sti errori madornali :asd:
In che senso ? http://www.techpowerup.com/reviews/Powercolor/HD_4850/23.html
allora non è la sezione giusta questa. se ne dovrebbe parlare in consigli per gli acquisti.ora la 9800gt+ è superiore alla 4850. se la oc da 800/2000/24000 in su è chiaro che si avvicina molto e in qualche caso supera la 4870 ma la 4870 default. il mio discorso era solo per far capire quanto questa scheda la 9800gtx+ si oc e quanto il suo oc fosse prestante. è chiaro ora. la 4870 è un'altra fascia di scheda essa si confronta con la gtx260. ora tu quanto hai da spendere? che monitor hai? che pc hai?ti consiglio di aprire un thread nella sezione indicata e li ti si potrà dare tutte le risposte che vuoi.
Va bene , però scusami .. se overclocco la gtx non posso pure overcloccare la 4850/70 ? Nel thread delle 4850 dicono che si arriva anche a 700 e più di core con un guadagno del 15% con crysis . Ora, la gtx oc guadagna il 15 % in crysis ?
Credo che sia questa la sezione adatta perchè se non si parla qui di prestazioni di queste schede, dove se ne dovrebbe parlare ?
Mister Tarpone
17-07-2008, 08:44
In che senso ?
ti avevo risposto
No. voglio dire che è impossibile che abbiano quelle prestazioni in very high...
quindi si saranno sbagliati... quei fps li con Crysis son possibili solo con impostazioni su high.. :asd:
capito?? :asd:
halduemilauno
17-07-2008, 08:47
In che senso ? http://www.techpowerup.com/reviews/Powercolor/HD_4850/23.html
Va bene , però scusami .. se overclocco la gtx non posso pure overcloccare la 4850/70 ? Nel thread delle 4850 dicono che si arriva anche a 700 e più di core con un guadagno del 15% con crysis . Ora, la gtx oc guadagna il 15 % in crysis ?
Credo che sia questa la sezione adatta perchè se non si parla qui di prestazioni di queste schede, dove se ne dovrebbe parlare ?
in quel specifico gioco le schede nvidia gia partono avvantaggiate quindi la 9800gtx+ è superiore alla 4850. certo tutte le schede si oc ma la 9800gtx+ ha una capacità in oc superiore a molte altre schede. gia essa è la versione oc della 9800gtx e aggiunge alla 9800gtx+ ulteriori capacità nell'ordine dei 100/250/200 core/shader/memoria. capacità e risultato finale che la mette al riparo da qualunque 4850 oc. a quelle frequenze impensierirebbe anche la 4870 default. lo ripeto ti cito la 4870 solo per farti capire meglio.
Tidus.hw
17-07-2008, 09:02
in quel specifico gioco le schede nvidia gia partono avvantaggiate quindi la 9800gtx+ è superiore alla 4850. certo tutte le schede si oc ma la 9800gtx+ ha una capacità in oc superiore a molte altre schede. gia essa è la versione oc della 9800gtx e aggiunge alla 9800gtx+ ulteriori capacità nell'ordine dei 100/250/200 core/shader/memoria. capacità e risultato finale che la mette al riparo da qualunque 4850 oc. a quelle frequenze impensierirebbe anche la 4870 default. lo ripeto ti cito la 4870 solo per farti capire meglio.
non hai risposto alla sua domanda :asd:
la verità è che attualmente le 4k scalano molto meglio delle nvidia g80/g92 all'aumentare del clock.. quindi con un aumento del clock del 15% è molto difficile che una 9800gtx ad esempio faccia il 15% di fps in più.. :)
Fire Hurricane
17-07-2008, 09:16
si ma da quanto ho potuto vedere la GTX+ arriva anche a 850Mhz e oltre.
si ma da quanto ho potuto vedere la GTX+ arriva anche a 850Mhz e oltre.
e la 4850 può arrivare anche a 730 e oltre... siamo sempre lì... ;)
le vga si paragonano a def e non in overclock, e se proprio si vuole vedere chi in overclock "ce l'ha più lungo" la risposta è: nessuna delle 2! Infatti la GTX+ sale di più in termini di frequenze, ma la 4850 scala meglio al salire della frequenza... :read: :)
michelgaetano
17-07-2008, 11:32
Quello che non capisco è come 738 --> 850 della 9800 gtx sia un OC "fortissimo" e il 625 --> 720/730 delle 4850 faccia schifo e le schede non si overclockano o "non possono impensierire una 9800 gtx + in OC".
Quindi non è vera la frase in grassetto sottolineata ? Nemmeno mi ha risposto .. :mbe:
No, è un'amenità.
halduemilauno
17-07-2008, 11:38
Quello che non capisco è come 738 --> 850 della 9800 gtx sia un OC "fortissimo" e il 625 --> 720/730 delle 4850 faccia schifo e le schede non si overclockano o "non possono impensierire una 9800 gtx + in OC".
No, è un'amenità.
lo ripeto. 100 mega in + su una scheda ati sono 100 mega in + e basta. 100 mega in + su una scheda nvidia sono 100 mega in + sul core e 250 in + sugli shader.
con questo sia chiaro non sto affatto dicendo che una non si oc e l'altra si. non sto affatto dicendo che una si oc e l'altra del 2.5 volte di +. sto dicendo che l'oc delle nvidia grazie alla loro specifica architettura può/ha una valenza diversa.
adesso è chiaro????
lo ripeto. 100 mega in + su una scheda ati sono 100 mega in + e basta. 100 mega in + su una scheda nvidia sono 100 mega in + sul core e 250 in + sugli shader.
con questo sia chiaro non sto affatto dicendo che una non si oc e l'altra si. non sto affatto dicendo che una si oc e l'altra del 2.5 volte di +. sto dicendo che l'oc delle nvidia grazie alla loro specifica architettura può/ha una valenza diversa.
adesso è chiaro????
ok ho capito, ma non è vero che l'OC ha una valenza diversa, perchè le 4850 scalano molto bene all'aumentare della frequenza, cosa che non fanno le nvidia. Questo proprio perchè a salire di 250mhz sulle nvidia sono 128sp mentre a salire di 100mhz sulle ATI sono 800sp... :)
Dicendo questo non voglio dire che le 9800gtx non si occano, perchè si occano e anche molto bene, ma lo stesso vale per le ATI, quindi in overclock le 2 schede si può dire che vanno uguali. In definitiva, vanno uguali a def e vanno uguali in overclock. :read:
yossarian
17-07-2008, 11:58
spero che diventino lo standard, anche perchè sinceramente dell'AA io non posso farne proprio a meno, nemmeno a 1920x1200 dove in genere le scalettature si vedono molto meno! :)
Infatti ho sempre preferito ATI rispetto ad nvidia proprio x le performance con AA attivo, anche se con R600 avrei preferito nvidia (infatti stavo per prendere la 9600GT), per fortuna ke con RV770 ATI è ritornata sulla sua strada.
Comunque anche GT200 gestisce bene l'AA, meglio che G80/G92 e al pari di RV770... :)
non con MSAA 8x (con cui crolla, per i chip nVidia, persino lo z-fillrate) e non certo con path dx10.1 o dx11: parlavo di longevità proprio per questo: grazie all'utilizzo di MRT, i chip RV670, RV770 e successivi, con MSAA 4x hanno prestazioni pressochè uguali a quelle ottenibili senza AA e in modalità 8x calano di poco perchè fanno meno passaggi di rendering (quello che succedeva con la path dx10.1 di assassin creed che si sono affrettati a far rimuovere :D )
yossarian
17-07-2008, 12:01
lo ripeto. 100 mega in + su una scheda ati sono 100 mega in + e basta. 100 mega in + su una scheda nvidia sono 100 mega in + sul core e 250 in + sugli shader.
con questo sia chiaro non sto affatto dicendo che una non si oc e l'altra si. non sto affatto dicendo che una si oc e l'altra del 2.5 volte di +. sto dicendo che l'oc delle nvidia grazie alla loro specifica architettura può/ha una valenza diversa.
adesso è chiaro????
non è l'incremento in MHz ma quello in % quello che conta
euronymous86x
17-07-2008, 12:03
non hai risposto alla sua domanda :asd:
la verità è che attualmente le 4k scalano molto meglio delle nvidia g80/g92 all'aumentare del clock.. quindi con un aumento del clock del 15% è molto difficile che una 9800gtx ad esempio faccia il 15% di fps in più.. :)
e la 4850 può arrivare anche a 730 e oltre... siamo sempre lì... ;)
le vga si paragonano a def e non in overclock, e se proprio si vuole vedere chi in overclock "ce l'ha più lungo" la risposta è: nessuna delle 2! Infatti la GTX+ sale di più in termini di frequenze, ma la 4850 scala meglio al salire della frequenza... :read: :)
Quello che non capisco è come 738 --> 850 della 9800 gtx sia un OC "fortissimo" e il 625 --> 720/730 delle 4850 faccia schifo e le schede non si overclockano o "non possono impensierire una 9800 gtx + in OC".
No, è un'amenità.
non è l'incremento in MHz ma quello in % quello che conta
Capito perfettamente , quello che veniva fatto presente nelle recensioni in molti casi ad alte impostazioni e risoluzioni :Perfido:
Grazie
ps: una 8800gtx a 100 euro come la vedete ?
halduemilauno
17-07-2008, 12:04
ok ho capito, ma non è vero che l'OC ha una valenza diversa, perchè le 4850 scalano molto bene all'aumentare della frequenza, cosa che non fanno le nvidia. Questo proprio perchè a salire di 250mhz sulle nvidia sono 128sp mentre a salire di 100mhz sulle ATI sono 800sp... :)
Dicendo questo non voglio dire che le 9800gtx non si occano, perchè si occano e anche molto bene, ma lo stesso vale per le ATI, quindi in overclock le 2 schede si può dire che vanno uguali. In definitiva, vanno uguali a def e vanno uguali in overclock. :read:
ovviamente no. ti devo fare la solita battuta sui 128 vs 800? i bene informati dicono che non si possono confrontare(cose straovvie la battuta infatti aveva valenza come tale)quindi...
Fire Hurricane
17-07-2008, 12:06
No. voglio dire che è impossibile che abbiano quelle prestazioni in very high...
quindi si saranno sbagliati... quei fps li con Crysis son possibili solo con impostazioni su high.. :asd:
no invece è verissimo, forse l'unica recensione che dice la verità su questo.
In very high DX10 con le GTX 200 e le HD 48x0 gira benissimo anche con i filtri.
E' stato provato pure.
Mister Tarpone
17-07-2008, 12:15
no invece è verissimo, forse l'unica recensione che dice la verità su questo.
In very high DX10 con le GTX 200 e le HD 48x0 gira benissimo anche con i filtri.
E' stato provato pure.
ma vero cosa??? :asd:
quella rece ha sbagliato a scrivere very high :asd:
dai ragiona un attimino :) ti pare possibile che per esempio, una 3870 in very high con aa4x riesca a fare 25fps a 1280x1024?? ma per piacere.. manco li regge su high :)
poi la 4870 che fa 37 fps a 1920x1200.. cioè :rotfl:
guarda qui su hwupgrade come vanno in dx10:
http://www.hwupgrade.it/articoli/skvideo/1999/comparativa-schede-video-luglio-2008_5.html
e c'è una caterva di altre review sparse per internet che dimostrano le stesse prestazioni scadenti..
ma vero cosa??? :asd:
quella rece ha sbagliato a scrivere very high :asd:
dai ragiona un attimino :) ti pare possibile che per esempio, una 3870 in very high con aa4x riesca a fare 25fps a 1280x1024?? ma per piacere.. manco li regge su high :)
poi la 4870 che fa 37 fps a 1920x1200.. cioè :rotfl:
guarda qui su hwupgrade come vanno in dx10:
http://www.hwupgrade.it/articoli/skvideo/1999/comparativa-schede-video-luglio-2008_5.html
e c'è una caterva di altre review sparse per internet che dimostrano le stesse prestazioni scadenti..
quotissimo! sono impossibili quelle performance in VH a 1920x1200, sono in HIGH sicuramente!!
no invece è verissimo, forse l'unica recensione che dice la verità su questo.
In very high DX10 con le GTX 200 e le HD 48x0 gira benissimo anche con i filtri.
E' stato provato pure.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/20/#abschnitt_crysis
Test VH a tutte le risoluzioni anche con i filtri. Una GTX280 a 1920x1200VH@4xAA fa 15fps, senza AA 21 :rolleyes:
gianni1879
17-07-2008, 12:46
non è l'incremento in MHz ma quello in % quello che conta
quì ultimamente si guardano i MHz senza invece guardare gli incrementi percentuali, come anche scritto qualche post dietro
Tidus.hw
17-07-2008, 13:04
ps: una 8800gtx a 100 euro come la vedete ?
penso che la piazzerai nel giro di qualche minuto :asd:
lo ripeto. 100 mega in + su una scheda ati sono 100 mega in + e basta. 100 mega in + su una scheda nvidia sono 100 mega in + sul core e 250 in + sugli shader.
con questo sia chiaro non sto affatto dicendo che una non si oc e l'altra si. non sto affatto dicendo che una si oc e l'altra del 2.5 volte di +. sto dicendo che l'oc delle nvidia grazie alla loro specifica architettura può/ha una valenza diversa.
adesso è chiaro????
ma dai? davvero? e con questo? 250mhz in più su ghz e mezzo dici che porti maggiori incrementi prestazionali di 100mhz su 600 e rotti? :o
penso che la piazzerai nel giro di qualche minuto :asd:
ma dai? davvero? e con questo? 250mhz in più su ghz e mezzo dici che porti maggiori incrementi prestazionali di 100mhz su 600 e rotti? :o
quoto! :read:
HAL2001, stai cominciando a darmi sui nervi...quando non sei qui vai a spammare e flammare ( e farti bannare :asd:) anche su tomshw, poi torni qui e ricominqui una guerra persa in partenza...
Mo basta!
Non si è già discusso di sta cosa 4850 vs gtx+ ? bon ogniuno tragga le sue conclusioni...
Mister Tarpone
17-07-2008, 13:13
penso che la piazzerai nel giro di qualche minuto :asd:
chi te lo ha detto che la deve piazzare... ?? :asd: io credo volesse chiedere se era un affare o no prenderla a quel prezzo
chi te lo ha detto che la deve piazzare... ?? :asd: io credo volesse dire se era un affare o no prenderla a quel prezzo
quoto! ;)
Mister Tarpone
17-07-2008, 13:15
quoto! ;)
;)
Tidus.hw
17-07-2008, 13:15
ehm, effettivamente :D
yossarian
17-07-2008, 13:22
quì ultimamente si guardano i MHz senza invece guardare gli incrementi percentuali, come anche scritto qualche post dietro
un incremento del 10% su 1800 MHz equivale a 180 MHz; lo stesso incremento su 700 MHz equivale a 70 MHz; questo non significa necessariamente che le prestazioni aumentano di più con il primo rispetto al secondo: se l'incremento è lineare (ipotesi migliore, poichè un incremento maggiore è possibile solo in caso ci siano colli di bottiglia e non mi risulta che G92 sia shader bounded almeno a giudicare da come si comporta nei confronti di G80), il primo e il secondo si equivalgono perfettamente.
Quello che non capisco (o meglio, lo capisco ma non lo condivido) è questo continuo puntare l'indice sulle capacità di o/c di una vga rispetto ad un'altra (parametro abbastanza aleatorio perchè dipende da tanti fattori e non fornisce risultati omogenei) e non si sottolinea il mancato supporto dei chip nVidia a feature previste da API successive alle dx10 (che siamo le 10.1 o le 11), quelle si in grado di fornire, in alcuni casi (vedi applicazione dell'AA che diverrà obbligatorio o l'utilizzo di cube map array per la global illumination) un buon boost prestazionale e una migliore qualità d'immagine
un incremento del 10% su 1800 MHz equivale a 180 MHz; lo stesso incremento su 700 MHz equivale a 70 MHz; questo non significa necessariamente che le prestazioni aumentano di più con il primo rispetto al secondo: se l'incremento è lineare (ipotesi migliore, poichè un incremento maggiore è possibile solo in caso ci siano colli di bottiglia e non mi risulta che G92 sia shader bounded almeno a giudicare da come si comporta nei confronti di G80), il primo e il secondo si equivalgono perfettamente.
Quello che non capisco (o meglio, lo capisco ma non lo condivido) è questo continuo puntare l'indice sulle capacità di o/c di una vga rispetto ad un'altra (parametro abbastanza aleatorio perchè dipende da tanti fattori e non fornisce risultati omogenei) e non si sottolinea il mancato supporto dei chip nVidia a feature previste da API successive alle dx10 (che siamo le 10.1 o le 11), quelle si in grado di fornire, in alcuni casi (vedi applicazione dell'AA che diverrà obbligatorio o l'utilizzo di cube map array per la global illumination) un buon boost prestazionale e una migliore qualità d'immagine
Fin ora a limitare i boos sono bastate le mazzatte di nvidia...ma riguardo la qualità di immagine c'è poco da fare, i colori più vivi sono sempre ATI...(alla faccia della sottomarca...)
Mister Tarpone
17-07-2008, 13:37
Fin ora a limitare i boos sono bastate le mazzatte di nvidia...ma riguardo la qualità di immagine c'è poco da fare, i colori più vivi sono sempre ATI...(alla faccia della sottomarca...)
dai su... non tiriamo fuori sta storia dei colori
che basta cambiare le impostazioni dal pannello dei driver nvidia con l'opzione brillantezza digitale.. :asd:
Marko#88
17-07-2008, 13:41
Ma allora di sta gtx+ nemmeno l'ombra nei negozi?
Mister Tarpone
17-07-2008, 13:44
Ma allora di sta gtx+ nemmeno l'ombra nei negozi?
no...
oh ma la 2600xt che fine ha fatto?? l'hai buttata?? :asd:
no...
oh ma la 2600xt che fine ha fatto?? l'hai buttata?? :asd:
io prima ne ho trovata una :asd: su trovaprezzi, comunque è furi prezzo...190€ sono un furto.
Comunque la qualità visiva di ati è furi questione, ancge se probabilmente una volta più che oggi.
gianni1879
17-07-2008, 13:50
un incremento del 10% su 1800 MHz equivale a 180 MHz; lo stesso incremento su 700 MHz equivale a 70 MHz; questo non significa necessariamente che le prestazioni aumentano di più con il primo rispetto al secondo: se l'incremento è lineare (ipotesi migliore, poichè un incremento maggiore è possibile solo in caso ci siano colli di bottiglia e non mi risulta che G92 sia shader bounded almeno a giudicare da come si comporta nei confronti di G80), il primo e il secondo si equivalgono perfettamente.
Quello che non capisco (o meglio, lo capisco ma non lo condivido) è questo continuo puntare l'indice sulle capacità di o/c di una vga rispetto ad un'altra (parametro abbastanza aleatorio perchè dipende da tanti fattori e non fornisce risultati omogenei) e non si sottolinea il mancato supporto dei chip nVidia a feature previste da API successive alle dx10 (che siamo le 10.1 o le 11), quelle si in grado di fornire, in alcuni casi (vedi applicazione dell'AA che diverrà obbligatorio o l'utilizzo di cube map array per la global illumination) un buon boost prestazionale e una migliore qualità d'immagine
Certo le percentuali di incremento di MHZ non sempre si concretizzano realmente nella stessa misura percentuale ;)
L'oc lo sanno anche i bambini è un fattore che dipende per una parte dalla fortuna di beccare un silicio meglio degli altri, quì invece lo stanno sbandieranno come se tutti i chip si OC allo stesso modo.
Ormai con rv770 non hanno più che aggrapparsi per sancire la superiorità Nvidia su Ati, prima con R600 si sono divertiti con grosse risate e battute di vario genere, adesso la situazione è ben diversa, e gli rimane solo quello a cui aggrapparsi.
Non citano minimamente le maggiori feature di Ati nei suoi Chip, che per me resta uno dei fattori di scelta, capisco un anno fa, ma adesso non mi sembra proprio il caso di continuare con le sole dx10. Poi ognuno ha i prosciutti che vuole nei proprio occhi.
yossarian
17-07-2008, 13:51
Fin ora a limitare i boos sono bastate le mazzatte di nvidia..
le mazzette servono solo a ritardare l'inevitabile e neppure vale il discorso ceh quando usciranno le dx10.1 o le 11 ci saranno già altre vga; o meglio, vale per chi cambia vga ogni 3 o 4 mesi ma non per chi la tiene per periodi di tempo più lunghi.
ma riguardo la qualità di immagine c'è poco da fare, i colori più vivi sono sempre ATI...(alla faccia della sottomarca...)
veramente parlavo dei miglioramenti qualitativi che apporteranno le dx10.1 e le 11 (blending ad almeno 16 bit anzichè 8, filtraggio texture a fp32, maggior precisione dei calcoli con riduzione degli errori di arrotondamento, miglior gestione della global illumination, MSAA almeno 4x, AA di tipo custom con algoritmi non lineari, ecc)
Mister Tarpone
17-07-2008, 13:55
Comunque la qualità visiva di ati è furi questione, ancge se probabilmente una volta più che oggi.
ma anche no. ho un amico che ha una scheda ati 3800.. ed ho visto che la qualità visiva nei giochi era tale e quale a quella della mia scheda che nvidia. ;)
MA sarà un aa MINIMO , o sarà costantemente presente un aa? Non porterebbe ad un abbattimento generale delle prestazioni?
ma anche no. ho un amico che ha una scheda ati 3800.. ed ho visto che la qualità visiva nei giochi era tale e quale a quella della mia scheda che nvidia. ;)
Ma nemmeno io riesco a vederla! :asd: Anzi, non la vedevo nemmeno all'epoca dei radeo 8500 e delle geffo4, che ha detta di tenti come qualità dei colori erano scandalose :asd:
Però i professionisti, chi fa fotoritocco o videoediting dicono così...:D poi Bho!
yossarian
17-07-2008, 14:21
MA sarà un aa MINIMO , o sarà costantemente presente un aa? Non porterebbe ad un abbattimento generale delle prestazioni?
AA minimo (il 2x non ha allcun senso).
Non ci saranno perdite di prestazioni apprezzabili con HW che permetta di far uso di MRT (con i chip non dx10.1 compliant, invece, le prestazioni saranno più basse perchè si fanno più passaggi di rendering e si spreca più banda passante).
Per afrti capire, applicare il MSAA 4x, in modalità dx10.1, con RV770 porta a prestazioni all'incirca allineate o di pochissimo inferiori a quelle che si hanno senza MSAA.
AA minimo (il 2x non ha allcun senso).
Non ci saranno perdite di prestazioni apprezzabili con HW che permetta di far uso di MRT (con i chip non dx10.1 compliant, invece, le prestazioni saranno più basse perchè si fanno più passaggi di rendering e si spreca più banda passante).
Per afrti capire, applicare il MSAA 4x, in modalità dx10.1, con RV770 porta a prestazioni all'incirca allineate o di pochissimo inferiori a quelle che si hanno senza MSAA.
praticamente sarà un po come evere una tecnologia funzionante via hardware anziche emulata via software...solo un paragone...
Quindi l'AA siverra come l'anisotropico 16x, con o senza non tene accorgi!
yossarian
17-07-2008, 14:28
praticamente sarà un po come evere una tecnologia funzionante via hardware anziche emulata via software...solo un paragone...
Quindi l'AA siverra come l'anisotropico 16x, con o senza non tene accorgi!
è una tecnologia funzionante via HW che permette di risparmiare passaggi di rendering e di utilizzare meglio la bandwidth. Esatto, applicare un MSAA 4x sarà, grosso modo, come avere un AF 16x a livello di impatto prestazionale
e quando pensi che arriveranno i primi titoli capaci di farne uso..?escluso ass.creed non patchato...
Mister Tarpone
17-07-2008, 14:34
praticamente sarà un po come evere una tecnologia funzionante via hardware anziche emulata via software...solo un paragone...
Quindi l'AA siverra come l'anisotropico 16x, con o senza non tene accorgi!
si ma aspetta.... ;)
è tutto molto bello ma sta spintarella dell'aa in dx10.1, se non ci sono i giochi che lo sfruttano purtroppo serve a poco...
e per il futuro non vedo una valanga di giochi in arrivo che supportranno queste dx... al MAX da qui ad un anno usciranno 2 giochi ad esser molto ottimistici... :asd:
e intanto nel 2009 saranno belle uscite le schede dx11..sia ati che nvidia :asd: :winner:
diablo 3? sicuramente faccio conto di cambiare di nuovo nel 2009 ma se per un anno posso avere 2o 3 giochi che vanno molto meglio che su un nvidia...meglio di un pugno in un occhio no?
Mister Tarpone
17-07-2008, 14:37
diablo 3?
booooooohhhh...
e se anche fosse...
è solo 1 gioco... :stordita:
booooooohhhh...
e se anche fosse...
è solo 1 gioco... :stordita:
E quindi? quando c'è da fare la media dei bench, non c'è fan boy con non salti alla giugulare se provi a escludere lost planet (capolavoro mondiale di enorme successo che ha scritto la storia dei videogiochi...-_-' seee) e non vuoi che sia importante diablo 3?
yossarian
17-07-2008, 14:43
si ma aspetta.... ;)
è tutto molto bello ma sta spintarella dell'aa in dx10.1, se non ci sono i giochi che lo sfruttano purtroppo serve a poco...
e per il futuro non vedo una valanga di giochi in arrivo che supportranno queste dx... al MAX da qui ad un anno usciranno 2 giochi ad esser molto ottimistici... :asd:
e intanto nel 2009 saranno belle uscite le schede dx11..sia ati che nvidia :asd: :winner:
e cosa uscirebbero a fare le schede dx11 se nel frattempo non si fa uso neppure delle dx10.1? Inoltre, se l'uscita eventuale delle DX11 dovesse accelerare il passaggio a quelle API, questo accorcerebbe la longevità delle vga nVidia dx10 molto più di quanto non accorcerebbe quella dellae ATi dx10.1 (con la patch 1.01 in AC, a risoluzioni in cui non si è limitati dal fb, la hd 4850 rispetto alla versione dx10, guadagna circa il 23% e sta davanti alla GTX280 con MSAA 4x :D )
si ma aspetta.... ;)
è tutto molto bello ma sta spintarella dell'aa in dx10.1, se non ci sono i giochi che lo sfruttano purtroppo serve a poco...
e per il futuro non vedo una valanga di giochi in arrivo che supportranno queste dx... al MAX da qui ad un anno usciranno 2 giochi ad esser molto ottimistici... :asd:
e intanto nel 2009 saranno belle uscite le schede dx11..sia ati che nvidia :asd: :winner:
non è vero, DIABLO3 le supporterà, EA ha annunciato che i prossimi giochi saranno DX10.1... qualcosa si muove... ;)
e cosa uscirebbero a fare le schede dx11 se nel frattempo non si fa uso neppure delle dx10.1? Inoltre, se l'uscita eventuale delle DX11 dovesse accelerare il passaggio a quelle API, questo accorcerebbe la longevità delle vga nVidia dx10 molto più di quanto non accorcerebbe quella dellae ATi dx10.1 (con la patch 1.01 in AC, a risoluzioni in cui non si è limitati dal fb, la hd 4850 rispetto alla versione dx10, guadagna circa il 23% e sta davanti alla GTX280 con MSAA 4x :D )
quoto! :)
HackaB321
17-07-2008, 14:47
booooooohhhh...
e se anche fosse...
è solo 1 gioco... :stordita:
forse un pò di più
http://www.techpowerup.com/64456/AMD_ATI_Tempts_Game_Developers_with_DirectX_10.1.html
http://www.hardforum.com/showthread.php?t=1319214
non è vero, DIABLO3 le supporterà, EA ha annunciato che i prossimi giochi saranno DX10.1... qualcosa si muove... ;)
ecco, visto? avevo ragione allora...
@yossaria, sono molto distantile dx11 dalle 10.1? Migliorie sostanziali?
Mister Tarpone
17-07-2008, 14:48
e cosa uscirebbero a fare le schede dx11 se nel frattempo non si fa uso neppure delle dx10.1?
eh... e mi domando anche cosa sono uscite a fare le schede dx10 e dx10.1 se i giochi continuano ad esser dx9 nel 99,9% dei casi...
eppure... :asd:
Mister Tarpone
17-07-2008, 14:50
forse un pò di più
http://www.techpowerup.com/64456/AMD_ATI_Tempts_Game_Developers_with_DirectX_10.1.html
ah!! 2 giochi... (che non usciranno proprio domani :asd:) ottimo ;)
yossarian
17-07-2008, 14:53
eh... e mi domando anche cosa sono uscite a fare le schede dx10 e dx10.1 se i giochi continuano ad esser dx9 nel 99,9% dei casi...
eppure... :asd:
continuo a non trovare motivazioni per acquistare una vga che quando va di più va poco di più ma che in un futuro (neppure tanto lontano) rischia di andare molto di meno (nella migliore delle ipotesi, perchè in caso di carognate tipo quelle che si sono viste nel passaggio dallo sm2.0 al 3.0, c'è il rischio che alcuni titoli neppure sia possibile giocarli; è inutile ricordare, immagino, che il pieno supporto alle DX successive alle 10 è qualcosa che non si ottiene via SW ma richiede HW specifico).
p.s. le frasi quotale per intero o, almeno, quota per intero i periodi, senza estrapolare; altrimenti si perde il senso del discorso :read:
michelgaetano
17-07-2008, 14:54
ah!! 2 giochi... (che non usciranno proprio domani :asd:) ottimo ;)
Dai Tarpo :)
ah!! 2 giochi... (che non usciranno proprio domani :asd:) ottimo ;)
3 giochi:D
Più tutti gli altri che il motore source rinnovato si tirerà dietro!
Comunque è vero, addirittura una revisione dx10.1 di un motore 3d che comunque è nato dx9....
3 giochi:D
Più tutti gli altri che il motore source rinnovato si tirerà dietro!
Comunque è vero, addirittura una revisione dx10.1 di un motore 3d che comunque è nato dx9....
eheh c'avrei scommesso che HL2 EP3 sarebbe stato dx10.1... :D
intanto i giochi iniziano ad essere più di 2 o 3... ;)
Mister Tarpone
17-07-2008, 15:01
continuo a non trovare motivazioni per acquistare una vga che quando va di più va poco di più ma che in un futuro (neppure tanto lontano) rischia di andare molto di meno (nella migliore delle ipotesi, perchè in caso di carognate tipo quelle che si sono viste nel passaggio dallo sm2.0 al 3.0, c'è il rischio che alcuni titoli neppure sia possibile giocarli)
fortunatamente credo che questo rischio non ci sarà nel caso del passaggio da dx10 a dx10.1.. anche per il fatto che i motori grafici continueranno ad essere compatibili con xp (e quindi saranno anche dx9) per moooolto tempo..
HackaB321
17-07-2008, 15:02
e cosa uscirebbero a fare le schede dx11 se nel frattempo non si fa uso neppure delle dx10.1? Inoltre, se l'uscita eventuale delle DX11 dovesse accelerare il passaggio a quelle API, questo accorcerebbe la longevità delle vga nVidia dx10 molto più di quanto non accorcerebbe quella dellae ATi dx10.1 (con la patch 1.01 in AC, a risoluzioni in cui non si è limitati dal fb, la hd 4850 rispetto alla versione dx10, guadagna circa il 23% e sta davanti alla GTX280 con MSAA 4x :D )
Io penso che Nvidia si rifiuti di supportare le 10.1 anche per una questione riguardante l'AA: adesso che nelle prestazioni hanno raggiunto una parità con la concorrenza nel MSAA classico "box filter" (contrariamente all'epoca pre G80), supportare le 10.1 significherebbe "aprirsi" ai filtri customizzati gestiti dall'applicazione (e non solo dai driver come con le Dx 10) e quindi al resolve via shaders. Ora, come dimostra l'esperienza del CFAA in R600 e RV770 questi filtri personalizzati hanno bisogno di grande potenza computazionale e i risultati di COJ (dove anche le schede Nvidia sono forzate ad un resolve via shaders) dimostrano che le schede Nvidia sono ancor più inadeguate di R600 a questi calcoli. In sostanza Nvdia potrebbe tornare a inseguire e non di poco nella qualità dell'immagine in game qualora queste tecniche si diffondessero. Possibile?
yossarian
17-07-2008, 15:04
fortunatamente credo che questo rischio non ci sarà nel caso del passaggio da dx10 a dx10.1.. anche per il fatto che i motori grafici continueranno ad essere compatibili con xp (e quindi saranno anche dx9) per moooolto tempo..
chi lo dice: potrebbero proporre una path dx10.1 ed una dx9, saltando a piè pari le dx10 con la scusa di presunte difficoltà nell'implementare una path che non prevede alcune particolari feature HW. Non sarebbe la prima volta
Mister Tarpone
17-07-2008, 15:07
Dai Tarpo :)
dai che?? con sta faccina poi... :mbe: :confused:
è la verità. io non vedo giochi dx10.1 .. per adesso son tutti finti dx10 tranne assassin (senza la patch :stordita: )
ed in tempi brevi non ci sarà una valanga di titoli in arrivo (2...) che sfrutteranno ste dx...
oh!! per adesso è così :asd:
Io penso che Nvidia si rifiuti di supportare le 10.1 anche per una questione riguardante l'AA: adesso che nelle prestazioni hanno raggiunto una parità con la concorrenza nel MSAA classico "box filter" (contrariamente all'epoca pre G80), supportare le 10.1 significherebbe "aprirsi" ai filtri customizzati gestiti dall'applicazione (e non solo dai driver come con le Dx 10) e quindi al resolve via shaders. Ora, come dimostra l'esperienza del CFAA in R600 e RV770 questi filtri personalizzati hanno bisogno di grande potenza computazionale e i risultati di COJ (dove anche le schede Nvidia sono forzate ad un resolve via shaders) dimostrano che le schede Nvidia sono ancor più inadeguate di R600 a questi calcoli. In sostanza Nvdia potrebbe tornare a inseguire e non di poco nella qualità dell'immagine in game qualora queste tecniche si diffondessero. Possibile?
si, e infatti il fatto che G200 sia uscito è anche per quello, in G200 infatti ciò che è aumentato di più è proprio la "potenza pura" degli shaders e questo IMHO proprio per 2 motivi:
1) per le applicazioni in ambito GPGPU
2) per meglio supportare il resolve via shader dove R600 e derivati schiacciavano G80 e derivati...
yossarian
17-07-2008, 15:13
Io penso che Nvidia si rifiuti di supportare le 10.1 anche per una questione riguardante l'AA: adesso che nelle prestazioni hanno raggiunto una parità con la concorrenza nel MSAA classico "box filter" (contrariamente all'epoca pre G80), supportare le 10.1 significherebbe "aprirsi" ai filtri customizzati gestiti dall'applicazione (e non solo dai driver come con le Dx 10) e quindi al resolve via shaders. Ora, come dimostra l'esperienza del CFAA in R600 e RV770 questi filtri personalizzati hanno bisogno di grande potenza computazionale e i risultati di COJ (dove anche le schede Nvidia sono forzate ad un resolve via shaders) dimostrano che le schede Nvidia sono ancor più inadeguate di R600 a questi calcoli. In sostanza Nvdia potrebbe tornare a inseguire e non di poco nella qualità dell'immagine in game qualora queste tecniche si diffondessero. Possibile?
il problema non è solo relativo a filtri di tipo custom ma anche allo stesso MSAA box filter, poichè le DX10.1 prevedono l'utilizzo di render target separati per z-ops e color ops; i chip NV utilizzano un solo render target e le specifiche dx10 o inferiori forzano anche le gpu ATi a fare lo stesso, col risultato che entrambe sono penalizzate a livello prestazionale. Qualora si facesse uso di più RT, le gpu ATi guadagnerebbero, prestazionalmente parlando, circa un 20-25%, grazie alla possibilità di saltare un passaggio di rendering e ad un uso migliore della banda passante in caso di applicazione di un MSAA 4x; il vantaggio di ATi sarebbe ancora maggiore per livelli superiori di filtro, grazie all'ottimizzazione delle rop's (con MSAA 8x, per i chip NV crolla anche lo z-fillrate, che è sempre stato uno dei punti di forza di questi chip rispetto alla concorrenza e, ad esmepio, GT200 in versione 280 presenta, anche solo con i bench sintetici, uno z-fillrate che è quasi la metà di quello di RV770).
Questo vale a livello quantitativo; a livello qualitativo, sempre in marito al MSAA box filter, le DX10.1 prevedono l'utilizzo di allgoritmi di interpolazione lineare a 16 bit di tipo INT per canale (e non mi risulta che GT200 vada oltre i classici 8 bit INT per il MSAA)
Mister Tarpone
17-07-2008, 15:26
io mi domando che miglioramenti porteranno le Dx11 con cui saranno dotate le schede che usciranno nel 2009.. altri aumenti di performance con aa ?? o cosa?? :confused:
HackaB321
17-07-2008, 15:28
si, e infatti il fatto che G200 sia uscito è anche per quello, in G200 infatti ciò che è aumentato di più è proprio la "potenza pura" degli shaders e questo IMHO proprio per 2 motivi:
1) per le applicazioni in ambito GPGPU
2) per meglio supportare il resolve via shader dove R600 e derivati schiacciavano G80 e derivati...
il problema per Nvidia è che GT200 esiste per ora solo in versione enthusiast. Nella fascia performance l'antagonista della HD 4850 è ancora G92. E nelle operazioni più math-oriented l'HD 4850 è nettamente superiore (ha, di fatto,il doppio della potenza teorica di calcolo rispetto ad una 9800 GTX)
il problema non è solo relativo a filtri di tipo custom ma anche allo stesso MSAA box filter, poichè le DX10.1 prevedono l'utilizzo di render target separati per z-ops e color ops; i chip NV utilizzano un solo render target e le specifiche dx10 o inferiori forzano anche le gpu ATi a fare lo stesso, col risultato che entrambe sono penalizzate a livello prestazionale. Qualora si facesse uso di più RT, le gpu ATi guadagnerebbero, prestazionalmente parlando, circa un 20-25%, grazie alla possibilità di saltare un passaggio di rendering e ad un uso migliore della banda passante in caso di applicazione di un MSAA 4x; il vantaggio di ATi sarebbe ancora maggiore per livelli superiori di filtro, grazie all'ottimizzazione delle rop's (con MSAA 8x, per i chip NV crolla anche lo z-fillrate, che è sempre stato uno dei punti di forza di questi chip rispetto alla concorrenza e, ad esmepio, GT200 in versione 280 presenta, anche solo con i bench sintetici, uno z-fillrate che è quasi la metà di quello di RV770).
Questo vale a livello quantitativo; a livello qualitativo, sempre in marito al MSAA box filter, le DX10.1 prevedono l'utilizzo di allgoritmi di interpolazione lineare a 16 bit di tipo INT per canale (e non mi risulta che GT200 vada oltre i classici 8 bit INT per il MSAA)
:Perfido: . Ma anche GT200 usa un solo RT?
Mister Tarpone
17-07-2008, 15:30
:Perfido: Ma anche GT200 usa un solo RT?
AZZ... :Perfido:
(ma che è sto RT?? :asd:)
yossarian
17-07-2008, 15:32
io mi domando che miglioramenti porteranno le Dx11 con cui saranno dotate le schede che usciranno nel 2009.. altri aumenti di performance con aa ?? o cosa?? :confused:
miglioramenti qualitativi (illuminazione globale e in tempo reale), maggior supporto alla fisica, maggior spinta sul versante gpgpu, supporto HW per il displacement mapping (si utilizzerà finalmente questo benedetto hardware tessellator) più altre cose.
yossarian
17-07-2008, 15:34
:Perfido: . Ma anche GT200 usa un solo RT?
si, motivo per cui non beneficia del passaggio alle DX10.1 o alle DX11 neppure per l'applicazione di MSAA box filter
appleroof
17-07-2008, 15:36
e cosa uscirebbero a fare le schede dx11 se nel frattempo non si fa uso neppure delle dx10.1? Inoltre, se l'uscita eventuale delle DX11 dovesse accelerare il passaggio a quelle API, questo accorcerebbe la longevità delle vga nVidia dx10 molto più di quanto non accorcerebbe quella dellae ATi dx10.1 (con la patch 1.01 in AC, a risoluzioni in cui non si è limitati dal fb, la hd 4850 rispetto alla versione dx10, guadagna circa il 23% e sta davanti alla GTX280 con MSAA 4x :D )
come giustamente notato, tutte le schede dx10 sono uscite senza giochi dx10 :asd:
quanto ai giochi dx10.1, per i motivi tecnici su gt200 che sottolinei, nulla vieta di pensare che Nvidia possa accellelare l'uscita delle vga dx11 di qualche mese
anche tu sostenevi poi che cmq entro fine 2009 sia Ati che Nvidia dovrebbero far uscire i nuovi chip dx11, per cui te saluto longevità (perchè vga dx11 sono retrocompatibili dx10.1, mi insegni) sia per le attuali Nvidia, che per le attuali Ati; a meno che per longevità non intendi un anno o giù di lì...
Mister Tarpone
17-07-2008, 15:37
si
e te pareva... :asd:
senti ma è vera o è una cazz.. la storia che le schede nvidia anche se "solo" dx10 riuscirebbero cmq a supportare alcune feature delle dx10.1 ??? :confused: (:Perfido:)
Mister Tarpone
17-07-2008, 15:39
miglioramenti qualitativi (illuminazione globale e in tempo reale), maggior supporto alla fisica, maggior spinta sul versante gpgpu, supporto HW per il displacement mapping (si utilizzerà finalmente questo benedetto hardware tessellator) più altre cose.
behh ottimo!!! ;) !!! sempre sperando che vengan sfurttate però.... visto l'attuale andazzo di dx10 e 10.1... :asd:
gianni1879
17-07-2008, 15:40
quando usciranno le prime vga dx11, e non penso avvenga nell'immediato, ci saranno un bel pò di titoli dx10.1, titoli nativi dx11 li vedremo un bel pò di tempo dopo, per cui chi ha comprato una vga adesso se li potrà anche apprezzare ancora meglio nel fututo, chi invece ha comprato Nvidia che farà? Dovrà cambiare per forza vga, mica tutti cambiano scheda video ogni due/tre mesi, molti la tengono per diverso tempo e credo che Ati al momento garantisca un maggiore longevità.
yossarian
17-07-2008, 15:41
come giustamente notato, tutte le schede dx10 sono uscite senza giochi dx10 :asd:
quanto ai giochi dx10.1, per i motivi tecnici su gt200 che sottolinei, nulla vieta di pensare che Nvidia possa accellelare l'uscita delle vga dx11 di qualche mese
anche tu sostenevi poi che cmq entro fine 2009 sia Ati che Nvidia dovrebbero far uscire i nuovi chip dx11, per cui te saluto longevità (perchè vga dx11 sono retrocompatibili dx10.1, mi insegni) sia per le attuali Nvidia, che per le attuali Ati; a meno che per longevità non intendi un anno o giù di lì...
peccato che le attuali nVidia sono "solo" dx10 e non beneficiano degli incrementi prestazionali introdotti con le dx10.1 (che saranno presenti anche con le dx11) e che le attuali ATi hanno già, oltre alla piena compatibilità con le dx10.1, alcuni elementi che vanno oltre queste api e sono dx11 compliant (l'HW tessellator, ad esempio). Questo garantisce una longevità superiore anche in caso di adozione delle dx11 prima del tempo. Le dx11 non sono una rivoluzione, ma un'evoluzione delle dx10 e delle 10.1
gianni1879
17-07-2008, 15:43
peccato che le attuali nVidia sono "solo" dx10 e non beneficiano degli incrementi prestazionali introdotti con le dx10.1 (che saranno presenti anche con le dx11) e che le attuali ATi hanno già, oltre alla piena compatibilità con le dx10.1, alcuni elementi che vanno oltre queste api e sono dx11 compliant (l'HW tessellator, ad esempio). Questo garantisce una longevità superiore anche in caso di adozione delle dx11 prima del tempo. Le dx11 non sono una rivoluzione, ma un'evoluzione delle dx10 e delle 10.1
non mi pare ci sia molto da aggiungere ancora, chi vuol capire capisca
appleroof
17-07-2008, 15:47
peccato che le attuali nVidia sono "solo" dx10 e non beneficiano degli incrementi prestazionali introdotti con le dx10.1 (che saranno presenti anche con le dx11) e che le attuali ATi hanno già, oltre alla piena compatibilità con le dx10.1, alcuni elementi che vanno oltre queste api e sono dx11 compliant (l'HW tessellator, ad esempio). Questo garantisce una longevità superiore anche in caso di adozione delle dx11 prima del tempo. Le dx11 non sono una rivoluzione, ma un'evoluzione delle dx10 e delle 10.1
ho capito il concetto: ma si tratta di una vittoria di Pirro, laddove tra pochi mesi (rispetto al ciclo delle librerie) escono librerie e vga del tutto nuove che tagliano la testa al toro
ad esempio in questa ottica perdono completamente senso, personalmente, le vga (tutte) che ora come ora costano più di 250, max 300 euro e più andiamo avanti con i mesi più si abbassa questa personale soglia di prezzo...
yossarian
17-07-2008, 15:48
e te pareva... :asd:
senti ma è vera o è una cazz.. la storia che le schede nvidia anche se "solo" dx10 riuscirebbero cmq a supportare alcune feature delle dx10.1 ??? :confused: (:Perfido:)
alcune cose si possono fare, a scapito delle prestazioni: ad esempio l'applicazione del MSAA con deferred rendering è possibile sia con le dx10 che con le 10.1; con le seconde si fa più velocemente (per via, sempre, della possibilità di avere più render target a disposizione); il filtraggio delle texture a fp32 lo fanno anche g80 e gt200; non mi pare siano in grado di utilizzare INT a 16 bit il blending relativo al MSAA (e quella è una caratteristica che non si può emulare); non prevedono l'utilizzo di cube map array per l'illuminazione globale (è l'equivalente per le cube map del texture map array previsto dalle dx10). L'applicazione del MSAA box filter prevede, con i chip NV più passaggi di rendering a maggior consumo di banda passante (e perciò risulta più lento): d'altra parte, il supporto al multi render target per z-ops e color ops non è previsto dalle dx10 e non è possibile con i chip NV. Queste sono solo alcune delle feature previste dalle dx10.1, in parte supportate, in parte emulabili, con cali di prestazioni, in parte impossibili da supportare
Mister Tarpone
17-07-2008, 15:51
ho capito il concetto: ma si tratta di una vittoria di Pirro, laddove tra pochi mesi (rispetto al ciclo delle librerie) escono librerie e vga del tutto nuove che tagliano la testa al toro
ad esempio in questa ottica perdono completamente senso, personalmente, le vga (tutte) che ora come ora costano più di 250, max 300 euro e più andiamo avanti con i mesi più si abbassa questa personale soglia di prezzo...
concordo alla grande ;)
yossarian
17-07-2008, 15:54
ho capito il concetto: ma si tratta di una vittoria di Pirro, laddove tra pochi mesi (rispetto al ciclo delle librerie) escono librerie e vga del tutto nuove che tagliano la testa al toro
ad esempio in questa ottica perdono completamente senso, personalmente, le vga (tutte) che ora come ora costano più di 250, max 300 euro e più andiamo avanti con i mesi più si abbassa questa personale soglia di prezzo...
ragionando nell'ottica di chi cambia vga ogni 4 mesi per stare dietro sempre all'ultima novità, non ha senso spendere più di 150 oggi e non ha senso spenderne più di 150 tra 4 o 5 mesi. In quest'ottica, le varie r700 e gtx280 sono assolutamente fuori mercato.
Chi, invece, compra una vga per tenerla per periodi più lunghi, non può non tener conto di una maggior compatibilità futura e della possibilità di veder incrementate le prestazioni, in alcuni casi, mantenendo la stessa qualità di oggi (per intenderci, l'utilizzo di render target differenti per il MSAA si mentiene anche con le dx11, quindi l'incremento di prestazioni con ll'applicazione del MSAA box filter che si ha con le 10.1 si ha anche con le11; il tessellator i chip ATi lo hanno, i chip nVidia no e si tratta di una feature dx11). Insomma, vedere una 4850 non o/c andare più di una 280GTX con MSAA, non la definirei proprio una vittoria di Pirro :D
appleroof
17-07-2008, 16:13
ragionando nell'ottica di chi cambia vga ogni 4 mesi per stare dietro sempre all'ultima novità, non ha senso spendere più di 150 oggi e non ha senso spenderne più di 150 tra 4 o 5 mesi. In quest'ottica, le varie r700 e gtx280 sono assolutamente fuori mercato.
bè, in genere quelli che dipingi sono quelli che spendono 400, 500, 600 euro appena esce la nuova top, non quelli che spendono 150 (per i quali invece vedo più senso, in realtà, spenderli adesso)
Chi, invece, compra una vga per tenerla per periodi più lunghi, non può non tener conto di una maggior compatibilità futura e della possibilità di veder incrementate le prestazioni, in alcuni casi, mantenendo la stessa qualità di oggi (per intenderci, l'utilizzo di render target differenti per il MSAA si mentiene anche con le dx11, quindi l'incremento di prestazioni con ll'applicazione del MSAA box filter che si ha con le 10.1 si ha anche con le11; il tessellator i chip ATi lo hanno, i chip nVidia no e si tratta di una feature dx11)
ma cosa me ne faccio di una scheda dx10.1 se non ci sono giochi dx10.1, ed ora che escono in massa (o cmq in numero rilevante) posso prendere direttamente una vga dx11 sicuramente più prestante e longeva? Capisci cosa voglio dire? Per assurdo allora Ati non avrebbe alcun bisogno di fare un chip dx11, se c'è (parte in neretto del tuo post) questa totale identità ....:boh:
il tuo discorso avrebbe più significato, per me, se ora o al limite entro la fine dell'anno la maggioranza dei giochi fosse dx10.1, ma non è così, molto probabilmente cominceranno ad essere la maggioranza quando ci saranno schede dx11....ecco che le dx10.1 non diventano più una motivazione esclusiva all'acquisto, al limite lo può essere una superiorità con i giochi attuali e prossimi venturi e cmq non spendendo più di 250 euro (cifra con la quale prendi abbondantemente una 4870/gtx260, perfette vga "ponte" prima dei nuovi chip dx11)
il tutto imho.
yossarian
17-07-2008, 16:24
bè, in genere quelli che dipingi sono quelli che spendono 400, 500, 600 euro appena esce la nuova top, non quelli che spendono 150 (per i quali invece vedo più senso, in realtà, spenderli adesso)
ma cosa me ne faccio di una scheda dx10.1 se non ci sono giochi dx10.1, ed ora che escono in massa (o cmq in numero rilevante) posso prendere direttamente una vga dx11 sicuramente più prestante e longeva? Capisci cosa voglio dire? Per assurdo allora Ati non avrebbe alcun bisogno di fare un chip dx11, se c'è (parte in neretto del tuo post) questa totale identità ....:boh:
il tuo discorso avrebbe più significato, per me, se ora o al limite entro la fine dell'anno la maggioranza dei giochi fosse dx10.1, ma non è così, molto probabilmente cominceranno ad essere la maggioranza quando ci saranno schede dx11....ecco che le dx10.1 non diventano più una motivazione esclusiva all'acquisto, al limite lo può essere una superiorità con i giochi attuali e prossimi venturi e cmq non spendendo più di 250 euro (cifra con la quale prendi abbondantemente una 4870/gtx260, perfette vga "ponte" prima dei nuovi chip dx11)
il tutto imho.
ti ripeto: il tuo è un discorso valido solo per chi compra sempre l'ultima novità; prova a metterti nei panni di chi compra oggi per tenersi la vga due o tre anni: chi acquista un prodotto compatibile con api future fa un investimento più a lungo termine rispetto a chi acquista una vga compatibile con le attuali.
Quando ci saranno schede dx11 e i giochi dx10.1 saranno in gran numero, chi avrà acquistato un prodotto compatibile con quelle api non sarà costretto a tornare sul mercato per comprare, a quel punto, una vga dx11.
Visto che si parla di elementi discriminanti ai fini dell'acquisto, mi pare che la compatibilità con versioni di api ancora da venire (che garantisce, tra l'altro, anche un non indifferente incremento di prestazioni), sia un argomento ben più solido di una presunta maggior overclockabilità (eventualmente minima, tra l'altro) che garantirebbe un incremento di prestazioni di infimo ordine
p.s l'architettura di RV770 non ha bisogno di subire rivoluzioni per essere full dx11 compliant
Mister Tarpone
17-07-2008, 16:25
cut
Queste sono solo alcune delle feature previste dalle dx10.1, in parte supportate, in parte emulabili, con cali di prestazioni, in parte impossibili da supportare
capito ;)
HackaB321
17-07-2008, 16:25
bè, in genere quelli che dipingi sono quelli che spendono 400, 500, 600 euro appena esce la nuova top, non quelli che spendono 150 (per i quali invece vedo più senso, in realtà, spenderli adesso)
ma cosa me ne faccio di una scheda dx10.1 se non ci sono giochi dx10.1, ed ora che escono in massa (o cmq in numero rilevante) posso prendere direttamente una vga dx11 sicuramente più prestante e longeva? Capisci cosa voglio dire? Per assurdo allora Ati non avrebbe alcun bisogno di fare un chip dx11, se c'è (parte in neretto del tuo post) questa totale identità ....:boh:
il tuo discorso avrebbe più significato, per me, se ora o al limite entro la fine dell'anno la maggioranza dei giochi fosse dx10.1, ma non è così, molto probabilmente cominceranno ad essere la maggioranza quando ci saranno schede dx11....ecco che le dx10.1 non diventano più una motivazione esclusiva all'acquisto, al limite lo può essere una superiorità con i giochi attuali e prossimi venturi e cmq non spendendo più di 250 euro (cifra con la quale prendi abbondantemente una 4870/gtx260, perfette vga "ponte" prima dei nuovi chip dx11)
il tutto imho.
Il punto è che una 4870 è una gpu ponte migliore della GTX 260. Quando usciranno i primi giochi Dx10.1 (previsti per fine anno grazie alla sponosorizzazione ATi con Blizzard,SEGA e EA) la 4870 potrà avvantaggiarsi di migliori performance con AA: non solo migliori della 260(che non ha supporto 10.1) ma migliori anche delle prestazioni della stessa 4870 nello stesso gioco ma con path dx10. Quando usciranno giochi dx11, uno potrà comprarsi una vga dx11 naturalmente, oppure potrà, scendendo a compromessi ovviamente, sfruttare il tessellator già incluso nella 4870 e supportato dalle Dx11.
Non bisogna pensare che tutti siano utenti enthusiast che comprano una gpu ogni 6 mesi. Ancora oggi con una x1900 si gioca, con ovvi compromessi, a COD4 o Bioshock, non vedo perchè con una 4870 non si potrà giocare magari verso la fine del prossimo (o inizio 2010) ai giochi dx11 che forse ci saranno.
appleroof
17-07-2008, 16:40
ti ripeto: il tuo è un discorso valido solo per chi compra sempre l'ultima novità; prova a metterti nei panni di chi compra oggi per tenersi la vga due o tre anni: chi acquista un prodotto compatibile con api future fa un investimento più a lungo termine rispetto a chi acquista una vga compatibile con le attuali.
Quando ci saranno schede dx11 e i giochi dx10.1 saranno in gran numero, chi avrà acquistato un prodotto compatibile con quelle api non sarà costretto a tornare sul mercato per comprare, a quel punto, una vga dx11.
Visto che si parla di elementi discriminanti ai fini dell'acquisto, mi pare che la compatibilità con versioni di api ancora da venire (che garantisce, tra l'altro, anche un non indifferente incremento di prestazioni), sia un argomento ben più solido di una presunta maggior overclockabilità (eventualmente minima, tra l'altro) che garantirebbe un incremento di prestazioni di infimo ordine
ho acquistato la 88gtx a novembre 2006 (le dx10 stavano per uscire e la prospettiva er mooolto più lunga di ora rispetto alle dx11), e a questo punto mi solletica l'idea di tenermela per un altro annetto, pensa te :asd:...........
per il resto, per come la vedo io, anche seguendo il tuo ragionamento, imho non vale proprio la pena di prendere una 4870x2 o una gtx280/gtx290, a meno che queste non costino meno di 300 euro....:D
Il punto è che una 4870 è una gpu ponte migliore della GTX 260. Quando usciranno i primi giochi Dx10.1 (previsti per fine anno grazie alla sponosorizzazione ATi con Blizzard,SEGA e EA) la 4870 potrà avvantaggiarsi di migliori performance con AA: non solo migliori della 260(che non ha supporto 10.1) ma migliori anche delle prestazioni della stessa 4870 nello stesso gioco ma con path dx10. Quando usciranno giochi dx11, uno potrà comprarsi una vga dx11 naturalmente, oppure potrà, scendendo a compromessi ovviamente, sfruttare il tessellator già incluso nella 4870 e supportato dalle Dx11.
Non bisogna pensare che tutti siano utenti enthusiast che comprano una gpu ogni 6 mesi. Ancora oggi con una x1900 si gioca, con ovvi compromessi, a COD4 o Bioshock, non vedo perchè con una 4870 non si potrà giocare magari verso la fine del prossimo (o inizio 2010) ai giochi dx11 che forse ci saranno.
già qui ci capiamo meglio, in effetti in questo senso la 4870 ha più prospettive di gtx260, ma magari aspettiamo annunci ufficiali di questi giochi (ma quanti sono? e che giochi sono? date di uscita?) non credi?
per il resto, parlado di compromessi, come giochi con una x1900 ora giocherai con una 8800 tra sei mesi/un anno, come vedi dipende come guardi le cose :asd:
l'unico punto fermo, per quanto mi riguarda, è che non vale la pena di spendere più di quanto dicevo per una top, ora come ora e men che meno tra qualche mese...
HackaB321
17-07-2008, 17:00
già qui ci capiamo meglio, in effetti in questo senso la 4870 ha più prospettive di gtx260, ma magari aspettiamo annunci ufficiali di questi giochi (ma quanti sono? e che giochi sono? date di uscita?) non credi?
per il resto, parlado di compromessi, come giochi con una x1900 ora giocherai con una 8800 tra sei mesi/un anno, come vedi dipende come guardi le cose :asd:
l'unico punto fermo, per quanto mi riguarda, è che non vale la pena di spendere più di quanto dicevo per una top, ora come ora e men che meno tra qualche mese...
Dovrebbero essere Diablo 3 e Starcraft 2 quasi sicuramente + uno strategico della EA di cui non ricordo il nome (lo scovò ALM da qualche parte:D ). Poi forse HL3.Non molto certo, anche se i primi 2 nomi e l'ultimo sono diciamo di un certo richiamo. Vediamo.
appleroof
17-07-2008, 17:04
Dovrebbero essere Diablo 3 e Starcraft 2 quasi sicuramente + uno strategico della EA di cui non ricordo il nome (lo scovò ALM da qualche parte:D ). Poi forse HL3.Non molto certo, anche se i primi 2 nomi e l'ultimo sono diciamo di un certo richiamo. Vediamo.
ecco :)
p.s: hl3 intendi hl2 episode3 non half life 3 giusto?
euronymous86x
17-07-2008, 17:20
chi te lo ha detto che la deve piazzare... ?? :asd: io credo volesse chiedere se era un affare o no prenderla a quel prezzo
Abbiamo colto il punto :) .. (presa a mano a quella cifra , in garanzia)
yossarian
17-07-2008, 17:25
già qui ci capiamo meglio, in effetti in questo senso la 4870 ha più prospettive di gtx260, ma magari aspettiamo annunci ufficiali di questi giochi (ma quanti sono? e che giochi sono? date di uscita?) non credi?
per il resto, parlado di compromessi, come giochi con una x1900 ora giocherai con una 8800 tra sei mesi/un anno, come vedi dipende come guardi le cose :asd:
l'unico punto fermo, per quanto mi riguarda, è che non vale la pena di spendere più di quanto dicevo per una top, ora come ora e men che meno tra qualche mese...
e forse anche di una gtx280 ed una 4850 ha più prospettive di una 9800gtx o di una 9800gtx+ :D
Marko#88
17-07-2008, 17:26
no...
oh ma la 2600xt che fine ha fatto?? l'hai buttata?? :asd:
volevo provare vista...e per motivi a me ignoti con vista appena metto i driver video si freezava brutalmente...ho provato per scaramanzia la x1900gt che avevo in giro per casa e andava benone...adesso ho rimesso xp perchè vista è scandaloso e devo ancora rimontare la HD2600XT passivata...che fra parentesi va più della 1900gt e io non l'avrei mai creduto...
appleroof
17-07-2008, 17:29
e forse anche di una gtx280 ed una 4850 ha più prospettive di una 9800gtx o di una 9800gtx+ :D
mi vuoi prendere per sfinimento? :asd: :asd:
facciamo così: ci troviamo tra un anno (forse meno?) e vediamo quanto valgono le 48x0 rispetto a gt200 (meglio....rispetto alle nuove prooste Nvidia o Ati?:read: :D )
halduemilauno
17-07-2008, 17:46
ti ripeto: il tuo è un discorso valido solo per chi compra sempre l'ultima novità; prova a metterti nei panni di chi compra oggi per tenersi la vga due o tre anni: chi acquista un prodotto compatibile con api future fa un investimento più a lungo termine rispetto a chi acquista una vga compatibile con le attuali.
Quando ci saranno schede dx11 e i giochi dx10.1 saranno in gran numero, chi avrà acquistato un prodotto compatibile con quelle api non sarà costretto a tornare sul mercato per comprare, a quel punto, una vga dx11.
Visto che si parla di elementi discriminanti ai fini dell'acquisto, mi pare che la compatibilità con versioni di api ancora da venire (che garantisce, tra l'altro, anche un non indifferente incremento di prestazioni), sia un argomento ben più solido di una presunta maggior overclockabilità (eventualmente minima, tra l'altro) che garantirebbe un incremento di prestazioni di infimo ordine
p.s l'architettura di RV770 non ha bisogno di subire rivoluzioni per essere full dx11 compliant
ma con le dx11 rilasciate nel 2009 ma quale sh sta a perdere tempo per fare giochi dx10.1? ma a che prò tenendo poi conto che la hh più importante le dx10.1 non le supporta? chi?
si passerà direttamente dalle dx10 alle dx11.e per i giochi dx11 se hai una scheda dx10 o dx10.1 è la stessa cosa non supportando ambedue le dx11.
poi che per ati possa essere + facile che non per nvidia passare essa dalle dx10.1 alle dx11 A è un'altro discorso e B chissenefrega tanto se hai una scheda dx10.1 sempre non compatibile dx11 rimane.
poi se nel frattempo nvidia ci ripensa supportando le dx10.1 allora lo scenario potrebbe dico potrebbe cambiare ma fino a un certo punto perchè cmq le dx11 verrebbero sempre rilasciate nel 2009 mica + in la nel tempo. e quindi torniamo a quanto ho detto prima.
appleroof
17-07-2008, 17:48
ma con le dx11 rilasciate nel 2009 ma quale sh sta a perdere tempo per fare giochi dx10.1? ma a che prò tenendo poi conto che la hh più importante le dx10.1 non le supporta? chi?
si passerà direttamente dalle dx10 alle dx11.e per i giochi dx11 se hai una scheda dx10 o dx10.1 è la stessa cosa non supportando ambedue le dx11.
poi che per ati possa essere + facile che non per nvidia passare essa dalle dx10.1 alle dx11 A è un'altro discorso e B chissenefrega tanto se hai una scheda dx10.1 sempre non compatibile dx11 rimane.
è il punto più debole di tutto quel discorso, in effetti, imho.
gianni1879
17-07-2008, 17:50
è il punto più debole di tutto quel discorso, in effetti, imho.
quando usciranno le vga dx11 ci saranno giochi dx11?? no
ci saranno giochi dx10.1? si
chi avrà una vga dx10.1 se li godrà appieno con tutti i miglioramenti del caso.
Chi invece cambia la scheda ogni due minuti questo discorso non interessa, e questo che non vi quadra nel discorso fatto fino ad adesso.
appleroof
17-07-2008, 17:53
quando usciranno le vga dx11 ci saranno giochi dx11?? no
ci saranno giochi dx10.1? si
chi avrà una vga dx10.1 se li godrà appieno con tutti i miglioramenti del caso.
Chi invece cambia la scheda ogni due minuti questo discorso non interessa, e questo che non vi quadra nel discorso fatto fino ad adesso.
è sempre come guardi il bicchiere: chi avrà la vga dx11 se li godrà davvero, appieno, i giochi dx10.1 (così come io e chi ha acquistato ai tempi si è goduto appieno i giochi dx9c molto più di chi aveva una pur ottima vga dx9c come la x1950xtx)
p.s.: è ovvio che il discorso non riguarda chi cambia la vga ogni 5 minuti, quello se ne frega di avere la vga dx10.1 ora che non ci sono giochi dx10.1, quando ci saranno in massa, prenderà la vga dx10.1 (già dx11?)
halduemilauno
17-07-2008, 17:55
quando usciranno le vga dx11 ci saranno giochi dx11?? no
ci saranno giochi dx10.1? si
chi avrà una vga dx10.1 se li godrà appieno con tutti i miglioramenti del caso.
Chi invece cambia la scheda ogni due minuti questo discorso non interessa, e questo che non vi quadra nel discorso fatto fino ad adesso.
è inutile che peroriate la causa dx10.1 se non la perora nvidia non si fanno giochi dx10.1. a questo si aggiunga che le dx11 non è che le rilasciano fra 2 o 3 anni e il gioco è fatto si passerà dalle attuali dx10 alle future(nel 2009)dx11.
stop.
se ora ti compri una scheda dx10.1 quando nel 2009 escono le dx11 la scheda dx10.1 te la dai sulle gengive in egual misura delle schede dx10.
"e ma io ho il tesselation" ecco pure quello sulle gengive.
la parola d'ordine sarà dx11.
gianni1879
17-07-2008, 17:57
è sempre come guardi il bicchiere: chi avrà la vga dx11 se li godrà davvero, appieno, i giochi dx10.1 (così come io e chi ha acquistato ai tempi si è goduto appieno i giochi dx9c molto più di chi aveva una pur ottima vga dx9c come la x1950xtx)
p.s.: è ovvio che il discorso non riguarda chi cambia la vga ogni 5 minuti, quello se ne frega di avere la vga dx10.1 ora che non ci sono giochi dx10.1, quando ci saranno in massa, prenderà la vga dx10.1 (già dx11?)
ecco appunto chi cambia la vga ogni mese per dire non gliene può fregare di meno di questo discorso, prenderà ciò che preferisce secondo i propri gusti personali :)
cmq ci siamo capiti ;)
gianni1879
17-07-2008, 17:59
è inutile che peroriate la causa dx10.1 se non la perora nvidia non si fanno giochi dx10.1. a questo si aggiunga che le dx11 non è che le rilasciano fra 2 o 3 anni e il gioco è fatto si passerà dalle attuali dx10 alle future(nel 2009)dx11.
stop.
se ora ti compri una scheda dx10.1 quando nel 2009 escono le dx11 la scheda dx10.1 te la dai sulle gengive in egual misura delle schede dx10.
"e ma io ho il tesselation" ecco pure quello sulle gengive.
la parola d'ordine sarà dx11.
mammamia che ragionamento :rolleyes:
della serie non voglio proprio ascoltare.....
come se tutti cambiano vga ogni mese, ancora sei convinto che quando ci saranno vga dx11 ci saranno giochi dx11?? convintu tu... :rolleyes:
euronymous86x
17-07-2008, 18:21
Ottimo prezzo !!!
http://www.xtremehardware.it/notizie/asus-presenta-la-nuova-scheda-video-en9800gtx%2b%10htdp%10512m%11ddr3-200807171659/
200 euro contro 130 da trovaprezzi :mbe: .. Ma non sarebbe dovuta costare di meno o grossomodo uguale ad una 4850 ?
Tidus.hw
17-07-2008, 18:43
ma con le dx11 rilasciate nel 2009 ma quale sh sta a perdere tempo per fare giochi dx10.1? ma a che prò tenendo poi conto che la hh più importante le dx10.1 non le supporta? chi?
si passerà direttamente dalle dx10 alle dx11.e per i giochi dx11 se hai una scheda dx10 o dx10.1 è la stessa cosa non supportando ambedue le dx11.
poi che per ati possa essere + facile che non per nvidia passare essa dalle dx10.1 alle dx11 A è un'altro discorso e B chissenefrega tanto se hai una scheda dx10.1 sempre non compatibile dx11 rimane.
poi se nel frattempo nvidia ci ripensa supportando le dx10.1 allora lo scenario potrebbe dico potrebbe cambiare ma fino a un certo punto perchè cmq le dx11 verrebbero sempre rilasciate nel 2009 mica + in la nel tempo. e quindi torniamo a quanto ho detto prima.
che discorsi :D
qualcuno si ricorda geforce3/4 contro radeon 8500? (ergo pixel shader 1.1/3 vs pixel shader 1.4)
entrambe dx8.1 ok, ma a distanza di un paio d'anni alcuni titoli dx9 erano retrocompatibili fino agli shader 1.4 (mi viene in mente battlefield 2) cioè radeon 8500/9100/9200, mentre su tutte le geforce3-4 non partivano.
Come gli altri hanno ripetuto milioni di volte hal, si tratta di mettersi nei panni di uno che non cambia scheda video ogni 3-6-12mesi ma se la tiene a più a lungo, ossia la maggior parte delle persone, e in questo caso scegliere una ati significa essere sicuro di avere una scheda che durerà a lungo..
Oltre al fatto che più passerà il tempo più le attuali 4800 distanzieranno le rispettive concorrenti della nvidia.
Come è successo tra FX vs 9700 e come è successo tra 7900 vs x1900,
le schede video ati sono sempre state pensate anche con un occhio per il futuro, al contrario di altre schede video.
Per esempio, prova a giocare a oblivion con una 9800pro e poi prova con una 5900ultra, oppure prova a giocare a un qualsiasi degli ultimi giochi con una 7900gtx e una x1900xtx, ti sembreranno di 2 generazioni diverse.
yossarian
17-07-2008, 18:50
mi vuoi prendere per sfinimento? :asd: :asd:
facciamo così: ci troviamo tra un anno (forse meno?) e vediamo quanto valgono le 48x0 rispetto a gt200 (meglio....rispetto alle nuove prooste Nvidia o Ati?:read: :D )
sai com'è, in un thread in cui si grida la miracolo per un'implementazione della fisica su gpu a livello di techdemo (per altro da dimostrare se fattibile o meno nell'ambito di un game reale) e ci si scalmana per 4 MHz in croce di o/c, era lecito attendersi che il supporto alle dx10.1 (e oltre) potesse rappresentare un valore aggiunto. Evidentemente per molti non è così. :D
ma con le dx11 rilasciate nel 2009 ma quale sh sta a perdere tempo per fare giochi dx10.1? ma a che prò tenendo poi conto che la hh più importante le dx10.1 non le supporta? chi?
da quando gli standard li decide nVidia? E da quando è l'hh più importante?
si passerà direttamente dalle dx10 alle dx11.e per i giochi dx11 se hai una scheda dx10 o dx10.1 è la stessa cosa non supportando ambedue le dx11.
assolutamente no; questa è un'illusione di quelli come te che pensano che le dx11 cancelleranno tutte le precedenti: niente di più sbagliato: le dx11 manterranno i punti fermi raggiunti dalle precedenti ampliandone alcuni e aggiungendone altri; quindi se una gpu e dx10.1 (e oltre) è avvantaggiata rispetto ad una che è solo dx10.
poi che per ati possa essere + facile che non per nvidia passare essa dalle dx10.1 alle dx11 A è un'altro discorso e B chissenefrega tanto se hai una scheda dx10.1 sempre non compatibile dx11 rimane.
poi se nel frattempo nvidia ci ripensa supportando le dx10.1 allora lo scenario potrebbe dico potrebbe cambiare ma fino a un certo punto perchè cmq le dx11 verrebbero sempre rilasciate nel 2009 mica + in la nel tempo. e quindi torniamo a quanto ho detto prima.
certo, e se magari nVidia decide di tornare indietro si torna alle dx9; anzia alle 8, visto che con le dx9 non ci hanno fatto una bella figura :ciapet:
quando usciranno le vga dx11 ci saranno giochi dx11?? no
ci saranno giochi dx10.1? si
chi avrà una vga dx10.1 se li godrà appieno con tutti i miglioramenti del caso.
Chi invece cambia la scheda ogni due minuti questo discorso non interessa, e questo che non vi quadra nel discorso fatto fino ad adesso.
discorso difficile da complrendere, evidentemente :D
è sempre come guardi il bicchiere: chi avrà la vga dx11 se li godrà davvero, appieno, i giochi dx10.1 (così come io e chi ha acquistato ai tempi si è goduto appieno i giochi dx9c molto più di chi aveva una pur ottima vga dx9c come la x1950xtx)
p.s.: è ovvio che il discorso non riguarda chi cambia la vga ogni 5 minuti, quello se ne frega di avere la vga dx10.1 ora che non ci sono giochi dx10.1, quando ci saranno in massa, prenderà la vga dx10.1 (già dx11?)
siamo alle solite: oggi esistono vga dx11? No. Se oggi voglio comprare una vga posso acquistare una vga dx11? No. Posso acquistare vga dx10, dx10.1. Quali sono quelle che mi garantiscono una maggior longevità se non ho intenzione di acquistare una nuova vga entro i prossimi 2 anni?
è inutile che peroriate la causa dx10.1 se non la perora nvidia non si fanno giochi dx10.1. a questo si aggiunga che le dx11 non è che le rilasciano fra 2 o 3 anni e il gioco è fatto si passerà dalle attuali dx10 alle future(nel 2009)dx11.
stop.
perchè lo decide nVidia, oppure halduemilauno? Illuditi pure, tanto né l'una né l'altra dettano gli standard (le arrampicate sugli specchi con le dx9 ti ricordano niente? Eppure le dx9 sono state utilizzate quando c'era ancora la serie NV3x). Il programma TWIMTBP sta iniziando a fare acqua e persino i marchi storici legati a nVidia stanno iniziando a produrre vga con gpu ATi.
Infine, l'avere prodotti tecnologicamente inferiori sotto molti aspetti non mi pare possa costituire motivo di vanto :D
se ora ti compri una scheda dx10.1 quando nel 2009 escono le dx11 la scheda dx10.1 te la dai sulle gengive in egual misura delle schede dx10.
"e ma io ho il tesselation" ecco pure quello sulle gengive.
la parola d'ordine sarà dx11.
quando usciranno le dx11 ci saranno titoli dx10.1 che, con la tua vga dx10.1 ti potrai godere a pieno e non con feature zoppe o frame rate ridotti a causa della scarsa compatibilità. Quelli che ti darai sulle gengive saranno quei 4 MHz di o/c che continui a sbandierare come la soluzione di tutti i problemi, manco fossero il Santo Graal :D
La cosa curiosa è che i fautori del: comprate la serie 6 di nVidia e non le X8x0 di ATi, perchè anche se le seconde vanno di più, quando usciranno i titoli sm3.0 non saranno compatibili, adesso sostengono l'inutilità della compatibilità con API più avanzate rispetto alle attuali; come cambia il mondo :sofico:
Sgt.Pepper89
17-07-2008, 18:56
che discorsi :D
qualcuno si ricorda geforce3/4 contro radeon 8500? (ergo pixel shader 1.1/3 vs pixel shader 1.4)
entrambe dx8.1 ok, ma a distanza di un paio d'anni alcuni titoli dx9 erano retrocompatibili fino agli shader 1.4 (mi viene in mente battlefield 2) cioè radeon 8500/9100/9200, mentre su tutte le geforce3-4 non partivano.
Come gli altri hanno ripetuto milioni di volte hal, si tratta di mettersi nei panni di uno che non cambia scheda video ogni 3-6-12mesi ma se la tiene a più a lungo, ossia la maggior parte delle persone, e in questo caso scegliere una ati significa essere sicuro di avere una scheda che durerà a lungo..
Oltre al fatto che più passerà il tempo più le attuali 4800 distanzieranno le rispettive concorrenti della nvidia.
Come è successo tra FX vs 9700 e come è successo tra 7900 vs x1900,
le schede video ati sono sempre state pensate anche con un occhio per il futuro, al contrario di altre schede video.
Per esempio, prova a giocare a oblivion con una 9800pro e poi prova con una 5900ultra, oppure prova a giocare a un qualsiasi degli ultimi giochi con una 7900gtx e una x1900xtx, ti sembreranno di 2 generazioni diverse.
Quoto, lasciamo perdere, anche davanti al parere di un esperto come yoss non si vogliono arrendere all'evidenza.
Quando hal consigliava la 8600gts contro la x1900pro dicendo "ah ma la 8600 ha il supporto dx10 :eek: ", allora era importante avere una tecnologia più avanzata. Ora che ad essere indietro è Nvidia ovviamente le tecnologie avanzate non verranno mai applicate, perchè se Nvidia non le ha, non sono buone.
Intanto voglio sapere che cosa ne pensano tutti quelli che prevedevano per questa 9800 gtx + prezzi allineati con la 4850.
Ah già, hal, basta aspettare; sicuramente in pochi mesi le 9800 scenderanno di prezzo, mentre le 4850 rimarranno sempre allo stesso prezzo. Oppure no, allora si darà la colpa ai rivenditori che ci mangiano sopra, vero?
:rolleyes:
Scusate lo sfogo ma a volte non riesco a resistere a leggere tutti questi commenti di parte.
yossarian
17-07-2008, 19:02
che discorsi :D
qualcuno si ricorda geforce3/4 contro radeon 8500? (ergo pixel shader 1.1/3 vs pixel shader 1.4)
entrambe dx8.1 ok, ma a distanza di un paio d'anni alcuni titoli dx9 erano retrocompatibili fino agli shader 1.4 (mi viene in mente battlefield 2) cioè radeon 8500/9100/9200, mentre su tutte le geforce3-4 non partivano.
Come gli altri hanno ripetuto milioni di volte hal, si tratta di mettersi nei panni di uno che non cambia scheda video ogni 3-6-12mesi ma se la tiene a più a lungo, ossia la maggior parte delle persone, e in questo caso scegliere una ati significa essere sicuro di avere una scheda che durerà a lungo..
Oltre al fatto che più passerà il tempo più le attuali 4800 distanzieranno le rispettive concorrenti della nvidia.
Come è successo tra FX vs 9700 e come è successo tra 7900 vs x1900,
le schede video ati sono sempre state pensate anche con un occhio per il futuro, al contrario di altre schede video.
Per esempio, prova a giocare a oblivion con una 9800pro e poi prova con una 5900ultra, oppure prova a giocare a un qualsiasi degli ultimi giochi con una 7900gtx e una x1900xtx, ti sembreranno di 2 generazioni diverse.
ci puoi aggiungere anche il confronto tra R100 ed NV15, entrambi dx7, con il secondo che non implementava neppure uno straccio di algoritmo di HSR, non faceva EMBM (che Matrox supportava dalla serie G4x0, DX6) e, al contrario di quanto facevano ATi, Matrox e PowerVR che utilizzavano 32 bit di precisione calcolo interna anche in modalità 16 bit, utilizzava una modalità con 16 bit reali (4 per canale), con prestazioni sicuramente più elevate della concorrenza (a 16 bit, ovviamente, non a 32) ma qualità d'immagine che definire inguardabile era fare un complimento.
L'unica volta in cui nVidia, dal 2000 ad oggi, è stata tecnologicamente avanti è stata nel confronto tra NV40 e R4x0
halduemilauno
17-07-2008, 19:03
sai com'è, in un thread in cui si grida la miracolo per un'implementazione della fisica su gpu a livello di techdemo (per altro da dimostrare se fattibile o meno nell'ambito di un game reale) e ci si scalmana per 4 MHz in croce di o/c, era lecito attendersi che il supporto alle dx10.1 (e oltre) potesse rappresentare un valore aggiunto. Evidentemente per molti non è così. :D
da quando gli standard li decide nVidia? E da quando è l'hh più importante?
assolutamente no; questa è un'illusione di quelli come te che pensano che le dx11 cancelleranno tutte le precedenti: niente di più sbagliato: le dx11 manterranno i punti fermi raggiunti dalle precedenti ampliandone alcuni e aggiungendone altri; quindi se una gpu e dx10.1 (e oltre) è avvantaggiata rispetto ad una che è solo dx10.
certo, e se magari nVidia decide di tornare indietro si torna alle dx9; anzia alle 8, visto che con le dx9 non ci hanno fatto una bella figura :ciapet:
discorso difficile da complrendere, evidentemente :D
siamo alle solite: oggi esistono vga dx11? No. Se oggi voglio comprare una vga posso acquistare una vga dx11? No. Posso acquistare vga dx10, dx10.1. Quali sono quelle che mi garantiscono una maggior longevità se non ho intenzione di acquistare una nuova vga entro i prossimi 2 anni?
perchè lo decide nVidia, oppure halduemilauno? Illuditi pure, tanto né l'una né l'altra dettano gli standard (le arrampicate sugli specchi con le dx9 ti ricordano niente? Eppure le dx9 sono state utilizzate quando c'era ancora la serie NV3x). Il programma TWIMTBP sta iniziando a fare acqua e persino i marchi storici legati a nVidia stanno iniziando a produrre vga con gpu ATi.
Infine, l'avere prodotti tecnologicamente inferiori sotto molti aspetti non mi pare possa costituire motivo di vanto :D
quando usciranno le dx11 ci saranno titoli dx10.1 che, con la tua vga dx10.1 ti potrai godere a pieno e non con feature zoppe o frame rate ridotti a causa della scarsa compatibilità. Quelli che ti darai sulle gengive saranno quei 4 MHz di o/c che continui a sbandierare come la soluzione di tutti i problemi, manco fossero il Santo Graal :D
La cosa curiosa è che i fautori del: comprate la serie 6 di nVidia e non le X8x0 di ATi, perchè anche se le seconde vanno di più, quando usciranno i titoli sm3.0 non saranno compatibili, adesso sostengono l'inutilità della compatibilità con API più avanzate rispetto alle attuali; come cambia il mondo :sofico:
te l'ho gia detto e te lo ripeto avere schede shader 3 ti permetteva di installare il gioco e di giocarci avere schede shader 2 no. oggi avere schede dx10 o avere schede dx10.1 il gioco si installa per ambedue e ci giochi con ambedue.
questa insieme all'oc da 4 Mhz da parte tua è scarsezza di argomentazioni e magari anche un pò di rodimenti.
è microsoft che decide le api ma sta alle hh decidere e in questo caso a decidere tra le hh la + importante è nvidia non ati o si può dire la tua ati?
halduemilauno
17-07-2008, 19:09
Quoto, lasciamo perdere, anche davanti al parere di un esperto come yoss non si vogliono arrendere all'evidenza.
Quando hal consigliava la 8600gts contro la x1900pro dicendo "ah ma la 8600 ha il supporto dx10 :eek: ", allora era importante avere una tecnologia più avanzata. Ora che ad essere indietro è Nvidia ovviamente le tecnologie avanzate non verranno mai applicate, perchè se Nvidia non le ha, non sono buone.
Intanto voglio sapere che cosa ne pensano tutti quelli che prevedevano per questa 9800 gtx + prezzi allineati con la 4850.
Ah già, hal, basta aspettare; sicuramente in pochi mesi le 9800 scenderanno di prezzo, mentre le 4850 rimarranno sempre allo stesso prezzo. Oppure no, allora si darà la colpa ai rivenditori che ci mangiano sopra, vero?
:rolleyes:
Scusate lo sfogo ma a volte non riesco a resistere a leggere tutti questi commenti di parte.
e adesso vogliamo mettere sullo stesso piano una differenza dx10 vs dx9 e la differenza tra dx10 e dx10.1????? parlando solo delle dx ovviamente.
per fortuna che le fortune di nvidia non dipendono dal mercato italiano. ora è colpa di nvidia se la 9800gtx è stata posizionata negli usa a 149$ e a tal prezzo si vende mentre da noi ancora in massima parte vige ancora il vecchio prezzo di 249$ e quindi di conseguenza eccola li prezzata di conseguenza a 170/180€ e oltre.
:boh:
yossarian
17-07-2008, 19:11
te l'ho gia detto e te lo ripeto avere schede shader 3 ti permetteva di installare il gioco e di giocarci avere schede shader 2 no. oggi avere schede dx10 o avere schede dx10.1 il gioco si installa per ambedue e ci giochi con ambedue.
quando è uscito NV40 non c'erano ancora titoli sm3.0 e la stessa cosa può succedere con le dx10 e le dx10.1. Mettiti in mente che la differenza tra queste ultime è maggiore di quella esistente tra dx9b e dx9c, che la compatibilità richiede HW specifico (che G80/G9x e GT200 non hanno) e che questa può essere una scusa più valida di quella trovata a suoi tempo, per non "far partire" qualche gioco dx10.1 con HW dx10.
questa insieme all'oc da 4 Mhz da parte tua è scarsezza di argomentazioni e magari anche un pò di rodimenti.
è microsoft che decide le api ma sta alle hh decidere e in questo caso a decidere tra le hh la + importante è nvidia non ati o si può dire la tua ati?
i 4 MHz è qualcosa che neppure considero, visto che tutti i chip si o/c, ma l'o/c è una pratica aleatoria e per nulla determinante (se non per chi fa l'overclocker di professione e che riesce a mettere le mani su chip selezionati).
Tra le hh la più importante è Intel, poi c'è AMD e poi nVidia o forse dovrei dire la tua nVidia? :D
yossarian
17-07-2008, 19:13
e adesso vogliamo mettere sullo stesso piano una differenza dx10 vs dx9 e la differenza tra dx10 e dx10.1????? parlando solo delle dx ovviamente.
per fortuna che le fortune di nvidia non dipendono dal mercato italiano. ora è colpa di nvidia se la 9800gtx è stata posizionata negli usa a 149$ e a tal prezzo si vende mentre da noi ancora in massima parte vige ancora il vecchio prezzo di 249$ e quindi di conseguenza eccola li prezzata di conseguenza a 170/180€ e oltre.
:boh:
a che mi serve un supporto sbandierato alle dx10 (varie 8400, 8600, ecc) se non ho HW adeguato a far girare SW DX10; meglio una vga dx9 più veloce in dx9 di una finta dx10, allora :sofico:
halduemilauno
17-07-2008, 19:18
è colpa di nvidia se questi 108 modelli di 9800gtx nel nostro paese vengono ancora vendute al vecchio prezzo????
http://www.trovaprezzi.it/categoria.aspx?libera=9800gtx&id=28&prezzoMin=&prezzoMax=&sbox=sb
ve?
:boh:
non è più giusto e corretto invece dire "oh cavolo la scheda sarebbe pure valida ma c'è una scheda che va di + e costa - mi sa che compro l'altra".
no?
Tidus.hw
17-07-2008, 19:19
te l'ho gia detto e te lo ripeto avere schede shader 3 ti permetteva di installare il gioco e di giocarci avere schede shader 2 no. oggi avere schede dx10 o avere schede dx10.1 il gioco si installa per ambedue e ci giochi con ambedue.
questa insieme all'oc da 4 Mhz da parte tua è scarsezza di argomentazioni e magari anche un pò di rodimenti.
è microsoft che decide le api ma sta alle hh decidere e in questo caso a decidere tra le hh la + importante è nvidia non ati o si può dire la tua ati?
hal, per cortesia, potresti dirmi che gioco non si poteva giocare con le x800 quando sono uscite?
halduemilauno
17-07-2008, 19:21
a che mi serve un supporto sbandierato alle dx10 (varie 8400, 8600, ecc) se non ho HW adeguato a far girare SW DX10; meglio una vga dx9 più veloce in dx9 di una finta dx10, allora :sofico:
certo ma se l'amico in sede di consigli per gli acquisti mi pone il fatto delle dx mica posso dirgli che dx9 è meglio di dx10.
e cmq in questi casi sempre citata la 8600gts ovvero la migliore o cmq la meno scarsa di quella fascia. quindi hai poco da generalizzare e fare cabaret.
Mister Tarpone
17-07-2008, 19:21
a che mi serve un supporto sbandierato alle dx10 (varie 8400, 8600, ecc) se non ho HW adeguato a far girare SW DX10; meglio una vga dx9 più veloce in dx9 di una finta dx10, allora :sofico:
eh.. però chi se lo immaginava che le dx10 sarebbero state una sola (spesso capaci di mettere in difficoltà schede di fascia alta, non solo le schede di fascia bassa come 8600 e 2600) :asd: all'inizio si leggeva che le dx10 avrebbero dovuto migliorare le prestazioni a parità di hw...
e invece ... :asd: :bsod:
halduemilauno
17-07-2008, 19:27
hal, per cortesia, potresti dirmi che gioco non si poteva giocare con le x800 quando sono uscite?
ne ricordo uno nel titolo mi pare che aveva il nome di las vegas. molti appunto avendo quelle schede lamentavano che non si installava. anche altri ma sinceramente non ne ricordo i nomi. e cmq ci tengo a sottolineare che questo aspetto è stato da me messo in risalto non all'inizio quando erano commercializzate quelle scede ove questo problema era ancora lontano ma sul finire o quasi della loro commercializzazione dove gia si appalesava questo scenario e quindi consigliavo schede shader 3 invece delle 2. ricordo e con molta soddisfazione le "battaglie" per far capire tutto questo. e sapeste anche quanti pvt successivi di ringraziamenti io abbia ricevuto proprio per questo.
cmq per altri titoli dovresti chiedere ai giocatori un pò più assidui di me.
halduemilauno
17-07-2008, 19:29
eh.. però chi se lo immaginava che le dx10 sarebbero state una sola (spesso capaci di mettere in difficoltà schede di fascia alta, non solo le schede di fascia bassa come 8600 e 2600) :asd: all'inizio si leggeva che le dx10 avrebbero dovuto migliorare le prestazioni a parità di hw...
e invece ... :asd: :bsod:
esatto anche questo.
yossarian
17-07-2008, 19:35
certo ma se l'amico in sede di consigli per gli acquisti mi pone il fatto delle dx mica posso dirgli che dx9 è meglio di dx10.
e cmq in questi casi sempre citata la 8600gts ovvero la migliore o cmq la meno scarsa di quella fascia. quindi hai poco da generalizzare e fare cabaret.
sei tu che stai facendo cabaret, ovvero la finta vittima: basta prendere uno dei tanti thread di consigli per rendersi conto che spesso eri tu che ponevi l'accento sulla compatibilità con le dx10
eh.. però chi se lo immaginava che le dx10 sarebbero state una sola (spesso capaci di mettere in difficoltà schede di fascia alta, non solo le schede di fascia bassa come 8600 e 2600) :asd: all'inizio si leggeva che le dx10 avrebbero dovuto migliorare le prestazioni a parità di hw...
e invece ... :asd: :bsod:
bastava leggere le specifiche delle dx10 per rendersene conto; senza contare che quando qualcuno aveva opportunamente sollevato dubbi sulla reale possibilità di far girare applicazioni dx10 su chip di fascia bassa era stato messo alla berlina
Tidus.hw
17-07-2008, 19:37
ne ricordo uno nel titolo mi pare che aveva il nome di las vegas. molti appunto avendo quelle schede lamentavano che non si installava. anche altri ma sinceramente non ne ricordo i nomi. e cmq ci tengo a sottolineare che questo aspetto è stato da me messo in risalto non all'inizio quando erano commercializzate quelle scede ove questo problema era ancora lontano ma sul finire o quasi della loro commercializzazione dove gia si appalesava questo scenario e quindi consigliavo schede shader 3 invece delle 2. ricordo e con molta soddisfazione le "battaglie" per far capire tutto questo. e sapeste anche quanti pvt successivi di ringraziamenti io abbia ricevuto proprio per questo.
cmq per altri titoli dovresti chiedere ai giocatori un pò più assidui di me.
rainbox six? è stato il primo gioco ad usare il motore di unreal 3, ed girava a fatica sulle x1800/7800, bene sulle 8800.. quelli che avevano le 6600/6800 ci giocavano alla 640x480 dettagli bassi.
Il primo gioco che fece notare veramente la mancanza degli shader 3.0 è stato bioshock, con tanto di petizione e annessa patch, ma comunque ormai l'era delle dx9b era passata da un pezzo.
ps: io sono stato uno di quelli che ai tempi aveva preso la 6800GS al posto della x800gto2 proprio per la questione longevità.
yossarian
17-07-2008, 19:39
ne ricordo uno nel titolo mi pare che aveva il nome di las vegas. molti appunto avendo quelle schede lamentavano che non si installava. anche altri ma sinceramente non ne ricordo i nomi. e cmq ci tengo a sottolineare che questo aspetto è stato da me messo in risalto non all'inizio quando erano commercializzate quelle scede ove questo problema era ancora lontano ma sul finire o quasi della loro commercializzazione dove gia si appalesava questo scenario e quindi consigliavo schede shader 3 invece delle 2. ricordo e con molta soddisfazione le "battaglie" per far capire tutto questo. e sapeste anche quanti pvt successivi di ringraziamenti io abbia ricevuto proprio per questo.
cmq per altri titoli dovresti chiedere ai giocatori un pò più assidui di me.
hai detto bene: verso mla fine del periodo di commercializzazione e non c'era nessun motivo tecnico per cui non si potessero implementare path sm2.0; stai descrivendo uno scenario che si potrebbe ripetere a parti invertite e che si è già verificato (HL2 e le path dx8 e dx7 per i chip della serie NV3x ti ricorda niente? E li Valve fu buona, poichè, comunque, si prese la briga di far girare il gioco con frame rate decenti anche su vga che avevano problami con le dx9, anche se c'è chi lamentò il mancato utilizzo di fp16 su NV35 e derivati) :D
alex oceano
17-07-2008, 19:41
discussione molto accesa nel forum
mi sapete dire il prezzo all'incirca di una 9800gtx+
grazie
è inutile che peroriate la causa dx10.1 se non la perora nvidia non si fanno giochi dx10.1. a questo si aggiunga che le dx11 non è che le rilasciano fra 2 o 3 anni e il gioco è fatto si passerà dalle attuali dx10 alle future(nel 2009)dx11.
stop.
se ora ti compri una scheda dx10.1 quando nel 2009 escono le dx11 la scheda dx10.1 te la dai sulle gengive in egual misura delle schede dx10.
"e ma io ho il tesselation" ecco pure quello sulle gengive.
la parola d'ordine sarà dx11.
:D :D
halduemilauno
17-07-2008, 19:43
rainbox six? è stato il primo gioco ad usare il motore di unreal 3, ed girava a fatica sulle x1800/7800, bene sulle 8800.. quelli che avevano le 6600/6800 ci giocavano alla 640x480 dettagli bassi.
Il primo gioco che fece notare veramente la mancanza degli shader 3.0 è stato bioshock, con tanto di petizione e annessa patch, ma comunque ormai l'era delle dx9b era passata da un pezzo.
ps: io sono stato uno di quelli che ai tempi aveva preso la 6800GS al posto della x800gto2 proprio per la questione longevità.
ripeto non essendo un giocatore assiduo(tutt'altro)posso aver ricordato male ma chi seguiva la sezione consigli per gli acquisti ricorderà senz'altro che quelle argomentazioni a un certo punto erano all'ordine del giorno. diversi titoli non si installavano su schede che non supportavano gli shader 3.
tutto qui.
halduemilauno
17-07-2008, 19:45
discussione molto accesa nel forum
mi sapete dire il prezzo all'incirca di una 9800gtx+
grazie
199$. da noi ancora non è commercializzata. una news parlava di 150€ e di alcuni giorni.
halduemilauno
17-07-2008, 19:48
hai detto bene: verso mla fine del periodo di commercializzazione e non c'era nessun motivo tecnico per cui non si potessero implementare path sm2.0; stai descrivendo uno scenario che si potrebbe ripetere a parti invertite e che si è già verificato (HL2 e le path dx8 e dx7 per i chip della serie NV3x ti ricorda niente? E li Valve fu buona, poichè, comunque, si prese la briga di far girare il gioco con frame rate decenti anche su vga che avevano problami con le dx9, anche se c'è chi lamentò il mancato utilizzo di fp16 su NV35 e derivati) :D
l'ho detto prima io e più volte. mai sollevato il problema se non alla fine quando esso apparve in tutta la sua evidenza.
appleroof
17-07-2008, 19:48
non posso mancare un attimo che parte il flame :D
allora...
è inutile che peroriate la causa dx10.1 se non la perora nvidia non si fanno giochi dx10.1. a questo si aggiunga che le dx11 non è che le rilasciano fra 2 o 3 anni e il gioco è fatto si passerà dalle attuali dx10 alle future(nel 2009)dx11.
stop.
se ora ti compri una scheda dx10.1 quando nel 2009 escono le dx11 la scheda dx10.1 te la dai sulle gengive in egual misura delle schede dx10.
"e ma io ho il tesselation" ecco pure quello sulle gengive.
la parola d'ordine sarà dx11.
:D :D
ecco appunto chi cambia la vga ogni mese per dire non gliene può fregare di meno di questo discorso, prenderà ciò che preferisce secondo i propri gusti personali :)
cmq ci siamo capiti ;)
quotone al 100%, era tutto lì il senso del mio discorso
ora come ora dx10.1 fuffa, quando forse avremo gioxhi dx10.1 in massa, compriamo una vga dx11 retrocompatibile (chi tiene la vga a lungo e chi ha già preso la 4870 o addirittura 4870x2 se è entusiasth la cambia, se non lo è via di compromessi, che di certo saranno di meno rispetto a gtx260, questo è vero), Ati o Nvidia che sia :)
sai com'è, in un thread in cui si grida la miracolo per un'implementazione della fisica su gpu a livello di techdemo (per altro da dimostrare se fattibile o meno nell'ambito di un game reale) e ci si scalmana per 4 MHz in croce di o/c, era lecito attendersi che il supporto alle dx10.1 (e oltre) potesse rappresentare un valore aggiunto. Evidentemente per molti non è così. :D
cut
non so di cosa parli, francamente: se guardi qualche post fà dicevo (non testuale :D) "se non ci sono giochi che sfruttano phisx esso rimane quello che le dx10.1 sono per le schede Ati, fuffa, non me ne faccio una cippa"
per il resto, Ut3 è un gioco mica un techdemo :mbe:, se ti riferisci a quello
:boh:
edit, trovato il mio post: http://www.hwupgrade.it/forum/showpost.php?p=23345719&postcount=990 se leggi bene capirai il senso dell'esaltamento, la conclusione è quella che ti ho ricordato ;)
alex oceano
17-07-2008, 19:52
agrazie della risp veloce a 150 andrei a ordinarla pure subito
ma per i giochi va meglio la 9800gtx+ vero!!! tuo parere come è
Tidus.hw
17-07-2008, 19:55
agrazie della risp veloce a 150 andrei a ordinarla pure subito
ma per i giochi va meglio la 9800gtx+ vero!!! tuo parere come è
secondo me con la tua attuale cpu non noteresti differenze passando dalla 8800gt alla 9800gtx..
Mister Tarpone
17-07-2008, 19:56
:D :D
mi chi c'è :eek: ;)
appleroof
17-07-2008, 19:57
agrazie della risp veloce a 150 andrei a ordinarla pure subito
ma per i giochi va meglio la 9800gtx+ vero!!! tuo parere come è
secondo me con la tua attuale cpu non noteresti differenze passando dalla 8800gt alla 9800gtx..
quoto, il cambio non vale molto la pena...
michelgaetano
17-07-2008, 19:58
150 è il prezzo che dovrebbe essere proposto.
Ma le 9800 gtx sono ancora a 179 €. E le HD4850 partono a 129 €.
Il cambio a mio avviso dipende dalla risoluzione, già a 1680 ci penserei.
mi chi c'è :eek: ;)
OTquesto tuo nuovo avatar è simile al tuo originario da mister tarpo! vai cosi:D fine OT
Mister Tarpone
17-07-2008, 20:01
OTquesto tuo nuovo avatar è simile al tuo originario da mister tarpo! vai cosi:D fine OT
:asd:
halduemilauno
17-07-2008, 20:07
agrazie della risp veloce a 150 andrei a ordinarla pure subito
ma per i giochi va meglio la 9800gtx+ vero!!! tuo parere come è
in prima pagina trovi molte rece.
yossarian
17-07-2008, 21:18
non so di cosa parli, francamente: se guardi qualche post fà dicevo (non testuale :D) "se non ci sono giochi che sfruttano phisx esso rimane quello che le dx10.1 sono per le schede Ati, fuffa, non me ne faccio una cippa"
per il resto, Ut3 è un gioco mica un techdemo :mbe:, se ti riferisci a quello
:boh:
edit, trovato il mio post: http://www.hwupgrade.it/forum/showpost.php?p=23345719&postcount=990 se leggi bene capirai il senso dell'esaltamento, la conclusione è quella che ti ho ricordato ;)
l'implementazione che se ne è fatta in UT3 è a livello di techdemo e sono curioso di vedere se, come e quando decideranno di implementarlo seriamente se ci saranno e a che livello, ripercussioni sul framerate :D
appleroof
17-07-2008, 22:03
l'implementazione che se ne è fatta in UT3 è a livello di techdemo e sono curioso di vedere se, come e quando decideranno di implementarlo seriamente se ci saranno e a che livello, ripercussioni sul framerate :D
già, il solito bicchiere :asd:
si vedrà, intanto seguo molto interessato :)
Free Gordon
18-07-2008, 02:49
i 40€ in + che citavo son diventati 27.5€.
http://www.trovaprezzi.it/categoria.aspx?libera=GTX260&id=28&prezzoMin=&prezzoMax=&sbox=sb
http://www.trovaprezzi.it/categoria.aspx?libera=4870&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)
E menomale!
E speriamo che scendano ancora, la concorrenza fa solo bene agli acquirenti! :)
Free Gordon
18-07-2008, 02:50
In quanto all'adozione del pp a 55 nm, si devono sottolineare due cose: ATi è in vantaggio di un pp e sta già lavorando allo shrink di RV770. ATi ha fatto una scelta differente a livello di dimensioni del chip: riesci a immaginare a quali prestazioni avrebbe potuto avere un ipotetico chip con le caratteristiche di RV770 grande quanto un GT200 a 55 nm (ovvero circa 420 mm^2)?
Ovvio che sarebbe dipeso dai clock.. ma quanto avrebbe potuto consumare un chip del genere?!? :D
Fammi una stima basandoti sulla 4850..
Free Gordon
18-07-2008, 03:00
ne ricordo uno nel titolo mi pare che aveva il nome di las vegas.
E' uscito quasi 2 anni dopo R420... :stordita:
halduemilauno
18-07-2008, 08:00
E' uscito quasi 2 anni dopo R420... :stordita:
infatti l'ho detto + volte all'inizio nessuno sollevava questo problema. a un certo punto esso si è presentato e le x800 non andavano + ne consigliate e ne tantomeno comprate. ripeto non ricordo il nome dei titoli precisi ma il problema ne riguardava diversi tutti + o - di quella stagione.
Tidus.hw
18-07-2008, 09:43
infatti l'ho detto + volte all'inizio nessuno sollevava questo problema. a un certo punto esso si è presentato e le x800 non andavano + ne consigliate e ne tantomeno comprate. ripeto non ricordo il nome dei titoli precisi ma il problema ne riguardava diversi tutti + o - di quella stagione.
ma sai che quando è uscito vegas c'erano già le 8800gtx? :asd:
halduemilauno
18-07-2008, 10:10
ma sai che quando è uscito vegas c'erano già le 8800gtx? :asd:
io non so che gioco/giochi erano non li ricordo. so solo che dalla fine del 2006 il problema si è presentato.
stop.
Sgt.Pepper89
18-07-2008, 11:07
E' uscito quasi 2 anni dopo R420... :stordita:
Comunque, direi che 2 anni è anche il tempo che ci vorrà perchè escano giochi incompatibili con schede video dx10 che si avviano solo con dx 10.1; questo sopratutto perchè la fascia medio - bassa Nvidia continuerà a restare dx10 ancora per un po :rolleyes: .
Comunque è evidente che r420 è stato un (l'unico) caso di supremazia tecnologica nvidia (si, anche r600 seppur più lento e con consumi maggiori era tecnologicamente superiore a g80).
Tutti questi discorsi sono comunque inutili finchè non si troverà la gtx+ a prezzi allineati alla 4850. Fino ad allora è anche inutile scomodare discorsi di tecnologia longeva...la 4850 costa molto meno per prestazioni inferiori del 3 percento senza filtri e allineate con i filtri.
Mister Tarpone
18-07-2008, 11:13
(si, anche r600 seppur più lento e con consumi maggiori era tecnologicamente superiore a g80).
.
r600 era un troiaio, un fallimento quasi completo.. e non aveva manco ste benedette dx10.1...
Comunque, direi che 2 anni è anche il tempo che ci vorrà perchè escano giochi incompatibili con schede video dx10 che si avviano solo con dx 10.1; questo sopratutto perchè la fascia medio - bassa Nvidia continuerà a restare dx10 ancora per un po :rolleyes:
e chi te lo ha detto che i giochi dx10.1 non partiranno con schede dx10?? :confused:
non credo che il discorso sia lo stesso come ai tempi dello shader model 2.0 delle x800 vs shader model 3.0 delle 6800... (qui si parla di sm4.0 vs sm4.1)
che poi..utili i gli shader 3.0 delle 6800... quando i giochi che le sfruttavan per bene sono usciti a fiotti, ormai quella scheda non era più capace di far girare nulla a dettaglio alto.. :asd: ed ho paura che accadrà la stessa cosa con le schede che adesso sono già dx10.1... (tra 1,2 anni credo che una 3800 per esempio non andrà veramente più una sega, dx10.1 o no.. andrà meglio per le attuali 4800, ma ormai saranno fascia mainstream quando iniziera ad esser pieno di giochi dx10.1...
Tutti questi discorsi sono comunque inutili finchè non si troverà la gtx+ a prezzi allineati alla 4850. Fino ad allora è anche inutile scomodare discorsi di tecnologia longeva...la 4850 costa molto meno per prestazioni inferiori del 3 percento senza filtri e allineate con i filtri.
qui quoto.. anche secondo me ( e l'ho sempre detta sta cosa..) la gtx dovrebbe costare come una 4850.. e neanche un euro in più...
Sgt.Pepper89
18-07-2008, 12:10
r600 era un troiaio, un fallimento quasi completo.. e non aveva manco ste benedette dx10.1...
Guarda, ricordo bene i commenti fatti da varie persone che evidentemente sanno di cosa parlano (yoss ad esempio) che spiegavano che r600 aveva caratteristiche innovative ma che a causa di alcuni errori di progettazione, di bugs nella gestione dell'antialiasing e del processo produttivo a 65 nm aveva portato a una scheda come era la 2900xt. Ricordo comunque che r600 inculde già alcune tecnologie per il raytracing che g200 non implementa ancora adesso.
e chi te lo ha detto che i giochi dx10.1 non partiranno con schede dx10?? :confused:
non credo che il discorso sia lo stesso dei tempi dello shader model 2.0 delle x800 vs shader model 3.0 delle 6800... (qui si parla di sm4.0 vs sm4.1)
Ne ha parlato yossarian qualche post addietro.
che poi..utili i gli shader 3.0 delle 6800... quando i giochi che le sfruttavan per bene sono usciti a fiotti, ormai quella scheda non era più capace di far girare nulla a dettaglio alto.. :asd: ed ho paura che accadrà la stessa cosa con le schede che adesso sono già dx10.1... (tra 1,2 anni credo che una 3800 per esempio non andrà veramente più una sega, dx10.1 o no.. andrà meglio per le attuali 4800, ma ormai saranno fascia mainstream quando iniziera ad esser pieno di giochi dx10.1...
Non tutti cambiano uan scheda video ogni anno. C'è chi si accontenta di qualità video bassa ritenedno magari che un videogame possa essere bello anche per trama e gameplay. Molti miei amici sono ancora con schede come la 9600xt o la 9800pro, io fino a un mese fa tenevo la 9200 che mi permetteva comunque le mie partite a team fortress 2 e hl2 deathmatch.
Free Gordon
18-07-2008, 12:28
Oltre al fatto che più passerà il tempo più le attuali 4800 distanzieranno le rispettive concorrenti della nvidia.
Come è successo tra FX vs 9700 e come è successo tra 7900 vs x1900,
le schede video ati sono sempre state pensate anche con un occhio per il futuro, al contrario di altre schede video.
Per esempio, prova a giocare a oblivion con una 9800pro e poi prova con una 5900ultra, oppure prova a giocare a un qualsiasi degli ultimi giochi con una 7900gtx e una x1900xtx, ti sembreranno di 2 generazioni diverse.
Concordo.
In effetti, anche se nVidia mette a disposizione delle GTX ad un prezzo paragonabile, la 4850 resta preferibile perchè, sia per features che per potenza pura, risulterà cmq più longeva (i giochi dx10 che sfruttano appieno le nuove features, devono ancora arrivare...).
Free Gordon
18-07-2008, 12:36
da quando gli standard li decide nVidia? E da quando è l'hh più importante?
Su questo sono daccordo.
Nel caso degli SM3 infatti, si sono fatti uscire giochi "SM3 only" perchè questo era conveniente dal pdv della conversione.
Dato che TUTTI quei giochi, sono stati porting della versione Xbox360. :)
assolutamente no; questa è un'illusione di quelli come te che pensano che le dx11 cancelleranno tutte le precedenti: niente di più sbagliato: le dx11 manterranno i punti fermi raggiunti dalle precedenti ampliandone alcuni e aggiungendone altri; quindi se una gpu e dx10.1 (e oltre) è avvantaggiata rispetto ad una che è solo dx10.
Ma oltretutto.. donde ce ne andiamo con la dx11... se non ci sono manco giochi dx10 in giro? :D
quando usciranno le dx11 ci saranno titoli dx10.1 che, con la tua vga dx10.1 ti potrai godere a pieno e non con feature zoppe o frame rate ridotti a causa della scarsa compatibilità. Quelli che ti darai sulle gengive saranno quei 4 MHz di o/c che continui a sbandierare come la soluzione di tutti i problemi, manco fossero il Santo Graal :D
Questo potrebbe succedere se le 10 emulassero le 10.1.. no?
Se questo fosse possibile, allora tutto ciò molto probabilmente accadrà..
Sennò non credo che vedremo mai dei giochi dx10.1 che NON partono sotto schede dx10.
La cosa curiosa è che i fautori del: comprate la serie 6 di nVidia e non le X8x0 di ATi, perchè anche se le seconde vanno di più, quando usciranno i titoli sm3.0 non saranno compatibili, adesso sostengono l'inutilità della compatibilità con API più avanzate rispetto alle attuali; come cambia il mondo :sofico:
La scheda più furba del lotto era la 6600GT, che ho avuto dopo la 9700pro, costava poco, saliva alla grande e andava da Dio! :D
Free Gordon
18-07-2008, 12:39
è colpa di nvidia se questi 108 modelli di 9800gtx nel nostro paese vengono ancora vendute al vecchio prezzo????
http://www.trovaprezzi.it/categoria.aspx?libera=9800gtx&id=28&prezzoMin=&prezzoMax=&sbox=sb
ve?
:boh:
non è più giusto e corretto invece dire "oh cavolo la scheda sarebbe pure valida ma c'è una scheda che va di + e costa - mi sa che compro l'altra".
no?
Il problema è che ATI con la serie 48x0 ha portato Nvidia a dover fare concorrenza a se stessa...
E dato che in questi casi, si perdono sempre dei soldi, non credo che i commercianti facciano quello che vorresti tu (cioè prezzare una scheda nuova che và un 15% in più della vecchia, a 60 euro in meno di quella vecchia :D -avendo ovviamente ancora la vecchia in casa-).
Free Gordon
18-07-2008, 12:44
(HL2 e le path dx8 e dx7 per i chip della serie NV3x ti ricorda niente? E li Valve fu buona, poichè, comunque, si prese la briga di far girare il gioco con frame rate decenti anche su vga che avevano problami con le dx9, anche se c'è chi lamentò il mancato utilizzo di fp16 su NV35 e derivati) :D
Beh, ma la mancanza del path fp16 mi pareva abbastanza grave, no?
Le schede Nvidia ne giovavano molto... e senza perdita di qualità visiva. ;)
Ati aveva il path a 24 bit e va bene.. ma per Nvidia avrebbero dovuto implementare il path fp16 (se non ci fosse stato un sotterraneo accordo ATI-Valve, non credi?) ;)
yossarian
18-07-2008, 12:49
e chi te lo ha detto che i giochi dx10.1 non partiranno con schede dx10?? :confused:
non credo che il discorso sia lo stesso come ai tempi dello shader model 2.0 delle x800 vs shader model 3.0 delle 6800... (qui si parla di sm4.0 vs sm4.1)
il discorso è esattamente lo stesso; sia il passaggio da sm2.0 a sm3.0 che quello da sm4.0 a sm4.1 richiedono una compatibilità di tipo HW che, evidentemente, nVidia ha difficoltà ad implementare nelle sue gpu.
Quando si inizieranno a vedere titoli che faranno uso delle dx10.1, nella migliore delle ipotesi (ma la decisione è affidata al buon cuore degli sviluppatori e alla loro volontà di rendere i loro prodotti retrocompatibili, esattamente come avvenuto con le dx9b e le 9c), i titoli partiranno con dx10 ma, in alcuni casi, le prestazioni saranno inferiori, in altri mancheranno alcune feature. Nella peggiore delle ipotesi, si potrebbe verificare quanto visto con alcuni titoli e con lo sm3.0 e la serie X8x0.
che poi..utili i gli shader 3.0 delle 6800... quando i giochi che le sfruttavan per bene sono usciti a fiotti, ormai quella scheda non era più capace di far girare nulla a dettaglio alto.. :asd: ed ho paura che accadrà la stessa cosa con le schede che adesso sono già dx10.1... (tra 1,2 anni credo che una 3800 per esempio non andrà veramente più una sega, dx10.1 o no.. andrà meglio per le attuali 4800, ma ormai saranno fascia mainstream quando iniziera ad esser pieno di giochi dx10.1...
in molti casi l'utilizzo delle dx10.1 porterà un incremento di prestazioni, anche di notevole entità, con HW compatibile (come ad esempio nel caso del MSAA box filter); la stessa cosa non si verificava con lo sm3.0. In ogni caso, anche là dove l'hit prestazionale ci sarà, sarà molto maggiore per HW dx10 che non per hw dx10.1
Free Gordon
18-07-2008, 12:52
infatti l'ho detto + volte all'inizio nessuno sollevava questo problema. a un certo punto esso si è presentato e le x800 non andavano + ne consigliate e ne tantomeno comprate. ripeto non ricordo il nome dei titoli precisi ma il problema ne riguardava diversi tutti + o - di quella stagione.
Hal...sono titoli usciti 2 anni dopo le x800... :stordita: (il primo titolo tra gli only sm3, a dir la verità, non era Vegas ma SC: Double Agent).
Una VGA top (come R420) dopo due anni difficilmente a livello di performance è ancora competitiva.. (quella non lo era più nemmeno a livello di features..).
Seguendo il tuo stesso ragionamento, i primi giochi dx10.1 (per cui non compatibili con tutti i Gxxx di Nvidia) ce li dovremmo aspettare per fine 2009... ;)
Per cui perchè, ORA, consigliare una VGA dx10? :D
Anzi, semmai si potrebbe consigliare una 4870 al posto della 4850...perchè l'unica in grado di garantire quel "dippiù" che potrebbe far la differenza il prossimo anno.
Hal, lo so che ti piace nVidia (come io preferisco ATI), ma la questione ad oggi è sempre la stessa di 4 anni fà... ;)
Mister Tarpone
18-07-2008, 12:55
Guarda, ricordo bene i commenti fatti da varie persone che evidentemente sanno di cosa parlano (yoss ad esempio) che spiegavano che r600 aveva caratteristiche innovative ma che a causa di alcuni errori di progettazione, di bugs nella gestione dell'antialiasing e del processo produttivo a 65 nm aveva portato a una scheda come era la 2900xt. Ricordo comunque che r600 inculde già alcune tecnologie per il raytracing che g200 non implementa ancora adesso.
appunto. era un mezzo fallimento.. le innovazioni non sono servite a nulla in quella scheda.. perchè in parte il progetto è andato male..
Ne ha parlato yossarian qualche post addietro.
io credo che qui si andrà avanti con giochi dx9 per ancora moooooooolto tempo.... altro che schede dx10 che non faran partire i giochi dx10.1... :asd:
Non tutti cambiano uan scheda video ogni anno. C'è chi si accontenta di qualità video bassa ritenedno magari che un videogame possa essere bello anche per trama e gameplay. Molti miei amici sono ancora con schede come la 9600xt o la 9800pro, io fino a un mese fa tenevo la 9200 che mi permetteva comunque le mie partite a team fortress 2 e hl2 deathmatch.
si ma se uno si deve accontentare della qualità bassa perchè la schede un ce la fa a dettagli alti, a quel punto le migliorie delle dx10.1 a cosa servono??? :asd:
cioè..allora a quel punto a dettagli bassi farà il suo dovere pure una scheda dx10 no??
questo intendevo... cioè se la valanga di giochi realmente dx10 -dx10.1 arriverà in massa tra taaanto tempo, alcune schede che adesso sono già dx10.1 credo che serviranno a poco imho... poi vediamo oh... può essere che mi sbagli :boh:
ciaaaaaaaaaooooo
Free Gordon
18-07-2008, 13:03
r600 era un troiaio, un fallimento quasi completo.. e non aveva manco ste benedette dx10.1...
Considera che Rv770 è come un R600 (meno raffinato nelle TMU) ma con più unità all'interno.
Se R600 era un troiao non riesco a capire come possa, semplicemente aumentando le proprie unità, aver dato vita ad un gioiellino. :D
R600 aveva un grosso problema di consumo, di basso texture fillrate e di AA, ma ATI, non avendo in mente di fare il chippone come G80 (ma un'evoluzione dell'R580), si è trovata in grosse difficoltà...
(c'è da dire che in questo modo, un pò ha confuso la concorrenza sulle sue reali capacità). :sofico:
Mister Tarpone
18-07-2008, 13:12
Considera che Rv770 è come un R600 (meno raffinato nelle TMU) ma con più unità all'interno.
Se R600 era un troiao non riesco a capire come possa, semplicemente aumentando le proprie unità, aver dato vita ad un gioiellino. :D
si ma rv770 non è semplicemente un r600 con più shader e basta dai... credo tenga taaaante altre migliorie /correzioni.. :asd:
R600 aveva un grosso problema di consumo, di basso texture fillrate e di AA, ma ATI, non avendo in mente di fare il chippone come G80 (ma un'evoluzione dell'R580), si è trovata in grosse difficoltà...
(c'è da dire che in questo modo, un pò ha confuso la concorrenza sulle sue reali capacità). :sofico:
e mi spiace per ati... ma la scheda è stata mooolto deludente. ....cosa che non si può dire delle r770 che invece a sto giro son venute ottime, molto meglio di quello che pensavo... :asd:
yossarian
18-07-2008, 13:13
Su questo sono daccordo.
Nel caso degli SM3 infatti, si sono fatti uscire giochi "SM3 only" perchè questo era conveniente dal pdv della conversione.
Dato che TUTTI quei giochi, sono stati porting della versione Xbox360. :)
esatto, ma c'è chi si illude che sia nVidia che decida cosa si debba implementare e quando :sofico:
Questo potrebbe succedere se le 10 emulassero le 10.1.. no?
Se questo fosse possibile, allora tutto ciò molto probabilmente accadrà..
Sennò non credo che vedremo mai dei giochi dx10.1 che NON partono sotto schede dx10.
le dx10 non possono emulare le 10.1 poichè ci sono delle carenze sostanziali dal punto di vista dell'HW. Al massimo ci sono alcune cose che si pssono fare anche utilizzando le dx10, a scapito delle prestazioni però; per chiarire meglio: una vga dx10 non avrà incrementi di prestazioni dall'utilizzo di path dx10.1 mentre una vga dx10.1 avrà incrementi di prestazioni rispetto alle attuali. In altri casi si avrà una qualità grafica inferiore o delle feature in meno. Il discorso è molto semplice: ci sarà sicuramente chi si prenderà la briga di ricorrere a path retrocompatibili con le dx10 e chi non lo farà (come è successo per lo sm3.0 e R4x0). Come accadde allora potrà accadere anche in futuro di vedere giochi dx10.1 che non partono con vga dx10.
Beh, ma la mancanza del path fp16 mi pareva abbastanza grave, no?
Le schede Nvidia ne giovavano molto... e senza perdita di qualità visiva. ;)
Ati aveva il path a 24 bit e va bene.. ma per Nvidia avrebbero dovuto implementare il path fp16 (se non ci fosse stato un sotterraneo accordo ATI-Valve, non credi?) ;)
dipende dai punti di vista; a fp16 nv35 era sicuramente migliore di nv30 ma non era un fulmine (aveva una minialu fp in più ma il problema della scarsità dei registri temporanei rimaneva, tanto che le SWH che lavoravano a stretto contatto di gomito con nVidia utilizzavano path miste fp16, INT e mai path only fp; Carmack era ricorso, per doom3, addirittura ad una path chiamata NV30, studiata per i chip NV che con ARB2 erano dei chiodi).
Valve ha utilizzato, per HL2, una normale path dx9 che prevedeva l'uso di fp24 (la scelta di ATi non era stata casuale). Tutto ciò che ha fatto in più, l'ha fatto solo per rendere giocabile HL2 con vga equipaggiate con chip della serie NV3x e, per farlo, ha dovuto ricorrere due diverse path per i soli chip NV. Quante altre ne avrebbe dovuto implementare? Avrebbe dovuto sviluppare il gioco prendendo come riferimento l'HW nVidia?
Se secondo te è grave una situazione in cui una SWH sviluppa un gioco utilizzando uno standard previsto dalle api di riferimento e implementa altre due path per chip che non sono in grado di garantire un frame rate accettabile con quelle api, come definisci una situazione in cui alcune SHW non si sono prese la briga di rendere i propri prodotti retrocompatibili con lo sm precedente?
Ammettendo anche l'esistenza di un sotterraneo accordo con ATi, sicuramente l'effetto di questo accordo è stato meno grave dei sotterranei accordi fatti da nVidia con chi ha sviluppato titoli sm3.0 che non giravano su HW sm2.0. O con chi non implementa path dx10.1 (o lo fa e le poi le ritira, per non far fare brutte figure a vga costosissime :D )
Free Gordon
18-07-2008, 13:21
Per afrti capire, applicare il MSAA 4x, in modalità dx10.1, con RV770 porta a prestazioni all'incirca allineate o di pochissimo inferiori a quelle che si hanno senza MSAA.
Perchè una roba simile non si è messa prima, in Xenos.. :D invece di complicare la vita agli sviluppatori, con il tile rendering? :D
Non c'erano i mezzi per farlo?
Siamo davvero alle porte del 4x, "free"? ^_^
Mister Tarpone
18-07-2008, 13:23
Ma oltretutto.. donde ce ne andiamo con la dx11... se non ci sono manco giochi dx10 in giro? :D
appunto :D
e qui ci si fa le paranoie per i giochi dx10.1 che non partiranno con le schede dx10.. :asd: ???
campa cavallo prima che succeda una cosa del genere... e campa cavallo prima che ci saranno i motori grafici realmente dx10-dx10.1 dx11 dx12 e 13.. IMHO :asd:
qui temo che il dx9 la farà da padrona a lungo... :fagiano: :stordita:
Free Gordon
18-07-2008, 13:33
Se secondo te è grave una situazione in cui una SWH sviluppa un gioco utilizzando uno standard previsto dalle api di riferimento e implementa altre due path per chip che non sono in grado di garantire un frame rate accettabile con quelle api, come definisci una situazione in cui alcune SHW non si sono prese la briga di rendere i propri prodotti retrocompatibili con lo sm precedente?
Beh, diciamo però che il supporto dx9 di facciata, nv30 ce l'aveva.
Mentre R420 non aveva nemmeno quello (alle 9c intendo).
Ammettendo anche l'esistenza di un sotterraneo accordo con ATi, sicuramente l'effetto di questo accordo è stato meno grave dei sotterranei accordi fatti da nVidia con chi ha sviluppato titoli sm3.0 che non giravano su HW sm2.0. O con chi non implementa path dx10.1 (o lo fa e le poi le ritira, per non far fare brutte figure a vga costosissime :D )
Come ti ho detto sopra, non credo ad accordi con Nvidia per non far girare su schede sm2, giochi come SC: DA, Vegas e altri mossi dall'UE3 (o 2.5)...
Lì la questione è puramente legata ai porting 360 e alla loro facilità. ;)
La questione di AC invece, è di una gravità allucinante, decisamente peggio di quanto potesse aver fatto Carmack con i suoi motori ad hoc, per nv30...
Ma sento che da quel pdv, nel prossimo futuro, ci prenderemo una bella rivincita... :asd:
Free Gordon
18-07-2008, 13:36
qui temo che il dx9 la farà da padrona a lungo... :fagiano: :stordita:
Io credo che il primo vero gioco della nuova era, sarà Alan Wake..
Sarà only dx10, sarà multi CPU, sarà anche multi GPU. ^_^
Quando uscirà non si sà, dato che all'E3 non si è visto...ma credo che per giugno prossimo sarà fuori. :oink:
yossarian
18-07-2008, 13:36
Perchè una roba simile non si è messa prima, in Xenos.. :D invece di complicare la vita agli sviluppatori, con il tile rendering? :D
Non c'erano i mezzi per farlo?
xenos non può usare il MRT per il MSAA
Siamo davvero alle porte del 4x, "free"? ^_^
proprio free non ancora; però con la patch 1.01 (quella dx10.1) di AC, una 4850 con MSAA, a 1680*1050, guadagna circa il 23-24% (e sta davanti ad una 280GTX) e una 3870x2 intorno al 43%. Per i chip dx10, invece, l'utilizzo di una path dx10.1 non porta a variazioni delle prestazioni
Mister Tarpone
18-07-2008, 13:37
Siamo davvero alle porte del 4x, "free"? ^_^
dipenderà dai giochi. se sfrutteranno sta feature bene, altrimenti le porte purtroppo resteranno chiuse... *.*
:stordita: :stordita: :stordita:
volevo provare vista...e per motivi a me ignoti con vista appena metto i driver video si freezava brutalmente...ho provato per scaramanzia la x1900gt che avevo in giro per casa e andava benone...adesso ho rimesso xp perchè vista è scandaloso e devo ancora rimontare la HD2600XT passivata...che fra parentesi va più della 1900gt e io non l'avrei mai creduto...
Cavoli io ricordavo che erano inferiori :eek:, che siano i miglioramenti dei driver tanto criticati/adorati/aspettati/insultati? :asd:
Il programma TWIMTBP sta iniziando a fare acqua e persino i marchi storici legati a nVidia stanno iniziando a produrre vga con gpu ATi.
Precisamente, il che fa pensare.
Mister Tarpone
18-07-2008, 13:42
Io credo che il primo vero gioco della nuova era, sarà Alan Wake..
Sarà only dx10, sarà multi CPU, sarà anche multi GPU. ^_^
Quando uscirà non si sà, dato che all'E3 non si è visto...
ecco... e te pareva...
ma credo che per giugno prossimo sarà fuori. :oink:
magari.. speriamo via.. sarebbe già un passo avanti.. :asd: :oink: :oink:
ciao.. ;)
yossarian
18-07-2008, 13:45
Beh, diciamo però che il supporto dx9 di facciata, nv30 ce l'aveva.
Mentre R420 non aveva nemmeno quello (alle 9c intendo).
di facciata soltanto, però; NV30 era un chip con sole 4 unità fp e per giunta dipendenti dalle tmu; ogni volta che c'era da fare un'operazione di texturing la alu era inattiva per i calcoli matematici; in più aveva 2 mini alu (in serie alla prima) di tipo INT. Oltre a questo, aveva anche un problema con il numero di registri temporanei: quando si utilizzava la tanto sbandierata modalità di rendering fp32, il frame rate si dimezzava (rispetto a quello già basso che si aveva con fp16 a causa della scarsità di unità fp e della loro dipendenza), perchè NV30 non era in grado di gestire thread che mettessero in gioco più di 2 registri temporanei per volta.
Insomma, era il chip più veloce di quelli dx8 :D
Tidus.hw
18-07-2008, 13:45
Beh, ma la mancanza del path fp16 mi pareva abbastanza grave, no?
Le schede Nvidia ne giovavano molto... e senza perdita di qualità visiva. ;)
Ati aveva il path a 24 bit e va bene.. ma per Nvidia avrebbero dovuto implementare il path fp16 (se non ci fosse stato un sotterraneo accordo ATI-Valve, non credi?) ;)
forse gli shader di half life 2 erano troppo complessi per una precisione così bassa e c'era il rischio che oltre ad avere una qualità più scadente ci poteva essere qualche artefatto a causa delle troppe approssimazioni, non so, magari "qualcuno" che ne sa più di me può confermare :D
Mister Tarpone
18-07-2008, 13:46
Precisamente, il che fa pensare.
sarà...... ma vedo che tanti giochi che usciranno in futuro continuano ad avere il logo nvidia, tipo anche Far Cry 2 e taaanti altri.
azz.. :fagiano:
yossarian
18-07-2008, 13:50
dipenderà dai giochi. se sfrutteranno sta feature bene, altrimenti le porte purtroppo resteranno chiuse... *.*
:stordita: :stordita: :stordita:
basterà non comprare giochi che non la sfruttino :D
sarà...... ma vedo che tanti giochi che usciranno in futuro continuano ad avere il logo nvidia, tipo anche Far Cry 2 e taaanti altri.
azz.. :fagiano:
Beh, ma non ti fa effetto vedere Gainward (!) produrre VGA con chip AMD? Oppure sentire degli accordi tra AMD e Blizzard, SEGA e chi altro?
Mister Tarpone
18-07-2008, 13:54
Beh, ma non ti fa effetto vedere Gainward (!) produrre VGA con chip AMD? Oppure sentire degli accordi tra AMD e Blizzard, SEGA e chi altro?
è un fatto positivo per ati ;)
è un fatto positivo per ati ;)
E negativo per qualcun'altro ;)
CoolBits
18-07-2008, 13:57
Beh, ma non ti fa effetto vedere Gainward (!) produrre VGA con chip AMD? Oppure sentire degli accordi tra AMD e Blizzard, SEGA e chi altro?
Lo stesso effetto che ha fatto vedere Sapphire vendere schede Nvidia con marchio Zotac....ovvero nessuno normali logiche di mercato....mi fa più effetto sentire di un probabile accordo con Blizzard (i suoi giochi mi piacciono molto)....resta da capire dove trovano i soldi :asd: visto il bilancio presentato ieri :doh:
yossarian
18-07-2008, 14:00
Beh, ma non ti fa effetto vedere Gainward (!) produrre VGA con chip AMD? Oppure sentire degli accordi tra AMD e Blizzard, SEGA e chi altro?
EA
Mister Tarpone
18-07-2008, 14:02
E negativo per qualcun'altro ;)
ma neanche + di tanto... perchè quel qualcun'altro ha stretto accordi con ben + di 2 software house.... ;)
Sgt.Pepper89
18-07-2008, 14:04
sarà...... ma vedo che tanti giochi che usciranno in futuro continuano ad avere il logo nvidia, tipo anche Far Cry 2 e taaanti altri.
azz.. :fagiano:
Certo che se poi vanno meno con queste gtx che con la 4850 questo logo ha un grande significato :stordita:
michelgaetano
18-07-2008, 14:04
E decantiamoli pure questi accordi -_-
Se non ci fossero tutte queste cavolate alla TWIMTBP e controparti sarebbe meglio per tutti.
Certo che se poi vanno meno con queste gtx che con la 4850 questo logo ha un grande significato :stordita:
Lì è ridicolo.
Mister Tarpone
18-07-2008, 14:07
Certo che se poi vanno meno con queste gtx che con la 4850 questo logo ha un grande significato :stordita:
:asd:
yossarian
18-07-2008, 14:07
E decantiamoli pure questi accordi -_-
Se non ci fossero tutte queste cavolate alla TWIMTBP e controparti sarebbe meglio per tutti.
Lì è ridicolo.
evidentemente per qualcuno è motivo di vanto il vincere le partite comprandosi gli arbitri :D
Mister Tarpone
18-07-2008, 14:09
evidentemente per qualcuno è motivo di vanto il vincere le partite comprandosi gli arbitri :D
:Perfido: :D !!!
HackaB321
18-07-2008, 14:18
Lo stesso effetto che ha fatto vedere Sapphire vendere schede Nvidia con marchio Zotac....ovvero nessuno normali logiche di mercato....mi fa più effetto sentire di un probabile accordo con Blizzard (i suoi giochi mi piacciono molto)....resta da capire dove trovano i soldi :asd: visto il bilancio presentato ieri :doh:
il problema è dell'intero carrozzone. La divisione grafica nel 1° semestre 2008 (praticamente da RV670 in poi) ha fatturato 510 m$ in crescita del 21% rispetto al 1° sem 2007. La perdita nello stesso confronto è passata da -65m a -25m. Il peso del fatturato di ATi su quello del totale AMD è aumentato dell'8% dal momento dell'acquisizione.
Marko#88
18-07-2008, 15:19
Cavoli io ricordavo che erano inferiori :eek:, che siano i miglioramenti dei driver tanto criticati/adorati/aspettati/insultati? :asd:
nel bench di crysis la HD2600XT va meglio della x1900gt...in tutti gli altri bench non lo so, non gioco al pc da tanto...ho solo fatto qualche bench di crysis per prova...e ci sono anche rimasto di merda...nulla di assurdo comunque...
a 1280*720 con tutto medio la x1900 mi ha fatto 25fps di media, la HD2600 29...ovviamente salendo con la grafica il divario cala...
fine OT dai...:asd:
EA
ma neanche + di tanto... perchè quel qualcun'altro ha stretto accordi con ben + di 2 software house.... ;)
Leggi il nome che ha scritto yoss, e quantifica le dimensioni :D
Comunque ha ragione, tutta questa questione della sponsorizzazione è solo una pedata in faccia ai vari users che non possiedono l'hw adatto.
Il paragone fatto da yoss calza a pennello, e comprare gli arbitri per vincere le partite non è giusto.
Anche se il marketing non tiene conto del giusto e dello sbagliato :rolleyes:
E decantiamoli pure questi accordi -_-
Se non ci fossero tutte queste cavolate alla TWIMTBP e controparti sarebbe meglio per tutti.
Ovvio. :)
Iantikas
18-07-2008, 18:09
Beh, ma la mancanza del path fp16 mi pareva abbastanza grave, no?
Le schede Nvidia ne giovavano molto... e senza perdita di qualità visiva. ;)
Ati aveva il path a 24 bit e va bene.. ma per Nvidia avrebbero dovuto implementare il path fp16 (se non ci fosse stato un sotterraneo accordo ATI-Valve, non credi?) ;)
imho con la mancata presenza del path fp16 in hl un accordo della valve con ati nn centra niente...
...tuttora l'era FX rimane uno dei periodi + controversi del mercato gpu...il pasticcio cominciò quando nvidia accettò di proggettare la xbox x la microsoft nello stesso periodo in cui proggettava le geforce 4 come refresh delle 3...nn solo aveva ingegneri occupati in questo refresh ma buona parte lavorarono prima al proggetto xbox e poco dopo alla successiva revision ke fu fatta x arginare i fenomeni di "hakeraggio"...(mentre ati, complice anke ciò ke era successo alla 3dfx [ke si era fossilizzata sul refresh della vooddo3 perdendo tempo nella realizzazione del proggetto Rampage e, complici i successi d nvidia, aveva perso tonnellate di quote di mercato ed era appena stata acquisita da nvidia], aveva scelto di eliminare il refresh di r200 x dedicarsi interamente ad R300)...quindi nvidia aveva meno forza lavoro del solito x proggettare la serie 5...
...ma la prima mazzata vera e propria arrivò quando microsoft volle rinegoziare il contratto della xbox ke nn prevedeva una riduzione dei costi man mano ke le tecnike di produzione divenivano + avanzate e x farlo volle usare come merce di scambio le DX9 di cui allora si stavano decidendo le specifike...i rapporti nvidia-microsoft ke fino ad allora erano stati "pappa e ciccia" si deteriorarono...
...nvidia nn fu proprio cosultata nella definizione delle DX9 mentre ati costruì la propria nuova gpu a loro immagine e somiglianza...il rendering fu limitato in 96bit FP24 mentre nvidia supportava solo 64bit FP16 o 128bit FP32...quindi o qualità iniferiore o prestazioni inferiori e i 32bit in FP rikedevano anke un maggior numero di transistor...inoltre si affidò ancora al bus a 128bit confidando nelle allora appena nate gddr2, ma le maggiori freq nn potevano compensare i 256bit della rivale...e infine, mentre le DX9 ampliavano + di tutto le potenzialità con gli shader, se ne usci con un arkitettura incapace delle 8 operazioni con texture + 8 operazioni aritmetike in parallelo della rivale...e anzi incapace di concludere qualunque operazione in un solo ciclo (in un ciclo o avevi 8 operazioni con texture oppure 4 aritmetike)...e ke oltretutto aveva bisogno x esprimere tutto il suo potenziale di una grande ottimizzazione lato driver (fu allora infatti ke nacque il proggetto TWIMTBP in modo da invogliare i programmatori a scrivere gioki ke ben s'interfacciassero con l'arkitettura d nv30)...
...la seconda mazzata fu la scelta (ambiziosa) dell'allora ipertecnologico (ma mai testato) processo produttivo a 130nm Low-K della TSMC..."inaspettatamente" tale processo portò una abnorme quantità di chip difettosi e capacità di montare in freq molto scarse...cosa ke costrinse nvidia a riproggettare il tutto affidandosi questa volta ai meglio testati 130nm della IBM...questo portò ad ulteriori ritardi nella commercializzazione (se la memoria nn m'inganna quando fu presentata la FX5800 ati aveva già pronto il refresh di R300 nella forma della 9800pro)...
...tutto questo + l'uso x la prima volta di un dissi dual slot ke fu denominato "l'aspirapolvere" (e nn x niente da allora ogni volta ke esce una gpu rumorosa viene paragonata alla fx5800) portarono ad uno scarsissimo impiego della serie FX da parte dell'utenza...
...Valve avrebbe dovuto riscrivere tutto in FP16 solo x la serie FX d nvidia...troppo lavoro x un bacino d'utenza troppo ristretto...x questo imho ati nn ha dovuto neanke kiederglielo o sborsare un centesimo...
...ciao
alex oceano
18-07-2008, 19:26
adesso sarei cpu limited con una 9800gtx+ con un upgrade all 8400 la sfrutto al massimo ciao
Tidus.hw
18-07-2008, 19:27
cut
ricordi male, le 5800 uscirono prima delle 9700 :D
comunque non sapevo che la xbox fosse stata progettata da nvidia :eek:
appleroof
18-07-2008, 19:28
imho con la mancata presenza del path fp16 in hl un accordo della valve con ati nn centra niente...
...tuttora l'era FX rimane uno dei periodi + controversi del mercato gpu...il pasticcio cominciò quando nvidia accettò di proggettare la xbox x la microsoft nello stesso periodo in cui proggettava le geforce 4 come refresh delle 3...nn solo aveva ingegneri occupati in questo refresh ma buona parte lavorarono prima al proggetto xbox e poco dopo alla successiva revision ke fu fatta x arginare i fenomeni di "hakeraggio"...(mentre ati, complice anke ciò ke era successo alla 3dfx [ke si era fossilizzata sul refresh della vooddo3 perdendo tempo nella realizzazione del proggetto Rampage e, complici i successi d nvidia, aveva perso tonnellate di quote di mercato ed era appena stata acquisita da nvidia], aveva scelto di eliminare il refresh di r200 x dedicarsi interamente ad R300)...quindi nvidia aveva meno forza lavoro del solito x proggettare la serie 5...
...ma la prima mazzata vera e propria arrivò quando microsoft volle rinegoziare il contratto della xbox ke nn prevedeva una riduzione dei costi man mano ke le tecnike di produzione divenivano + avanzate e x farlo volle usare come merce di scambio le DX9 di cui allora si stavano decidendo le specifike...i rapporti nvidia-microsoft ke fino ad allora erano stati "pappa e ciccia" si deteriorarono...
...nvidia nn fu proprio cosultata nella definizione delle DX9 mentre ati costruì la propria nuova gpu a loro immagine e somiglianza...il rendering fu limitato in 96bit FP24 mentre nvidia supportava solo 64bit FP16 o 128bit FP32...quindi o qualità iniferiore o prestazioni inferiori e i 32bit in FP rikedevano anke un maggior numero di transistor...inoltre si affidò ancora al bus a 128bit confidando nelle allora appena nate gddr2, ma le maggiori freq nn potevano compensare i 256bit della rivale...e infine, mentre le DX9 ampliavano + di tutto le potenzialità con gli shader, se ne usci con un arkitettura incapace delle 8 operazioni con texture + 8 operazioni aritmetike in parallelo della rivale...e anzi incapace di concludere qualunque operazione in un solo ciclo (in un ciclo o avevi 8 operazioni con texture oppure 4 aritmetike)...e ke oltretutto aveva bisogno x esprimere tutto il suo potenziale di una grande ottimizzazione lato driver (fu allora infatti ke nacque il proggetto TWIMTBP in modo da invogliare i programmatori a scrivere gioki ke ben s'interfacciassero con l'arkitettura d nv30)...
...la seconda mazzata fu la scelta (ambiziosa) dell'allora ipertecnologico (ma mai testato) processo produttivo a 130nm Low-K della TSMC..."inaspettatamente" tale processo portò una abnorme quantità di chip difettosi e capacità di montare in freq molto scarse...cosa ke costrinse nvidia a riproggettare il tutto affidandosi questa volta ai meglio testati 130nm della IBM...questo portò ad ulteriori ritardi nella commercializzazione (se la memoria nn m'inganna quando fu presentata la FX5800 ati aveva già pronto il refresh di R300 nella forma della 9800pro)...
...tutto questo + l'uso x la prima volta di un dissi dual slot ke fu denominato "l'aspirapolvere" (e nn x niente da allora ogni volta ke esce una gpu rumorosa viene paragonata alla fx5800) portarono ad uno scarsissimo impiego della serie FX da parte dell'utenza...
...Valve avrebbe dovuto riscrivere tutto in FP16 solo x la serie FX d nvidia...troppo lavoro x un bacino d'utenza troppo ristretto...x questo imho ati nn ha dovuto neanke kiederglielo o sborsare un centesimo...
...ciao
molto molto interessante tutto ciò devo dire
ricordi male, le 5800 uscirono prima delle 9700 :D
comunque non sapevo che la xbox fosse stata progettata da nvidia :eek:
Si la GPU della prima Xbox fu progettata da nvidia in collaborazione con microsoft.
appleroof
18-07-2008, 19:43
edit
Tidus.hw
18-07-2008, 20:00
Si la GPU della prima Xbox fu progettata da nvidia in collaborazione con microsoft.
ma aspetta, da come dice Iantikas sembra che la nvidia abbia progettato completamente la xbox O_O
sapevo anche io che aveva progettato la gpu..
ma aspetta, da come dice Iantikas sembra che la nvidia abbia progettato completamente la xbox O_O
sapevo anche io che aveva progettato la gpu..
Beh non è così, nvidia ha partecipato solo per la GPU.
halduemilauno
18-07-2008, 20:17
ricordi male, le 5800 uscirono prima delle 9700 :D
comunque non sapevo che la xbox fosse stata progettata da nvidia :eek:
le 9700 ad agosto 2002 e le 5800 annunciate il 18 novembre con uscita il 31 gennaio 2003.
appleroof
18-07-2008, 20:20
ma aspetta, da come dice Iantikas sembra che la nvidia abbia progettato completamente la xbox O_O
sapevo anche io che aveva progettato la gpu..
:boh: a me sembrava chiaro anche se sottinteso, che si riferisse alla grafica...
ricordi male, le 5800 uscirono prima delle 9700 :D
comunque non sapevo che la xbox fosse stata progettata da nvidia :eek:
cannato in pieno!
le 9700pro uscirono a settembre 2002 mentre le fx5800 a inizio 2003, pochi mesi dopo uscì la 9800pro.
Nvidia l'ha proprio cannata la serie FX... :doh:
Tidus.hw
18-07-2008, 22:48
cannato in pieno!
le 9700pro uscirono a settembre 2002 mentre le fx5800 a inizio 2003, pochi mesi dopo uscì la 9800pro.
Nvidia l'ha proprio cannata la serie FX... :doh:
si scusate la memoria questa volta mi ha fatto un brutto scherzo xD
si scusate la memoria questa volta mi ha fatto un brutto scherzo xD
:p
Iantikas
19-07-2008, 13:40
Beh non è così, nvidia ha partecipato solo per la GPU.
il contratto x la xbox prevedeva la proggettazione della mobo, le api usate x la piattaforma soundstorm e la gpu nv2a...
...ciao
p.s.: con l'uscita della FX iniziò anke il periodo delle "ottimizzazioni" lato driver...prima col filtraggio delle texture e l'AF e poi iniziò proprio a riscrivere l'intero codice dei programmi x farlo girare meglio sulle proprie gpu...a volte eliminava proprio alcuni passaggi di rendering x far andare + veloce le proprie gpu :D
yossarian
19-07-2008, 14:03
imho con la mancata presenza del path fp16 in hl un accordo della valve con ati nn centra niente...
...tuttora l'era FX rimane uno dei periodi + controversi del mercato gpu...il pasticcio cominciò quando nvidia accettò di proggettare la xbox x la microsoft nello stesso periodo in cui proggettava le geforce 4 come refresh delle 3...nn solo aveva ingegneri occupati in questo refresh ma buona parte lavorarono prima al proggetto xbox e poco dopo alla successiva revision ke fu fatta x arginare i fenomeni di "hakeraggio"...(mentre ati, complice anke ciò ke era successo alla 3dfx [ke si era fossilizzata sul refresh della vooddo3 perdendo tempo nella realizzazione del proggetto Rampage e, complici i successi d nvidia, aveva perso tonnellate di quote di mercato ed era appena stata acquisita da nvidia], aveva scelto di eliminare il refresh di r200 x dedicarsi interamente ad R300)...quindi nvidia aveva meno forza lavoro del solito x proggettare la serie 5...
...ma la prima mazzata vera e propria arrivò quando microsoft volle rinegoziare il contratto della xbox ke nn prevedeva una riduzione dei costi man mano ke le tecnike di produzione divenivano + avanzate e x farlo volle usare come merce di scambio le DX9 di cui allora si stavano decidendo le specifike...i rapporti nvidia-microsoft ke fino ad allora erano stati "pappa e ciccia" si deteriorarono...
...nvidia nn fu proprio cosultata nella definizione delle DX9 mentre ati costruì la propria nuova gpu a loro immagine e somiglianza...il rendering fu limitato in 96bit FP24 mentre nvidia supportava solo 64bit FP16 o 128bit FP32...quindi o qualità iniferiore o prestazioni inferiori e i 32bit in FP rikedevano anke un maggior numero di transistor...inoltre si affidò ancora al bus a 128bit confidando nelle allora appena nate gddr2, ma le maggiori freq nn potevano compensare i 256bit della rivale...e infine, mentre le DX9 ampliavano + di tutto le potenzialità con gli shader, se ne usci con un arkitettura incapace delle 8 operazioni con texture + 8 operazioni aritmetike in parallelo della rivale...e anzi incapace di concludere qualunque operazione in un solo ciclo (in un ciclo o avevi 8 operazioni con texture oppure 4 aritmetike)...e ke oltretutto aveva bisogno x esprimere tutto il suo potenziale di una grande ottimizzazione lato driver (fu allora infatti ke nacque il proggetto TWIMTBP in modo da invogliare i programmatori a scrivere gioki ke ben s'interfacciassero con l'arkitettura d nv30)...
...la seconda mazzata fu la scelta (ambiziosa) dell'allora ipertecnologico (ma mai testato) processo produttivo a 130nm Low-K della TSMC..."inaspettatamente" tale processo portò una abnorme quantità di chip difettosi e capacità di montare in freq molto scarse...cosa ke costrinse nvidia a riproggettare il tutto affidandosi questa volta ai meglio testati 130nm della IBM...questo portò ad ulteriori ritardi nella commercializzazione (se la memoria nn m'inganna quando fu presentata la FX5800 ati aveva già pronto il refresh di R300 nella forma della 9800pro)...
...tutto questo + l'uso x la prima volta di un dissi dual slot ke fu denominato "l'aspirapolvere" (e nn x niente da allora ogni volta ke esce una gpu rumorosa viene paragonata alla fx5800) portarono ad uno scarsissimo impiego della serie FX da parte dell'utenza...
...Valve avrebbe dovuto riscrivere tutto in FP16 solo x la serie FX d nvidia...troppo lavoro x un bacino d'utenza troppo ristretto...x questo imho ati nn ha dovuto neanke kiederglielo o sborsare un centesimo...
...ciao
i problemi con nv30 nacquero dal tentativo di adottare un nuovo pp per le nuove api (il che avrebbe previsto anche l'adozione di una nuova architettura, poichè le dx9 non erano un semplice refresh delle 8). nVidia non ebbe il coraggio (ma sarebbe il caso di dire incoscienza :D ) di rinnovare tutto (anche perchè, c'è da considerare che nVidia ha sempre avuto un approccio di tipo conservatore, tranne nei casi in cui è stata costretta ad innovare, v. NV40 e G80 e, pure li, l'ha fatto con parsimonia); così si trovò con un chip figlio di un proceso produttivo poco o per nulla sperimentato e non affinato e un'architettura poco adatta alle dx9: registri a 8 bit ed in numero insufficiente, abbondanza di unità di tipo INT8, ottime per le dx8 ma poco funzionali per le dx9, architettura del chip 4x2, come quella che si trascinava dietro da nv15 e che garantiva una maggior velocità nelle operazioni di multitexturing ma limitava il pixel fillrate a causa delle sole 4 pipeline (apro una parentesi per dire che questo tipo di architettura era funzionale con le dx7 in quanto le operazioni di multitexturing non prevedevano l'uso di registri e cache interni in cui immagazzinare i risultati delle operazioni intermedie e, in tal modo, per poter svolgere tutte le operazioni in un solo passaggio di rendering era necessario farle anche nello stesso ciclo; in realtà, powervr, con il Kyro, utilizzava registri interni per le texture e, infatti, pur disponendo di una sola tmu per pipeline, poteva applicare fino a 7 texel per ciclo. Con le dx9 si era rimosso questo limite, poichè era possibile applicare fino a 16 testure per pass; quindi era preferibile un'architettura con una sola tmu ed i relativi registri per avere più spazio per allocare altre pipeline ed aumentare il pixel fillrate); le stesse unità di calcolo erano, a parte quelle in fp (una per pipeline e, per giunta, non indipendente dalle tmu), dello stesso tipo di quelle usate su NV25.
il contratto x la xbox prevedeva la proggettazione della mobo, le api usate x la piattaforma soundstorm e la gpu nv2a...
...ciao
p.s.: con l'uscita della FX iniziò anke il periodo delle "ottimizzazioni" lato driver...prima col filtraggio delle texture e l'AF e poi iniziò proprio a riscrivere l'intero codice dei programmi x farlo girare meglio sulle proprie gpu...a volte eliminava proprio alcuni passaggi di rendering x far andare + veloce le proprie gpu :D
alcune ottimizzazione erano legittime, in quanto la dipendenza delle alu fp dalle tmu imponeva il riordino del codice (istruzioni del tipo: math tex math tex math tex.... erano indigeste per NV30 che preferiva invece istruzioni di tipo math tex tex per ogni pipeline). Altre un po' meno lecite (tipo shader replacing che sostituiva codice dx8 con codice dx9; per rispondere all'obiezione di free gordon a proposito della mancata implementazione della path fp16 in hl2, si potrebbe obiettare che era la stessa nVidia che, spesso, sostituiva operazioni in fp con operazioni di tipo INT). Altre al limite della truffa, come testimonia l'episodio del 3dmark e dei clipping plane (con una release di driver che, nel giro di una settimana, aveva permesso un incremento prestazionale apparente di circa il 70% con il solo 3dmark; incremento che, si è scoperto quasi subito, dipendeva dal fatto che nei techdemo del 3dmark, in cui si ha sempre le ripetizione delle stesse scene nello stesso identico modo, NV30 evitava di renderizzare tutto quello che non appariva sul monitor, ovviamente non facendo uso di tecniche di hsr ma di piani che tagliavano tutto quello che era fuori scena: inutile dire che un espediente del genere in game era del tutto inutile).
Iantikas
19-07-2008, 19:01
già una caratteristica particolare di nv30 era ke poteva operare su due tex in parallelo, xò affinkè potesse farlo gli dovevano arrivare in coppia...mentre se ricordo bene R300 invece raggiungeva l'apice proprio con istruzioni del tipo math tex math tex math tex...
...ke poi spulciando tra le immagini salvate sui diski di backup guarda ke ho trovato :D ...dei diagrammi ke inidicano le max istruzioni al sec (teorike) al variare del rapporto tex:alu...con x nv30 anke il caso ideale con 2 tex assieme...
... http://img365.imageshack.us/img365/6313/diagramm2rv4.th.png (http://img365.imageshack.us/my.php?image=diagramm2rv4.png) ...
... http://img365.imageshack.us/img365/618/diagramm4mi7.th.png (http://img365.imageshack.us/my.php?image=diagramm4mi7.png) ...
...cmq con NV35 migliorarono un pò la situazione se ricordo bene aggiungendo un'altra FPU e consentedogli 8 ops con tex e 4 aritmetike (oppure 8 aritmetike) anzikè le 8 ops con tex o 4 aritmetike d NV30...
...sarà ke son un tipo nostalgico :D ma ricordo ke allora interessarsi un pokino di queste cose era molto + divertente ke adesso :O ...
...ciao
p.s.: yoss ma NV30 era un arkitettura SIMD vero?
yossarian
19-07-2008, 19:05
già una caratteristica particolare di nv30 era ke poteva operare su due tex in parallelo, xò affinkè potesse farlo gli dovevano arrivare in coppia...mentre se ricordo bene R300 invece raggiungeva l'apice proprio con istruzioni del tipo math tex math tex math tex...
...ke poi spulciando tra le immagini salvate sui diski di backup guarda ke ho trovato :D ...dei diagrammi ke inidicano le max istruzioni al sec (teorike) al variare del rapporto tex:alu...con x nv30 anke il caso ideale con 2 tex assieme...
... http://img365.imageshack.us/img365/6313/diagramm2rv4.th.png (http://img365.imageshack.us/my.php?image=diagramm2rv4.png) ...
... http://img365.imageshack.us/img365/618/diagramm4mi7.th.png (http://img365.imageshack.us/my.php?image=diagramm4mi7.png) ...
...cmq con NV35 migliorarono un pò la situazione se ricordo bene aggiungendo un'altra FPU e consentedogli 8 ops con tex e 4 aritmetike (oppure 8 aritmetike) anzikè le 8 ops con tex o 4 aritmetike d NV30...
...sarà ke son un tipo nostalgico :D ma ricordo ke allora interessarsi un pokino di queste cose era molto + divertente ke adesso :O ...
...ciao
p.s.: yoss ma NV30 era un arkitettura SIMD vero?
si; alu rigorosamente di tipo vect4 sia per i vs che per i ps
le alu aggiunte in NV35 non erano delle fpu complete ma delle minialu capaci difare una MUl o una ADD a fp32 o una mad a fp16 (le alu principali erano di tipo MAD a fp32.
Stiamo sconfinando quasi nel retrogaming :D
Free Gordon
19-07-2008, 19:37
xenos non può usare il MRT per il MSAA
Lo so.. ma infilarci 10MB di eDRAM non è stato cmq semplice credo... no? :D
Già R600 può usare MRT ed R500 non è così distante.. i costi erano troppo alti?
proprio free non ancora; però con la patch 1.01 (quella dx10.1) di AC, una 4850 con MSAA, a 1680*1050, guadagna circa il 23-24% (e sta davanti ad una 280GTX) e una 3870x2 intorno al 43%. Per i chip dx10, invece, l'utilizzo di una path dx10.1 non porta a variazioni delle prestazioni
Per la futura console "basteranno" 128MB di eDRAM e ci sarà il 4X, col 1080p, veramente gratis! :D
Magari se al suo posto si potesse usare la Z-ram, per lo stesso scopo... :sbav:
Free Gordon
19-07-2008, 19:43
ecco... e te pareva...
magari.. speriamo via.. sarebbe già un passo avanti.. :asd: :oink: :oink:
ciao.. ;)
Sei fortunato, è notizia di oggi:
http://specials.uk.msn.com/vista-wow/beaface.aspx?vv=550
Alan Wake sarà presentato al TGS a settembre ;) (non era mai stato annunciato prima, per una manifestazione).
Free Gordon
19-07-2008, 19:47
di facciata soltanto, però; NV30 era un chip con sole 4 unità fp e per giunta dipendenti dalle tmu; ogni volta che c'era da fare un'operazione di texturing la alu era inattiva per i calcoli matematici; in più aveva 2 mini alu (in serie alla prima) di tipo INT. Oltre a questo, aveva anche un problema con il numero di registri temporanei: quando si utilizzava la tanto sbandierata modalità di rendering fp32, il frame rate si dimezzava (rispetto a quello già basso che si aveva con fp16 a causa della scarsità di unità fp e della loro dipendenza), perchè NV30 non era in grado di gestire thread che mettessero in gioco più di 2 registri temporanei per volta.
Insomma, era il chip più veloce di quelli dx8 :D
Sicuramente era solo di facciata...ma il mio discorso era chiaro.
Se hai un supporto di facciata qualcosa puoi fare, se non ce l'hai per nulla, non fai nulla.
forse gli shader di half life 2 erano troppo complessi per una precisione così bassa e c'era il rischio che oltre ad avere una qualità più scadente ci poteva essere qualche artefatto a causa delle troppe approssimazioni, non so, magari "qualcuno" che ne sa più di me può confermare :D
HL2 s'è visto girare anche in fp16 e non c'è alcun problema da quel pdv. ;)
Free Gordon
19-07-2008, 20:00
...ma la prima mazzata vera e propria arrivò quando microsoft volle rinegoziare il contratto della xbox ke nn prevedeva una riduzione dei costi man mano ke le tecnike di produzione divenivano + avanzate e x farlo volle usare come merce di scambio le DX9 di cui allora si stavano decidendo le specifike...i rapporti nvidia-microsoft ke fino ad allora erano stati "pappa e ciccia" si deteriorarono...
...nvidia nn fu proprio cosultata nella definizione delle DX9 mentre ati costruì la propria nuova gpu a loro immagine e somiglianza...
Io la sapevo MOLTO diversa..
Era Nvidia che voleva fare la scarpe a M$ e non viceversa. ;)
La questione era questa: M$ non detenendo l'IP dell'NV2A non potè decidere lo scaling e la riduzione dei costi mentre nVidia era convinta, avendo il coltello dalla parte del manico, di poter fare il bello e cattivo tempo, mungendo una vacca bella grassa. :)
Ma questa è una faccenda successiva alla stesura delle specs dx9, stesura alla quale Nvidia ha partecipato esattamente come ATI (ed infatti in NV2A ci sono specs che eccedono le 8.1 e che stanno nelle 9 ;) ).*
Con la serie FX nVidia ha avuto principalmente problemi col processo produttivo nuovo...
*inoltre Nvidia, per gli stessi motivi, non riuscì nemmeno a tener fede agli accordi preesistenti, fatti sulle specs della GPU vera e propria, perchè il chip doveva girare a 350mhz (c'è un'intervista a Milestone -Racing Evoluzione- che chiarisce bene quest'aspetto) mentre uscì su Xbox a 233mhz...
Free Gordon
19-07-2008, 20:03
ma aspetta, da come dice Iantikas sembra che la nvidia abbia progettato completamente la xbox O_O
sapevo anche io che aveva progettato la gpu..
No, Nvidia ha progettato TUTTA l'Xbox (assieme a M$ ovviamente).
Dalla GPU al chipset al chip audio. ;)
Xbox è l'unico P3 esistente con un chipset Nforce. :D
appleroof
19-07-2008, 20:15
free gordon, hanno inventato il multiquote, nel frattempo :D
yossarian
19-07-2008, 20:51
Lo so.. ma infilarci 10MB di eDRAM non è stato cmq semplice credo... no? :D
l'eDRAM è su un die separato e non sullo stesso di xenos (e le rop's sono all'interno dell'eDRAM). Anche su RV770 ci sono circa alcuni MB di cache in posti, diciamo.................strategici :D
R600 non fa MRT per color e z-ops; forse ti stai confondendo ocn la possibilità di fare MRT con lo shader core per l'AA di tipo custom
Sicuramente era solo di facciata...ma il mio discorso era chiaro.
Se hai un supporto di facciata qualcosa puoi fare, se non ce l'hai per nulla, non fai nulla.
è da vedere in cosa consiste questo "qualcosa"
HL2 s'è visto girare anche in fp16 e non c'è alcun problema da quel pdv. ;)
con lo shader dell'acqua si stava al limite con fp16 (forse un po' oltre). Ma il problema non era questo: non c'era alcun motivo per cui valve dovesse fare un lavoro extra per supportare nv30 e derivati, nv35 e derivati (oltre a tutti i chip delle generazioni precedenti) con delle path specifiche in cui, tra l'altro, non sarebbe stato sufficiente utilizzare fp16 (per le varie 5800, 5600, 5200 neppure questo sarebbe bastato), ma si sarebbero dovuti riordinare gli shader per renderli "digeribili" a quel tipo di architettura. Chi gli pagava il lavoro extra, le perdite di tempo e gli ulteriori ritardi nell'uscita del gioco? nVidia?
Ripeto, molto più grave ciò che è stato fatto da alcune SWH di non implementare path sm2.0 GENERICHE (e non customizzate) per far girare i loro titoli sulla serie R4x0
michelgaetano
19-07-2008, 21:04
free gordon, hanno inventato il multiquote, nel frattempo :D
Se non erro Free arrivò anche a 6 post di fila :sofico:
Free Gordon
20-07-2008, 00:48
free gordon, hanno inventato il multiquote, nel frattempo :D
:sofico: :sofico: :sofico:
ma alla fine penso che uscirebbero post troppo lunghi e con troppi personaggi all'interno.. :D
Free Gordon
20-07-2008, 00:53
Anche su RV770 ci sono circa alcuni MB di cache in posti, diciamo.................strategici :D
alcuni... :confused: :confused: :confused:
e dove cavolo sono stati messi in quei poveri 256mmq??? :D
ps. non mi hai risposto sulla questione se la zRAM possa sostituire l'eDRAM in futuro.. :D
ciao ragazzi la 9800 scalda tanto? perche dovrei metterla in un micro case
*inoltre Nvidia, per gli stessi motivi, non riuscì nemmeno a tener fede agli accordi preesistenti, fatti sulle specs della GPU vera e propria, perchè il chip doveva girare a 350mhz (c'è un'intervista a Milestone -Racing Evoluzione- che chiarisce bene quest'aspetto) mentre uscì su Xbox a 233mhz...
Dove posso leggerla che sono interessato?
Iantikas
20-07-2008, 12:39
Io la sapevo MOLTO diversa..
Era Nvidia che voleva fare la scarpe a M$ e non viceversa. ;)
La questione era questa: M$ non detenendo l'IP dell'NV2A non potè decidere lo scaling e la riduzione dei costi mentre nVidia era convinta, avendo il coltello dalla parte del manico, di poter fare il bello e cattivo tempo, mungendo una vacca bella grassa. :)
Ma questa è una faccenda successiva alla stesura delle specs dx9, stesura alla quale Nvidia ha partecipato esattamente come ATI (ed infatti in NV2A ci sono specs che eccedono le 8.1 e che stanno nelle 9 ;) ).*
Con la serie FX nVidia ha avuto principalmente problemi col processo produttivo nuovo...
*inoltre Nvidia, per gli stessi motivi, non riuscì nemmeno a tener fede agli accordi preesistenti, fatti sulle specs della GPU vera e propria, perchè il chip doveva girare a 350mhz (c'è un'intervista a Milestone -Racing Evoluzione- che chiarisce bene quest'aspetto) mentre uscì su Xbox a 233mhz...
...io nn ho detto ke ms voleva far le scarpe a nvidia o viceversa...ho solo scritto ke volle rinegoziare il contratto ke nn prevedeva un abbattimento dei costi man mano ke le tecnike produttive miglioravano...
...questo è un dato di fatto...ki volle fare la scarpe a ki invece sono solo supposizioni, così come il risultato a cui portò questa diatriba dato ke i termini del patteggiamento nn furono mai rilasciati al pubblico...
...anke x il fatto della stesura lo trovi scritto un pò dappertutto (magari fai un giro su wikipedia dove tra le tante cose c'è scritto "Due to the Xbox dispute, no consultation with NVIDIA took place during the drawing up of the DirectX 9 specification, while ATI designed the Radeon 9700 to fit the DirectX specifications. This development limited rendering color support to 24 bits floating point[citation needed], and the whole development emphasized shader performance, the main expected focus of DirectX 9. Developers built the shader-compiler using the Radeon 9700 as the base card") ke a causa della disputa x la xbox nvidia nn fu consultata mentre si decidevano le specifike delle DX9...
...i problemi col Low-K della TSMC, come detto, fu, insieme alla disputa, agli ingegneri occupati nel proggetto xbox e agli ingegneri occupati nel refresh della geforce3, uno dei principali motivi del ritardo nella commercializzazione della serie FX...ma nn fu certo l'unico...
...ciao
alcuni... :confused: :confused: :confused:
Credo che siano ben 5 mb di cache in totale.
yossarian
20-07-2008, 12:47
Credo che siano ben 5 mb di cache in totale.
non in totale, ma nelle rbe :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.