View Full Version : Conviene passare da una 5950 Ultra ad una 9800Pro?
lzeppelin
29-03-2005, 12:18
Avrei la possibilità di avere una 9800 Pro della hercules in cambio della mia XFX 5900XT @ 5950 ultra, senza aggiungere soldi.
Considerando che non gioco al 3dmark mi conviene in linea di massima?
Micheal88
29-03-2005, 12:30
Originariamente inviato da lzeppelin
Avrei la possibilità di avere una 9800 Pro della hercules in cambio della mia XFX 5900XT @ 5950 ultra, senza aggiungere soldi.
Considerando che non gioco al 3dmark mi conviene in linea di massima?
Tu ci giochi al 3dmerd?!:D
A parte gli scherzi, è a 128 mb o 256?
In d3d la 9800pro è avanti (non di molto), l'incontrario in OpenGL.
Tutto sommato è una cosa fattibile.;)
lzeppelin
29-03-2005, 12:40
no, come detto,
io non gioco al 3dmark, o altri bench vari...
gioco con i giochi.... ;)
molta gente usa il 3dmark come unico metro di paragone e ne fa una filosoafia di vita.
è una 128 mb comunque.
sono davveor indeciso, la XFX è una scheda ben fatta davvero.
Nei giochi dx9 la 9800pro stacca abbastanza la 5900... nei dx8 sono praticamente pari...
Ti conviene sicuramente, in dx9 la 9800Pro va decisamente meglio.
ps. essedo una Hercules è ALTAMENTE raccomandata la sostituzione del dissi con uno decente...
Micheal88
29-03-2005, 12:50
Originariamente inviato da lzeppelin
no, come detto,
io non gioco al 3dmark, o altri bench vari...
gioco con i giochi.... ;)
molta gente usa il 3dmark come unico metro di paragone e ne fa una filosoafia di vita.
è una 128 mb comunque.
sono davveor indeciso, la XFX è una scheda ben fatta davvero.
Nel senso che al 3dmerd non si "gioca", era una battuta :p
Allora tientela, aspetta di fare un up grade + sostanzioso ;)
Micheal88
29-03-2005, 12:54
Originariamente inviato da Raven
Nei giochi dx9 la 9800pro stacca abbastanza la 5900... nei dx8 sono praticamente pari...
Stacca abbastanza?
CeVto ceVto, a parte half life 2 (del quale si deve fare un discorso a parte), a livello architetturale non sono nessuna delle due in grado di reggere le specifiche minime delle dx9 in modo soddisfacente.
Ati avra' una precisione minore nei pixel shader (24 bit contro il mixed mode dell'nv30 16/32 bit) ma non sufficiente potenza di calcolo.
Quindi non facciamo considerazioni troppo affrettate. ;)
lzeppelin
29-03-2005, 12:55
Originariamente inviato da sc82
Ti conviene sicuramente, in dx9 la 9800Pro va decisamente meglio.
ps. essedo una Hercules è ALTAMENTE raccomandata la sostituzione del dissi con uno decente...
non ha buona fama il dissy della hercules?
lzeppelin
29-03-2005, 12:57
Deciso,
aspetto un upgrade più sostanzioso! :)
Originariamente inviato da Micheal88
Stacca abbastanza?
CeVto ceVto, a parte half life 2 (del quale si deve fare un discorso a parte), a livello architetturale non sono nessuna delle due in grado di reggere le specifiche minime delle dx9 in moddo soddisfacente.
Ati avra' una precisione minore nei pixel shader (24 bit contro il mixed mode dell'nv30 16/32 bit) ma non sufficiente potenza di calcolo.
Quindi non facciamo considerazioni troppo affrettate. ;)
beh... insomma... la 9800pro regge senza problemi le specifiche minime delle dx9, non scherziamo! ;)
Che poi x800 e 6800 vadano meglio... su questo non ci piove....ma prova a far andare FarCry su una 5900 forzando l'esecuzione dei ps2 come sulla 9800pro... la differenza di prestazioni è imbarazzante... (e il gioco risulta pienamente godibile con la 9800 pro)
ah... non parlo da tifoso... ho una 6800 :p
Micheal88
29-03-2005, 13:10
Originariamente inviato da Raven
beh... insomma... la 9800pro regge senza problemi le specifiche minime delle dx9, non scherziamo! ;)
Che poi x800 e 6800 vadano meglio... su questo non ci piove....ma prova a far andare FarCry su una 5900 forzando l'esecuzione dei ps2 come sulla 9800pro... la differenza di prestazioni è imbarazzante... (e il gioco risulta pienamente godibile con la 9800 pro)
ah... non parlo da tifoso... ho una 6800 :p
Non ho detto che non le regge materialmente ;)
Non ha l'efficienza richiesta dalle dx9.
A che risoluzione? volendo il dettaglio massimo a tutti i costi (e qualche filtrarello :D ), 1024 penso sia al massimo per entrambe in quel gioco.
La difficil(issima)e ottimizzazione dell'nv30 è ormai nota a tutti.:)
lzeppelin
29-03-2005, 13:20
ma per giocare a far cry o a unreal 2 (che ancora non ho) devo farli andare a DX 8.1?
PESCEDIMARZO
29-03-2005, 13:25
Originariamente inviato da Raven
beh... insomma... la 9800pro regge senza problemi le specifiche minime delle dx9, non scherziamo! ;)
Che poi x800 e 6800 vadano meglio... su questo non ci piove....ma prova a far andare FarCry su una 5900 forzando l'esecuzione dei ps2 come sulla 9800pro... la differenza di prestazioni è imbarazzante... (e il gioco risulta pienamente godibile con la 9800 pro)
ah... non parlo da tifoso... ho una 6800 :p
Quoto.
Come scambio alla pari lo farei al volo.
lzeppelin
29-03-2005, 13:27
lehercules si overcloccano bene?
tenete conto che con la mia 5900Xt arrivo a 500 per il core e 970 per la ram
Micheal88
29-03-2005, 13:30
Originariamente inviato da lzeppelin
lehercules si overcloccano bene?
tenete conto che con la mia 5900Xt arrivo a 500 per il core e 970 per la ram
Ehi calma :D
Ti conviene cambiare completamente vga, dai retta a me ;) :p
lzeppelin
29-03-2005, 13:34
eh ormai è dai tempi della 8500 che non sto più dietro alla VGA.
esistono le 6600 AGP?
Jedi_Master
29-03-2005, 13:35
Originariamente inviato da Micheal88
Ehi calma :D
Ti conviene cambiare completamente vga, dai retta a me ;) :p
ma scusa, se non gli costa nulla perche' rinunciare ad
un po' di frame (a volte anche parecchi) in piu'
finche' non ha i soldi per comprare altro??
IMHO cambierei ciao!
Micheal88
29-03-2005, 13:39
Originariamente inviato da Jedi_Master
ma scusa, se non gli costa nulla perche' rinunciare ad
un po' di frame (a volte anche parecchi) in piu'
finche' non ha i soldi per comprare altro??
IMHO cambierei ciao!
Quello era sottinteso, se non ha soldi quasi quasi si potrebbe fare XD :D
Allora lo chiedo esplicitamente, che budget hai?
E cmq il miglioramento e leggermente palpabile solo in d3d dato che in OpenGL sappiamo tutti come va Nvidia ;)
lzeppelin
29-03-2005, 13:44
A fine estate mi farò il pc completamente nuovo e non baderò tanto a spese.
Era per "tirare avanti" anche perchè tra poco mi arriva unreal 2
Visto la possibilità di cambiare senza rimetterci, volevo sapere se l'una o l'altra andava meglio.
Originariamente inviato da lzeppelin
non ha buona fama il dissy della hercules?
E' peggiore di quello standard (che già di per sè è sottodimensionato)...un affarino di rame con al centro una ventola che se non si squaglia è un miracolo. :D
Sembra che durino circa un anno, le 9800Pro che muoiono dopo questo periodo sono un'infinità. :rolleyes:
Jedi_Master
29-03-2005, 13:54
Originariamente inviato da lzeppelin
Visto la possibilità di cambiare senza rimetterci, volevo
sapere se l'una o l'altra andava meglio.
Nei giochi senza shader 2.0 (come Unreal 2) non vedrai tanta
differenza, pero' nel caso ti capitasse di giocare a titoli che li
sfruttano intensamente, li le geffo 5xxx arrancano parecchiano
oppure usano la versione mix 1.1/2.0!
Originariamente inviato da Micheal88
Non ho detto che non le regge materialmente ;)
Non ha l'efficienza richiesta dalle dx9.
Non hai parlato di efficienza ma di "reggere le specifiche minime" e visto che corrisponde al falso ti hanno giustamente corretto ;)
halduemilauno
29-03-2005, 13:59
Originariamente inviato da lzeppelin
Avrei la possibilità di avere una 9800 Pro della hercules in cambio della mia XFX 5900XT @ 5950 ultra, senza aggiungere soldi.
Considerando che non gioco al 3dmark mi conviene in linea di massima?
se è questa 5900XT @ 5950Ultra @ 500-970 ed è questa no. cmq ti converrebbe molto molto poco. questo in linea di massima.
ps 5900xt grandissima scheda da 400/700 a 500/970. grandissima scheda. e l'avrai pagata almeno un 200€ di meno rispetto alla 9800pro.
ciao.
;)
Micheal88
29-03-2005, 14:00
Originariamente inviato da DjLode
Non hai parlato di efficienza ma di "reggere le specifiche minime" e visto che corrisponde al falso ti hanno giustamente corretto ;)
Non mi hanno corretto, non c'era bisogno.
Sarebbe bastato leggere un pelino + attentamente, infatti ho detto "a livello architetturale non sono nessuna delle due in grado di reggere le specifiche minime delle dx9 in modo soddisfacente".
Non credo sia cosi' difficile leggere tra le righe :rolleyes:
Originariamente inviato da Micheal88
Non mi hanno corretto, non c'era bisogno.
Sarebbe bastato leggere un pelino + attentamente, infatti ho detto "a livello architetturale non sono nessuna delle due in grado di reggere le specifiche minime delle dx9 in modo soddisfacente".
Non credo sia cosi' difficile leggere tra le righe :rolleyes:
Le specifiche minime la 9800 Pro le regge più che ampiamente. Come ti ho detto hai detto un'inesattezza, poi fai come vuoi :D
Originariamente inviato da Micheal88
Non mi hanno corretto, non c'era bisogno.
Sarebbe bastato leggere un pelino + attentamente, infatti ho detto "a livello architetturale non sono nessuna delle due in grado di reggere le specifiche minime delle dx9 in modo soddisfacente".
Non credo sia cosi' difficile leggere tra le righe :rolleyes:
se la 9800 pro ha una "leggera efficienza" come affermi tu, la 5950 non ne ha NESSUNA
bYeZ!
lzeppelin
29-03-2005, 14:05
si la scheda è quella... e l'ho pagata 100 euro l'anno scorso :D
Micheal88
29-03-2005, 14:07
Originariamente inviato da DjLode
Le specifiche minime la 9800 Pro le regge più che ampiamente. Come ti ho detto hai detto un'inesattezza, poi fai come vuoi :D
Mi prendi in giro? :D
Ho capito, hai bevuto! si spiega tutto!
LO SO CHE L'R300 E' COMPLEX DX9!
Anche la fx5200 lo è, ma prova a metterci su Far Cry XD.
Riformulo il discorso cosi' capisci:
"pur essendo compatibili con le specifiche minime richieste dalle dx9, esse non ne soddisfano pero' l'efficienza necessaria."
CAPITTTTO MI HAI? :D
Originariamente inviato da lzeppelin
si la scheda è quella... e l'ho pagata 100 euro l'anno scorso :D
Francamente se quella che hai ti va bene così com'è, vantaggi visivi al 100% non dovresti averne. Solo alcuni giochi che usano SM2 in modo abbastanza pesante o cmq shader abbastanza pesantini se ne avvantaggerebbero. Far Cry sicuramente, Hl2 per altri motivi... ma sono due giochi su un parco ben più vasto.
La tua XT non ti soddisfa più?
Micheal88
29-03-2005, 14:09
Originariamente inviato da ATi7500
se la 9800 pro ha una "leggera efficienza" come affermi tu, la 5950 non ne ha NESSUNA
bYeZ!
Ecco, tuttavia fu anche colpa del dannatissimo Mixed Mode :(
L'architettura era gia' ostica di suo.....
Originariamente inviato da Micheal88
Mi prendi in giro? :D
Ho capito, hai bevuto! si spiega tutto!
LO SO CHE L'R300 E' COMPLEX DX9!
Anche la fx5200 lo è, ma prova a metterci su Far Cry XD.
Riformulo il discorso cosi' capisci:
"pur essendo compatibili con le specifiche minime richieste dalle dx9, esse non ne soddisfano pero' l'efficienza necessaria."
CAPITTTTO MI HAI? :D
Che è esattamente diverso da quello che hai detto tu all'inizio...
P.S. se hai voglia di venire qui e cominciare a fare il sapientone, probabilmente hai sbagliato l'approccio. E' un consiglio non una minaccia. Se vuoi chiacchieriamo un pò di schede video così vediamo chi ha bevuto e chi si ferma prima ad insegnare all'altro :)
E sono uno dei 10 più ignoranti di questo forum, te lo assicuro. QUindi magari prima di sottointendere cose e di dire tutt'altro, pensaci due volte :)
halduemilauno
29-03-2005, 14:14
Originariamente inviato da lzeppelin
si la scheda è quella... e l'ho pagata 100 euro l'anno scorso :D
azz. mai 100€ furono spesi meglio.
;)
Originariamente inviato da Micheal88
Ecco, tuttavia fu anche colpa del dannatissimo Mixed Mode :(
L'architettura era gia' ostica di suo.....
Ma cosa c'entra? Il Mixed Mode è stata una gran scelta, era NV3x che non possedeva assolutamente la complessità computazionale necessaria per utilizzare floating poin a 32bit.
L'architettura non era ostica, semplicemente non digeriva bene gli shader scritti in HLSL come invece fa R300 e bisognava riordinare le istruzioni per ottenere prestazioni decenti. Se ci metti il fatto che R300 era dannatamente più veloce a digerire gli Shader, ottieni il motivo per cui NV3x era più lento.
Il mixed mode non è una causa della lentezza, anzi è forse stato dei motivi della salvezza dell'intero progetto.
Micheal88
29-03-2005, 14:16
Originariamente inviato da DjLode
Che è esattamente diverso da quello che hai detto tu all'inizio...
P.S. se hai voglia di venire qui e cominciare a fare il sapientone, probabilmente hai sbagliato l'approccio. E' un consiglio non una minaccia. Se vuoi chiacchieriamo un pò di schede video così vediamo chi ha bevuto e chi si ferma prima ad insegnare all'altro :)
E sono uno dei 10 più ignoranti di questo forum, te lo assicuro. QUindi magari prima di sottointendere cose e di dire tutt'altro, pensaci due volte :)
Non è diverso, è lo stesso discorso ma sintetizzato.
Io non voglio fare il sapientone, è che non mi piace essere frainteso, tutto qua.;)
"Se vuoi chiacchieriamo un pò di schede video così vediamo chi ha bevuto e chi si ferma prima ad insegnare all'altro
la devo prendere come una sfida? Ricorda, mi conosci da 10 min.
Micheal88
29-03-2005, 14:20
Originariamente inviato da DjLode
Ma cosa c'entra? Il Mixed Mode è stata una gran scelta, era NV3x che non possedeva assolutamente la complessità computazionale necessaria per utilizzare floating poin a 32bit.
L'architettura non era ostica, semplicemente non digeriva bene gli shader scritti in HLSL come invece fa R300 e bisognava riordinare le istruzioni per ottenere prestazioni decenti. Se ci metti il fatto che R300 era dannatamente più veloce a digerire gli Shader, ottieni il motivo per cui NV3x era più lento.
Il mixed mode non è una causa della lentezza, anzi è forse stato dei motivi della salvezza dell'intero progetto.
E' il Mixed Mode stesso ad averne decretato la rovina, non erano necessari per forza 32 bit di precisione, perchè metterli allora?
Per ostica intendo molto complessa da ottimizzare, anche coll' unfied compiler.
Originariamente inviato da Micheal88
"Se vuoi chiacchieriamo un pò di schede video così vediamo chi ha bevuto e chi si ferma prima ad insegnare all'altro
la devo prendere come una sfida? Ricorda, mi conosci da 10 min.
Nessuna sfida, pure tu mi conosci da 10 minuti, sicuro ti convenga? ;)
Micheal88
29-03-2005, 14:26
Originariamente inviato da DjLode
Nessuna sfida, pure tu mi conosci da 10 minuti, sicuro ti convenga? ;)
Se la metti cosi', non conviene più a nessuno dei due :D
Originariamente inviato da Micheal88
E' il Mixed Mode stesso ad averne decretato la rovina, non erano necessari per forza 32 bit di precisione, perchè metterli allora?
Per ostica intendo molto complessa da ottimizzare, anche coll' unfied compiler.
Non era complessa da ottimizzare, era un'architettura ancora figlia delle DX8.1 e incentrata a fare bene calcoli in virgola fissa, non FP. Poi Nvidia ha voluto creare una gpu che non si atteneva alle specifiche e non digeriva a modo l'ordine in cui tutti scrivevano gli shader, ordine figlio della programmazione degli shader 1.4, Ati ci si è attenuta e ha vinto la scommessa.
Il mixed mode non ne ha decretato di certo la rovina, oltretutto il mixed mode non è il supporto ai 32bit di precisione ma l'utilizzo combinato nella scrittura degli shader di numeri in precisione singola e in full precision. Nv3x non supporta il mixed mode, il mixed mode è un modo di programmare. Anche Ati digerisce il mixed mode, ma calcolando sempre tutti a 24bit non si avvantaggia di tale uso.
Originariamente inviato da Micheal88
Se la metti cosi', non conviene più a nessuno dei due :D
Sei tu che hai cominciato con certe sparate tipo capisci l'italiano, non è difficile leggere tra le righe e hai bevuto. Se sei impreciso non è di certo colpa mia :)
Micheal88
29-03-2005, 14:36
Originariamente inviato da DjLode
Non era complessa da ottimizzare, era un'architettura ancora figlia delle DX8.1 e incentrata a fare bene calcoli in virgola fissa, non FP. Poi Nvidia ha voluto creare una gpu che non si atteneva alle specifiche e non digeriva a modo l'ordine in cui tutti scrivevano gli shader, ordine figlio della programmazione degli shader 1.4, Ati ci si è attenuta e ha vinto la scommessa.
Il mixed mode non ne ha decretato di certo la rovina, oltretutto il mixed mode non è il supporto ai 32bit di precisione ma l'utilizzo combinato nella scrittura degli shader di numeri in precisione singola e in full precision. Nv3x non supporta il mixed mode, il mixed mode è un modo di programmare. Anche Ati digerisce il mixed mode, ma calcolando sempre tutti a 24bit non si avvantaggia di tale uso.
Sono convenuti quasi tutti gli sviluppatori che nv30 fosse difficile da ottimizzare (sicuramente più che la soluzione Ati).
L'ho detto prima che il Mixed Mode era 16/32 (e non solo 32 bit).
Questo metodo fu introdotto appunto per ovviare alla disastrosa velocita' di elaborazione in virgola mobile dell'nv30. Io mi riferivo invece all'adozione di tale metodo (ideale secondo gl'ingnegneri Nvidia), anzichè i canonici 24 bit.....
E' vero che alcuni calcoli si saziano gia' con una precisione di soli 16bit (il demo Inferno lo dimostrava), ma non mi sembra il caso di fare un'architettura "a meta' strada".
Micheal88
29-03-2005, 14:38
Originariamente inviato da DjLode
Sei tu che hai cominciato con certe sparate tipo capisci l'italiano, non è difficile leggere tra le righe e hai bevuto. Se sei impreciso non è di certo colpa mia :)
Forse le mie ti saranno sembrate provocazioni, ma, come gia' detto, non mi piace essere frainteso, e cmq i due discorsi convergono (solo che in maniera differente).
Originariamente inviato da Micheal88
Sono convenuti quasi tutti gli sviluppatori che nv30 fosse difficile da ottimizzare (sicuramente più che la soluzione Ati).
L'ho detto prima che il Mixed Mode era 16/32 (e non solo 32 bit).
Questo metodo fu introdotto appunto per ovviare alla disastrosa velocita' di elaborazione in virgola mobile dell'nv30. Io mi riferivo invece all'adozione di tale metodo (ideale secondo gl'ingnegneri Nvidia), anzichè i canonici 24 bit.....
E' vero che alcuni calcoli si saziano gia' con una precisione di soli 16bit (il demo Inferno lo dimostrava), ma non mi sembra il caso di fare un'architettura "a meta' strada".
I 24bit non credo possano essere definiti "canonici".
fp16 e fp32 sono degli standard, fp24 no, anche se si è rivelata essere un'ottima soluzione, ma questo è un'altro discorso.
Micheal88
29-03-2005, 14:51
Originariamente inviato da sc82
I 24bit non credo possano essere definiti "canonici".
fp16 e fp32 sono degli standard, fp24 no, anche se si è rivelata essere un'ottima soluzione, ma questo è un'altro discorso.
Canonici in relazione alle dx9.
Originariamente inviato da lzeppelin
Avrei la possibilità di avere una 9800 Pro della hercules in cambio della mia XFX 5900XT @ 5950 ultra, senza aggiungere soldi.
Considerando che non gioco al 3dmark mi conviene in linea di massima?
scambiala di corsa ;)
ciao
Concordo con Pandyno... tornando in topic, e considerando lo scambio a prezzo zero, in effetti potresti tranquillamente farlo! ;)
Originariamente inviato da sc82
E' peggiore di quello standard (che già di per sè è sottodimensionato)...un affarino di rame con al centro una ventola che se non si squaglia è un miracolo. :D
Sembra che durino circa un anno, le 9800Pro che muoiono dopo questo periodo sono un'infinità. :rolleyes:
:huh:
L'affarino in rame con al centro la ventola, riesce a portare la mia VPU da 325@420 senza artefatti da quasi 2 anni :rolleyes:
Il cambio comunque lo farei visto che non devi metterci un soldo ;)
Alberto Falchi
30-03-2005, 16:14
Originariamente inviato da Micheal88
Canonici in relazione alle dx9.
Nemmeno, canonici rispetto alla prima incarnazione delle DX9. C'è poco da dire: i chip li iniziano a sviluppare ancor prima della stesura definitiva delle DX, e mentre ATI l'ha vista giusta puntando sui 24 di FP, NVIDIA ha guardato "oltre" e ha puntato direttamente sui 32 bit. Personalmente, non riesco proprio a capire il senso dei 24 bit in questo campo, sono fuori da ogni standard... e sono durati poco (le 9.0c già richiedono 32 bit). Ottimi forse come architettura di passaggio, ma a quel punto forse sarebbe stato megloi saltarlo direttamente, quel passaggio, e puntare diretti ai 32.
Pape
Originariamente inviato da Stelix
:huh:
L'affarino in rame con al centro la ventola, riesce a portare la mia VPU da 325@420 senza artefatti da quasi 2 anni :rolleyes:
Il cambio comunque lo farei visto che non devi metterci un soldo ;)
Ovvio che mica muoiono TUTTE! :p
Ne aveva una un mio amico (poi l'ha venduta e non so che fine abbia fatto), ma ricordo che una volta ho provato a toccare il dissino incollato sul retro del chip ed era veramente rovente...per cui che se ne rompano parecchie non è tanto strano. ;)
Micheal88
30-03-2005, 23:40
Originariamente inviato da GMCPape
Nemmeno, canonici rispetto alla prima incarnazione delle DX9. C'è poco da dire: i chip li iniziano a sviluppare ancor prima della stesura definitiva delle DX, e mentre ATI l'ha vista giusta puntando sui 24 di FP, NVIDIA ha guardato "oltre" e ha puntato direttamente sui 32 bit. Personalmente, non riesco proprio a capire il senso dei 24 bit in questo campo, sono fuori da ogni standard... e sono durati poco (le 9.0c già richiedono 32 bit). Ottimi forse come architettura di passaggio, ma a quel punto forse sarebbe stato megloi saltarlo direttamente, quel passaggio, e puntare diretti ai 32.
Pape
Ovvio che mi riferivo alle specifiche minime (24 bit) dx9 :D
Forse i 32 bit erano un po' troppo per Nvidia, l'implementazione delle pixel pipeline (seppur arrivando a 8 addizioni texture, erano pur sempre 4) non era delle migliori.
...hai tanti buoni motivi per fare lo scambio... migliore architettura, migliore gestione degli shaders, migliore gestione e qualità dei filtri, maggiore velocità nel 90% giochi, scambio a 0€...
...ciao!
Originariamente inviato da Micheal88
Non mi hanno corretto, non c'era bisogno.
Sarebbe bastato leggere un pelino + attentamente, infatti ho detto "a livello architetturale non sono nessuna delle due in grado di reggere le specifiche minime delle dx9 in modo soddisfacente".
Non credo sia cosi' difficile leggere tra le righe :rolleyes:
Una 9800 PRO non ha grossi problemi con qualunque gioco DX9 in circolazione che conosco. Direi che regge in maniera soddisfaciente le specifiche minime DX9.
Le 5900 al contrario soffrono abbastanza l'SM20 anche in fp16. Io farei il cambio alla pari senza indugio.
Avendone la possibilita', pero', cercherei di andare su una 6600 o ancora meglio su una 6800GT (davvero un'ottima scheda per rapporto prezzo/prestazioni).
lzeppelin
31-03-2005, 00:46
ragazzi, ok, che lo scambio è gratis ma ci sto pensando...
Oggi, convinto di salutare la scheda, l'ho tirata a 500/998 e ha tenuto botta senza problemi. Problemi PS2.0 a parte è una gran scheda.
Originariamente inviato da Micheal88
E' il Mixed Mode stesso ad averne decretato la rovina, non erano necessari per forza 32 bit di precisione, perchè metterli allora?
Perche' le ALU fp dell'NV3X sono a 32 bit, non esistono ALU fp a 16 bit in questa famiglia di GPU.
In pratica l'NV3X esegue sempre i calcoli in fp a 32 bit e poi salva il risultato a 16 o 32 bit a seconda del modificatore di precisione associato all'istruzione.
La partial precision si e' resa necessaria per ovviare ai problemi dati dal limitato numero di registri temporanei a disposizione di una pipeline per parcheggiare i risultati parziali dei pixel in circolazione in un dato istante: un registro temporaneo a 32 bit puo' contenere una varabile temporanea a 32 bit o due a 16 bit, una volta esauriti i registri temporanei la pipeline deve fermarsi e attendere che se ne liberino di nuovi per continuare a processare altri pixel. Con pixel shader lunghi questo problema causa stalli e conseguenti rallentamenti.
Per esempio, quando uno shader usa meno di quattro registri temporanei, usare partial o full precision non ha alcun impatto sulle prestazioni, perche' la pipeline non va mai in stallo.
L'NV40 ha ovviato al problema incrementando il numero di registri temporanei. Su NV40, inoltre, alcune operazioni in precisione parziale beneficiano di hardware dedicato.
Alcuni calcoli poi necessitano di precisione a 32 bit, ma per fortuna i casi sono piuttosto rari.
In sintesi, avere precisione mixed aggiunge piu' flessibilita' al modello di programmazione, anche se lo complica leggermente, e a mio avviso e' un'ottima idea.
Originariamente inviato da lzeppelin
ragazzi, ok, che lo scambio è gratis ma ci sto pensando...
Oggi, convinto di salutare la scheda, l'ho tirata a 500/998 e ha tenuto botta senza problemi. Problemi PS2.0 a parte è una gran scheda.
Per tutti i giochi DX8 e' sicuramente un'ottima scheda.
lzeppelin
31-03-2005, 00:53
ma tutti coloro che hanno un NV3X non giocano bene ad Unreal 2 o Far Cry?
Tra unreal 2 e far cry ne passa di acqua sotto i ponti!
Con far cry io facevo fatica!
Scambiala al VOLO!!
torgianf
31-03-2005, 01:17
Originariamente inviato da fek
Perche' le ALU fp dell'NV3X sono a 32 bit, non esistono ALU fp a 16 bit in questa famiglia di GPU.
In pratica l'NV3X esegue sempre i calcoli in fp a 32 bit e poi salva il risultato a 16 o 32 bit a seconda del modificatore di precisione associato all'istruzione.
La partial precision si e' resa necessaria per ovviare ai problemi dati dal limitato numero di registri temporanei a disposizione di una pipeline per parcheggiare i risultati parziali dei pixel in circolazione in un dato istante: un registro temporaneo a 32 bit puo' contenere una varabile temporanea a 32 bit o due a 16 bit, una volta esauriti i registri temporanei la pipeline deve fermarsi e attendere che se ne liberino di nuovi per continuare a processare altri pixel. Con pixel shader lunghi questo problema causa stalli e conseguenti rallentamenti.
Per esempio, quando uno shader usa meno di quattro registri temporanei, usare partial o full precision non ha alcun impatto sulle prestazioni, perche' la pipeline non va mai in stallo.
L'NV40 ha ovviato al problema incrementando il numero di registri temporanei. Su NV40, inoltre, alcune operazioni in precisione parziale beneficiano di hardware dedicato.
Alcuni calcoli poi necessitano di precisione a 32 bit, ma per fortuna i casi sono piuttosto rari.
In sintesi, avere precisione mixed aggiunge piu' flessibilita' al modello di programmazione, anche se lo complica leggermente, e a mio avviso e' un'ottima idea.
stavo per dirlo io,mi hai batuto sul tempo :asd:
invece di perdere tempo con B&W2,posta di piu' sul forum :D :D
lzeppelin
31-03-2005, 01:32
Non sono convinto.
Non c'è un salto di qualità, ne un salto generazionale.
Solo qualche fps in più in qualche isolato caso.
Tiro avanti fino a fine estate, poi con il PCI-E mi faccio una spesa definitiva.
Al limite potrei optare per una 6600 GT, magari quella con ram a1.6 ns.
Originariamente inviato da lzeppelin
non ha buona fama il dissy della hercules?
Direi proprio di no..
Jedi_Master
31-03-2005, 16:27
Originariamente inviato da lzeppelin
Non c'è un salto di qualità, ne un salto generazionale.
Solo qualche fps in più in qualche isolato caso.
:confused:
Se dici così dopo 3 pagine di post che ti dice il contrario!
mi chiedo.....ma le hai lette le risposte??
Originariamente inviato da lzeppelin
Al limite potrei optare per una 6600 GT, magari quella con ram a1.6 ns.
No... o fai lo scambio a costo zero, o aspetta di fare l'acquisto "grosso"... la 6600gt com "riempitivo" mi sembra una sciocchezza (in termini economici senz'altro non ti vale la pena...)
lzeppelin
31-03-2005, 16:57
Originariamente inviato da Jedi_Master
:confused:
Se dici così dopo 3 pagine di post che ti dice il contrario!
mi chiedo.....ma le hai lette le risposte??
certo che ho letto e ringrazio tuti coloro che mi hanno risposto.
se mi vuoi far passare la 9800 pro come una generazione avanti, come una schda con qualità superiore e come una scheda che da molti vantaggi in più e spesso rispetto a una 5950 U,
questo non è vero.
lo dicono le decine di recensoni che ci sono in rete, la stessa di hw upgrade.
anzi in motli altri casi la 5950 U è avanti.
non vedo perchè decretare la 5950 U perdente solo perchè, nel parco giochi attuale, 3 o 4 gicohi sono vanno peggio.
sono convinto che sia uno scambio alla pari, per cui non ne vale la pena
halduemilauno
31-03-2005, 17:01
Originariamente inviato da Jedi_Master
:confused:
Se dici così dopo 3 pagine di post che ti dice il contrario!
mi chiedo.....ma le hai lette le risposte??
ma qui non si tratta di prendere una 9800pro(a costo zero)al posto...
di una 5900xt default.
di una 5900liscia default.
di una 5900ultra default.
di una 5950ultra default.
ma di una 5900 500/1000.
io onestamente non credo che una 9800pro 380/680 seppur oc quanto si vuole possa costituire...
poi ovviamente l'amico può fare ciò che vuole.
il tutto IMHO.
;)
Jedi_Master
31-03-2005, 17:17
Originariamente inviato da lzeppelin
certo che ho letto e ringrazio tuti coloro che mi hanno risposto.
Allora hai letto ma hai tratto una conclusione errata.
se mi vuoi far passare la 9800 pro come una...
Guarda a me non me ne entra nulla.
Purtroppo, è così la 9800 è una scheda DX9 la 5950 U lo è solo
su carta, perche' appena deve calcolare effetti PS2 si siede.
Fortissima sul DX8 ma praticamente una generazione indietro.
non vedo perchè decretare la 5950 U perdente solo perchè, nel parco giochi attuale, 3 o 4 gicohi sono vanno peggio.
Infatti, è perdente non per i 3-4 giochi, ma su tutta la linea
di prodotti DX9 che per ora non sono tanti, ma lo saranno.
Spero di essere stato d'aiuto.
ciao
:)
A conti fatti l'unico gioco dove godresti realmente vantaggio nello scambio è FarCry.
Per il resto sono due sk video agli sgoccioli (per i miei standard di gioco).
Cmq a costo zero lo farei,perchè no?Hai la possibilità di provare la controparte,perchè non farlo?
lzeppelin
01-04-2005, 00:26
Originariamente inviato da Jedi_Master
Allora hai letto ma hai tratto una conclusione errata.
Guarda a me non me ne entra nulla.
Purtroppo, è così la 9800 è una scheda DX9 la 5950 U lo è solo
su carta, perche' appena deve calcolare effetti PS2 si siede.
Fortissima sul DX8 ma praticamente una generazione indietro.
Infatti, è perdente non per i 3-4 giochi, ma su tutta la linea
di prodotti DX9 che per ora non sono tanti, ma lo saranno.
Spero di essere stato d'aiuto.
ciao
:)
per quello ti ringrazio ;)
ad ogni modo i miei standard di gioco non sono poi così elevati però visto che mi si prospetta un mese molto libero vorrei poter darci sotto... :D
Originariamente inviato da lzeppelin
non vedo perchè decretare la 5950 U perdente solo perchè, nel parco giochi attuale, 3 o 4 gicohi sono vanno peggio.
...non è perdente "solo per i 3 o 4 giochi" (che poi sono di più...), ma per l'architettura nel complesso... decisamente inferiore a quella di R350.
...inoltre noto che ti piace l'overclock... beh... prova ad overcloccare una 9800pro a 9800XT e guarda che prestazioni raggiunge e che spettacolo sono i suoi filtri...!
...ciao!
lzeppelin
01-04-2005, 00:52
la hercules che ram monta?
lzeppelin
01-04-2005, 00:56
ma l'opengl è morto?
Originariamente inviato da lzeppelin
la hercules che ram monta?
...dovrebbe avere le Samsung da 2.8 ns.
...ciao!
lzeppelin
01-04-2005, 01:13
grazie, quindi 360 mhz dovrei prenderli...
Jedi_Master
01-04-2005, 10:37
Originariamente inviato da lzeppelin
per quello ti ringrazio ;)
ad ogni modo i miei standard di gioco non sono poi così elevati però visto che mi si prospetta un mese molto libero vorrei poter darci sotto... :D
Allora in ogni caso buon divertimento!!
:D
Originariamente inviato da lzeppelin
ma l'opengl è morto?
beh insomma.... diciamo che è sulla buona strada! :p
No beh... scherzi a parte, è chiaro che sono le dx che dettano legge in ambiente windows... con tutti i vantaggi e gli svantaggi di questa scelta.
In ogni caso mi permetterei comunque di sfatare il mito che vuole ATI come "scarsa" in ambiente opengl; se questo può essere vero dal punto di vista professionale (parlo comunque di opengl usato su schede videoludiche, non di schede professionali tipo fireGL e quadro) dal punto di vista dei giochi la situazione non è assolutamente disastrosa: in doom3 sono stati fatti enormi progressi e così anche in altri giochi (riddick).
E' chiaro che Nvidia va meglio (ce l'ho e confermo la maggior "scioltezza" con cui la scheda digerisce gli applicativi basati su queste librerie), ma neppure ati è male, a patto di saper attendere le ottimizzazioni dei driver openGL che puntualmente vengono rilasciate non appena ce n'è bisogno (vedi driver sviluppati per Doom3, etc etc)
zanardi84
01-04-2005, 19:04
Originariamente inviato da Micheal88
Mi prendi in giro? :D
Ho capito, hai bevuto! si spiega tutto!
LO SO CHE L'R300 E' COMPLEX DX9!
Anche la fx5200 lo è, ma prova a metterci su Far Cry XD.
Riformulo il discorso cosi' capisci:
"pur essendo compatibili con le specifiche minime richieste dalle dx9, esse non ne soddisfano pero' l'efficienza necessaria."
CAPITTTTO MI HAI? :D
Per Fortuna che la 9800Pro non "soddisfa l'efficienza necessaria"! Se la soddisfasse che farebbe? darebbe m....@ alle x850 pt!
Al momento non c'è titolo in grado di metterla seriamente in crisi, e stiamo parlando di un progetto che avrà quasi 3 anni sul groppone (sono infatti del 2002 le 9700 dalle quali la 9800pro discende e di cui rappresenta una evoluzione).
A quel tempo il non plus ultra era la geffo 4600 DX 8.1 e ati era ferma alle 8500, schede di ottima qualità grafica ma non velocissime (anche se perfette per i titoli di allora).
E' chiaro che oggi, con le DX 9.0c la 9800 non sia il top del mercato, ma affermare che non è una scheda efficiente è proprio una bestialità.
Si può solo muovere una critica nei confronti delll'affidabilità, forse sottovalutata per colpa della sempre più agguerrita concorrenza (leggi NVIDIA), che a sua volta è incappata in errori clamorosi ( GEFFO FX 5) e che ancora ha qualche problemino (leggi alcune parite di 6600 gt agp, meno affidabili della 9800).
A questo punto, al temine della mia APOLOGIA, vorrei affermare, senza essere smentito, che la scheda (gruppo di schede) più longeva degli ultimi anni sia proprio la 9700-9800, degne eredi della fama delle mitiche voodoo di 3DFX.
In ultimo, per rispondere alla domanda per la quale è stato aperto questo 3D, direi che non ci sono dubbi: passa alla 9800pro perchè la Geffo FX è una scheda non prorio ben riuscita, con uno scarso supporto alle DX 9, praticamente sono delle ipotetiche 8.1++ (teoricamente parlando)
Micheal88
02-04-2005, 22:50
Originariamente inviato da zanardi84
Per Fortuna che la 9800Pro non "soddisfa l'efficienza necessaria"! Se la soddisfasse che farebbe? darebbe m....@ alle x850 pt!
Al momento non c'è titolo in grado di metterla seriamente in crisi, e stiamo parlando di un progetto che avrà quasi 3 anni sul groppone (sono infatti del 2002 le 9700 dalle quali la 9800pro discende e di cui rappresenta una evoluzione).
A quel tempo il non plus ultra era la geffo 4600 DX 8.1 e ati era ferma alle 8500, schede di ottima qualità grafica ma non velocissime (anche se perfette per i titoli di allora).
E' chiaro che oggi, con le DX 9.0c la 9800 non sia il top del mercato, ma affermare che non è una scheda efficiente è proprio una bestialità.
Si può solo muovere una critica nei confronti delll'affidabilità, forse sottovalutata per colpa della sempre più agguerrita concorrenza (leggi NVIDIA), che a sua volta è incappata in errori clamorosi ( GEFFO FX 5) e che ancora ha qualche problemino (leggi alcune parite di 6600 gt agp, meno affidabili della 9800).
A questo punto, al temine della mia APOLOGIA, vorrei affermare, senza essere smentito, che la scheda (gruppo di schede) più longeva degli ultimi anni sia proprio la 9700-9800, degne eredi della fama delle mitiche voodoo di 3DFX.
In ultimo, per rispondere alla domanda per la quale è stato aperto questo 3D, direi che non ci sono dubbi: passa alla 9800pro perchè la Geffo FX è una scheda non prorio ben riuscita, con uno scarso supporto alle DX 9, praticamente sono delle ipotetiche 8.1++ (teoricamente parlando)
Sento puzza di noob, mmmmmmm
non per dire, ma tra la 9800pro e le x800/x850xt ci sono 8 pixel pipeline (un'inezia vero? :rolleyes: ), quindi l'"efficienza" va a farsi benedire se le confronti.
1) Quando posti non ostentare reminiscenze che fanno pieta' (in altre parole, se devi quotarmi per sparare scemenze del tipo "con i giochi dx 9.c non ce la fa", faresti meglio a tirare una testata contro il muro che, per inciso, si romperebbe quest'ultimo :D ). Lo sanno anche i miei cani ormai che sia la r9700 che la x850xt pe soddisfano solo i requisiti delle dx9.b.
2) esistono eccome titoli in grado di farla esasperare.
3) il tuo concetto di affidabilita' è un tantino sballato.
zanardi84
03-04-2005, 18:53
Originariamente inviato da Micheal88
Sento puzza di noob, mmmmmmm
non per dire, ma tra la 9800pro e le x800/x850xt ci sono 8 pixel pipeline (un'inezia vero? :rolleyes: ), quindi l'"efficienza" va a farsi benedire se le confronti.
1) Quando posti non ostentare reminiscenze che fanno pieta' (in altre parole, se devi quotarmi per sparare scemenze del tipo "con i giochi dx 9.c non ce la fa", faresti meglio a tirare una testata contro il muro che, per inciso, si romperebbe quest'ultimo :D ). Lo sanno anche i miei cani ormai che sia la r9700 che la x850xt pe soddisfano solo i requisiti delle dx9.b.
2) esistono eccome titoli in grado di farla esasperare.
3) il tuo concetto di affidabilita' è un tantino sballato.
1- Quì se c'è uno sche spara boiate sei proprio, per un motivo molto semplice: NON SAI LEGGERE! Ho solo detto che con il non pieno supporto hw alle dx9.0c non è scheda al top del mercato.
Pipeline o non pipeline, non è detto che siano quelle a fare la differenza! La geffo 6600gt ha sì 8 pipe come la 9800, ma ha solo un bus da 128 bit. Eppure è un filino superiore alla 9800pro. come lo spiegheresti? la 6600 si inventa 4 pipe dal nulla?
Non fare il saccente, se non sai nemmeno leggere!
2-Certo che ci sono titoli che la fanno esasperare, ma sono quelli che mettono in crisi anche le 6800. Ovviamente se si lancia doom 3 a 1600*1200 AA 6x e af 16x è ovvio che fa 1 fotogramma al minuto (non secondo), ma è veramente da pazzi perovare risoluzioni del genere, anch eperchè forse la cpu farebbe da collo di bottiglia.
3-Affidabilità: come definiresti questa caratteristica? io la vedo così: se durante un uso normale, quindi in sistemi ben ventilati e senza mod vari, una scheda inizia a produrre artefatti, sono portato a dire che può essere un difetto di un esemplare.
Se invece, preso un buon numero di utilizzatori, il numero di esemplari che producono artefatti è piuttosto apprezzabile, sono portato a dire che quella scheda non è affidabile. Questo indipendentemente dalla marca.
Aggiungo poi che l'inaffidabilità può anche assere "indirizzata" ad un campo specifico, nel nostro caso il modding (overclock e attivazione di funzioni non di default). Essendo un buon numero delle 9800 che si sono fuse state oggetto di overclock talvolta pesanti nonchè soggette ad operazioni di flashing del bios, si può dire che tale famiglia di schede è inaffidabile quando è sottoposta a operazioni di modding.
per ultimo, è chiaro che spesso per ottenere certi risultati si debbano correre dei rischi. Nel nostro caso ati ha prodotto una scheda fenomenale, ma un tantino al limite di quelli che possono essere i range massimi architetturali. Statisticamente parlando , risulta evidente che le 9800 sono già al limite e talvolta, sono anche oltre: prova ne sia una gecube che mi è durata solo 3 mesi, durante i quali non è mai stata messa sotto sforzo da titoli pesanti nè tanto meno è stata oggetto di overclock ed altri lavoretti che io ritengo del tutto inutilli e dannosi.
Originariamente inviato da Micheal88
Sento puzza di noob, mmmmmmm
non per dire, ma tra la 9800pro e le x800/x850xt ci sono 8 pixel pipeline (un'inezia vero? :rolleyes: ), quindi l'"efficienza" va a farsi benedire se le confronti.
1) Quando posti non ostentare reminiscenze che fanno pieta' (in altre parole, se devi quotarmi per sparare scemenze del tipo "con i giochi dx 9.c non ce la fa", faresti meglio a tirare una testata contro il muro che, per inciso, si romperebbe quest'ultimo :D ). Lo sanno anche i miei cani ormai che sia la r9700 che la x850xt pe soddisfano solo i requisiti delle dx9.b.
2) esistono eccome titoli in grado di farla esasperare.
3) il tuo concetto di affidabilita' è un tantino sballato.
Mmmmm, sento puzza di sborrone. ;)
Toglimi una curiosità: qual'è il tuo concetto di efficienza? (più pipe ci sono, e più la scheda diventa efficiente?:D )
2) Quali sono questi titoli e cosa intendi per "farla esasperare"?
3) Questo è vero. Per quanto riguarda le 6600gt difettose non si possono considerare inaffidabili, sono soltanto "difettose".;)
lzeppelin
03-04-2005, 21:23
Non è facile...
ho guardato fino all'ultimo le recensioni, ho imparato l'inglese almeno :D
boh... non sono convinto...
il vantaggio lo vedo solo per il futuro, ma io a settembre faccio un turn-over completo del pc...
la tentazione per una 6600 GT o una X700 è grande....
in questo caso il salto lo vedrei eccome...
Micheal88
03-04-2005, 22:40
Originariamente inviato da zanardi84
1- Quì se c'è uno sche spara boiate sei proprio, per un motivo molto semplice: NON SAI LEGGERE! Ho solo detto che con il non pieno supporto hw alle dx9.0c non è scheda al top del mercato.
Pipeline o non pipeline, non è detto che siano quelle a fare la differenza! La geffo 6600gt ha sì 8 pipe come la 9800, ma ha solo un bus da 128 bit. Eppure è un filino superiore alla 9800pro. come lo spiegheresti? la 6600 si inventa 4 pipe dal nulla?
Non fare il saccente, se non sai nemmeno leggere!
2-Certo che ci sono titoli che la fanno esasperare, ma sono quelli che mettono in crisi anche le 6800. Ovviamente se si lancia doom 3 a 1600*1200 AA 6x e af 16x è ovvio che fa 1 fotogramma al minuto (non secondo), ma è veramente da pazzi perovare risoluzioni del genere, anch eperchè forse la cpu farebbe da collo di bottiglia.
3-Affidabilità: come definiresti questa caratteristica? io la vedo così: se durante un uso normale, quindi in sistemi ben ventilati e senza mod vari, una scheda inizia a produrre artefatti, sono portato a dire che può essere un difetto di un esemplare.
Se invece, preso un buon numero di utilizzatori, il numero di esemplari che producono artefatti è piuttosto apprezzabile, sono portato a dire che quella scheda non è affidabile. Questo indipendentemente dalla marca.
Aggiungo poi che l'inaffidabilità può anche assere "indirizzata" ad un campo specifico, nel nostro caso il modding (overclock e attivazione di funzioni non di default). Essendo un buon numero delle 9800 che si sono fuse state oggetto di overclock talvolta pesanti nonchè soggette ad operazioni di flashing del bios, si può dire che tale famiglia di schede è inaffidabile quando è sottoposta a operazioni di modding.
per ultimo, è chiaro che spesso per ottenere certi risultati si debbano correre dei rischi. Nel nostro caso ati ha prodotto una scheda fenomenale, ma un tantino al limite di quelli che possono essere i range massimi architetturali. Statisticamente parlando , risulta evidente che le 9800 sono già al limite e talvolta, sono anche oltre: prova ne sia una gecube che mi è durata solo 3 mesi, durante i quali non è mai stata messa sotto sforzo da titoli pesanti nè tanto meno è stata oggetto di overclock ed altri lavoretti che io ritengo del tutto inutilli e dannosi.
Calma calma, io uomo bianco! Io venire in pace e volere parlare con tuo capo!:D:D:D:D
Se io non so leggere, tu non sai nè leggere nè scrivere a giudicare da come ti enunci :rolleyes:
Quindi per te la r9800pro non è al top del mercato perchè non ha il supporto alle dx9.c?! ahahahahahahahahahaha
Naturalmente sono le gddr3/ il lightspeed memory architecture 3 ad aiutare considerevolmente le 6600gt. -_-"
La x850 non è null'altro che un r300 a cui hanno aumentato in maniera spropositata il numero di pipeline (se tralasciamo l'utilizzo dell' f-buffer per "immagazzinare" temporaneamente istruzioni od alcuni calcoli annessi in selezione per innalzarne il tetto massimo) quindi non volevo citare in causa l'affidabilita' in sè, quanto invece sottolineare l'impertinenza della frase avvalsa del tuo inguardabile concetto di efficienza.
Non ci sei ancora arrivato?
Ovvio che il bus di comunicazione fa la sua parte, ma di fronte a 16 pixel pieline contro 8 (frequenze escluse), parlare di affidabilita' architetturale è una stupidata immonda.
Ma lo è ancora di più il fatto che tu non te ne sia accorto.
zanardi84
04-04-2005, 20:21
Se io non so leggere, tu non sai nè leggere nè scrivere a giudicare da come ti enunci
Evidentemente parlo un linguaggio troppo elevato per te :D
Quindi per te la r9800pro non è al top del mercato perchè non ha il supporto alle dx9.c?! ahahahahahahahahahaha
Evidentemente non sai leggere tra la righe! Partendo dalla tua affermazione secondo la quale
"pur essendo compatibili con le specifiche minime richieste dalle dx9, esse non ne soddisfano pero' l'efficienza necessaria."
ho detto che pur non avendo il pieno supporto HW per le dx9.c resta una scheda ottima, seppur non al top del mercato ( e ci mancherebbe altro! Se lo fosse gli alti modelli ati nnon sarebbero mai usciti, il pci express sarebbe rimasto teorico con i fogli in un cassetto ed Nvidia avrebbe chiuso da tempo i laboratori schede video!)
Non hai capito che il discorso affidabilità è basato su delle statistiche, che non possono riappresentare il vero. Sono però una buona proiezione. Io la vedo così: se una macchina presa nuova dopo pochi chilometri inizia a fare strani rumori, poi il motore perde prestazioni e si pianta, posso dire che è un esemplare difettoso ( se non l'ho usata come una vettura da rally). Se altre persone, come già detto, in numero significativo, hanno lo stesso problema, sono portato ad affermare che ci può essere una partita difettosa. Ma se, ipotizzando che la stesso prototipo della vettura sia stato messo in produzione da più case, affermo che il modello di base è poco affidabile. LA stessa cosa vale per le schede.
Se vuoi te lo dico in questa maniera: "le 9800 pro sono "belle" ma fragili.
E questo è un limite architetturale piochè evidentemente le ram (spesso causa degli artefatti) non possono reggere certe frequenze, già alte di base e fuori range in caso di overclock, seppur supportate da buona dissipazione
Spero una volta per tutte di aver chiarito la questione e desidererei chiudere l'argomento. Grazie
Dixi
Originariamente inviato da Micheal88
Ovvio che il bus di comunicazione fa la sua parte, ma di fronte a 16 pixel pieline contro 8 (frequenze escluse), parlare di affidabilita' architetturale è una stupidata immonda.
Ma lo è ancora di più il fatto che tu non te ne sia accorto.
le schede vanno viste nel complesso non solo in un particolare.
Altrimenti le pipeline dei prescott avrebbero dovuto polverizzare ogni a64
cmq, tornando alla domanda, io farei il passaggio ad occhi chiusi, anche perché in ottica upgrade (quindi dovrai rivendere il vecchio immagino) vedo molto più smerciabile una 9800 che una 5900. E se sei anche fortunato e monta l' r360 la porti a xt e via ;)
Originariamente inviato da Micheal88
Lo sanno anche i miei cani ormai che sia la r9700 che la x850xt pe soddisfano solo i requisiti delle dx9.b.
I tuoi cani hanno informazioni sbagliate; le architettura R3X0 e R4X0 soddisfano pienamente tutti i requisiti dx9c.
Originariamente inviato da Micheal88
(se tralasciamo l'utilizzo dell' f-buffer per "immagazzinare" temporaneamente istruzioni od alcuni calcoli annessi in selezione per innalzarne il tetto massimo)
L'R420 non ha l'f-buffer perche' supporta nativamente lo shader model ps_2_b, che ha per specifiche un numero massimo di istruzioni superiore allo shader model ps_2_0.
Micheal88
05-04-2005, 14:21
Originariamente inviato da fek
I tuoi cani hanno informazioni sbagliate; le architettura R3X0 e R4X0 soddisfano pienamente tutti i requisiti dx9c.
L'R420 non ha l'f-buffer perche' supporta nativamente lo shader model ps_2_b, che ha per specifiche un numero massimo di istruzioni superiore allo shader model ps_2_0.
Ehhhhhh'?
Le dx9.c richiedono innanzitutto i famigerati 32 bit di precisione nei pixel shader.
Secondo me tu confondi "supporto" con il "pieno supporto".
Alcuni effetti del set shader 3.0 possono essere *aggirati* (geometry instancing &co), ma non mi venire a dire che le architettura R3X0 e R4X0 soddisfano pienamente tutti i requisiti dx9c., eddai ;)
Non possono in nessun modo gestire linee di codice con salti condizionali nei Ps.
Poi, quando io ho parlato dell'f-buffer mi riferivo alle 9800pro/xt.
Devi quotarmi tutta la frase diammine :D
La x850 non è null'altro che un r300 a cui hanno aumentato in maniera spropositata il numero di pipeline (se tralasciamo l'utilizzo dell' f-buffer per "immagazzinare" temporaneamente istruzioni od alcuni calcoli annessi in selezione per innalzarne il tetto massimo
Vedi, quel "se tralsciamo" era riferito all'R350/360 che effettivamente AVEVANO l'f-buffer.
Quella frase era un po' ambigua ;)
Originariamente inviato da Micheal88
Ehhhhhh'?
Le dx9.c richiedono innanzitutto i famigerati 32 bit di precisione nei pixel shader.
Ma quando mai? I 32bit sono necessari ai PS 3.0 e non alle Dx9.0c.
Secondo me tu confondi "supporto" con il "pieno supporto".
Fino a prova contraria quello sei tu :)
Cioè quello che ha detto che R300 non supporta i requisiti minimi delle Dx9 quando lo fa più che ampiamente.
Alcuni effetti del set shader 3.0 possono essere *aggirati* (geometry instancing &co)
Eeeeh? Da quando in qua lo SM3.0 sarebbe un set di shader?
Il geometry instancing prerogativa dello SM3? Mio dio :eek:
ma non mi venire a dire che le architettura R3X0 e R4X0 soddisfano pienamente tutti i requisiti dx9c., eddai ;)
Se per essere Dx9.0c il minimo supporto da garantire è quello allo SM2.0, le R3x0 e le R4x0 sono pienamente Dx9.0c compatibili.
L'ho detto tempo fa che sei impreciso nelle tue definizioni e continui ad esserlo :)
Non possono in nessun modo gestire linee di codice con salti condizionali nei Ps.
E quindi? E' una prerogativa delle dx9.0c? Hai un link? :)
Micheal88
05-04-2005, 14:55
Originariamente inviato da DjLode
Ma quando mai? I 32bit sono necessari ai PS 3.0 e non alle Dx9.0c.
Fino a prova contraria quello sei tu :)
Cioè quello che ha detto che R300 non supporta i requisiti minimi delle Dx9 quando lo fa più che ampiamente.
Eeeeh? Da quando in qua lo SM3.0 sarebbe un set di shader?
Il geometry instancing prerogativa dello SM3? Mio dio :eek:
Se per essere Dx9.0c il minimo supporto da garantire è quello allo SM2.0, le R3x0 e le R4x0 sono pienamente Dx9.0c compatibili.
L'ho detto tempo fa che sei impreciso nelle tue definizioni e continui ad esserlo :)
E quindi? E' una prerogativa delle dx9.0c? Hai un link? :)
Veramente sei te che hai capito male, non vendere il nome.
Anche tu "verba volant, linka manent"? Ci mancava solo questo -_-".
Dobbiamo convenire univocamente su cosa intendiamo per *supporto*. L'ho gia' detto e lo ripeto, la x850 non supporta le directx 9.0c (non aderisce a tutte le specifiche).
Riguardo al geometry instancing, si suppone non sia utilizzabile con i vs 2.0 (il discorso è controverso).
Vedo che hai bevuto anche oggi! stavolta pero' la sbornia sembra un po' più brilla :D:D:D:D
Originariamente inviato da Micheal88
L'ho gia' detto e lo ripeto, la x850 non supporta le directx 9.0c (non aderisce a tutte le specifiche).
Non supportare e non aderire a tutte le specifiche sono due cose completamente diverse. Come al solito, molto, troppo impreciso :)
Riguardo al geometry instancing, si suppone non sia utilizzabile con i vs 2.0 (il discorso è controverso).
Chiedi a Fek per questo :)
Se non ricordo male instancing si fa benissimo anche con una Gf2 o una 7500.
Vedo che hai bevuto anche oggi! stavolta pero' la sbornia sembra un po' più brilla :D:D:D:D
Vedi io le cose che so le dico e cerco di farlo precisamente, tu invece lasci molto a desiderare in quanto a teoria e sei entrato nel forum sparando a destra e a manca dicendo inesattezze su inesattezze.
Poi una volta arrivato al limite, ti lasci perdere in detti del tipo "hai bevuto". E' già la seconda volta che lo usi, come vedi ti fermi un pò prima di me a livello di conoscenza. E non c'è niente di male :)
Solo che io ammetto di essere ignorante, non comincio a sparare su chi sa più di me :)
Altro consiglio...
Micheal88
05-04-2005, 15:07
Originariamente inviato da DjLode
Non supportare e non aderire a tutte le specifiche sono due cose completamente diverse. Come al solito, molto, troppo impreciso :)
Chiedi a Fek per questo :)
Se non ricordo male instancing si fa benissimo anche con una Gf2 o una 7500.
Vedi io le cose che so le dico e cerco di farlo precisamente, tu invece lasci molto a desiderare in quanto a teoria e sei entrato nel forum sparando a destra e a manca dicendo inesattezze su inesattezze.
Poi una volta arrivato al limite, ti lasci perdere in detti del tipo "hai bevuto". E' già la seconda volta che lo usi, come vedi ti fermi un pò prima di me a livello di conoscenza. E non c'è niente di male :)
Solo che io ammetto di essere ignorante, non comincio a sparare su chi sa più di me :)
Altro consiglio...
Dico che hai bevuto perchè sembra che le cose non le capisci, che vai a cogliere il *senso lato* di ogni frase.
Che tu ne sappia più di me è tutto da vedere, l'unica cosa che ho constatato è la totale assenza di arguzia (o perlomeno simile a quella di un neonato ;) ).
Po, inesattezze lo saranno per te, quando si parla si cerca di divagare anche utilizzando insiemi di definizioni all'apprenza diversi, senno diremmo tutti le stesse cose.
torgianf
05-04-2005, 15:07
feeeek!!! posti troppo poco ultimamente per i miei gusti.... :D
torgianf
05-04-2005, 15:09
Originariamente inviato da Micheal88
Dico che hai bevuto perchè sembra che le cose non le capisci, che vai a cogliere il *senso lato* di ogni frase.
Che tu ne sappia più di me è tutto da vedere, l'unica cosa che ho constatato è la totale assenza di arguzia (o perlomeno simile a quella di un neonato ;) ).
Po, inesattezze lo saranno per te, quando si parla si cerca di divagare anche utilizzando insiemi di definizioni all'apprenza diversi, senno diremmo tutti le stesse cose.
sono uno di quelli che ne sa di meno ma queste dicussioni mi piacciono,pero' se vuoi un consiglio: presentati ;)
Micheal88
05-04-2005, 15:10
Originariamente inviato da torgianf
sono uno di quelli che ne sa di meno ma queste dicussioni mi piacciono,pero' se vuoi un consiglio: presentati ;)
Presentati? ?_?
Originariamente inviato da Micheal88
Dico che hai bevuto perchè sembra che le cose non le capisci, che vai a cogliere il *senso lato* di ogni frase.
Semplicemente vedo quello che scrivi :)
Non puoi dire che una cosa non supporta le specifiche minime per poi dire che non riesci a giocare a XxY con tutti i filtri attivati.
Sembra di sentire SB quando dice una cosa e poi da la colpa ai comunisti che l'hanno travisato :)
Che tu ne sappia più di me è tutto da vedere, l'unica cosa che ho constatato è la totale assenza di arguzia (o perlomeno simile a quella di un neonato ;) )
Continua pure con le tue digressioni offensive :)
Po, inesattezze lo saranno per te, quando si parla si cerca di divagare anche utilizzando insiemi di definizioni all'apprenza diversi, senno diremmo tutti le stesse cose.
Quindi tu dici una cosa, riservandoti la scelta di cambiare significato a quello che scrivi? Se scrivi inesattezze lo fai e basta.
In informatica una definizione è una definizione, rigorosa. Non puoi dire una cosa sottointendendone un'altra :)
torgianf
05-04-2005, 15:16
Originariamente inviato da Micheal88
Presentati? ?_?
ci sono utenti in questo forum che parlano per cognizione di causa (fek e' programmatore di lionhead studios),quindi se vuoi sostenere una discussione fallo con i fatti e non con le supposizioni ;) altri ti hanno gia spiegato il perche' r3xx e r4xx sono 100% dx9.0c e te non hai fatto altro che dare dell'ubriaco come risposta :D
stammi bene
Micheal88
05-04-2005, 15:19
Originariamente inviato da DjLode
Semplicemente vedo quello che scrivi :)
Non puoi dire che una cosa non supporta le specifiche minime per poi dire che non riesci a giocare a XxY con tutti i filtri attivati.
Sembra di sentire SB quando dice una cosa e poi da la colpa ai comunisti che l'hanno travisato :)
Continua pure con le tue digressioni offensive :)
Quindi tu dici una cosa, riservandoti la scelta di cambiare significato a quello che scrivi? Se scrivi inesattezze lo fai e basta.
In informatica una definizione è una definizione, rigorosa. Non puoi dire una cosa sottointendendone un'altra :)
Certo, ma lo faccio se davati ho qualcuno che risce a coglierne il senso (infatti con te ho mestamente sbagliato).
Facezie a parte, mi sembri il classico "testimone di geova" che si legge la bibbia in senso letterario xdxdxdxdxdxd
Ahahahahah ste discussioni con sti personaggi mai visti che arrivano dal nulla e iniziano a fare i saccenti sparando a zero su tutti (fek compreso :asd: ) mi divertono un casino. :D
Inutile dire che sto thread è già tra i preferiti. :D
torgianf
05-04-2005, 15:25
Originariamente inviato da sc82
Ahahahahah ste discussioni con sti personaggi mai visti che arrivano dal nulla e iniziano a fare i saccenti sparando a zero su tutti (fek compreso :asd: ) mi divertono un casino. :D
Inutile dire che sto thread è già tra i preferiti. :D
quoto,
altra discussione troppo lollosa :asd:
e dai non glielo dite altrimenti capisce e smette
Originariamente inviato da sc82
Ahahahahah ste discussioni con sti personaggi mai visti che arrivano dal nulla e iniziano a fare i saccenti sparando a zero su tutti (fek compreso :asd: ) mi divertono un casino. :D
Inutile dire che sto thread è già tra i preferiti. :D
Uhm e guardacaso ultimamente questi persoanggi che cita sc82 hanno nickname solitamente composti da qualcosa+88...
Coincidenze? Fato? :asd:
lzeppelin
05-04-2005, 16:49
vebbè ragasuoli, vi ringrazio, ora lasciamo morire questo 3d prima che si scateni l'inferno! ;)
ciao!
Originariamente inviato da Micheal88
Ehhhhhh'?
Le dx9.c richiedono innanzitutto i famigerati 32 bit di precisione nei pixel shader.
Secondo me tu confondi "supporto" con il "pieno supporto".
No. Le specifiche delle DX9c richiedono il supporto minimo ai 24 bit e opzionale a fp32.
Ti confondi con le specifiche dell'SM3.0, che sono una cosa diversa dalle specifiche delle DX9c perche' l'SM3.0 e' opzionale, che richedono il supporto a fp32.
Alcuni effetti del set shader 3.0 possono essere *aggirati* (geometry instancing &co), ma non mi venire a dire che le architettura R3X0 e R4X0 soddisfano pienamente tutti i requisiti dx9c., eddai ;)
Il Geometry Instancing e' supportato nativamente in hardware fin dall'R3X0, non c'e' aggiramento: e' un supporto nativo.
Come il GI e' esposto dalle D3D e' un discorso diverso di carattere burocratico: le specifiche SM3.0 richiedono il GI e le D3D ignorano di default il GI per GPU che non supportano l'SM3.0. E' comunque possibile richiedere al driver il supporto al GI via backdoor, e in quel caso le D3D sono perfettamente felici di inviare i comandi al driver anche se la GPU non e' SM3.0.
Non possono in nessun modo gestire linee di codice con salti condizionali nei Ps.
Il supporto al dynamic branching nei PS e' una specifica SM3.0, non DX9c.
In sintesi: l'architettura R3X0 e' perfettamente conforme a tutte le specifiche richieste delle DX9c, ovviamente non a tutte le specifiche anche opzionali, ma non c'e' alcuna GPU al mondo che le supporti tutti (ad esempio, DX9 riconoscerebbe il blending floating point a 32 bit per canale, ma non c'e' alcuna GPU che lo supporti).
Quella frase era un po' ambigua ;)
Si'.
Originariamente inviato da Micheal88
Dobbiamo convenire univocamente su cosa intendiamo per *supporto*. L'ho gia' detto e lo ripeto, la x850 non supporta le directx 9.0c (non aderisce a tutte le specifiche).
Se per supporto intendi supportare tutte le specifiche DX9c anche quelle opzionali, allora nessuna GPU al mondo supporta tutte le specifiche DX9c.
Se intendi solo le specifiche minime richieste, allora sia R3X0, sia NV3X supportano le specifiche DX9c.
Non c'e' molto di piu' da aggiungere.
Riguardo al geometry instancing, si suppone non sia utilizzabile con i vs 2.0 (il discorso è controverso).
Il discorso non e' controverso: l'R3X0 supporta il GI nativamente ed e' possibile attivarlo usando chiamate D3D anche se le specifiche richiederebbero l'SM3.0.
Vedo che hai bevuto anche oggi! stavolta pero' la sbornia sembra un po' più brilla :D:D:D:D
Trovo questo commento davvero di cattivo gusto.
Anche considerando che DJLode ha ragione su tutta la linea in questo discorso.
Originariamente inviato da fek
I tuoi cani hanno informazioni sbagliate; ...
:asd:
lzeppelin
06-04-2005, 23:54
raga ho preso una 9800 LE che per ora si overlcocca bene poi domani controllo se si modda...
halduemilauno
07-04-2005, 08:14
Originariamente inviato da lzeppelin
raga ho preso una 9800 LE che per ora si overlcocca bene poi domani controllo se si modda...
volevi dire 6800le.
;)
Originariamente inviato da lzeppelin
A fine estate mi farò il pc completamente nuovo e non baderò tanto a spese.
Era per "tirare avanti" anche perchè tra poco mi arriva unreal 2
Visto la possibilità di cambiare senza rimetterci, volevo sapere se l'una o l'altra andava meglio.
...ma scusa, hai comprato una 6800LE per "tirare avanti" sino all'estate??? ...se è così hai fatto male, potevi tenere la tua (o fare lo scambio) e poi quest'estate passare a pci-ex con una vga più potente.
...ciao!
lzeppelin
07-04-2005, 12:49
ho dato 40 euro di differenza poi a settembre faccio un turn-over completo....
comunque c'è una vita e mezza di differenza! :O
Originariamente inviato da lzeppelin
ho dato 40 euro di differenza poi a settembre faccio un turn-over completo....
comunque c'è una vita e mezza di differenza! :O
...ah ok, per 40€ va bene.
...e ci credo che c'è differenza, sei passato da una 5900 a NV40! :D
...ciao!
Jedi_Master
07-04-2005, 13:42
Originariamente inviato da lzeppelin
ho dato 40 euro di differenza poi a settembre faccio un turn-over completo....
solo 40 euro?? ottimo.
marca? si modda bene?
dai, dai con sto rivatuner!!
;)
comunque c'è una vita e mezza di differenza! :O
E te credo!!!
:D
lzeppelin
07-04-2005, 14:01
12 PU e 6 VU
clock 390 / 880 ( originariamente saliva di più con 8 PU e 6 VU, segno che le nuove pipe abilitate soffrono un po')
3dmark 05 4580, mi sembra buono :D
torgianf
07-04-2005, 14:22
Originariamente inviato da lzeppelin
12 PU e 6 VU
clock 390 / 880 ( originariamente saliva di più con 8 PU e 6 VU, segno che le nuove pipe abilitate soffrono un po')
3dmark 05 4580, mi sembra buono :D
le pipe aggiuntive non e' che soffrono,ma hanno bisogno di piu' elettricita'.le 6800le hanno di norma voltaggi piu' bassi delle sorelle maggiori,dovresti provare a mettere mano al bios ;)
lzeppelin
07-04-2005, 15:32
ho il voltaggio a 1.2, letto da NIbitor,
mentre rivatuner mi da 1 volt :confused:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.