View Full Version : Radeon X1600 XT e GeForce 6800 GS: la nuova fascia media
Ragazzi ritornando IT pensate che i ps3.0 potranno essere EFFETTIVAMENTE usati ni giochi di nupva generazione come UT2007...perchè fino ad ora non si è visto quasi nulla a proposito e già incombono i ps4.0... :muro:
L'SM3.0 e' gia' usato in parecchi titoli ormai.
@ Mo3bius
ho aspettato che il di giovanni replicasse per dargli l'opportunità di editare i propri messaggi, cosa che ancora non ha fatto, poi con tuto il rispetto, ti voglio fare una domanda seria!
ci stai prendendo in giro??
come fai a dire che:
se questa non è pubblicità, io sono babbo natale!!!
iaio , noi ho mai preso in giro nessuno , dopo il mio post dove invitavo l'utente
Di Giovanni a rivedere il suo modo di intervenire su quest tread ho chiesto
agli admin di occuparsi personalmente della situazione.
Questa non e' una sezione di mia competenza , sono intervenuto piu' come
utente che come mod , se lo fosse stata il suddetto Di Giovanni sarebbe gia' stato sospeso dal forum in quanto non ha seguito il consiglio/ammonimento
del moderatore.
Nota che mi riferisco all'utente in questione come "Andrea Di Giovanni" , ad oggi e a questa ora per me e' solo un semplice utente e non un area manager
di Ati , il fatto che si sia qualificato cosi' , in questa discussione e con i toni da lui usati , personalmente penso che lascia il tempo che trova ...
Questo e' quanto.
saluti
Alessandro Bordin
09-12-2005, 14:10
Già, ma questa persona sembra più che altro interessata a scovare fantomatici utenti del forum sul libro paga della concorrenza, piuttosto che considerare il rapporto prezzo/prestazioni della X1600XT :mc:
Torniamo in topic per favore ;)
Capitolo battibecco chiuso, vorrei che si parlasse solo di argomenti in topic, grazie.
OverClocK79®
09-12-2005, 14:17
dai tempo al tempo e vedrai che lo useranno sempre più
in queste cose PRIMA l'HW lo supporta e POI il gioco lo implementerà
su DUKE NUKEM Forever dovresti vedere i primi 4.0 :p
BYEZZZZZZZZZZZ
blamecanada
09-12-2005, 14:21
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1398/index.html
Calmato il polverone dovuto all’annuncio in sequenza di diverse soluzioni dedicate al mercato di fascia alta, sia da parte di ATI, che di NVIDIA, possiamo procedere alla valutazione di alcune nuove soluzioni di fascia media delle due storiche antagoniste: la Radeon X1600 XT e la GeForce 6800 GS.
Click sul link per visualizzare l'articolo.
Perdonate il mio essere un lamer totale: la tabella consumi si riferisce al consumo dell'intero sistema o alla sola scheda video? :eek:
MiKeLezZ
09-12-2005, 14:25
Perdonate il mio essere un lamer totale: la tabella consumi si riferisce al consumo dell'intero sistema o alla sola scheda video? :eek:
Totale.
Bordin, se ci fai caso, in tutti i commenti delle recensioni c'è uno o più utenti che fanno questa domanda (è già la 3° volta lo faccio notare).
Quindi, contando tutti quelli che non postano ma leggono e basta, moltissime persone rimangono in dubbio.
E' possibile aggiungere, al grafico, una piccola nota
"queste rilevazioni si intendono per l'intero sistema PC"
?
grazie.
OverClocK79®
09-12-2005, 14:27
ovviamente su TUTTO il sistema
se leggi come è stato effettuato il test scoprirai che è così ;)
BYEZZZZZZZZZZZ
Athlon 64 3000+
09-12-2005, 14:41
da quando è arrivato De Giovanni si è scatenato un casino che non leggevo da tempo e non ho voluto postare per non finire in mezzo a questo bordello.
Riguardo alla recensione mi pare evidente che la X1600XT esca con le ossa rotte
dato che va come la X800Gt e meno della GTO.
Dopo la mitica 9500Pro e la mossa di mettere a 200 euro la 9800Pro la Ati per la fascia media non ne ha azzeccata più una.
Invece Nvidia dopo il disastro NV3x non ha più sbagliato un colpo.
La 6800GS è davvero un'ottima scheda con buon rapporto prezzo/prestazioni.
L'unica fascia dova ha fatto una ottima gpu è quella alta con R520 e nella altre il vuoto.
davestas
09-12-2005, 15:07
dai tempo al tempo e vedrai che lo useranno sempre più
in queste cose PRIMA l'HW lo supporta e POI il gioco lo implementerà
su DUKE NUKEM Forever dovresti vedere i primi 4.0 :p
BYEZZZZZZZZZZZ
guarda io sinceramente differenza con i ps2.0 ATTUALMENTE è poco visibile....Bah. secondo me non si sfrutteranno mai...
MiKeLezZ
09-12-2005, 15:14
guarda io sinceramente differenza con i ps2.0 ATTUALMENTE è poco visibile....Bah. secondo me non si sfrutteranno mai...
Veramente da PS2.0 a PS3.0 c'è un abisso.
Mi sembra che proprio su Tom's abbiano fatto una comparativa, il dettaglio è impressionante.
Però, con VGA vecchie, non puoi attivarlo, ti mangia decine di FPS.
Minimo serve 7800GT/X1800XL.
OverClocK79®
09-12-2005, 15:35
forse sto facendo confusione, però mi sembra che da i 2.0 o 2.0b ai 3.0 non cambi poi molto in grafica
anzi i 3.0 dovrebbero avere solo uno spunto in velocità di elaborazione
ma l'effetto visivo dovrebbe essere il medesimo
se ritrovi il link per lo riposti? tnx
BYEZZZZZZZZZZZZZ
p.s http://www.tbreak.com/reviews/article.php?cat=grfx&id=322&pagenumber=1
ho trovato questo (ovviamente il primo screen è un fake, tipo burla) però i test credo di no
MiKeLezZ
09-12-2005, 15:59
http://www.tomshw.it/graphic.php?guide=20051202&page=vga_charts_viii-01
Torniamo in topic per favore ;)
Capitolo battibecco chiuso, vorrei che si parlasse solo di argomenti in topic, grazie.
Giusto per farlo capire a tutti consideriamo la "questione Di Giovanni" chiusa, non accetteremo altri commenti su questo argomento...
capitan_crasy
09-12-2005, 16:07
la prima 6800GS AGP sarà di XFX con GPU NV40! :p
Clicca qui (http://www.hardware-mania.it/modules.php?name=News&new_topic=17) e clicca qui... (http://www.tomshw.it/news.php?newsid=5390)
MiKeLezZ
09-12-2005, 16:09
XFX sempre la prima!
Anche per la 6800GS, le prime schede erano le sue...
Sta diventando un po' come era Sapphire per ATI...
blamecanada
09-12-2005, 17:00
Totale.
Bordin, se ci fai caso, in tutti i commenti delle recensioni c'è uno o più utenti che fanno questa domanda (è già la 3° volta lo faccio notare).
Quindi, contando tutti quelli che non postano ma leggono e basta, moltissime persone rimangono in dubbio.
E' possibile aggiungere, al grafico, una piccola nota
"queste rilevazioni si intendono per l'intero sistema PC"
?
grazie.
Ah bene. Ma come si fa a sapere, quindi, quanto approssimativamente consuma la scheda in sé?
Vi ringrazio.
Totale.
Bordin, se ci fai caso, in tutti i commenti delle recensioni c'è uno o più utenti che fanno questa domanda (è già la 3° volta lo faccio notare).
Quindi, contando tutti quelli che non postano ma leggono e basta, moltissime persone rimangono in dubbio.
E' possibile aggiungere, al grafico, una piccola nota
"queste rilevazioni si intendono per l'intero sistema PC"
?
grazie.
Se la gente si degnasse di leggere almeno la prima frase di quel capitolo della recensione invece di guardare solo i grafici troverebbe scritto:
Il rilevamento della potenza necessaria al corretto funzionamento del sistema è stato eseguito con una pinza amperometrica Lafayette PA-33 sulla corrente alternata utilizzata dall'alimentatore del sistema di test.
Un giorno proverò a pubblicare una recensione senza neanche una parola scritta, ma solo foto e grafici, e al capitolo delle conclusioni scriverò "le scrivete voi". Risparmierei moltissimo tempo e anche questo tipo di osservazioni.
Comunque vedrò di venirvi incontro cambiando il titolo del grafico non appena possibile, benché così come voi manifestate il vostro disappunto su scelte di redazione, io manifesto sentitamente il disappunto verso coloro che commentano senza leggere.
Ah bene. Ma come si fa a sapere, quindi, quanto approssimativamente consuma la scheda in sé?
Vi ringrazio.
In realtà quanto consuma solo la scheda è difficilissimo saperlo perché rilevare quanto effettivamente la scheda assorba dallo slot PCI Express 16x e quanto dall'alimentazione supplementare è ostico e non abbiamo gli strumenti per farlo.
Raffaele: non sarebbe interessante misurare la potenza assorbita con una scheda PCI passiva (che dovrebbe consumare veramente pochi Watt) ed usare quello come valore di riferimento per rilevare la potenza assorbita dalla scheda video ? Chiaramente non è molto preciso, ma abbastanza preciso per una valutazione di massima ?
sdjhgafkqwihaskldds
09-12-2005, 21:50
Raffaele: non sarebbe interessante misurare la potenza assorbita con una scheda PCI passiva (che dovrebbe consumare veramente pochi Watt) ed usare quello come valore di riferimento per rilevare la potenza assorbita dalla scheda video ? Chiaramente non è molto preciso, ma abbastanza preciso per una valutazione di massima ?
Idea interessante.... :cool:
Magari si potrebbe provare a fare la differenza di misurazione con una scheda integrata alla m.b. , anche se credo che in questo caso la CPU assorba corrente in modo differente, e comunque al variare della potenza della scheda grafica utilizzata.
MiKeLezZ
09-12-2005, 22:27
Se la gente si degnasse di leggere almeno la prima frase di quel capitolo della recensione invece di guardare solo i grafici troverebbe scritto:
Il rilevamento della potenza necessaria al corretto funzionamento del sistema è stato eseguito con una pinza amperometrica Lafayette PA-33 sulla corrente alternata utilizzata dall'alimentatore del sistema di test.
Un giorno proverò a pubblicare una recensione senza neanche una parola scritta, ma solo foto e grafici, e al capitolo delle conclusioni scriverò "le scrivete voi". Risparmierei moltissimo tempo e anche questo tipo di osservazioni.
Comunque vedrò di venirvi incontro cambiando il titolo del grafico non appena possibile, benché così come voi manifestate il vostro disappunto su scelte di redazione, io manifesto sentitamente il disappunto verso coloro che commentano senza leggere.
Vifani, non devi prendertela con me.
Per me, come per te, come per altri, queste cose capisco siano scontate.
Però devi capire che esiste anche una fascia di persone, per cui ogni cosa non è banale. Certo, diventa brutto se dobbiamo stare a spiegare ogni cosa, ma un n.b. ogni tanto, per aumentare la chiarezza, non guasta.
Vedi per esempio quando si fanno i grafici per il winrar che si aggiunge *a tempi minori corrispondono prestazioni migliori*, certo, è ovvio e banale, ma aiuta ad aumentare la chiarezza.
Non prenderla sempre sul personale, sto solo cercando di aiutare.
Ciao.
MiKeLezZ
09-12-2005, 22:32
In realtà quanto consuma solo la scheda è difficilissimo saperlo perché rilevare quanto effettivamente la scheda assorba dallo slot PCI Express 16x e quanto dall'alimentazione supplementare è ostico e non abbiamo gli strumenti per farlo.
xbitlabs aveva misurato la corrente che circolava dal connettore di alimentazione supplementare
per dare un'indicazione di massima... va bene... poi anche come precisione, è migliore della pinza amperometrica
poi, non so se effettivamente le VGA alimentate esternamente poi prendano anche l'alimentazione dal PCI-E, e in quale misura, sarebbero interessanti anche degli esperimenti per verificare questo
oppure, si potrebbe provare anche ad alimentare il sistema con un 20-pin invece che il classico 24-pin (gli ultimi 4 -pin sono infatti dedicata all'alimentazione PCI-E), in modo da gravare il tutto sulla spalle del connettore ausiliario
volendo, le strade sono tante, ma anche così come è ora, non è malvagio.. l'indicazione quale consuma di più, e quale meno, te la da...
leoneazzurro
09-12-2005, 22:55
Inoltre in questa GPU funziona il Pure Video cosa che non succede nelle vecchie GPU serie 6800 a 130nm.
Il Purevideo funziona anche nelle 6800 ma non con i filmati WMV.
Vifani, non devi prendertela con me.
Per me, come per te, come per altri, queste cose capisco siano scontate.
Però devi capire che esiste anche una fascia di persone, per cui ogni cosa non è banale. Certo, diventa brutto se dobbiamo stare a spiegare ogni cosa, ma un n.b. ogni tanto, per aumentare la chiarezza, non guasta.
Vedi per esempio quando si fanno i grafici per il winrar che si aggiunge *a tempi minori corrispondono prestazioni migliori*, certo, è ovvio e banale, ma aiuta ad aumentare la chiarezza.
Non prenderla sempre sul personale, sto solo cercando di aiutare.
Ciao.
MiKeLezZ, so perfettamente che esiste una fascia di persone per cui ogni cosa non è banale, ma tra questo e avere gente che non legge neanche e che tenta dai soli grafici di comprendere ogni cosa, è un altro discorso. Non sono disposto ad appesantire i grafici di informazioni superflue che si trovano scritte due righe più sotto o più sopra in quello stesso paragrafo perché ritengo che le informazioni diventerebbero ridondanti e i grafici confusionari. Quindi, nel limite del possibile si farà in modo che i grafici siano esaurienti, ma i grafici restano sono complementari del testo e pertanto chi vuole comprenderli è pregato di leggere il testo senza poi chiedere nei commenti informazioni che si possono trovare già belle e scritte.
Concludo dicendo che forse è il caso che tu ti metta per un attimo nella nostra ottica e lasci quella del lettore, perché mi sembra che tu tenda a prendere un po troppo incondizionatamente le difese di chi legge, quando invece le difese si prendono su osservazioni e proposte ragionevoli, non nei confronti di utenti che richiedono grafici ultra esplicativi e ridondanti perché non si vogliono sforzare a leggere due righe più sotto/sopra lo stesso grafico.
xbitlabs aveva misurato la corrente che circolava dal connettore di alimentazione supplementare
per dare un'indicazione di massima... va bene... poi anche come precisione, è migliore della pinza amperometrica
poi, non so se effettivamente le VGA alimentate esternamente poi prendano anche l'alimentazione dal PCI-E, e in quale misura, sarebbero interessanti anche degli esperimenti per verificare questo
oppure, si potrebbe provare anche ad alimentare il sistema con un 20-pin invece che il classico 24-pin (gli ultimi 4 -pin sono infatti dedicata all'alimentazione PCI-E), in modo da gravare il tutto sulla spalle del connettore ausiliario
volendo, le strade sono tante, ma anche così come è ora, non è malvagio.. l'indicazione quale consuma di più, e quale meno, te la da...
Probabilmente xbitlabs ha utilizzato una pinza amperometrica anche per fare quel tipo di misurazione. Anzi, sul cavo di alimentazione supplementare è un tipo di rilevamento molto semplice da effettuare perché ci sono i cavi con i poli separati già belli e pronti e le pinze amperometriche possono rilevare sia su corrente alternata che continua (o almeno quella che usiamo noi è così).
In ogni caso al di là delle 1000 operazioni che si possono effettuare, ritengo che quella che facciamo sia più che sufficiente, oltre ad essere sicuramente esatta nel senso che se una scheda rispetto ad un'altra fa registrare 20 VA in più, vuol dire al 100% che quella scheda assorbe 20 VA in più visto che a parità di sistema, l'elemento discriminante è la scheda stessa. Se iniziamo ad effettuare operazioni complesse, è molto elevato il rischio di perdere in accuratezza visto che non sappiamo esattamente come lavorano le schede, quale percentuale di alimentazione assorbono dallo slot PCI Express (sicuramente una parte la prendono perché le schede NVIDIA, ad esempio, partono a frequenze ridotte senza connettore supplementare, ma partono), e quale dalla connessione supplementare.
Misurare solo quando misura la scheda usando come riferimento il valore ottenuto con una scheda video PCI, non penso che sia interessante. Infatti non è importante sapere in valore assoluto quanto consuma una scheda video, ma è importante il confronto, cioè quanto consuma rispetto ad altri prodotti. Il valore in sè direbbe molto poco. Inoltre la nostra misurazione sull'alimentazione di tutto il sistema è anche interessante perché dà un'indicazione di massima su quale tipo di alimentatore è necessario per il corretto funzionamento del sistema.
JohnPetrucci
10-12-2005, 03:02
Probabilmente xbitlabs ha utilizzato una pinza amperometrica anche per fare quel tipo di misurazione. Anzi, sul cavo di alimentazione supplementare è un tipo di rilevamento molto semplice da effettuare perché ci sono i cavi con i poli separati già belli e pronti e le pinze amperometriche possono rilevare sia su corrente alternata che continua (o almeno quella che usiamo noi è così).
In ogni caso al di là delle 1000 operazioni che si possono effettuare, ritengo che quella che facciamo sia più che sufficiente, oltre ad essere sicuramente esatta nel senso che se una scheda rispetto ad un'altra fa registrare 20 VA in più, vuol dire al 100% che quella scheda assorbe 20 VA in più visto che a parità di sistema, l'elemento discriminante è la scheda stessa. Se iniziamo ad effettuare operazioni complesse, è molto elevato il rischio di perdere in accuratezza visto che non sappiamo esattamente come lavorano le schede, quale percentuale di alimentazione assorbono dallo slot PCI Express (sicuramente una parte la prendono perché le schede NVIDIA, ad esempio, partono a frequenze ridotte senza connettore supplementare, ma partono), e quale dalla connessione supplementare.
Misurare solo quando misura la scheda usando come riferimento il valore ottenuto con una scheda video PCI, non penso che sia interessante. Infatti non è importante sapere in valore assoluto quanto consuma una scheda video, ma è importante il confronto, cioè quanto consuma rispetto ad altri prodotti. Il valore in sè direbbe molto poco. Inoltre la nostra misurazione sull'alimentazione di tutto il sistema è anche interessante perché dà un'indicazione di massima su quale tipo di alimentatore è necessario per il corretto funzionamento del sistema.
Concordo in pieno.
P.S. Scusami se vado off topic (visto che volevo chiedertelo da tempo), spero che mi risponderai ad dubbio che mi assilla, e cioè come mai i vostri grafici su Fear nella recensione 7800gtx 512mb, danno simili risultati visto che in giro per il web(in altre review) si trovano grafici assolutamente differenti dove la scheda di Nvidia sta nettamente avanti?
Grazie.
MiKeLezZ
10-12-2005, 09:29
Probabilmente xbitlabs ha utilizzato una pinza amperometrica anche per fare quel tipo di misurazione. Anzi, sul cavo di alimentazione supplementare è un tipo di rilevamento molto semplice da effettuare perché ci sono i cavi con i poli separati già belli e pronti e le pinze amperometriche possono rilevare sia su corrente alternata che continua (o almeno quella che usiamo noi è così).Hanno usato qualche shunt in parallelo (per poi poter usare uno strumento di precisione) (ma anche per fare un po' di "scena").
La pinza va bene, è solo che di solito ha un errore di misura leggermente maggiore.
In ogni caso al di là delle 1000 operazioni che si possono effettuare, ritengo che quella che facciamo sia più che sufficiente, oltre ad essere sicuramente esatta nel senso che se una scheda rispetto ad un'altra fa registrare 20 VA in più, vuol dire al 100% che quella scheda assorbe 20 VA in più visto che a parità di sistema, l'elemento discriminante è la scheda stessa. Se iniziamo ad effettuare operazioni complesse, è molto elevato il rischio di perdere in accuratezza visto che non sappiamo esattamente come lavorano le schede, quale percentuale di alimentazione assorbono dallo slot PCI Express (sicuramente una parte la prendono perché le schede NVIDIA, ad esempio, partono a frequenze ridotte senza connettore supplementare, ma partono), e quale dalla connessione supplementare.
Misurare solo quando misura la scheda usando come riferimento il valore ottenuto con una scheda video PCI, non penso che sia interessante. Infatti non è importante sapere in valore assoluto quanto consuma una scheda video, ma è importante il confronto, cioè quanto consuma rispetto ad altri prodotti. Il valore in sè direbbe molto poco. Inoltre la nostra misurazione sull'alimentazione di tutto il sistema è anche interessante perché dà un'indicazione di massima su quale tipo di alimentatore è necessario per il corretto funzionamento del sistema.
Giusto.. ma infatti son d'accordo su questo.
Riguardo la misurazione, è giusto che il testo sia complementare, quello scritto è estremamente corretto, ma non è alla portata di tutti, e potrebbe esser fuorviante.
Chiedi di mettermi nella tua posizione, io ti dico che se non ami metter informazioni ridondanti, ti do piena ragione, se non vuoi rendere i grafici chiari anche se presi singolarmente, non ti capisco, ma rispetto la tua decisione, in ogni caso, dal "Il rilevamento della potenza necessaria al corretto funzionamento del sistema è stato eseguito con una pinza amperometrica Lafayette PA-33 sulla corrente alternata utilizzata dall'alimentatore del sistema di test.", basterebbe solo aggiungere un "quindi, il valore misurato è riferito all'intero sistema, e non unicamente della scheda video", magari togliendo la prima frase sottolineata (in modo da non creare inutili ripetizioni), o comunque modificarlo come ritieni più opportuno, per evidenziarlo meglio, "a scanso di equivoci", come si suol dire (così come è ora è sibillino poichè la frase, per esser compresa a pieno, implica la conoscenza di alcune nozioni tecniche).
:P
Concordo in pieno.
P.S. Scusami se vado off topic (visto che volevo chiedertelo da tempo), spero che mi risponderai ad dubbio che mi assilla, e cioè come mai i vostri grafici su Fear nella recensione 7800gtx 512mb, danno simili risultati visto che in giro per il web(in altre review) si trovano grafici assolutamente differenti dove la scheda di Nvidia sta nettamente avanti?
Grazie.
Beh l'hanno scorso avevano dato le X800XT in vantaggio rispetto alle 6800 ultra in molti test su Doom 3 ...
PESCEDIMARZO
10-12-2005, 11:48
Vifani, non ti viene il sospetto di trovarti davanti ad una critica costruttiva?
Visto che sono in tanti a farti notare come il grafico dei consumi non sia, per tutti, di immediata interpretazione?
Mi metto nei tuoi panni, hai lavorato sodo e hai fatto un articolo esaustivo in cui hai scritto tutto dettagliatamente, pero' i grafici sono gli Highlights di un'articolo, è quello che balza subito agli occhi ancora prima di iniziare a leggere l'articolo stesso.Penso che scrivere nell'intestazione del grafico accanto a "consumi in VA" anche due parole che precisino che si tratta di consumo "di tutto il PC", anche se l'hai scritto poche righe sopra, non sarebbe affatto ridondante e permetterebbe di capire il grafico a colpo d'occhio anche a chi di computer capisce poco o a chi non vuole leggere tutto l'articolo parola per parola.
Dico tutto questo senza timbro polemico, il mio vuol esssere solo un consiglio da parte di uno dei tanti che vi segue tutti i giorni con interesse e soddisfazione.
JohnPetrucci
10-12-2005, 12:06
Beh l'hanno scorso avevano dato le X800XT in vantaggio rispetto alle 6800 ultra in molti test su Doom 3 ...
Già, queste situazioni mi fanno riflettere abbastanza....... :(
davestas
10-12-2005, 12:23
Ragazzi la 6800gs E' moddabile al 100% tranquillamente ad @Ultra per un daily use??
OverClocK79®
10-12-2005, 12:39
devestas
se leggi l'articolo per bene noterai che NV42 NON è un 16 pipe castrati
in versione PCI-E è un altro Chip.
BYEZZZZZZZZz
OverClocK79®
10-12-2005, 12:40
xbitlabs aveva misurato la corrente che circolava dal connettore di alimentazione supplementare
per dare un'indicazione di massima... va bene... poi anche come precisione, è migliore della pinza amperometrica
può essere anche che venga misurato solo il consumo della scheda, ma ci sono sk.video che non hanno quel connettore quindi nn è possibile misurarne il consumo oppure altre che prendono magari un tipo di corrente dallo slot PCI-E
e un'altro dal connettore.
BYEZZZZZZZZZz
PESCEDIMARZO
10-12-2005, 13:07
può essere anche che venga misurato solo il consumo della scheda, ma ci sono sk.video che non hanno quel connettore quindi nn è possibile misurarne il consumo oppure altre che prendono magari un tipo di corrente dallo slot PCI-E
e un'altro dal connettore.
BYEZZZZZZZZZz
Alcuni siti propongono il consumo con e senza scheda.
http://img235.imageshack.us/img235/3466/consumption3wo.png
Sembrerebbe che in idle la 7800GTX 512 consumi pochissimo, ma non so se è corretto fare: consumo PC con scheda -(meno) consumo PC senza scheda = consumo scheda da sola.
Ciao.
yossarian
10-12-2005, 13:25
Alcuni siti propongono il consumo con e senza scheda.
http://img235.imageshack.us/img235/3466/consumption3wo.png
Sembrerebbe che in idle la 7800GTX 512 consumi pochissimo, ma non so se è corretto fare: consumo PC con scheda -(meno) consumo PC senza scheda = consumo scheda da sola.
Ciao.
quelle misure sono completamente sballate.
La 512 MB ha una tensione di alimentazione superiore alla 256 MB e ha il doppio della ram (che lavora, a sua volta, a tensioni più elevate, 2,2 se non ricordo male). Secondo quel grafico consuma meno della 256 MB.
Se permetti, ho più di qualche dubbio sulla sua veridicità
PESCEDIMARZO
10-12-2005, 13:30
quelle misure sono completamente sballate.
La 512 MB ha una tensione di alimentazione superiore alla 256 MB e ha il doppio della ram (che lavora, a sua volta, a tensioni più elevate, 2,2 se non ricordo male). Secondo quel grafico consuma meno della 256 MB.
Se permetti, ho più di qualche dubbio sulla sua veridicità
Se lo dici te ci credo :D anche se il sito da cui l'ho preso è autorevole(tomshw.it)
Ciao.
yossarian
10-12-2005, 13:42
Se lo dici te ci credo :D anche se il sito da cui l'ho preso è autorevole(tomshw.it)
Ciao.
chissà come mai, pensavo proprio che provenisse dal buon vecchio Tom :D
Non è a te che mi rivolgevo, ma a chi propone simili comparative; ci vorrebbe un minimo di decenza. Tra un po' la 512 MB mi sostituisce l'alimentatore del pc :sofico:
questa, pur non essendo di un sito "affermato", dal punto di vista puramente numerico è sicuramente più attendibile
http://www.gamepc.com/labs/print_content.asp?id=h2k5512&cookie%5Ftest=1
dato tendenzialmente confermato anche da questo
http://www.hothardware.com/printarticle.aspx?articleid=751
anche se una misura reale del consumo è estremamente complessa da fare; però, un minimo di ragionamento può permettere di trarre conclusioni di tipo qualitativo, se non quantitativo
JohnPetrucci
10-12-2005, 13:51
quelle misure sono completamente sballate.
La 512 MB ha una tensione di alimentazione superiore alla 256 MB e ha il doppio della ram (che lavora, a sua volta, a tensioni più elevate, 2,2 se non ricordo male). Secondo quel grafico consuma meno della 256 MB.
Se permetti, ho più di qualche dubbio sulla sua veridicità
Infatti questo grafico è a dir poco strano e lascia dubbi pesantissimi, poi il sito che l'ha realizzato......senza offesa ma se posso lo evito. :O
davestas
10-12-2005, 14:01
devestas
se leggi l'articolo per bene noterai che NV42 NON è un 16 pipe castrati
in versione PCI-E è un altro Chip.
BYEZZZZZZZZz
Si ma ho la sensaziojne cheper un daily use alzare le frequenza della scheda per @ultra sia deleterio...poi nessuno sul forum l'ha fatto, queste 6800gs ce le hanno cosi in pochi...
yossarian
10-12-2005, 14:02
Infatti questo grafico è a dir poco strano e lascia dubbi pesantissimi, poi il sito che l'ha realizzato......senza offesa ma se posso lo evito. :O
personalmente non mi piace stigmatizzare il lavoro fatto da altri; leggo gli articoli di Tom (a volte ce ne sono di interessanti); però, in alcuni casi, si assiste a "cantonate" di questa portata che, nel caso specifico, mi auguro sia frutto di una non corretta associazione dei grafici con le vga.
Se così non fosse, mi meraviglierebbe il fatto che si sta velatamente accusando HWUpgrade di non fare corretta informazione, basandosi sul semplice posizionamento dei grafici, mentre invece, in casi del genere, se la cosa fosse voluta, si dovrebbe parlare di disinformazione a tutti gli effetti.
Cosa accadrebbe se uno decidesse di acquistare una vga in base al consumo e si basasse su questi grafici?
per quanto riguarda, invece, il discorso sui grafici e i test da eseguire, personalmente, ma Raffaele ne è al corrente, preferirei più test sintetici, fatti anche con tool diversi rispetto al 3dmark, che evidenzino il comportamento di chip nell'esecuzione di specifici task. Anche se immagino che sarebbe molto più noioso per molti di quelli che leggono. Inoltre, introdurrei anche test in cui si forza l'esecuzione a fp32, soprattutto quando si fa il confronto tra chip NV, per valutare se ci sono stati incrementi e di che portata, anche con la full precision (a default, i chip NV lavorano quasi esclusivamente a fp16).
JohnPetrucci
10-12-2005, 14:08
personalmente non mi piace stigmatizzare il lavoro fatto da altri; leggo gli articoli di Tom (a volte ce ne sono di interessanti); però, in alcuni casi, si assiste a "cantonate" di questa portata che, nel caso specifico, mi auguro sia frutto di una non corretta associazione dei grafici con le vga.
Se così non fosse, mi meraviglierebbe il fatto che si sta velatamente accusando HWUpgrade di non fare corretta informazione, basandosi sul semplice posizionamento dei grafici, mentre invece, in casi del genere, se la cosa fosse voluta, si dovrebbe parlare di disinformazione a tutti gli effetti.
Cosa accadrebbe se uno decidesse di acquistare una vga in base al consumo e si basasse su questi grafici?
Hai perfettamente ragione.
Per quel che mi riguarda non sono tanto i grafici a lasciami un pò perplesso ma un eccesso di buonismo verso la x1600xt, ma cmq nulla di scandaloso come invece potrebbe essere il grafico dei consumi fatto da Tom's.
MiKeLezZ
10-12-2005, 14:09
Alcuni siti propongono il consumo con e senza scheda.
http://img235.imageshack.us/img235/3466/consumption3wo.png
Sembrerebbe che in idle la 7800GTX 512 consumi pochissimo, ma non so se è corretto fare: consumo PC con scheda -(meno) consumo PC senza scheda = consumo scheda da sola.
Ciao.
In linea di massima sarebbe corretto
Quel grafico è sbagliato... [vedi sotto]
Inoltre, misurare in questo modo è ALTAMENTE spreciso, si può incappare in mille diverse variabili che fanno variare il risultato.
quelle misure sono completamente sballate.
La 512 MB ha una tensione di alimentazione superiore alla 256 MB e ha il doppio della ram (che lavora, a sua volta, a tensioni più elevate, 2,2 se non ricordo male). Secondo quel grafico consuma meno della 256 MB.
Se permetti, ho più di qualche dubbio sulla sua veridicità
Io credo abbiano semplicemente invertito la 256MB con la 512MB.
D'altronde loro si preoccupano solo di tradurre. :|
personalmente non mi piace stigmatizzare il lavoro fatto da altri; leggo gli articoli di Tom (a volte ce ne sono di interessanti); però, in alcuni casi, si assiste a "cantonate" di questa portata che, nel caso specifico, mi auguro sia frutto di una non corretta associazione dei grafici con le vga.
Se così non fosse, mi meraviglierebbe il fatto che si sta velatamente accusando HWUpgrade di non fare corretta informazione, basandosi sul semplice posizionamento dei grafici, mentre invece, in casi del genere, se la cosa fosse voluta, si dovrebbe parlare di disinformazione a tutti gli effetti.
Cosa accadrebbe se uno decidesse di acquistare una vga in base al consumo e si basasse su questi grafici?
La stessa cosa che succedesse se uno decidesse di acquistare una VGA in base alla posizione nei grafici di hwupgrade, oppure ai primi risultati di HL:LC (che erano sbagliati, e son stati corretti su segnalazione), ci rimarrebbe un po' di merda...
Bisognerebbe vedere se anche il sito inglese ha la stessa anomalia. Il problema è quando questi errori (se tali sono), non vengono poi corretti.
Comunque Tom's è sempre stato pro-nvidia, pro-intel, pro-logitech.. insomma.. se è chiamata la puttana del web, ci sarà un motivo.
Le sue recensioni/articoli presentano puntualmente un mare di imprecisioni, le pochissime volte che non sono superficiali, solitamente basate sulla semplice press-release del produttore...
Leggetela per passare 10 minuti, ma non fateci affidamento (altro che "fonte autorevole").
chissà come mai, pensavo proprio che provenisse dal buon vecchio Tom :D
Non è a te che mi rivolgevo, ma a chi propone simili comparative; ci vorrebbe un minimo di decenza. Tra un po' la 512 MB mi sostituisce l'alimentatore del pc :sofico:
questa, pur non essendo di un sito "affermato", dal punto di vista puramente numerico è sicuramente più attendibile
http://www.gamepc.com/labs/print_content.asp?id=h2k5512&cookie%5Ftest=1
dato tendenzialmente confermato anche da questo
http://www.hothardware.com/printarticle.aspx?articleid=751
anche se una misura reale del consumo è estremamente complessa da fare; però, un minimo di ragionamento può permettere di trarre conclusioni di tipo qualitativo, se non quantitativo
Estremamente complessa non direi... Le cose basta volerle fare, e si riesce a fare tutto.
Comunque anche qua:
http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_5.html
http://www.xbitlabs.com/images/video/geforce7800gtx512/7800%20512%20Power%20consumption%20GIF/power.gif
E mi sembrano risultati già più veritieri.
Un ragazzo con la XL stava a 66°c in idle, mentre io sto a 48°c con la GT.
Le nuove ATI scaldano di più, perchè consumano di più, mi sembra ci sia poco da obbiettare.
yossarian
10-12-2005, 14:16
E' corretto, ma non preciso, quel grafico.. [vedi sotto]
Hanno semplicemente invertito la 256MB con la 512MB.
La stessa cosa che succedesse se uno decidesse di acquistare una VGA in base alla posizione dei grafici di hwupgrade, oppure ai primi risultati di HL:LC (che erano sbagliati, e son stati corretti su segnalazione), ci rimarrebbe di merda...
Bisognerebbe vedere se il sito inglese ha la stessa anomalia. Il problema è quando questi errori non sono corretti.
Comunque Tom's è sempre stato pro-nvidia, pro-intel, è chiamata la puttana del web.
Estremamente complessa non direi...
Comunque anche qua:
http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_5.html
http://www.xbitlabs.com/images/video/geforce7800gtx512/7800%20512%20Power%20consumption%20GIF/power.gif
xbit ha fatto un'operaziona ancora meno corretta, tentando di misurare i valori di alimentazione della sola vga e calcolando il consumo con il solo 3mark (per giunta facendone un valore medio).
Il consumo della 1800XT è dovuto, per 2/3 circa, alla ram; la GTX 512 MB ha lo stesso quantitativo di ram che, per giunta, lavora con v-core più elevato rispetto a quella della 1800XT.
Infine, che la XL consumi più della GTX 256 MB (ammettendo l'inversione dei due grafici) e che questa consumi quanto una X1300, non sta né in cielo né in terra.
La temperatura può dipendere da tanti fattori; ad esempio la qualità dei sistemi di dissipazione. Il primo elemento per valutare il consumo è la tensione di alimentazione del core; e se guardiamo quella, la XT lavora a 1,31, la GTX a 1,4 (in full load) e la versione da 512 MB a 1,5; la XL, invece, a 1,1 V. Poi, ripeto, nel consumo complessivo, la voce grossa la fa la ram <(e anche li conta la tensione di core e la quantità complessiva). Infatti, se è logico che la GTX 256 MB consumi meno della 1800XT, nonostante il v-core leggermente superiore, avendo la metà della ram, non è normale che la 512 MB consumi meno, avendo stesso quantitativo di ram (con tensione superiore) e v-core del chip che lavora a 1,5 contro gli 1,3 della XT.
http://www.xbitlabs.com/articles/video/display/geforce7800gtx512_5.html
http://www.xbitlabs.com/images/video/geforce7800gtx512/7800%20512%20Power%20consumption%20GIF/power.gif
Mi sembrano risultati più veritieri.
Un ragazzo con la XL stava a 66°c in idle, mentre io sto a 48°c con la GT.
Le nuove ATI scaldano di più, perchè consumano di più, è un dato di fatto.
la fisica non è una opinione :) il core della 7800gtx 512 è alimentato a 1,5V a differenza dell'r520 che va a 1,3V... oltre alle ram, dato che quelle della samsung che vanno a 900mhz sono overvoltate... mi spieghi come fa a consumare meno? quella tabella è la cosa più inverosimile alla realtà che potessero fare ;)
MiKeLezZ
10-12-2005, 14:23
xbit ha fatto un'operaziona ancora meno corretta, tentando di misurare i valori di alimentazione della sola vga e calcolando il consumo con il solo 3mark (per giunta facendone un valore medio).
Il consumo della 1800XT è dovuto, per 2/3 circa, alla ram; la GTX 512 MB ha lo stesso quantitativo di ram che, per giunta, lavora con v-core più elevato rispetto a quella della 1800XT.
Infine, che la XL consumi più della GTX 256 MB (ammettendo l'inversione dei due grafici) e che questa consumi quanto una X1300, non sta né in cielo né in terra.
La temperatura può dipendere da tanti fattori; ad esempio la qualità dei sistemi di dissipazione. Il primo elemento per valutare il consumo è la tensione di alimentazione del core; e se guardiamo quella, la XT lavora a 1,31, la GTX a 1,4 (il full load) e la versione da 512 MB a 1,5; la XL, invece, a 1,1 V. Poi, ripeto, nel consumo complessivo, la voce grossa la fa la ram <(e anche li conta la tensione di core e la quantità complessiva)
Non basta sapere la tensione di alimentazione del core, ma è fondamentale considerare gli Ampere in gioco.
Il "current leakage" di cui tanto si è parlato, significa appunto che consuma più Ampere di quanto dovrebbe... e questo poco c'entra con la tensione di alimentazione.
Il fatto poi ci sia un poderoso sistema di dissipazione passivo sugli elementi elettronici di regolazione tensione (direttamente a fianco del connettore di alimentazione), significa che i valori in gioco sono un pochino superiori di quelli usuali...
La temperatura, nel caso di prima, è diminuita di solo pochi gradi, passando da quello standard allo Zalman VF-700.
Contando che il sensore del die tiene conto praticamente della sola temperatura dello stesso (poco conta la ram, che non è coperta dal dissipatore), significa che il chip, sebbene richieda un voltaggio meno elevato, è proprio la causa prima del maggior assorbimento.
D'altronde, i problemi di current leakage li abbiamo visti tutti anche nei Prescott, e poco c'entrava il fatto che avessero ridotto la tensione di alimentazione...
L'operazione di xbitlabs è corretta, in quanto è identica per tutte le schede trattate, quindi non ci sono disparità di risultato... Così come la media. Non capisco la tua critica!
p.s. per quanto riguarda Tom's, ti ho già detto che io prendo le distanze, i risultati sono influenzati da troppi fattori per esser presi in modo assoluto. in xbitlabs non vedo x1300 che consumano come la gtx :)
MiKeLezZ
10-12-2005, 14:24
la fisica non è una opinione :) il core della 7800gtx 512 è alimentato a 1,5V a differenza dell'r520 che va a 1,3V... oltre alle ram, dato che quelle della samsung che vanno a 900mhz sono overvoltate... mi spieghi come fa a consumare meno? quella tabella è la cosa più inverosimile alla realtà che potessero fare ;)
Puntuale come un orologio svizzero, ecco arrivare il seguace...
Il mio reply vale anche per te..
Puntuale come un orologio svizzero, ecco arrivare il seguace...
Il mio reply vale anche per te..
se vabbè va :) ora non posso più rispondere alle vaccate che dici ogni volta! te l'ha detto pure yossarian che il metodo utilizzato da xbitlabs è altamente impreciso... infatti i dati prodotti sono inverosimili e completamente diversi da quelli delle mille recensioni fatte! poi se tu vuoi credere solo a quelle recensioni che vedo in svantaggio le schede ATi... beh questi sono affari tuoi, ne io ne yossarian possiamo dissuaderti dal farlo :)
MiKeLezZ
10-12-2005, 14:31
se vabbè va :) ora non posso più rispondere alle vaccate che dici ogni volta! te l'ha detto pure yossarian che il metodo utilizzato da xbitlabs è altamente impreciso... infatti i dati prodotti sono inverosimili e completamente diversi da quelli delle mille recensioni fatte!
xbitlabs attualmente è una delle poche che usa una metodologia rigorosa ed attenta, ed è una delle poche che ha persone qualificate al suo interno.
yossarian evidentemente sbaglia, o dice cose non pienamente corrette.
Te hai delle tue opinioni, o ti devi sempre basare su quelle degli altri?
Non serve che ripeti a pappagallo, il reply di yossirian l'avevo già letto..
Se vuoi entrare in discussione, quantomeno fallo con argomentazioni, non sentenze assolute, e critiche senza fondamento.
la fisica non è una opinione :)
Già, lo penso anche io
ed ora tu cominci a studiarla...
il core della 7800gtx 512 è alimentato a 1,5V a differenza dell'r520 che va a 1,3V...Se yossi avesse detto che il mondo è piatto, avresti ripetuto pure quello?oltre alle ram, dato che quelle della samsung che vanno a 900mhz sono overvoltate...xbitlabs dice questo:
1.8 volts against the RADEON X1800 XT 512MB’s 2.0 volts
La 512Mb sembra le abbia da 1,8V, mentre la XT da 2V. Undervoltate, quindi.
mi spieghi come fa a consumare meno?Quando avrai finito di studiare, credo che lo scoprirai da solo..quella tabella è la cosa più inverosimile alla realtà che potessero fare ;) Perchè? :)
xbitlabs attualmente è una delle poche che usa una metodologia rigorosa e attenta, ed è una delle poche che ha persone qualificate al suo interno
yossarian evidentemente sbaglia, o dice cose non pienamente corrette
te hai delle tue opinioni, o ti devi basare sempre su quelle degli altri?
non serve che ripeti a pappagallo, il reply di yossirian l'avevo letto..
se vuoi entrare in discussione, fallo con argomentazioni, non sentenze e critiche senza fondamento.
già, lo penso anche io
ed ora tu cominci a studiarla...
quindi, per te, xbitlabs che ha usato un metodo sperimentale nuovo per calcolare i consumi di una scheda video e che ha prodotto risultati completamente differenti dalle altre 1000 recensioni sul web... ha più credito delle altre. Bene, ho capito tutto di te :)
Saluti.
già, lo penso anche io
ed ora tu cominci a studiarla...
sono al secondo anno del corso di Fisica alla bicocca :)
MiKeLezZ
10-12-2005, 14:37
quindi, per te, xbitlabs che ha usato un metodo sperimentale nuovo per calcolare i consumi di una scheda video e che ha prodotto risultati completamente differenti dalle altre 1000 recensioni sul web... ha più credito delle altre. Bene, ho capito tutto di te :)
Saluti.
nono non salutare.. stavo cominciando a divertirmi :)
rispondi a tutto..
ma la smetti di editare che non si capisce niente?
abbiamo risposto insieme yossarian ed io! guarda l'ora del messaggio... mica ho ripetuto a pappagallo
JohnPetrucci
10-12-2005, 14:40
xbitlabs attualmente è una delle poche che usa una metodologia rigorosa e attenta, ed è una delle poche che ha persone qualificate al suo interno
Quoto e concordo. ;)
mi sembrava strano che fossero a 1,8V le ram della 7800 gtx 512mb :mbe:
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm
leggi in fondo a che voltaggio sono le ram :rolleyes: sono quelle da 900mhz
yossarian
10-12-2005, 14:55
Non basta sapere la tensione di alimentazione del core, ma è fondamentale considerare gli Ampere in gioco.
Il "current leakage" di cui tanto si è parlato, significa appunto che consuma più Ampere di quanto dovrebbe... e questo poco c'entra con la tensione di alimentazione.
nel passaggio a 0,09 le tensioni di alimentazione sono diminuite, il che significa che si è fatto scaling a campo costante (e non a tensione costante); questo riduce di gran lunga il rischio di leakage (se si rispettano i parametri, ci si può aspettare lo stesso valore ottenibile con un processo produttivo superiore).
Il fatto poi ci sia un poderoso sistema di dissipazione passivo sugli elementi elettronici di regolazione tensione (direttamente a fianco del connettore di alimentazione), significa che i valori in gioco sono un pochino superiori di quelli usuali...
se vogliamo essere pignoli, l'unico chip di fascia alta, a partire da R300 (bada bene, non R350 o successivi) in poi, che lavora con parametri entro le specifiche teoriche è R520 in versione XL. Tutti gli altri, senza esclusione, sono teoricamente fuori specifica.
La temperatura, nel caso di prima, è diminuita di solo pochi gradi, passando da quello standard allo Zalman VF-700.
Contando che il sensore del die tiene conto praticamente della sola temperatura dello stesso (poco conta la ram, che non è coperta dal dissipatore), significa che il chip, sebbene richieda un voltaggio meno elevato, è proprio la causa prima del maggior assorbimento.
non c'entra nulla; non puoi basare l'assorbimento sulla sola temperatura; se faccio passare la stessa corrente dentro due conduttori di cui uno leggermente sottodimensionato e l'altro abbondantemente sovradimensionato, il primo scalderà, il secondo no: puoi sentirti di affermare che il primo assorbe più del secondo a parità di tensione di alimentazione?
In ogni caso, il ritardo di R520 non è stato originato da problemi di leakage :)
D'altronde, i problemi di current leakage li abbiamo visti tutti anche nei Prescott, e poco c'entrava il fatto che avessero ridotto la tensione di alimentazione...
probelmi di current leakage si hanno più o meno con tutti i chip, quando si fa scaling, perchè alcune tensioni non è possibile diminuirle e questo fa crescere la densità di corrente in alcune parti del circuito, anche scalando a campo costante. Però il leakage vuol dire potenza sprecata e, quindi, per compensare, bisogna fornire più potenza, ossia, alzare la tensione di alimentazione dei circuiti. Una corrente extra, che faccia aumentare la potenza assorbita, senza variare i parametri di alimentazione, non si genera dal nulla.
L'operazione di xbitlabs è corretta, in quanto è identica per tutte le schede trattate, quindi non ci sono disparità di risultato... Così come la media. Non capisco la tua critica!
corretta formalmente, meno nella sostanza, perchè si tratta di un tipo di misura che è praticamente impossibile da fare in maniera corretta. A meno che non si disponga di un banco su cui mettere la vga, alimentarla e simulare tutte le condizioni di impiego (e non credo che xbit abbia fatto nulla del genere). Questo tipo di misura, fatto artigianalmente, può dare luogo a risultati completamente sballati, indipendenti dalla buona fede di chi esegue le misure
p.s. per quanto riguarda Tom's, ti ho già detto che io prendo le distanze, i risultati sono influenzati da troppi fattori per esser presi in modo assoluto. in xbitlabs non vedo x1300 che consumano come la gtx :)
i risultati di Tom, secondo me, sono stati distribuiti in seguito ad una riffa tra le vga presenti :D
yossarian
10-12-2005, 14:58
mi sembrava strano che fossero a 1,8V le ram della 7800 gtx 512mb :mbe:
http://www.samsung.com/Products/Semiconductor/GraphicsMemory/GDDR3SDRAM/512Mbit/K4J52324QC/K4J52324QC.htm
leggi in fondo a che voltaggio sono le ram :rolleyes: sono quelle da 900mhz
ok, perfetto; quindi il v-core delle ram per XT e GTX 512 MB è lo stesso (a meno di 0,1 V che è la tolleranza solita per questi dispositivi). Mentre, quelle della 256 MB sono da 1,8 V
ok, perfetto; quindi il v-core delle ram per XT e GTX 512 MB è lo stesso (a meno di 0,1 V che è la tolleranza solita per questi dispositivi). Mentre, quelle della 256 MB sono da 1,8 V
esatto, per dare una sorta di attendibilità ai risultati ottenuti, si sono inventati che le ram della 7800gtx 512 sono alimentate a 1,8V. Rilevazione dei consumi completamente sballata a mio avviso!
MiKeLezZ
10-12-2005, 15:07
http://www.anandtech.com/video/showdoc.aspx?i=2607&p=2
altri risultati ancora, dove la GTX sembra consumare stavolta molto più della XT
i risultati di xbitlabs è probabile allora siano stati sfalsati, come ha detto overclock poco più sopra, dal fatto che si siano limitati a guardare l'assorbimento DAL connettore di alimentazione, tralasciando la potenza che probabilmente hanno assorbito in più dal bus PCI-E
il voltaggio di RAM è identico, 1,8V sarà la versione 256MB
ma la misurazione del sistema intero può comunque portare errori di precisione notevoli.. (7800GTX consuma meno della 6800GT?..)
yossarian
10-12-2005, 15:09
esatto, per dare una sorta di attendibilità ai risultati ottenuti, si sono inventati che le ram della 7800gtx 512 sono alimentate a 1,8V. Rilevazione dei consumi completamente sballata a mio avviso!
che fossero a 1,8 era impossibile; la tecnologia è la stessa e il quantitativo pure; semmai potevano, al limite, essere leggermente overvoltate per reggere frequenze più alte (sempre ento i limiti di tolleranza, ovviamente).
Comunque, xbìt, con le ram, ogni tanto fa qualche vaccata (vedi quella della rece di NV30 in cui scambiò il valore della tensione di alimentazione con il timing delle ram) :D
http://www.anandtech.com/video/showdoc.aspx?i=2607&p=2
altri risultati ancora, dove la GTX sembra consumare stavolta molto più della XT
i risultati di xbitlabs è probabile allora siano stati sfalsati, come ha detto overclock poco più sopra, dal fatto che si siano limitati a guardare l'assorbimento DAL connettore di alimentazione, tralasciando la potenza che probabilmente hanno assorbito in più dal bus PCI-E
il voltaggio di RAM è identico, 1,8V sarà la versione 256MB
ma la misurazione del sistema intero può comunque portare errori di precisione notevoli..
eh finalmente te ne sei accorto :D da mezz'ora che te lo diciamo ;)
che fossero a 1,8 era impossibile; la tecnologia è la stessa e il quantitativo pure; semmai potevano, al limite, essere leggermente overvoltate per reggere frequenze più alte (sempre ento i limiti di tolleranza, ovviamente).
Comunque, xbìt, con le ram, ogni tanto fa qualche vaccata (vedi quella della rece di NV30 in cui scambiò il valore della tensione di alimentazione con il timing delle ram)
ti giuro quando ce l'ha detto mike che andavano a 1,8V mi son detto: "ma sono impazziti in canada? mettono delle ram con voltaggio superiore ma con frequenze inferiori? :mbe: " eehehe :sofico:
yossarian
10-12-2005, 15:14
http://www.anandtech.com/video/showdoc.aspx?i=2607&p=2
altri risultati ancora, dove la gtx sembra consuma stavolta molto più della XT
i risultati di xbitlabs è probabile allora siano stati sfalsati, come ha detto overclock poco più sopra, dal fatto che si siano limitati a guardare l'assorbimento DAL connettore di alimentazione, tralasciando la potenza che probabilmente hanno assorbito in più dal bus PCI-E
ma la misurazione del sistema intero può comunque portare errori di precisione notevoli..
te l'ho detto; comunque la giri, qualunque forma di misurazione può portare a risultati sballati. L'unica attendibile sarebbe quella fatta su un banco di prova, con al sola vga e con apparecchiature in grado di riproporre tutte le condizioni di impiego.
Diciamo che, quelle delle varie rece, possono essere prese con il beneficio del dubbio, facendo sempre valutazioni con la propria testa e basandosi su vari fattori (tensioni di alimentazione, quantitativo e tipologia delle ram, ecc).
Certo, purtroppo non tutti sono in grado di farle e, in tal caso, i risultati delle rece possono fornire indicazioni qualitative (più che quantitative); però vale sempre la pena di guardarne più di una.
Si, 1,8 è per la versione a 256 MB
MiKeLezZ
10-12-2005, 15:24
se vogliamo essere pignoli, l'unico chip di fascia alta, a partire da R300 (bada bene, non R350 o successivi) in poi, che lavora con parametri entro le specifiche teoriche è R520 in versione XL. Tutti gli altri, senza esclusione, sono teoricamente fuori specifica.
che specifiche..?
non c'entra nulla; non puoi basare l'assorbimento sulla sola temperaturacalore è Joule, Joule su secondo, sono Watt, e questa è potenza
certo che posso... il problema è farlo in modo rigoroso e corretto
se faccio passare la stessa corrente dentro due conduttori di cui uno leggermente sottodimensionato e l'altro abbondantemente sovradimensionato, il primo scalderà, il secondo no
questo perchè hanno parametri resistivi diversi... ma la corrente in gioco non sparisce; se ne circola 100, questa quantità devo ritrovarla in calore (ed emissioni elettromagnetiche).
puoi sentirti di affermare che il primo assorbe più del secondo a parità di tensione di alimentazione?hai detto che la corrente è la stessa, la tensione è la stessa, assorbono uguale
ma forse ho capito male io l'esempio...
corretta formalmente, meno nella sostanza, perchè si tratta di un tipo di misura che è praticamente impossibile da fare in maniera corretta. A meno che non si disponga di un banco su cui mettere la vga, alimentarla e simulare tutte le condizioni di impiego (e non credo che xbit abbia fatto nulla del genere). Questo tipo di misura, fatto artigianalmente, può dare luogo a risultati completamente sballati, indipendenti dalla buona fede di chi esegue le misureio credo abbiamo messo su un banchetto di test, inserito i famosi shunt nel connettore ausiliaro di alimentazione, e calcolato l'assorbimento mediandolo da qualche misura con il multimetro
non mi sembra sbagliato, se non fosse per l'assorbimento dal PCI-E.. più preciso di chi infila un wattometro sulla presa di corrente, ma evidentemente non altrettanto affidabile
ti giuro quando ce l'ha detto mike che andavano a 1,8V mi son detto: "ma sono impazziti in canada? mettono delle ram con voltaggio superiore ma con frequenze inferiori? :mbe: " eehehe :sofico:
ambasciator non porta pena :P
l'han detto loro :D
sai cosa può essere mike? che la x1800xt assorba più corrente dal molex che dalla connessione pci-e... la 7800, invece, assorbe più corrente dal pci-e rispetto alla x1800. Ecco, magari, una spiegazione a quelle misurazioni sfalsate. :)
MiKeLezZ
10-12-2005, 15:27
sai cosa può essere mike? che la x1800xt assorba più corrente dal molex che dalla connessione pci-e... la 7800, invece, assorbe più corrente dal pci-e rispetto alla x1800. Ecco, magari, una spiegazione a quelle misurazioni sfalsate. :)
sì.. esatto.. quello che dico anche io
sì.. esatto.. quello che dico anche io
ecco dopo le botte... la pace :sofico: son fatto così :D
MiKeLezZ
10-12-2005, 15:43
Il mistero si infittisce..
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html
Quelli di xbitlabs paventano una metodologia di test che esattamente combacia con quella auspica da yossirian..
Banchetto di prova con scheda madre modificata, dove è possibile misurare non solo l'assorbimento derivante dal connettore di alimentazione, ma anche quello del bus PCI-E, sia sui 3,3V che sui 5V.
A questo link trovate gli antefatti (immagini comprese..), con l'approfondimento sulla metodologia.. che è rimasta la stessa fino ad ora:
http://www.xbitlabs.com/articles/video/display/ati-powercons.html
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html
A questi punti devo rimangiarmi anche le critiche alla presunta incompletezza dei loro test...
Il mistero si infittisce..
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html
Quelli di xbitlabs paventano una metodologia di test che esattamente combacia con quella auspica da yossirian..
Banchetto di prova con scheda madre modificata, dove è possibile misurare non solo l'assorbimento derivante dal connettore di alimentazione, ma anche quello del bus PCI-E, sia sui 3,3V che sui 5V.
A questo link trovate l'antefatto, con l'approfondimento sulla metodologia.. che è rimasta la stessa fino ad ora:
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html
A questi punti devo rimangiarmi anche le critiche alla presunta incompletezza dei loro test...
si ok :) ma stiamo parlando di una scheda con 256mb a 1,8V nelle ram e 1,4V nel core. La x1800xt ha 1,3V sul core, 512mb di ram a 2,0V
mi sembra più che logico che consumi meno. Stavamo discutendo della versione a 512mb della gtx!
yossarian
10-12-2005, 15:52
che specifiche..?
esistono specifiche tabelle che riportano i parametri da rispettare in caso di scaling a campo o a tensione costante.
Ad esempio, relativamente alle tensioni di alimentazione del chip, un processo a 0,11 prevede 1,3 V e uno a 0,09 ne prevede 1,1.
NV40 e R4x0 lavorano a 1,5, G70 a 1,4, la versione a 512 MB a 1,5 e la XT a 1,3 ( ma è a 0,09). Per fortuna, questi valori non sono invalicabili ma servono solo a evitare di avere spiacevoli sorprese nelle operazioni di scaling.
calore è Joule, Joule su secondo, sono Watt, e questa è potenza
certo che posso... il problema è farlo in modo rigoroso e corretto
infatti; hai centrato il punto; dovresti essere in grado di farlo in modo rigoroso e corretto. Comunque, anche epr quello ci sono formuie apposite per il calcolo del power leakage, sia a livello di architettura, sia a livello di transistor che di gate (e ti assicuro che si tratta di calcoli che vengono sempre eseguiti quando si fa scaling, anche perchè il leakage aumenta col diminure delle dimensioni del canale source-rìdrain e con il diminuire della tensione di soglia, quindi è qualcosa di fisiologicamente legato ai processi di scaling).
che specifiche..?
questo perchè hanno parametri resistivi diversi... ma la corrente in gioco non sparisce; se ne circola 100, questa quantità devo ritrovarla in calore (ed emissioni elettromagnetiche).
hai detto che la corrente è la stessa, la tensione è la stessa, assorbono uguale
ma forse ho capito male io l'esempio...
no, l'esempio lo hai capito bene; era solo per puntualizzare il fatto che maggior produzione di calore (maggior dispersione di potenza utile non equivale necessariamente a maggior assorbimento di corrente: dipende tutto da quelle che sono le richieste dell'utilizzatore. Se queste sono soddisfatte dalla potenza trasferita, anche tenendo conto delle dispersioni termiche, non si ha affatto un aumento del valore di W.
Inoltre, bisogna vedere questi sensori di temperatura dove sono posizionati (non tutti i circuiti interni sono alimentati allo stesso modo e non tutti hanno le stesse caratteristiche fisiche). A rigor di logica, dovrebbero trovarsi nei punti piùà a rischio (ossia in quelli dove la temperatura sale più facilmente); ma la distribuzione delle temperature, all'interno di un chip, soprattutto quando questo è molto complesso, è tutt'altro che omogenea. Questo significa che anche o fenomeni di dispersione di tipo termico, potrebbero essere limitati ad aree molto ristrette.
che specifiche..?
io credo abbiamo messo su un banchetto di test, inserito i famosi shunt nel connettore ausiliaro di alimentazione, e calcolato l'assorbimento mediandolo da qualche misura con il multimetro
non mi sembra sbagliato, se non fosse per l'assorbimento dal PCI-E.. più preciso di chi infila un wattometro sulla presa di corrente, ma evidentemente non altrettanto affidabile
forse hanno fatto così, o forse si sono semplicemente limitati a mettere una pinza amperometrica attorno al cavetto di alimentazione.
In ogni caso, non mi sembra il massimo dell'affidabilità (senza tener conto del fatto che si sarebbero scordati il pci-x)
MiKeLezZ
10-12-2005, 15:57
forse hanno fatto così, o forse si sono semplicemente limitati a mettere una pinza amperometrica attorno al cavetto di alimentazione.
In ogni caso, non mi sembra il massimo dell'affidabilità (senza tener conto del fatto che si sarebbero scordati il pci-x)
mi sa che sbagliavamo entrambi.. leggi sopra..
si ok :) ma stiamo parlando di una scheda con 256mb a 1,8V nelle ram e 1,4V nel core. La x1800xt ha 1,3V sul core, 512mb di ram a 2,0V
mi sembra più che logico che consumi meno. Stavamo discutendo della versione a 512mb della gtx!
?
a me queste cose non sembrano logiche affatto, visto che manca l'assorbimento di ampere, che è l'unica vera cosa importante
il discorso che fai te, è giusto a parità di componenti
cioè, con quelle famose RAM samsung, se le uso a 1,8V ho un dato assorbimento, se le uso a 2V, ne ho uno maggiore
ma se uso delle ram di marca diversa, non è detto a 1,8V abbia lo stesso assorbimento
appunto perchè è incognito l'assorbimento di corrente..
mi sa che sbagliavamo entrambi.. leggi sopra..
?
a me queste cose non sembrano logiche affatto, visto che manca l'assorbimento di ampere, che è l'unica vera cosa importante
il discorso che fai te, è giusto a parità di componenti
cioè, con quelle famose RAM samsung, se le uso a 1,8V ho un dato assorbimento, se le uso a 2V, ne ho uno maggiore
ma se uso delle ram di marca diversa, non è detto a 1,8V abbia lo stesso assorbimento
appunto perchè è incognito l'assorbimento di corrente..
le ram sono tutte samsung... dello stesso tipo! sia le geforce che le radeon montano chip samsung. Non si scappa da sta cosa! Quindi per forza di logica la Geforce 7800gtx 256mb consuma di meno della Radeon x1800xt 512mb
MiKeLezZ
10-12-2005, 16:04
le ram sono tutte samsung... dello stesso tipo! sia le geforce che le radeon montano chip samsung. Non si scappa da sta cosa! Quindi per forza di logica la Geforce 7800gtx 256mb consuma di meno della Radeon x1800xt 512mb
sì.. ma non ti seguo..
non stavamo parlando della presunta fallacità del testbed xbitlabs?
ora che abbiam visto che non è così.. che famo..
sì.. ma non ti seguo..
non stavamo parlando della presunta fallacità del testbed xbitlabs?
ora che abbiam visto che non è così.. che famo..
che rimane fallata la rilevazione! tutto qui! parità di ram, di voltaggio nelle ram (che sono dello stesso tipo), ma con voltaggi nel core diversi (1,5V per la gtx mentre 1,3 per la x1800) non può essere che la x1800 consumi di più. Si saranno dimenticati qualche linea di alimentazione del pci-e oppure la rilevazione del molex è sballata! Anche nelle mille recensioni con il consumo totale del sistema dicono che la gtx a 512mb consuma più della x1800
yossarian
10-12-2005, 16:18
Il mistero si infittisce..
http://www.xbitlabs.com/articles/video/display/radeon-x1000_14.html
Quelli di xbitlabs paventano una metodologia di test che esattamente combacia con quella auspica da yossirian..
Banchetto di prova con scheda madre modificata, dove è possibile misurare non solo l'assorbimento derivante dal connettore di alimentazione, ma anche quello del bus PCI-E, sia sui 3,3V che sui 5V.
A questo link trovate gli antefatti (immagini comprese..), con l'approfondimento sulla metodologia.. che è rimasta la stessa fino ad ora:
http://www.xbitlabs.com/articles/video/display/ati-powercons.html
http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power.html
A questi punti devo rimangiarmi anche le critiche alla presunta incompletezza dei loro test...
ti riporto le conclusione del tester
RADEON X1800 XT consumes almost twice as much power as RADEON X1800 XL. Moreover, this graphic adapter beat all the records for the single graphics cards and even exceeded the power consumption of the 24 pipeline GeForce 7800 GTX! Of course, the higher clock frequency and complexity of the new chip played an important role here. But I can also suppose that the main contribution to this sky-high power consumption rate of the new RADEON X1800 XT was made by the 512MB of memory working at 750 (1500) MHz with 2.0V voltage.
ti riporto anche il risultato di due test fatti sula stessa vga (6800 Ultra), da xbit.
a 400/1100, 77,3 nella recensione di R520, 72,08 in quella in cui si comparavano i chip ATi e nVIDIA (con un incremento di oltre il 7%).
Per quanto apparentemente corretto il metodo di misura, abbiamo valori differenti. I casi sono due: o non è, nonostante tutto, molto affidabile, oppure le potenze assorbite sono piuttosto ballerine (e magari cambiano da una vga all'altra).
Inoltre, le ram della GTX 512 MB sono uguali, come specifiche tecniche, a quelle della X1800XT (e ricordo che lo stesso sperimentatore attribuisce l'elevato assorbimento della XT, rispetto alla XL, proprio alle ram).
altro confronto degno di nota: prendi la GTX 512 MB o/c 600/1800.
tra la XT e la XL abbiamo: +256 MB di ram, +125 Mhz (core), +500 Mhz ram, +0,2 V sul core, +0,2 V sulle ram, +53 W assorbiti
tra la GTX 512 MB o/c e la GTX 256 MB abbiamo: +256 MB di ram (identica a quella delle GTX come parametri tensione/corrente), +170 Mhz core, +400 Mhz ram, +0,1 V sul core, +0,2 V sulle ram, + 27,1 W assorbiti.
messa così, sembrerebbe che la ram, che farebbe aumentare a dismisura il consumo della 1800XT (secondo quelli di xbit), non influisca su quello della GTX 512 MB che, in versione standard, consuma poco più di una 256 standard.
MiKeLezZ
10-12-2005, 16:37
ti riporto le conclusione del tester
RADEON X1800 XT consumes almost twice as much power as RADEON X1800 XL. Moreover, this graphic adapter beat all the records for the single graphics cards and even exceeded the power consumption of the 24 pipeline GeForce 7800 GTX! Of course, the higher clock frequency and complexity of the new chip played an important role here. But I can also suppose that the main contribution to this sky-high power consumption rate of the new RADEON X1800 XT was made by the 512MB of memory working at 750 (1500) MHz with 2.0V voltage.
ti riporto anche il risultato di due test fatti sula stessa vga (6800 Ultra), da xbit.
a 400/1100, 77,3 nella recensione di R520, 72,08 in quella in cui si comparavano i chip ATi e nVIDIA (con un incremento di oltre il 7%).
Per quanto apparentemente corretto il metodo di misura, abbiamo valori differenti. I casi sono due: o non è, nonostante tutto, molto affidabile, oppure le potenze assorbite sono piuttosto ballerine (e magari cambiano da una vga all'altra).
Inoltre, le ram della GTX 512 MB sono uguali, come specifiche tecniche, a quelle della X1800XT (e ricordo che lo stesso sperimentatore attribuisce l'elevato assorbimento della XT, rispetto alla XL, proprio alle ram).
Guarda, è semplice, è cambiata la metodologia di test, e l'han scritto.
Il primo roundup nvidia-ati è stato fatto con questa premessa:
The Burn mode used a scene from Far Cry in 1600x1200 resolution with forced 4x full-screen antialiasing and 16x anisotropic filtering (8x on GeForce FX family cards). On the Training level, near the hut with the binoculars, I saved the game and used this save with all the graphics cards to create the identical test conditions.
Il che significa che ha usato una scena 3D fissa (per evitare errori di differente distribuzione di carico). Inoltre è stato segnalato che c'erano differenze sostanziali fra i vari giochi, e Far Cry è risultato il miglior compromesso (quindi non va presa come misurazione assoluta, si son viste differenze di misurazione, al variare dell'applicazione).
I also ruminated on the idea of using 3DMark 2001, 3DMark03, Unreal Tournament 2004 or “IL-2: Sturmovik” for the tests in the Burn mode, but the scene from Far Cry proved to be the heaviest of all for the graphics cards.
Mentre poi, quando è uscita la nuova serie x1x00 ha evidentemente pensato che quel test fosse troppo limitante (oltre che obsoleto..), infatti l'ha cambiato in:
To create realistic testing conditions we used the game 3 benchmark from 3DMark05 test suite run in 1600x1200 resolution with enabled FSAA 4x and AF 16x. This test loads the pixel processors really heavily that is why in this test the graphics accelerator works in conditions close to those in many contemporary games. So, the results of our measurements were close to real life, too.
Concetto che viene ribadito nell'altra recensione:
The graphics card was put to test by running the third 3DMark05 subtest in a loop in 1600x1200 resolution with enabled 4x FSAA and 16x AF.
Che, non essendo limitato a una scena 3D fissa, stressa evidentemente molto di più la VGA. Ecco spiegati quella manciata (comunque, davvero pochi in percentuale) di W in più.
Inoltre, all'epoca della prima recensione, il 3DMark2005 ancora non c'era!
I valori concidono.. il test è concreto.. e non vedo alcuna contraddizione (anzi.. hanno cercato di migliorare la qualità dei test.. e persone che fanno test come questi, con questa cura, secondo me sono davvero da lodare).
altro confronto degno di nota: prendi la GTX 512 MB o/c 600/1800.
tra la XT e la XL abbiamo: +256 MB di ram, +125 Mhz (core), +500 Mhz ram, +0,2 V sul core, +0,2 V sulle ram, +53 W assorbiti
tra la GTX 512 MB o/c e la GTX 256 MB abbiamo: +256 MB di ram (identica a quella delle GTX come parametri tensione/corrente), +170 Mhz core, +400 Mhz ram, +0,1 V sul core, +0,2 V sulle ram, + 27,1 W assorbiti.
messa così, sembrerebbe che la ram, che farebbe aumentare a dismisura il consumo della 1800XT (secondo quelli di xbit), non influisca su quello della GTX 512 MB che, in versione standard, consuma poco più di una 256 standard.Quelli di xbit hanno solo cercato di dare spiegazione al fenomeno che hanno riscontrato... come uno scienziato fa di fronte a risultati sperimentali! La loro ipotesi è da prender giustamente con le pinze.
Io, più che per la RAM (che abbiamo verificato sia identica per entrambi i modelli), sono convinto che la colpa sia della VPU, e del current leakage (ammesso implicitamente da ATI stessa, infatti nella recensione di x1600xt si parla di doppia alimentazione inversa, per limitarne il fenomeno).
Ma, se la prova della temperatura per te non è valida (in effetti ci vorrebbe una metodologia di test identica per entrambe, stesso sensore, stesso posizionamento), proviamo ad andare ad analogie:
nei PC la CPU assorbe circa 80W, mentre 2 banchi di RAM assorbono tutt'alpiù 20W (e si parla di vecchie DDR alimentate a 2,8V), abbiamo quindi un rapporto 4:1.
Mi sembra paradossale pensare che nelle VGA questo rapporto venga stravolto, significherebbe che le RAM assorbono 80W, e la CPU 20W, completamente illogico :D In pratica non alimentiamo la VGA, ma le sue RAM :D
Se poi andiamo a vedere i modelli di VGA inferiori, dotati, per motivi di marketing, di 256MB di RAM, si vede che i consumi non sono mai elevati, anche rispetto a soluzioni analoghe da 128MB, segno che questo componente non sia così determinante.
Quindi, è vero che da 256MB a 512MB c'è quasi un raddoppio, ed è giusto metterlo in conto, però il raddoppio avviene sul 4:1, che diventerà un 4:2, cioè, nel nostro esempio, da 100W si arriverà a 120W, nulla che faccia gridare allo scandalo...
I motivi quindi sono altri.. e, se non è zuppa (RAM), è pan bagnato (VPU), c'è poco da fare.
Al limite potremmo, come già detto, considerare anche il circuito di alimentazione on-board, se ha un vistoso dissipatore, significa che deve smaltire tanti W (più della controparte nvidia), e anche quello è un componente parassita che succhia energia.. (possiamo farci, in piccolo, lo stesso ragionamento di efficienza che facciamo con gli alimentatori).
yossarian
10-12-2005, 17:19
Guarda, è semplice, è cambiata la metodologia di test, e l'han scritto.
Il primo roundup nvidia-ati è stato fatto con questa premessa:
The Burn mode used a scene from Far Cry in 1600x1200 resolution with forced 4x full-screen antialiasing and 16x anisotropic filtering (8x on GeForce FX family cards). On the Training level, near the hut with the binoculars, I saved the game and used this save with all the graphics cards to create the identical test conditions.
Il che significa che ha usato una scena 3D fissa (per evitare errori di differente distribuzione di carico). Inoltre è stato segnalato che c'erano differenze sostanziali fra i vari giochi, e Far Cry è risultato il miglior compromesso (quindi non va presa come misurazione assoluta, si son viste differenze di misurazione, al variare dell'applicazione).
I also ruminated on the idea of using 3DMark 2001, 3DMark03, Unreal Tournament 2004 or “IL-2: Sturmovik” for the tests in the Burn mode, but the scene from Far Cry proved to be the heaviest of all for the graphics cards.
Mentre poi, quando è uscita la nuova serie x1x00 ha evidentemente pensato che quel test fosse troppo limitante (oltre che obsoleto..), infatti l'ha cambiato in:
To create realistic testing conditions we used the game 3 benchmark from 3DMark05 test suite run in 1600x1200 resolution with enabled FSAA 4x and AF 16x. This test loads the pixel processors really heavily that is why in this test the graphics accelerator works in conditions close to those in many contemporary games. So, the results of our measurements were close to real life, too.
Concetto che viene ribadito nell'altra recensione:
The graphics card was put to test by running the third 3DMark05 subtest in a loop in 1600x1200 resolution with enabled 4x FSAA and 16x AF.
Che, non essendo limitato a una scena 3D fissa, stressa evidentemente molto di più la VGA. Ecco spiegati quella manciata (comunque, davvero pochi in percentuale) di W in più.
Inoltre, all'epoca della prima recensione, il 3DMark2005 ancora non c'era!
I valori concidono.. il test è concreto.. e non vedo alcuna contraddizione (anzi.. hanno cercato di migliorare la qualità dei test.. e persone che fanno test come questi, con questa cura, secondo me sono davvero da lodare).
Quelli di xbit hanno solo cercato di dare spiegazione al fenomeno che hanno riscontrato... come uno scienziato fa di fronte a risultati sperimentali! La loro ipotesi è da prender giustamente con le pinze.
Io, più che per la RAM (che abbiamo verificato sia identica per entrambi i modelli), sono convinto che la colpa sia della VPU, e del current leakage (ammesso implicitamente da ATI stessa, infatti nella recensione di x1600xt si parla di doppia alimentazione inversa, per limitarne il fenomeno).
Ma, se la prova della temperatura per te non è valida (in effetti ci vorrebbe una metodologia di test identica per entrambe, stesso sensore, stesso posizionamento), proviamo ad andare ad analogie:
nei PC la CPU assorbe circa 80W, mentre 2 banchi di RAM assorbono tutt'alpiù 20W (e si parla di vecchie DDR alimentate a 2,8V), abbiamo quindi un rapporto 4:1.
Mi sembra paradossale pensare che nelle VGA questo rapporto venga stravolto, significherebbe che le RAM assorbono 80W, e la CPU 20W, completamente illogico :D In pratica non alimentiamo la VGA, ma le sue RAM :D
Se poi andiamo a vedere i modelli di VGA inferiori, dotati, per motivi di marketing, di 256MB di RAM, si vede che i consumi non sono mai elevati, anche rispetto a soluzioni analoghe da 128MB, segno che questo componente non sia così determinante.
Quindi, è vero che da 256MB a 512MB c'è quasi un raddoppio, ed è giusto metterlo in conto, però il raddoppio avviene sul 4:1, che diventerà un 4:2, cioè, nel nostro esempio, da 100W si arriverà a 120W, nulla che faccia gridare allo scandalo...
I motivi quindi sono altri.. e, se non è zuppa (RAM), è pan bagnato (VPU), c'è poco da fare.
Al limite potremmo, come già detto, considerare anche il circuito di alimentazione on-board, se ha un vistoso dissipatore, significa che deve smaltire tanti W (più della controparte nvidia), e anche quello è un componente parassita che succhia energia.. (possiamo farci, in piccolo, lo stesso ragionamento di efficienza che facciamo con gli alimentatori).
ok, facciamo finta di prendere per buoni i valori di xbit.
La 256 MB, con ram da 1,8 e v-core da 1,4, consuma 80,7 W; la 512 MB, con ram da 2,0, v-core da 1,5 e 550 Mhz (120 in più), consuma "solo" 14 W in più. Aumentando di 50 Mhz la frequenza della sola gpu, sia arriva a consumare altri 13,1 W (quasi quanti se ne consumano aumentando il core di 120 Mhz e di 0,1 V e raddoppiando la ram). Anche volendo ammettere per buone le tue stime su ram di sistema e cpu, un raddoppio della ram avrebbe dovuto, da sola, incidere per 1/4 sull'assorbimento totale (ossia, 16 W su 80; fosse pure un 10%, si potrebbe pensare ad almeno 8 W in più da imputare alla sola ram; e la gpu? Tra l'altro, ti faccio notare che oltre ad essere raddoppiato il quantitativo è aumentata anche la tensione di alimentazione); cosa che non si è verificata affatto.
Si dovrebbe supporre che nVIDIA abbia fatto un miracolo, riuscendo a ridurre i consumi al punto da "ammortizzare" l'aumento dovuto alla ram? Allora perchè è stato aumentato il v-core della gpu? E per quale motivo i chip da 550 Mhz si trovano con il contagocce? E perchè la stessa nVIDIA ha ammesso di non poterne produrre in volumi elevati?
Se vuoi credere ai miracoli fai pure; quando vedrò quelli di xbit fare misure davanti ai miei occhi e potrò verificare la veridicità delle loro affermazioni, allora crederò ai miracoli.
Per quanto riguarda le loro spiegazioni, sia quella del quantitativo di ram che quella delle ram a 1,8 V della 512 MB (smentita dalla stessa Samsung), mi sembrano altrettante arrampicate sugli specchi. :D
yoss, facessima mai un intervento a sfavore di ATI
MiKeLezZ
10-12-2005, 17:50
ok, facciamo finta di prendere per buoni i valori di xbit.
La 256 MB, con ram da 1,8 e v-core da 1,4, consuma 80,7 W; la 512 MB, con ram da 2,0, v-core da 1,5 e 550 Mhz (120 in più), consuma "solo" 14 W in più.
Potremmo dire che il raddoppio di ram aggiunge 11W, il che è plausibile.. e la maggior tensione sulla VPU aggiunge 4W, e anche qua i conti tornano:
se infatti ammettiamo che degli 80W, 11W siano dedicati alla RAM, 3W dedicati al PCB, e i restanti 66W dedicati alla VPU, possiamo fare il calcolo
66\1,4=47A
47*1,5=70W
Quindi, sommiamo 22W+3W+70W, otteniamo 94W, cioè effettivamente quanto misurato con la GTX 512MB...
Aumentando di 50 Mhz la frequenza della sola gpu, sia arriva a consumare altri 13,1 W (quasi quanti se ne consumano aumentando il core di 120 Mhz e di 0,1 V e raddoppiando la ram).Sì, ma nvidia è riuscita a raggiungere questi OC anche grazie ad un chip rivisto, quindi non è corretto pensarlo come un GTX "overvoltato". Consideriamo i MHz "in più" come gratis, ma teniamo conto della tensione maggiorata.
Anche volendo ammettere per buone le tue stime su ram di sistema e cpu, un raddoppio della ram avrebbe dovuto, da sola, incidere per 1/4 sull'assorbimento totale (ossia, 16 W su 80; fosse pure un 10%, si potrebbe pensare ad almeno 8 W in più da imputare alla sola ramSì!
e la gpu? Si dovrebbe supporre che nVIDIA abbia fatto un miracolo, riuscendo a ridurre i consumi al punto da "ammortizzare" l'aumento dovuto alla ram?In effetti.. sarebbe questa l'idea..
Allora perchè è stato aumentato il v-core della gpu?Non so.. :(
E per quale motivo i chip da 550 Mhz si trovano con il contagocce?Non so.. :( E perchè la stessa nVIDIA ha ammesso di non poterne produrre in volumi elevati?Non so.. :(
Le circostanze farebbero pensare a una GTX overvoltata, ma mi pare strano che dopo così tanti mesi, non siano riusciti ad aumentare la qualità dei chip...
La mia GT arriva pur sempre a 500Mhz...
E quello 0,1V potrebbe non esser necessario, ma solo un valore di sicurezza (visto che riprende il progetto G70, non si è pensato difare tutto da capo i calcoli).
Il chip shortage potrebbe esser dovuto sia a una politica di nvidia (non ha senso dare larghi volumi di schede high-end, queste schede, devono esser elitarie), per alzare i prezzi o.. effettivamente incapacità produttiva (se davvero sono chip "di qualità", più di tanti non possono uscirne).
Bho, non saprei davvero.
Per quanto riguarda le loro spiegazioni, sia quella del quantitativo di ram che quella delle ram a 1,8 V della 512 MB (smentita dalla stessa Samsung), mi sembrano altrettante arrampicate sugli specchi. :D
Questo, sì..
yossarian
10-12-2005, 17:51
yoss, facessima mai un intervento a sfavore di ATI
se vuoi te lo faccio
la X1600 non è un chip da fascia media :D
yoss, facessima mai un intervento a sfavore di ATI
perchè trovi qualcosa di errato nel suo ragionamento?
yoss... fai così... spara un bel "NVIDIA RULEZ!!! ATI SUCKS!!!" così sono tutti contenti :stordita:
yossarian
10-12-2005, 18:21
Potremmo dire che il raddoppio di ram aggiunge 11W, il che è plausibile.. e la maggior tensione sulla VPU aggiunge 4W, e anche qua i conti tornano:
se infatti ammettiamo che degli 80W, 11W siano dedicati alla RAM, 3W dedicati al PCB, e i restanti 66W dedicati alla VPU, possiamo fare il calcolo
66\1,4=47A
47*1,5=70W
Quindi, sommiamo 22W+3W+70W, otteniamo 94W, cioè effettivamente quanto misurato con la GTX 512MB...
Sì, ma nvidia è riuscita a raggiungere questi OC anche grazie ad un chip rivisto, quindi non è corretto pensarlo come un GTX "overvoltato". Consideriamo i MHz "in più" come gratis, ma teniamo conto della tensione maggiorata.
Sì!
In effetti.. sarebbe questa l'idea..
Non so.. :(
Non so.. :( Non so.. :(
Le circostanze farebbero pensare a una GTX overvoltata, ma mi pare strano che dopo così tanti mesi, non siano riusciti ad aumentare la qualità dei chip...
La mia GT arriva pur sempre a 500Mhz...
E quello 0,1V potrebbe non esser necessario, ma solo un valore di sicurezza (visto che riprende il progetto G70, non si è pensato difare tutto da capo i calcoli).
Il chip shortage potrebbe esser dovuto sia a una politica di nvidia (non ha senso dare larghi volumi di schede high-end, queste schede, devono esser elitarie), per alzare i prezzi o.. effettivamente incapacità produttiva (se davvero sono chip "di qualità", più di tanti non possono uscirne).
Bho, non saprei davvero.
comincio dalla fina: il motivo è essenzialmente uno: si tratta dei chip usciti pressochè perfetti, il che riduce il loro numero in maniera consideravole. Prprio per questo motivo, c'è la possibilità di farli funzionare oltre le specifiche, sia per quanto riguarda le tensioni di alimentazione che le frequenze di default (ed è uno dei motivi per cui no dò credito alla voce sulla presunta bassa durata dei chip delle 512 MB, comparsa qualche tempo fa).
Per portare le frequenze a 550 Mhz, è stato rivisto il package e il pcb, ma da qui a dire che è stato possibile un miracolo, ce ne corre.
Quei consumi riportati da xbit, secondo me, sono poco credibili proprio perchè, da qualunque lato la si guardi, che sia la ram, o il chip, 14 W di differenza tra la versione a 256 MB e quella a 512 Mb sono troppo pochi o, se vuoi, 13,1 W per un semplice o/c di 50 Mhz sìul core, senza overvolt, sono troppi.
Il power leakage, che potrebbe essere tirato in ballo in questo caso, non dipende dalla frequenza (non direttamente, almeno), ma dalle variazioni di temperatura e dalle tensioni di soglia, a parità di processo produttivo. Però, se analizziamo un chip nel suo complesso, possiamo parlare di variazioni di qualche W a fronte di variazioni percentuali della temperatura molto più elevate, anche se l'andamento è esponenziale (seppure non in base e); per aumenti del 15-20% della temperatura, possiamo avere aumenti di poco superiori al watt (le variazioni vanno con la differenza di temperatura).
Tra l'altro, l'allarme nei confronti del current leakage non è dovuto all'aumento dei consumi, ma al fatto che, al di sopra di una certa soglia, nel tempo si può avere il danneggiamento permanente del dispositivo; per questo motivo si tende a tenerlo il più possibile sotto controllo e entro certi limiti.
Fatta questa premessa, torno alla GTX 512 MB, per dire che l'aumento di 13 W per soli 50 Mhz (e bisogna veder in quanti °C ciò si traduce), non sono affatto giustificabili e, in conclusione, ritengo quelle misure poco attendibili.
Il tuo ragionamento per arrivare al consumo della 512 MB partebdo da quello della 256, potrebbe anche essere corretto, se teniamo conto di tutte le ottimizzazioni fatte (mi sto tenendo largo); però non giustifica l'aumento di 13 W per l'o/c del core della 512 MB.
Di certo abbiamo solo che i chip NV hanno un consumo medio inferiore, soprattutto grazie al fatto che in 2D si abbassa il v-core e alcuni circuiti vengono disattivati (soluzione che sui chip ATi manca completamente).
E' attendibile la valutazione qualitativa nel confronto tra GTX 256 MB e X1800XT (la prima consuma meno). Resto perplesso di fronte ai dati relativi alla GTX 512 MB. Perplessità confermata anche dalle altre rece (mentre al contrario, tutte danno la 256 MB come meno esosa rispetto alla 1800 XT).
La 512 MB è stata prodotta principalmente per permettere a nVIDIA di riprendersi lo scettro del chip più veloce (ed è servita al suo scopo). Non c'era alcuna intenzione (né possiiblità) di produrla in volumi elevati. Il tutto in attesa della versione a 0,09, che permetterà di salire ancora in frequenza.
yossarian
10-12-2005, 18:32
yoss, facessima mai un intervento a sfavore di ATI
battute a parte, a sfavore di ATi si potrebbero dire tante cose.
Ad iniziare dalla politica commerciale della precedente generazione che ha concentrato tutto sulla fascia alta (con la serie X800XT piuttosto difficile da reperire, tra l'altro) lasciando completamente scoperte la altre, con la 6600GT e la 6800GT che l'hanno fatta da padrone per circa un anno e con la 6600 e la 6200 che erano, comunque, migliori della controparte.
Adesso sta ripetendo gli stessi errori presentando un chip di fascia alta (R520) e due chip che sono, a tutti gli effetti, di fascia bassa (anche se la X1600 è spacciata per fascia media, è, in realtà, il modello entry level della famiglia di cui fa parte R580).
Ora, rispetto a un anno e mezzo fa, sta un po' meglio, perchè è, almeno in parte, coperta dalla serie R4x0 (che, però, tecnologicamente è inferiore alla controparte NV).
A livello tecnico, vale quanto già detto in altre occasioni: R520 ha meno "forza bruta" nel calcolo matematico e, soprattutto con sm2.0x, in cui non può sfruttare al meglio alcune ottimizzazioni, come la gestione del db, questa carenza si fa sentire. Inoltre, un altro vantaggio dei chip Nv rispetto a quelli ATi è dato dalle operazioni di texture filtering che i chip NV eseguono quasi for free, mentre i chip ATi hanno bisogno di più cicli di clock. Discorso analogo per le operazioni di normalizazione vettoriale (in cui, però, il vantaggio di NV è limitato alla modalità fp16).
MiKeLezZ
10-12-2005, 18:39
Ho capito...
Confermiamo quindi i risultati, ma con un bel punto interrogativo sopra la 512MB.
Se però è vero si tratti di chip meramente "overcloccati", è lecito pensare che ogni sample abbia anche comportamenti uno diverso dall'altro, e quindi poco equiparabili (magari quello di xbitlabs era particolarmente scelto, di solito è nvidia a sceglierli e mandarli...).
Anche sull'overclock, se arriviamo al limite di un'architettura, salgono parecchio i consumi... a me non stupiscono molto i 14W, su desktop si arriva a risultati simili (devi considerare non solo i 50Mhz, su una VPU già OC, ma anche i 50Hz sulle RAM, e tutto lo stress dei componenti).
A questi punti, più saggio fare una media dei risultati di tutti i siti, e lì si vede la GTX 512MB che di solito sta sopra la XT come consumi, quindi quella è la situazione più plausibile a cui può incorrere se uno di noi la compra al negozio.
Sul fatto che ATI non sia così avanzata nel risparmio energetico come nvidia, non lo sapevo.. ho sempre pensato il contrario.
Saved_ita
10-12-2005, 18:50
Scusate, ma io nei calcoli che fate non capisco perchè continuiate a trascuarer il fatto che G70 (come in realtà anche NV40/43) ha la possibilità di far lavorare alcune parti del chip a frequenze differenti e, con tutta probabilità, modificarna anche il voltaggio... ora, a fronte di questa possibilità, non trovo inverosimile che nel complesso, G70 riesca a mantenere dei consumi inferiori alla controparte.
A quiesto sommerei il discorso del Power leakage che, con le frequenze in gioco non è assolutamente da escludere (sono uno di quelli che vede molto forte il rapporto >freqiuenze = >amperre... esattamente come per Intel).
Per finire quoto il discorso relativo alla GTX Extreme... sono chip selezionati e quindi impossibili da produrre n larghe quantità e che servono solo come operazione di marketing.
Giusto un appunto... sta 6800GS è una versione a basso costo (per nVidia) della 6800GT... poco da fare... e il fatto che overclocki bene è tutto sommato falso... in percentuale, come già detto, overclocka cira la metà delle 6800GT e, per finire, il Pure Video era già stato implementato (come già detto).
Ola
yossarian
10-12-2005, 18:53
Ho capito...
Confermiamo quindi i risultati, ma con un bel punto interrogativo sopra la 512MB.
Se però è vero si tratti di chip meramente "overcloccati", è lecito pensare che ogni sample abbia anche comportamenti uno diverso dall'altro, e quindi poco equiparabili (magari quello di xbitlabs era particolarmente scelto, di solito è nvidia a sceglierli e mandarli...).
Anche sull'overclock, se arriviamo al limite di un'architettura, salgono parecchio i consumi... a me non stupiscono molto i 14W, su desktop si arriva a risultati simili (devi considerare non solo i 50Mhz, su una VPU già OC, ma anche i 50Hz sulle RAM, e tutto lo stress dei componenti).
A questi punti, più saggio fare una media dei risultati di tutti i siti, e lì si vede la GTX 512MB che di solito sta sopra la XT come consumi, quindi quella è la situazione più plausibile a cui può incorrere se uno di noi la compra al negozio.
Sul fatto che ATI non sia così avanzata nel risparmio energetico come nvidia, non lo sapevo.. ho sempre pensato il contrario.
infatti, per questo parlavo di stime per lo più di tipo qualitativo. Tutti i siti dicono che la 256 MB consuma, in 3D, meno della 1800XT. Quanto di meno è difficile da stabilire (le misure variano dall'uno all'altro; però sono tutti concordi nell'affermare questa cosa); questo è un valore che possiamo assumere per buono.
Il mio criterio è questo, per lo meno.
Per quanto riguarda le modalità di risparmio energetico, nVIDIA è più avanti, almeno nel settore desktop. ATi si è concentrata di più sui processi produttivi ma non ha messo a punto modalità di risparmio analoghe a quelle di nVIDIA. Tra l'altro, anche a livello di sincronizzazione delle operazioni, anche se, finora, non si sono avute conferme realmente probanti, se dovesse, comunque essere confermata la gestione con clock differenziati per differenti circuiti, anche in quel campo, nVIDIA sarebbe più avanti.
Ad esempio, nei chip ATi (a parte, che io sappia, la serie R5x0), a partire da R300 in poi, il memory controller lavora ad un clock diverso e maggiore rispetto al resto del chip. Nei chip NV, invece, oltre al mc, almeno in G70, sembra che anche i vertex shaders lavorino ad una frequenza superiore a quella del resto del chip. Quindi si avrebbero 3 clock differenti contro due di ATi.
OverClocK79®
10-12-2005, 18:56
Si ma ho la sensaziojne cheper un daily use alzare le frequenza della scheda per @ultra sia deleterio...poi nessuno sul forum l'ha fatto, queste 6800gs ce le hanno cosi in pochi...
scusa ma quello che dici è impreciso.
La 6800GS non ha nulla a che vedere ne con la GT ne con la ULTRA perchè ha SOLO 12 pipe
la freq effettiva è di 425Mhz per il core
350 è la GT
400 è la Ultra
portare la scheda ad una freq INFERIORE @Ultra come dici tu
non mi sembra una genialata.
BYEZZZZZZZZZZ
yossarian
10-12-2005, 18:56
Scusate, ma io nei calcoli che fate non capisco perchè continuiate a trascuarer il fatto che G70 (come in realtà anche NV40/43) ha la possibilità di far lavorare alcune parti del chip a frequenze differenti e, con tutta probabilità, modificarna anche il voltaggio... ora, a fronte di questa possibilità, non trovo inverosimile che nel complesso, G70 riesca a mantenere dei consumi inferiori alla controparte.
A quiesto sommerei il discorso del Power leakage che, con le frequenze in gioco non è assolutamente da escludere (sono uno di quelli che vede molto forte il rapporto >freqiuenze = >amperre... esattamente come per Intel).
Per finire quoto il discorso relativo alla GTX Extreme... sono chip selezionati e quindi impossibili da produrre n larghe quantità e che servono solo come operazione di marketing.
Giusto un appunto... sta 6800GS è una versione a basso costo (per nVidia) della 6800GT... poco da fare... e il fatto che overclocki bene è tutto sommato falso... in percentuale, come già detto, overclocka cira la metà delle 6800GT e, per finire, il Pure Video era già stato implementato (come già detto).
Ola
non lo trascura nessuno; solo che le parti che lavorano a frequenza diversa (il memory controller e il vertex processor) utilizzano una frequenza superiore a quella dichiarata per il chip e le stesse tensioni di alimentazione.
Il power leakage non c'entra niente con le frequenza; cresce con la temperatura e con il diminuire delle tensioni di soglia. Qyuesto significa che se tengo un chip sotto azoto liquido, mantenendone basse le temperature, posso salire in frequenza quanto mi pare.
siamo, comunque, abbondantemente OT da un pezzo; in teoria dovremmo tornare a commentare la notizia, anche se, secondo me, sulle prestazioni velocistiche delle due vga, non c'è molto da commentare, poichè "parlano da sole"
Saved_ita
10-12-2005, 19:44
Il power leakage non c'entra niente con le frequenza; cresce con la temperatura e con il diminuire delle tensioni di soglia. Qyuesto significa che se tengo un chip sotto azoto liquido, mantenendone basse le temperature, posso salire in frequenza quanto mi pare.
Già ma le temperature crescono anche con le frequenze.
yossarian
10-12-2005, 19:52
Già ma le temperature crescono anche con le frequenze.
dipende dall'efficienza dei sistemi di dissipazione. La considerazione non va fatta in valore assoluto. Facciamo un esmepio; se inizio ad avere fenomeni di leakage apprezzabili a 70°C e raffreddo il chip, portandolo a 40, posso aumentare le frequenze fino a tornere ad una temperatura prossima ai 70°, senza avere una corrente di leakage sensibile.
Non è un caso che un chip, più lavora a frequenza elevate, più ha sistemi di dissipazione efficaci. Un aumento di pochi gradi non provoca fenomeni di leakage apprezzabili (le correnti si misurano nell'ordine dei milli o dei microampere).
Se si fosse in presenza di fenomeni di leakage di forte intensità, ci si dovrebbe preoccupare per l'integrità fisica dei dispositivi, più che per i loro consumi.
Tra XL e XT non ci sono, a default, variazioni molto elevate nelle temperature di funzionamento; eppure ci sono 125 Mhz di differenza; tra la GTX 512 e la GTX 256 MB ce ne sono 120. Nel primo caso, i 53 W di differenza non possono essere imputabili a fenomeni di leakage (stiamo parlando di valori prossimi al 50%).
Invece, uno dei fenomeni legati direttamente alle frequenze di funzionamento è quello del latch up, ossia l'effetto "condensatore" che si origina tra due trasistor contigui e che da luogo a correnti parassite che possono disturbare i segnali e creare problemi sulle linee di alimentazione e controllo del chip. Si tratta di uno dei bug più frequenti nei circuiti ad alte frequenze (anche a componenti discreti) e può coinvolgere singoli componenti o intere piste.
yoss, stavo scherzando..
visto che con MiKeLezZ avevate finito allora volevo riaccendere la discussione :p
comunque, riguardo al consumo, dipende pure da quanti transistor ci sono nel chip e quanti di questi sono al lavoro durante il test.
ciao
yossarian
10-12-2005, 20:08
yoss, stavo scherzando..
visto che con MiKeLezZ avevate finito allora volevo riaccendere la discussione :p
comunque, riguardo al consumo, dipende pure da quanti transistor ci sono nel chip e quanti di questi sono al lavoro durante il test.
ciao
vero, però, da questo punto di vista, tra R520 e G70 non c'è molta differenza; oltretutto, in R520, molti transistor sono impiegati nei circuiti di controllo e sincronizzazione (le pixel pipleine di G70, se ci si limita al solo computo delle unità di calcolo, sono molto più complesse). Anzi, almeno i chip NV in 2D hanno la facoltà di switchare su una tensione d'alimentazione inferiore (cosa che i chip ATi non fanno). Ad esempio la GTx da 256 MB, in 2D, lavora a 1,2 V (contro gli 1,4 del 3D)
per quanto riguarda la discussione, c'è poco da riaccendere; se ci si riferisce all'argomento del topic, oltre ai freddi dati numerìci non c'è molto altro da dire.
Le uniche cose che salverei di questo chip, sono le prestazioni nelle operazioni di shading
In particolare, vi faccio notare questi dati
http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html
fate un confronto tra il comportamento della X1600 e quello degli altri chip, con shader più lunghi (shader longer) e confrontateli anche con quelli di chip della fascia superiore
http://www.xbitlabs.com/articles/video/display/radeon-x1000_21.html
come si può vedere, RV530 è l'unico chip che mantiene inalterate le prestazioni anche con shader più complessi; questa è una caratteristica della famiglia di cui fa parte, che fa uso di ben 12 unità di pixel shading per gestire un massimo di "soli" 4 thread per ciclo (128 per pipeline).
Questo si aggiunge alle altre ottimizzazioni già viste per la serie X1x00 (db, hdr, cache fully associative, ecc).
Purtroppo, il tutto è vanificato dalla presenza di sole 4 tmu che, per quanto si possano ottimizzare le operazioni di texturing e ridurre le latenze, restano troppo poche per poter competere con chip che di tmu ne hanno 12 o 16 complessivamente.
Detto questo, se vogliamo continuare a spammare senza andare OT, ci conviene emigrare verso altri lidi :D
........ è davvero divertente ......... lo dico sul serio ...... mi sto incuriosendo un saccoio nel leggere che in un forum di tecnologia, celati da certi nickname ci sono persone che scrivono come supporter pro questo e contro quello, arrivando a livelli incredibili
mi sono chiesto tante volte: "ma possibile che qualcuno si comporti così solo per passione verso la tecnologia? cosa altro potrebbe essere altrimenti ?"
come detto precedentemente è un fenomeno che volevo studiare e questa è stata una opportunità preziosa per farlo
........... divertente, davvero divertente ............
mi raccomando adesso, avete lo spunto buono affinchè i commenti arrivino a 250 ......... sarà ancora più divertente .......
in alcuni casi si,in altri sono i soldi E DA CHI SI è STIPENDIATO
cioè....
davestas
10-12-2005, 22:44
:D :cry:
Epic Games, la famosissima software house che ha sviluppato la serie Unreal, parla di Unreal Tournament 2007 su PlayStation 3.
Epic punta molto sulla modalità online del gioco (famoso su pc proprio per questo aspetto), definendola "killer-application" del segmento online di Sony PS3.
La software house parla dell'attuale stadio dei lavori sul gioco: Al momento UT 2007 viene fatto girare su un dev kit PS3 a 1280x720 (720p) a 49 fps. Ovviamente con l'hardware finale e la fine dei lavori sul codice, dovrebbero verificarsi miglioramenti in campo prestazionale.
Mark Rein afferma che non ci sarà differenza qualitativa tra un pc equipaggiato con nVidia 7800 GTX e la PS3.
Josh, un programmatore di Epic, conclude affermando che sviluppare giochi per PS3 è più semplice rispetto a quanto permesso dalla PS2. :muro: :muro:
leoneazzurro
10-12-2005, 23:34
calore è Joule, Joule su secondo, sono Watt, e questa è potenza
certo che posso... il problema è farlo in modo rigoroso e corretto
Già, ma temperatura <> calore. Una stessa quantità di calore può far raggiungere a due corpi temperature estremamente differenti, in relazione alle proprietà fisiche dei due corpi suddetti. Per farla breve, se ho due schede che consumano entrambe 100W, la temperatura raggiunta dipenderà dal dissipatore, dallo strato di pasta termica, dalla superficie attiva del chip, solo per citare alcuni dei fattori dovuti solo alle schede in sè (poi ad esempio dipende dalla temperatura dell'aria dentro il case, da eventuali irraggiamenti, ecc. ecc.).
Ergo, dovrei avere un modello matematico estremamente complesso ed accurato per poter dedurre la potenza dissipata dalla temperatura raggiunta dal die.
leoneazzurro
10-12-2005, 23:43
Scusate, ma io nei calcoli che fate non capisco perchè continuiate a trascuarer il fatto che G70 (come in realtà anche NV40/43) ha la possibilità di far lavorare alcune parti del chip a frequenze differenti e, con tutta probabilità, modificarna anche il voltaggio... ora, a fronte di questa possibilità, non trovo inverosimile che nel complesso, G70 riesca a mantenere dei consumi inferiori alla controparte.
A quiesto sommerei il discorso del Power leakage che, con le frequenze in gioco non è assolutamente da escludere (sono uno di quelli che vede molto forte il rapporto >freqiuenze = >amperre... esattamente come per Intel).
No, nelle GPU attuali il voltaggio utilizzato è lo stessso per tutte le parti del chip, al massimo si potrebbe ridurre con dei partitori ma sarebbe un metodo altamente inefficiente per farlo (spreco di spazio e di potenza). Si era parlato di utilizzare in un futuro dei moduli VRM (voltage regulator module) direttamente on-package, ma per il momento la cosa è abbastanza in alto mare (e comunque difficilmente lo si farebbe on-die).
Per il resto, il leakage dipende relativamente poco dalle frequenze, molto invece dalle geometrie del processo e dai materiali utilizzati (e dalla tensione di alimentazione). La potenza in più che si spende all'aumentare della frequenza non è leakage, ma è dovuta allo switching.
MiKeLezZ
11-12-2005, 01:47
........ è davvero divertente ......... lo dico sul serio ...... mi sto incuriosendo un saccoio nel leggere che in un forum di tecnologia, celati da certi nickname ci sono persone che scrivono come supporter pro questo e contro quello, arrivando a livelli incredibili
mi sono chiesto tante volte: "ma possibile che qualcuno si comporti così solo per passione verso la tecnologia? cosa altro potrebbe essere altrimenti ?"
come detto precedentemente è un fenomeno che volevo studiare e questa è stata una opportunità preziosa per farlo
........... divertente, davvero divertente ............
mi raccomando adesso, avete lo spunto buono affinchè i commenti arrivino a 250 ......... sarà ancora più divertente .......
in alcuni casi si,in altri sono i soldi E DA CHI SI è STIPENDIATO
cioè....
kusiman, se ti stupisci per così poco, non ti consiglio di entrare in un forum di appassionati di hi-fi.
Potresti trovarti a dover leggere trattati matematici sulle onde elettromagnetiche, e veder entrare ogni più piccolo fenomeno fisico dentro la semplice costruzione di un cavo per attaccare l'amplificatore alla presa elettrica. Ci sono persone che vanno oltre, ricercando ogni più piccolo difetto nei cavi elettrici dell'abitazione, nei loro morsetti, nella qualità dell'energia elettrica erogata dall'Enel (con personaggi che arrivano a mettere poderosi filtri a monte). Ci puoi trovare link a normative, a specifiche tecniche, a formule matematiche.
Ti lascio immaginare il resto.
La passione, è passione, è un burrascoso turbinio irrazionale.
A me fanno più paura le persone come te.. che vedono il male ovunque.. devono avere una continua lotta dentro di loro.
scusa ma quello che dici è impreciso.
La 6800GS non ha nulla a che vedere ne con la GT ne con la ULTRA perchè ha SOLO 12 pipe
la freq effettiva è di 425Mhz per il core
350 è la GT
400 è la Ultra
portare la scheda ad una freq INFERIORE @Ultra come dici tu
non mi sembra una genialata.
BYEZZZZZZZZZZ
Io credo davestas intendesse che vuole portare la GS a date frequenze, in modo da raggiunge le prestazioni velocistiche della Ultra, e non che volesse portarla alle medesime frequenze della Ultra..
sto entrando nella sua mentalità.. preoccupante :D :D
Già, ma temperatura <> calore. Una stessa quantità di calore può far raggiungere a due corpi temperature estremamente differenti, in relazione alle proprietà fisiche dei due corpi suddetti. Per farla breve, se ho due schede che consumano entrambe 100W, la temperatura raggiunta dipenderà dal dissipatore, dallo strato di pasta termica, dalla superficie attiva del chip, solo per citare alcuni dei fattori dovuti solo alle schede in sè (poi ad esempio dipende dalla temperatura dell'aria dentro il case, da eventuali irraggiamenti, ecc. ecc.).
Ergo, dovrei avere un modello matematico estremamente complesso ed accurato per poter dedurre la potenza dissipata dalla temperatura raggiunta dal die.
Giustissimo... Infatti ho parlato di calore! Le due misurazioni per esser efficienti, dovrebbero esser eseguite in pari sistemi, ma comunque le variabili in gioco sarebbero così elevate, da render difficilissimo risalire precisamente ai W dissipati.
Una soluzione relativamente semplice, sarebbe mettere la scheda "in ammollo", con un liquido di cui si conoscono le proprietà, calcolare poi l'aumento di temperatura dello stesso, ricavare i J che devono esser stati spesi per farlo, aggiungere quelli eventualmente persi per scambi termici con l'ambiente esterno, e risalire ai W, contando i secondi. Un'inutile sfacchinata!!! :D
mi raccomando adesso, avete lo spunto buono affinchè i commenti arrivino a 250 ......... sarà ancora più divertente .......
in alcuni casi si,in altri sono i soldi E DA CHI SI è STIPENDIATO
cioè....
Non puoi dire queste cose senza portare prove... Sinceramente lo considero offensivo questo intervento...
OverClocK79®
11-12-2005, 11:32
Mark Rein afferma che non ci sarà differenza qualitativa tra un pc equipaggiato con nVidia 7800 GTX e la PS3.
sarà anche vero, non lo metto in dubbio.
Del resto il chip grafico della PS3 è qualcosa di veramente avanzato
e le cpu sotto qualcosa pomperanno.
Ma caro devestas, se ti piacciono tanto ste console, pigliatele e basta :p
tanto costano quanto una scheda per PC ormai :D
c'è solo un piccolo prob,
io sono grande appassionato della serie UT
lo giocAVO a livello nazionale e non dai tempi di UT99(il primo)
e sono arrivato fino al 2004 (del quale ho anche la Special Edition in DVD) e MAI e poi MAI mi sognerei di giocarlo ONLINE con la Ps3
1° perchè non se sai come si gioca UT in rete ma se anche hai 2 7800GTX in SLI il dettaglio va messo al minimo per migliorare la giocabilità
2° ci vanno su tanti di quei tweak e Mod che metà bastano
3° non mi vedrei mai a giocare con il pad :D e manco che manco con Tast e Mouse in Salotto sul tavolino :D :D
BYEZZZZZZZZZZZZZ
p.s.Io credo davestas intendesse che vuole portare la GS a date frequenze, in modo da raggiunge le prestazioni velocistiche della Ultra, e non che volesse portarla alle medesime frequenze della Ultra..
sto entrando nella sua mentalità.. preoccupante
ah bhe, lasciando spazio ad interpretazioni tutto è possibile :p
davestas
11-12-2005, 12:48
Tu sei tanto sicuro di poter giocare bene con la 6800gs ai giochi con i nuovo motori grafici come quelli basati su U3??
OverClocK79®
11-12-2005, 14:09
non lo so
non prevedo il futuro
so solo che se UT2007 non girerà bene su una 6800GS non ne venderanno molti
di conseguenza sarà un flop :p
credo invece che grazie al motore grafico relativamente scalabile si adatterà a tutti i sistemi come è sempre stato
poi online si gioca con il dettaglio al minimo, quindi nessun problema sicuramente.
Ora che esce UT2007 avrò una X1900XT o una 7900Ultra :D
non esce di certo domani.
BYEZZZZZZZZZZZZ
leoneazzurro
11-12-2005, 23:53
Giustissimo... Infatti ho parlato di calore! Le due misurazioni per esser efficienti, dovrebbero esser eseguite in pari sistemi, ma comunque le variabili in gioco sarebbero così elevate, da render difficilissimo risalire precisamente ai W dissipati.
Una soluzione relativamente semplice, sarebbe mettere la scheda "in ammollo", con un liquido di cui si conoscono le proprietà, calcolare poi l'aumento di temperatura dello stesso, ricavare i J che devono esser stati spesi per farlo, aggiungere quelli eventualmente persi per scambi termici con l'ambiente esterno, e risalire ai W, contando i secondi. Un'inutile sfacchinata!!! :D
Beh, proprio facile non mi sembra...
In realtà un metodo semplice ci potrebbe essere: realizzare delle "mainboard da misura", in cui è monitorata la potenza prelevata dal bus PCI-Express sullo slot X16 (perchè la potenza assorbita dal connettore 12V è abbastanza semplice da misurare anche allo stato attuale). Il problema è trovare chi sia disposto a realizzarle...
MiKeLezZ
11-12-2005, 23:55
Beh, proprio facile non mi sembra...
In realtà un metodo semplice ci potrebbe essere: realizzare delle "mainboard da misura", in cui è monitorata la potenza prelevata dal bus PCI-Express sullo slot X16 (perchè la potenza assorbita dal connettore 12V è abbastanza semplice da misurare anche allo stato attuale). Il problema è trovare chi sia disposto a realizzarle...
E' quello che han fatto su xbitlabs. ;)
leoneazzurro
12-12-2005, 11:31
E' quello che han fatto su xbitlabs. ;)
No, non proprio. Perchè il loro metodo consente di stimare decentemente solo la potenza assorbita dal connettore 12V (basta una pinza amperometrica con bassi tempi di risposta che faccia l'integrazione della corrente nel tempo, o un oscilloscopio digitale con sonda simile). Andare a misurare invece pin per pin la potenza del bus PCI-E in quel modo è estremamente difficile e facilmente si ottengono risultati non veritieri (con una mobo con adeguati sensori di corrente individuali per canale di potenza, invece, si potrebbe avere una misura molto vicina al valore esatto).
........ è davvero divertente ......... lo dico sul serio ...... mi sto incuriosendo un saccoio nel leggere che in un forum di tecnologia, celati da certi nickname ci sono persone che scrivono come supporter pro questo e contro quello, arrivando a livelli incredibili
Perche' tu ora non ti stai nascondendo dietro un nickname e scrivi come supporter di qualcosa?
mi raccomando adesso, avete lo spunto buono affinchè i commenti arrivino a 250 ......... sarà ancora più divertente .......
in alcuni casi si,in altri sono i soldi E DA CHI SI è STIPENDIATO
cioè....
Perche' tu non stai scrivendo ora in base a chi ti stipendia?
Per favore, smettila, non aggiungi alcunche' alla discussione.
OverClocK79®
12-12-2005, 13:52
Fek mi sembra che abbia copiaincollato 9/10 del post di Andrea di Giovanni
lui ha scritto solo l'ultima frase.
Manca il quote
BYEZZZZZZZZZZZ
yossarian
12-12-2005, 13:58
Fek mi sembra che abbia copiaincollato 9/10 del post di Andrea di Giovanni
lui ha scritto solo l'ultima frase.
Manca il quote
BYEZZZZZZZZZZZ
è l'impressione che ho avuto anch'io
Fek mi sembra che abbia copiaincollato 9/10 del post di Andrea di Giovanni
lui ha scritto solo l'ultima frase.
Manca il quote
BYEZZZZZZZZZZZ
Lo spero anch'io, ma non credo :)
Motosauro
12-12-2005, 16:18
Ragazzi, scusate l'OT
Mi avete fatto passare quasi un intero pomeriggio a sbellicarmi davanti ad un thread (meno male che scrivendo codice il lavoro me logestisco un pò come voglio).
FanBoy a parte, che comunque stavolta non ho visto spuntare con la solita veemenza, la chicca è stata il super-mega-diretore ATI (quello con la poltrona in pelle umana per intenderci) che viene a sbraitare e a minacciar denuncia sul forum (p.s. conosco un sacco di civilisti, dovesse servire -> sconto forum :D ).
È proprio vero: in Italia la situazione è sempre tragica, ma mai seria.
Non so voi, ma io sto teatrino lo adoro; non vivrei mai in nessun altro posto nel mondo.
W L'ITALIA (visto che il nano c'ha rubato l'altra esclamazione)
:D
P.S.
Facciamoci tutti una bella risata e andiamo a berci una birra insieme và!
Evviva !
Finalmente un argomento serio...
Non capisco una mazza di tecnica (infatti ho solo letto le 36 pag.)
ma se si parla di farsi una birra ci sono di sicuro !!!!!
davestas
12-12-2005, 19:51
ragazzi ma tutte le 6800GS Point ofView hanno il BUNDLE CON SPLINTER Cell 3 e Brothers in Arms, non c'e' il riscio che mi arriva llo scatolo senza bundle??
...
Purtroppo i negozianti consigliano davvero anzi la X700 rispetto la 6600... E' tristissimo, l'ho visto con i miei occhi, gli ho parlato di nvidia e mi ha detto "eh? nvidia? bho ... controllo sul listino".. tlac tlac .. preme tasti a caso "mha guarda non so ripassa.. io ho questa, va anche meglio, è il TOP", e mi tira fuori una x700".. mha
Si fa presto a venderle poi con il rapporto 10:1, basta fidarsi dell'ignoranza di chi compra, e rifilargli il prodotto che più fa comodo al negoziante...[/QUOTE]
Pultroppo si... Infatti x mia sfortuna ci lavoravo in quel tipo di negozio ke alla fine non poteva permettersi di mantenermi proprio perchè aveva questa concezione limitata...
Persone ke fanno presto a dire ke una x700 é 10:1 alla 6600...
Infatti non vendevano e stan man mano perdendo clienti da soli...
Nonostante mi piace molto la tecnica di ATI questa volta mi ha deluso parecchio... Spero ke sia solo per una questione organizzativa dato ke deve dare man sempre più alle consolle...
Per me il rapporto Prezzo/Prestazioni/Data Uscita/Driver son a dir poco deludenti... Sarà ke Ati e Nvidia si son messi d'accordo x non mancare il fatturato vendite???!!!!
Nvidia:Mercato Desktop
Ati: Mercato Consolle
=Bella Bilancia
Ciaunz!
Ma che cavolo, non dovete mandare avanti simili thread mentre sono fuori per lavoro!! Non e' legale, ora denuncio tutti, ho gia' stampato tutti e trecentocinquantotto i post e sono pronti per il mio avvocato. Vi chiedero' pure le spese per le cartucce della stampante (ho stampato a colori!! :D).
Va be', basta con le caz... ora passo alle altre cazz..
Ma veramente avete portato come termine di paragone per il consumo il voltaggio delle VPU?? Yoss, lo hai scritto tu o un demone si e' impossessato di te?? E' solo una burla vero?? :D Menomale che dopo avete "parlucchiato" di Watt!!
Comunque ritengo plausibilissimo l'incremento dei consumi della VPU nel modello GTX 512, ci si e' scordati di considerare che l'incremento del consumo (come delle temperature), a seguito dell'incremento della frequenza e' tutto tranne che lineare. Quel Chip ha ben altre richieste, visto anche il ponte d'alimentazione differente.
Per togliersi ogni dubbio la prova e' abbastanza semplice ed i redattori, potrebbero anche farla a titolo "scientifico", basta portare la GTX 512 alle frequenze (2d e 3d) identiche alla 256, con gli stessi voltaggi. (anche se resta il dubbio sulle frequenze asincrone interne, che tuttavia dovrebbero essere identiche).
Appoggio pienamente l'idea di misurare il consumo del pc con scheda PCI per vedere (sia con CPU sotto stress che a riposo) il consumo minimo e massimo del sistema senza VGA, mi sembra un'ottima idea. Non e' vero che restituirebbe dati inutili, anzi, sarebbero utilissimi, faccio un esempio:
Se la VGA X.. no, X no, perche' poi i maliziosi vedono i messaggi subliminali!! dunque..
Se una VGA 1 installata su un dato sistema A, portasse ad un consumo totale pari a 150W e la VGA 2 sullo stesso sistema portasse a 170, potremmo solo capire che obiettivamente 2 consuma piu' di 1, ma non potremmo sapere MAI, quale sia l'effettivo vantaggio. Se sapessimo invece che il sistema (VGA esclusa) consuma 120, potremmo capire che 1 consuma quasi la meta' di 2. Ritengo che questo sia molto molto indicativo.
Ora un piccolo parare personale relativo alla discussione riguardo i grafici.
Inutile da parte dei redattori arrabbiarsi inveendo contro chi guarda i grafici al posto di leggere tutta la recensione, molta gente non e' "così" appassionata ed altrettanta non ha fisicamente tempo per farlo!! il grafici devono essere un equo sunto della recensione stessa.
Dunque una piccola scritta in piu' sui rilevamenti del consumo non comporta fatica, non mettercela e' solo "snobbare" chi non ha tempo (e magari nozioni) per leggere tutto.
Riguardo i grafici delle risoluzioni, non capisco perche' non dobbiate essere piu' flessibili. Va bene, in passato vi hanno criticato perche' non inserivate risoluzioni ANOMALE (1920) nei test, ok, inseritele se proprio volete accontentare anche gli incontentabili, ma prenderle come "riferimento" nei grafici e' assurdo!! E' sbagliato con VGA del calibro della GTX/X1800, figuriamoci per prodotti che a tali risoluzioni fanno registrare FPS pari a 10 (poco piu', poco meno). Non siete robot, avete potere auto-decisionale, non e' detto che se fate cosi' per un prodotto dobbiate farlo per tutti!! Ponete una giusta risoluzione come indice d'ordinamento, non vi costa nulla, molto meno che rispondere a decine di utenti che lo trovano sbagliato, io compreso. (1920*1440, non e' utile a nessuno, nemmeno con le VGA TOP, saranno l'uno per mille gli utenti del forum/sito che hanno' visto quella risoluzione anche una sola volta in vita loro).
X Cionci:
Dici che sia per correttezza il provare queste VGA a tali risoluzioni, sia per provare la bonta' dell'HW che la “longevità”. Ma dai, queste VGA non hanno un HW creato per giocare a 1920!! :) non hanno longevità alcuna, sono nate morte se prese da questo punto di vista, che longevità si potrà mai dimostrare così?? Nemmeno le TPO gamma le permettono ancora. (senza considerare che nessuno o quasi ha il monitor per utilizzarle).
Vedete i grafici, riflettere sui frame rate ottenuti e pensate a quale risoluzione obbiettivamente giochera' la gente.
Per quanto riguarda la recensione, a parte queste "cosette" e' molto interessante ed utile, certo e' che DOVETE correggere il prezzo sia della x1600, che (e soprattutto) della 6600GT.
P.S. Voi proponete un servizio a quelli che ovviamente sono i vostri utenti, non dovete far sì che essi digeriscano le vostre regole “altrimenti possono pure migrare per altri lidi”. Secondo me (per quanto possa valere per voi il mio parere) dovreste ascoltarli e capirli. Visto che fatte tutto per loro, non per voi (e sono anche il vostro pane).
Byez!!
MiKeLezZ
12-12-2005, 21:26
è l'impressione che ho avuto anch'io
Io ci sono arrivato solo il giorno dopo :D
Confermo perchè mi ha pure mandato un pvt di chiarimento :P
yossarian
12-12-2005, 23:17
per due vga con stessa gpu, le tensioni di alimentazione di vga e ram sono parametri da tenere in considerazione eccome.
Tra l'altro, stando all'esempio che tu hai fatto, si dovrebbero prendere per buone le stime di quei redattori che danno la 512 MB sicuramente più "assetata" non solo della 256 MB, ma anche della X1800XT, mentre il test fatto da xbit dà misure differenti (quello di Tom's non lo prendo neppure in considerazione, perchè i grafici sono distribuiti in modalità random :D ).
Poichè personalmente giudico non troppo attendibili, dal punto di vista quantitativo, i test eseguiti, li prendo per buoni solo qualitativamente.
Pensare che la 512 MB abbia un assorbimento inferiore alla 256 è un'eresia.
Pensare che la X1800XT e la GTX 512 abbiano consumi allineati tra loro è, invece, molto plausibile.
So benissimo che gli incrementi sono non lineari (ma non solo quelli di consumi e temperature), ma il fatto che si sia dovuto aumentare il v-core non è certo indice del fatto che il chip sia portato a consumare di meno.
Oltre tutto, il chip è stato tutt'altro che reingegnerizzato dato che le uniche cose che sono state modificate sono parte del package e il pcb (e non per limitare i consumi, ma solo per raggiungere tensioni di alimentazioni e frequenze più elevate; faccio presente, a tale proposito, che il v-core "consigliato" per 0,11 u è di 1,3 V); questo significa che, nella migliore delle ipotesi, il campo elettrico interno non ha subito modifiche, ma le tensioni di alimentazione si.
Nei circuiti C-MOS, gli elementi che permettono di ridurre i consumi, sono: la riduzione delle tensioni di alimentazione, la riduzione della capacità del carico e la riduzione delle frequenze di funzionamento (non potendo toccare altri elementi che richiederebbero modifiche alle geometrie del chip).
Qaundo si mette mano ad un progetto, per ottimizzarlo, in genere, si lavora sulla riduzione degli accoppiamenti capacitivi negli elementi di giunzione all'interno del package (tra metallo e silicio), ma questo non consente di ridurre quelli all'interno del chip, quindi l'effetto che si ottiene è piuttosto limitato. Nella versione a 512 MB, sicuramente si è operato in questo senso, però si sono anche aumentate le frequenze (e anche di molto) e le tensioni di alimentazione.
yossarian
12-12-2005, 23:19
Io ci sono arrivato solo il giorno dopo :D
Confermo perchè mi ha pure mandato un pvt di chiarimento :P
io l'ho avuta da subito; è per quello che ho evitato di commentarlo
:D
io l'ho avuta da subito; è per quello che ho evitato di commentarlo
:D
Se state parlando di quello che ha quotato (male) il super presidente galattico ATI, non capisco come alcuni non lo abbiano capito da subito..
Per il resto..
- Infatti la x1800 e la GTX non sono la stessa VGA, hanno due architetture differenti, due criteri e processi costruttivi completamente dissimili, l'unica cosa che le possa accomunare e' la memoria. Dunque dire “ha pure un voltaggio minore” a mio avviso e' fantascienza. Almeno io di questo parlavo.
- Ho indicato l'irregolarità dell'incremento dei consumo all'aumentare del voltaggio e della temperatura (ed ovviamente delle frequenze) perche' sostenevi che l'assorbimento di 14W fosse eccessivo per la sola GPU in 50Mhz.. non e' cosi' assurdo. Pero' nel leggere tutto quel casino, puo' essere che mi sia perso qualche cosa. :)
- Non credo proprio che nVidia si sia messa a rifare matrici, catene e nuovi wafer (leggasi "riduzione degli accoppiamenti capacitivi") per un chip "raro e simbolico" come quello della GTX 512, penso che, piu' verosimilmente, possano aver messo da parte negli ultimi mesi, tutti i chip riusciti "meglio", come hai detto tu "perfetti". Altrimenti, qualora avessero affinato la produzione del G70 0,11nm, allora anche le future GTX 256 godranno di maggiori margini di overclock (nonché di una maggior percentuale di resa in produzione e dunque costi minori), ma stanno gia' da un pezzo con i piedi nei 90nm, dunque non credo proprio che abbiano fatto tutto cio'.
Che l'R520 non sia un prodigio nei consumi, mi sembra abbastanza evidente, basti guardare la XL, l'unica che lavora con voltaggi entro specifiche, ciò nonostante si attesta su valori simili a quelli di una 7800GT (overvoltata) con nanometria pari a 11 micron.
Dunque. dunque chissa'!! :D
Servirebbe proprio downcloccare/voltare una XT ed una GTX 512 per capirne di piu'. :)
(e provare i sistemi senza VGA per vederne i consumi veri).
X non mi ricordo chi, precedentemente ha imputato come "sicuro segno di errore", riferendosi ad alcune misurazioni, il fatto che una 6800GT consumasse meno di una 7800.. non e' cosi' strano, il G70 (NV47) consuma di meno.
X la redazione hip hip urra'.. ehm no.. vedendo dei vecchi grafici della recensione della X1800XT, ho notato la rumorosita' rilevata della 7800GT e della GTX.. ma che aveva un minipimer montato al posto della ventola?? perche' tutte quelle che ho venduto fino ed oggi non si sentono!! non le ho misurate con un fonometro, ma mettendole all'interno di un case chiuso, le senti solo alle 4 di notte (se nessuno russa). :)
yossarian
13-12-2005, 02:09
- Infatti la x1800 e la GTX non sono la stessa VGA, hanno due architetture differenti, due criteri e processi costruttivi completamente dissimili, l'unica cosa che le possa accomunare e' la memoria. Dunque dire “ha pure un voltaggio minore” a mio avviso e' fantascienza. Almeno io di questo parlavo.
ho fatto il paragone tra le tensioni di alimentazione di GTX256 MB e GTX 512 MB; maggior v-core, maggior frequenza, maggior quantitativo di ram (a più alta tensione di alimentazione e con frequenze più elevate), significa maggior assorbimento di potenza.
In quanto al paragone tra R520 e G70, è vero che si tratta di chip diversi, ma è anche vero che, mentre tutte le rece sono concordi nel dire che la 256 MB consumi meno della 1800XT, i pareri sulla XT e sulla GTX 512 MB sono piuttosto discordi (tutte, tranne xbit e Tom's HW, indicano un maggior consumo per la GTX 512 MB). In questo caso non è affatto possibile affermare che una vga consumi meno dell'altra. R520, infine, è normale che abbia un v-core inferiore a quello di G70; nei processi di scaling si cerca di ridurre anche le tensioni di alimentazione, perchè, a causa della riduzione delle geometrie, aumenta la densità di corrente di canale dei transistor.
- Ho indicato l'irregolarità dell'incremento dei consumo all'aumentare del voltaggio e della temperatura (ed ovviamente delle frequenze) perche' sostenevi che l'assorbimento di 14W fosse eccessivo per la sola GPU in 50Mhz.. non e' cosi' assurdo. Pero' nel leggere tutto quel casino, puo' essere che mi sia perso qualche cosa. :)
e lo sostengo ancora; l'incremento è non lineare (anzi è esponenziale anche se non in base e :D ), ma visti i valori di Delta(T) in gioco, un incremento di 13 W per 50 Mhz è, comunque, fuori da ogni logica, soprattutto alla luce del fatto che si è avuto un incremento di soli 14 W per un aumento di 120 Mhz e 0,1 V di tensione. Queste variazioni non sono giustificabili con il solo andamento matematico di questi processi e neppure con il subentrare di altri fenomeni (in ogni caso prevedibili sia qualitativamente che quantitativamente). Ovvio che queste considerazioni si riferiscono alle misurazioni fatte da xbit labs (che ha testato la GTX 512 MB in o/c)
Che l'R520 non sia un prodigio nei consumi, mi sembra abbastanza evidente, basti guardare la XL, l'unica che lavora con voltaggi entro specifiche, ciò nonostante si attesta su valori simili a quelli di una 7800GT (overvoltata) con nanometria pari a 11 micron.
su questo siamo d'accordo
- Non credo proprio che nVidia si sia messa a rifare matrici, catene e nuovi wafer (leggasi "riduzione degli accoppiamenti capacitivi") per un chip "raro e simbolico" come quello della GTX 512, penso che, piu' verosimilmente, possano aver messo da parte negli ultimi mesi, tutti i chip riusciti "meglio", come hai detto tu "perfetti". Altrimenti, qualora avessero affinato la produzione del G70 0,11nm, allora anche le future GTX 256 godranno di maggiori margini di overclock (nonché di una maggior percentuale di resa in produzione e dunque costi minori), ma stanno gia' da un pezzo con i piedi nei 90nm, dunque non credo proprio che abbiano fatto tutto cio'.
non nel passaggio dalla 256 MB alla 512 Mb, ma sicuramente nelle successive revisioni di chip e pcb. I chip da cui si ricavano le 512 MB sono quelli usciti "perfetti" dai processi produttivi delle sole ultime revisioni (che salgono decisamente meglio rispetto alle prime due); anche per questo motivo, se ne trovano pochi in giro.
ho fatto il paragone tra le tensioni di alimentazione di GTX256 MB e GTX 512 MB; maggior v-core, maggior frequenza, maggior quantitativo di ram (a più alta tensione di alimentazione e con frequenze più elevate), significa maggior assorbimento di potenza.
Giusto un pazzo asserirebbe il contrario, credo che qualunque grafico indichi la 512 meno "affamata" della 256, sia sbagliato, ma non e' detto che lo sia per "rilevamenti", potrebbe esserlo per errore grafico, come spesso accade.
Anche perche' se nVidia avesse affinato cosi' tanto la propria VGA lo avrebbe scritto a lettere cubitali pure nella cappella sistina.. e non avrebbe maggiorato il ponte d'alimentazione!! :D (o forse sì, ma solo per la ram).
In quanto al paragone tra R520 e G70, è vero che si tratta di chip diversi, ma è anche vero che, mentre tutte le rece sono concordi nel dire che la 256 MB consumi meno della 1800XT, i pareri sulla XT e sulla GTX 512 MB sono piuttosto discordi (tutte, tranne xbit e Tom's HW, indicano un maggior consumo per la GTX 512 MB). In questo caso non è affatto possibile affermare che una vga consumi meno dell'altra. R520, infine, è normale che abbia un v-core inferiore a quello di G70; nei processi di scaling si cerca di ridurre anche le tensioni di alimentazione, perchè, a causa della riduzione delle geometrie, aumenta la densità di corrente di canale dei transistor.
Che mi stai spiegando?? :D dai, l'ABC lo so bene. :p
Per quanto riguarda le recensioni in giro per il WEB, non le ho veste e non so se le abbiate prese tutte in considerazione. Quando avro' un po' di tempo penso che lo faro' personalmente. Mi spiace solo non aver modo e tempo di misurare personalmente i valori, farei un mare di prove e rilevamenti.
e lo sostengo ancora; l'incremento è non lineare (anzi è esponenziale anche se non in base e :D ), ma visti i valori di Delta(T) in gioco, un incremento di 13 W per 50 Mhz è, comunque, fuori da ogni logica, soprattutto alla luce del fatto che si è avuto un incremento di soli 14 W per un aumento di 120 Mhz e 0,1 V di tensione. Queste variazioni non sono giustificabili con il solo andamento matematico di questi processi e neppure con il subentrare di altri fenomeni (in ogni caso prevedibili sia qualitativamente che quantitativamente). Ovvio che queste considerazioni si riferiscono alle misurazioni fatte da xbit labs (che ha testato la GTX 512 MB in o/c)
Pero' non puoi prevedere il comportamento di un chip che non conosci, non sai come sia riuscito quello della prova, non sai se sta lavorando palesemente male ad esempio. Basterebbe solo incrementarne i valori delle ram o della VPU separatamente e l'arcano sarebbe svelato, almeno in questo caso.
su questo siamo d'accordo
Tendenzialmente siamo d'accordo su tutto l'argomento, solo che, come e' giusto che sia, ognuno ha il proprio modo di guardare una situazione. In fin dei conti ho solo focalizzato l'attenzione su un paio di punti che ritenevo (perche' sono) importanti ed ho strabuzzato gli occhi nel leggere "e' ovvio che consumi meno perche' lavora con meno volt"!! credo che questa sia una citazione da mettere in firma!! :p (come tutti i post dei broccoli che hanno fatto coro)
non nel passaggio dalla 256 MB alla 512 Mb, ma sicuramente nelle successive revisioni di chip e pcb. I chip da cui si ricavano le 512 MB sono quelli usciti "perfetti" dai processi produttivi delle sole ultime revisioni (che salgono decisamente meglio rispetto alle prime due); anche per questo motivo, se ne trovano pochi in giro.
Ho gia' visto delle GTX 256 che arrivano a 560Mhz (gia' da un mesetto).. Quella che ho su questo PC si ferma "solo" a 525 (ed e' gia' un ottimo risultato), ma giusto per il tempo necessario a strappare qualche record, sigh, fa parte della vecchia leva!! :(
Sono andato a dare un'occhiata alla recensione di Tom's (e Gerry's :D), il minor consumo nel grafico e' solo in boot ed idle, potrebbe benissimo essere (anzi e' sicuramente) derivato da frequenze di funzionamento impostate dal bios. Per il resto e' consigliato un alimentatore con il 20% in piu' di potenza, anche se all'attopratico, durante i giochi non si arriva al 10% (questo non vuol dire che non ci si possa arrivare). Non mi sembra piu' un quadro cosi' surreale.
yossarian
13-12-2005, 14:06
Pero' non puoi prevedere il comportamento di un chip che non conosci, non sai come sia riuscito quello della prova, non sai se sta lavorando palesemente male ad esempio. Basterebbe solo incrementarne i valori delle ram o della VPU separatamente e l'arcano sarebbe svelato, almeno in questo caso.
quando si progetta un chip, si fanno calcoli teorici prima e simulazioni al computer poi, in cui si inseriscono tutti i parametri. Per cui, il comportamento di un chip è, tutto sommato, abbastanza prevedibile, come sono prevedibili i fattori di rischio. A volte può verificarsi un imprevisto, una tantum, che, proprio in quanto non rientrante nelle consuete valutazioni sui "rischi", può creare problemi di individuazione.
Tendenzialmente siamo d'accordo su tutto l'argomento, solo che, come e' giusto che sia, ognuno ha il proprio modo di guardare una situazione. In fin dei conti ho solo focalizzato l'attenzione su un paio di punti che ritenevo (perche' sono) importanti ed ho strabuzzato gli occhi nel leggere "e' ovvio che consumi meno perche' lavora con meno volt"!! credo che questa sia una citazione da mettere in firma!! :p (come tutti i post dei broccoli che hanno fatto coro)
decontestualizzare una frase è un'operazione che può portare a qualunque tipo di risultato. E' ovvio che un processo di scaling a campo costante, con eventuale riduzione delle tensioni di alimentazione, la dove è possiible, riduca i consumi (quindi, meno volt, meno consumi). Per un chip con architettura diversa e logica di funzionamento differente possono esserci fattori di altra natura che determinano un consumo superiore o inferiore, però la regola è questa. Inoltre la GTX 512 MB ha consumi dell'ordine di grandezza della X1800XT (secondo xbit di poco inferiori, secondo altri di poco superiori); questo significa che, a parità di tipologia di ram, con due chip che, in base al processo produttivo lavorano, teoricamente, fuori specifica, i consumi sono, grosso modo, allineati
Ho gia' visto delle GTX 256 che arrivano a 560Mhz (gia' da un mesetto).. Quella che ho su questo PC si ferma "solo" a 525 (ed e' gia' un ottimo risultato), ma giusto per il tempo necessario a strappare qualche record, sigh, fa parte della vecchia leva!! :(
probabilmente è già una revisione successiva, perchè le primissime difficilmente superavano i 480-490 Mhz
decontestualizzare una frase è un'operazione che può portare a qualunque tipo di risultato. E' ovvio che un processo di scaling a campo costante, con eventuale riduzione delle tensioni di alimentazione, la dove è possiible, riduca i consumi (quindi, meno volt, meno consumi). Per un chip con architettura diversa e logica di funzionamento differente possono esserci fattori di altra natura che determinano un consumo superiore o inferiore, però la regola è questa. Inoltre la GTX 512 MB ha consumi dell'ordine di grandezza della X1800XT (secondo xbit di poco inferiori, secondo altri di poco superiori); questo significa che, a parità di tipologia di ram, con due chip che, in base al processo produttivo lavorano, teoricamente, fuori specifica, i consumi sono, grosso modo, allineati
Rispondo solo a questo perche' per il resto siamo d'accordo.. non ho decontestualizzato nulla, non mi piace chi lo fa e non sono di certo io a farlo. :)
Prendi questo:
la fisica non è una opinione :) il core della 7800gtx 512 è alimentato a 1,5V a differenza dell'r520 che va a 1,3V... oltre alle ram, dato che quelle della samsung che vanno a 900mhz sono overvoltate... mi spieghi come fa a consumare meno? quella tabella è la cosa più inverosimile alla realtà che potessero fare ;)
Senza parlare del teorico overvolt delle ram, vogliamo commentare il discorso sui voltaggi??
Va bene che e' della lazio, dunque e' autorizzato a dire c.. per natura, ma sarebbe da metterlo in firma. (ne ho preso uno a caso, ma il concetto e' stato anche assecondato).
Senza parlare del teorico overvolt delle ram, vogliamo commentare il discorso sui voltaggi??
Va bene che e' della lazio, dunque e' autorizzato a dire c.. per natura, ma sarebbe da metterlo in firma. (ne ho preso uno a caso, ma il concetto e' stato anche assecondato).
spieghi per piacere? :) quale overvolt? da quello che so, l'overvolt è stato aggiunto con i nuovi bios OC della sapphire... per portano il core da 1,3V a 1,48V. Le ram nel 3d vanno sempre a 2.0V
spieghi per piacere? :) quale overvolt? da quello che so, l'overvolt è stato aggiunto con i nuovi bios OC della sapphire... per portano il core da 1,3V a 1,48V. Le ram nel 3d vanno sempre a 2.0V
Sei tu che parlavi di overvolt, non io. A questo punto lo devi spiegare tu. :)
Ovviamente l'affermazione strampalata per eccellenza era quella riguardo i voltaggi delle VPU che avrebbero indicato un maggiore o minore consumo.
P.S. In ogni caso 1,3 volt per un chip a 90nm, costituiscono un overvolt.
Sei tu che parlavi di overvolt, non io. A questo punto lo devi spiegare tu. :)
Ovviamente l'affermazione strampalata per eccellenza era quella riguardo i voltaggi delle VPU che avrebbero indicato un maggiore o minore consumo.
P.S. In ogni caso 1,3 volt per un chip a 90nm, costituiscono un overvolt.
non parlo come di una legge insindacabile, che a maggior voltaggi corrisponde maggiori o minori consumi.
Ma in questo caso è cos', sennò come li spieghi le migliaia di recensioni in cui, confrontando due sistemi a parità di hardware e di condizioni, la 7800gtx 512 consuma di più della x1800xt 512? di conseguenza il chip G70 a 1,5V consuma di più del chip r520 a 1,3V (dato che le memorie sono le stesse, per quantità, per tipo e per voltaggi)
Saluti :mbe:
MiKeLezZ
13-12-2005, 16:30
migliaia? :D
io di test seri ho visto solo quelli di xbitlabs
prendere un wattometro (o, ancora peggio, una pinza amperometrica), e infilarlo a monte dell'alimentatore, non è un test serio ^^
soprattuto se si vogliono calcolare scarti di W così risicati
non parlo come di una legge insindacabile, che a maggior voltaggi corrisponde maggiori o minori consumi.
Ma in questo caso è cos', sennò come li spieghi le migliaia di recensioni in cui, confrontando due sistemi a parità di hardware e di condizioni, la 7800gtx 512 consuma di più della x1800xt 512? di conseguenza il chip G70 a 1,5V consuma di più del chip r520 a 1,3V (dato che le memorie sono le stesse, per quantità, per tipo e per voltaggi)
Saluti :mbe:
Sinceramente i test per calcolare i consumi mi fanno un po' tutti sorridere, sono di un'ingenuita' assurda. Non so dirti quale consumi di piu' e non so spiegarti test condotti da altri. La mai affermazione era rivolta solo a sottolineare che indicare il funzionamento a voltaggio maggiore, come indice di maggior consumo e' (perdonami e non prendertela) veramente buffo, basterebbe aver studiato i rudimenti dell'elettronica per rendersi conto di cosa stavate dicendo. (ma tu parlavi di fisica, gia' :p)
Per farti capire; sarebbe come dire che un motore consuma sicuramente piu' di un'altro perche' funziona (concepito per funzionare) con un carburante a differente numero di ottani (dunaue con potere detonante differente).
Sinceramente i test per calcolare i consumi mi fanno un po' tutti sorridere, sono di un'ingenuita' assurda. Non so dirti quale consumi di piu' e non so spiegarti test condotti da altri. La mai affermazione era rivolta solo a sottolineare che indicare il funzionamento a voltaggio maggiore, come indice di maggior consumo e' (perdonami e non prendertela) veramente buffo, basterebbe aver studiato i rudimenti dell'elettronica per rendersi conto di cosa stavate dicendo. (ma tu parlavi di fisica, gia' :p)
Per farti capire; sarebbe come dire che un motore consuma sicuramente piu' di un'altro perche' funziona (concepito per funzionare) con un carburante a differente numero di ottani (dunaue con potere detonante differente).
vabbè ma te l'ho già ripetuto prima, sta cosa è chiara come il sole.
Secondo me non è chiara per niente... A parità di processo costruttivo... Ho un chip da 10000 transistor che per farlo funzionare a 1 Ghz gli devo dare 1.5 Volt... Ne ho un altro da 10M di transistor che per farlo funzionare a 600 Mhz gli devo dare 1.4 Volt... Quale consuma di più ?
Secondo me non è chiara per niente... A parità di processo costruttivo... Ho un chip da 10000 transistor che per farlo funzionare a 1 Ghz gli devo dare 1.5 Volt... Ne ho un altro da 10M di transistor che per farlo funzionare a 600 Mhz gli devo dare 1.4 Volt... Quale consuma di più ?
il secondo ;) dicevo che era chiara sta cosa...
il secondo ;) dicevo che era chiara sta cosa...
Avevo capito che tu dicessi che era chiaro l'inverso :D :muro: :stordita:
non parlo come di una legge insindacabile, che a maggior voltaggi corrisponde maggiori o minori consumi.
Ma in questo caso è cos', sennò come li spieghi le migliaia di recensioni in cui, confrontando due sistemi a parità di hardware e di condizioni, la 7800gtx 512 consuma di più della x1800xt 512? di conseguenza il chip G70 a 1,5V consuma di più del chip r520 a 1,3V (dato che le memorie sono le stesse, per quantità, per tipo e per voltaggi)
Saluti :mbe:Avevo capito che tu dicessi che era chiaro l'inverso :D :muro: :stordita: :read:
saluti
Ma anche se l'alimentazione fosse stata ad 1.4 Volt probabilmente avrebbe consumato di più ;)
Ma anche se l'alimentazione fosse stata ad 1.4 Volt probabilmente avrebbe consumato di più ;)
esatto :) ehehehehe :cool:
Ma anche se l'alimentazione fosse stata ad 1.4 Volt probabilmente avrebbe consumato di più ;)
E se mio nonno avesse avuto una ruota sarebbe stato una cariola?? :D :p
Senti ma non e' vietato esibire bandiere della lazio in pubblico nei forum?? :D
E se mio nonno avesse avuto una ruota sarebbe stato una cariola?? :D :p
Senti ma non e' vietato esibire bandiere della lazio in pubblico nei forum?? :D
http://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gifhttp://img30.imageshack.us/img30/6493/14hs.gif
una, due, mille volte :D
MARKHAM, Ontario, Dec 13, 2005 (BUSINESS WIRE) -- ATI Technologies Inc. (TSX:ATY)(NASDAQ:ATYT) has made holiday gift giving easier this year, with its feature-rich Radeon® X1600 XT. Delivering outstanding digital entertainment, true-to-life Avivo™ visual quality and 3D graphics performance, Radeon X1600 XT with 256 MB of memory is available for an attractive $179 USD. The Radeon® X1600 Pro with 256 MB of memory is available for $129 USD.
The Radeon X1600 series combines ATI's unique ultra-threaded 3D architecture with revolutionary Avivo video display and Shader Model 3.0 technology. The result is unprecedented realism and a new high-definition PC viewing experience in 3D gaming, DVD movies, digital photography and video playback. Radeon X1600 XT also features dual DVI and HDTV/S-Video out for the optimal in display flexibility.
"The new Radeon X1600 XT is a multimedia powerhouse of features and customers expect a level of visual realism, stability and performance that is nothing less than stunning," said Rich Heye, Vice President and GM, Desktop Discrete Products, ATI Technologies Inc. "Get ready, because affordable digital entertainment and 3D games on your PC will never look the same again."
With ATI's revolutionary Avivo video and display technology, the Radeon X1600 series redefines the visual experience on today's PCs by delivering vibrant colors, ultra-sharp images, true-to-life image reproduction and the smoothest HD video playback ever offered by ATI. The new Radeon X1600 XT also features 256-bit ring-bus memory controller and support for up to 512 MB of RAM.
For the more budget conscious, Radeon® X1300 and Radeon® X1300 Pro bring ATI's Avivo video technology, as well as DirectX® 9 and Shader Model 3.0 support to the performance mainstream and value markets. Radeon X1300 and X1300 Pro editions are available for under $100 USD.
For more information on the new Radeon X1600 series or other ATI products, please visit www.ati.com.
Già meglio.
Ora vediamo quanto ci metteranno ad adeguare i prezzi in Europa.
una, due, mille volte :D
Dovrebbero bannarti per un po', che ne so, 5 o 6 anni.. :D
Ops, sono sparite le faccine da culo dal quote, :D ma come mai?? :D Strana l'informatica :D
Già meglio.
Ora vediamo quanto ci metteranno ad adeguare i prezzi in Europa.
Magari potessimo far riferimento ai prezzi in dollari!! Saremmo tutti molto piu' felici ed i PC v(e non solo) costerebbero il 30% in meno. :)
http://www.tomshw.it/news.php?newsid=5417 :ubriachi: :yeah: :gluglu: :blah:
PESCEDIMARZO
14-12-2005, 08:38
http://www.tomshw.it/news.php?newsid=5417 :ubriachi: :yeah: :gluglu: :blah:
:eek: :stordita: :eek: :stordita:
:stordita: :eek: :stordita: :eek:
:eek: :stordita: :eek: :stordita:
:stordita: :eek: :stordita: :eek:
Motosauro
14-12-2005, 08:56
http://www.tomshw.it/news.php?newsid=5417 :ubriachi: :yeah: :gluglu: :blah:
Ma và!
Io ormai mi ero quasi convinto che fosse la marmotta che incarta la cioccolata :D
E invece pare che esista sul serio...
O Tempora, O Mores!
Athlon 64 3000+
14-12-2005, 09:39
Invece ha detto la verità.
Sembrava troppo strano che potesse dire delle fesserie.
http://www.tomshw.it/news.php?newsid=5417 :ubriachi: :yeah: :gluglu: :blah:
cioè questa è una grande notizia...bè visto che riesco a spararne tante anche io provo a fare domanda all'ati...hai visto mai nn mi assumino come super mega presidente galattico con tanto di poltrona in pelle umana!!!!
E se mio nonno avesse avuto una ruota sarebbe stato una cariola?? :D :p
Questo è semplcie... Per averne una stima qualitativa basta fare due calcoli...
Sovrastimiamo il calo di consumi che si avrebbe a 1.4... Allora consideriamo tutta la differenza di assorbimento fra GTX 256 e GTX 512 come tutta dovuta all'aumento di alimentazione (non è perchè c'è il doppio della ram)...
X = differenza di consumo fra GTX 256 e GTX 512
(X / 1.5) * 1.4 = differenza di potenza stimata, assorbita a 1.4
X = 243.8 - 220.8 = 23
Potenza che si può supporre assorbita a 1.4: 220.8 + (23 / 1.5) * 1.4 = 242.2
E nota che è sovrastimata... L'assorbimento di potenza per aver portato l'alimentazione da 1.4 a 1.5 è stimabile in percentuale da 1.5/1.4... Quindi circa il 7%...ma per la sola GPU...
Questo è semplcie... Per averne una stima qualitativa basta fare due calcoli...
Sovrastimiamo il calo di consumi che si avrebbe a 1.4... Allora consideriamo tutta la differenza di assorbimento fra GTX 256 e GTX 512 come tutta dovuta all'aumento di alimentazione (non è perchè c'è il doppio della ram)...
X = differenza di consumo fra GTX 256 e GTX 512
(X / 1.5) * 1.4 = differenza di potenza stimata, assorbita a 1.4
X = 243.8 - 220.8 = 23
Potenza che si può supporre assorbita a 1.4: 220.8 + (23 / 1.5) * 1.4 = 242.2
E nota che è sovrastimata... L'assorbimento di potenza per aver portato l'alimentazione da 1.4 a 1.5 è stimabile in percentuale da 1.5/1.4... Quindi circa il 7%...ma per la sola GPU...
Se non ci fossero le RAM sarebbe molto semplice calcolarne gli assorbimenti. :)
Ovviamente ammesso che non siano state apportate modifiche o affinamenti di produzione alla nuova serie G70, che non e' totalmente da escludere visti i risultati.
In ogni caso, come gia' ampiamente detto (e tu mi sembri uno dei pochi ad averlo afferrato al volo), sarebbe assurdo fare simili conti con tecnologie differenti sotto mano.
Comuqnue la cosa della cariola era solo una battuta. :p
Invece ha detto la verità.
Sembrava troppo strano che potesse dire delle fesserie.
In compenso ne ha dette a palate nell'intervista.. (a mio modestissimo avviso)
cioè questa è una grande notizia...bè visto che riesco a spararne tante anche io provo a fare domanda all'ati...hai visto mai nn mi assumino come super mega presidente galattico con tanto di poltrona in pelle umana!!!!
A me non prenderebbero di certo.. non corrispondo al profilo necessario. :D
In compenso ne ha dette a palate nell'intervista.. (a mio modestissimo avviso)
A me non prenderebbero di certo.. non corrispondo al profilo necessario. :D
ecco quindi per legge, quello che ha detto è assolutamente vero. Se tu dici che ha detto delle cazzate vuol dire che ha detto cose giuste :cool:
MiKeLezZ
14-12-2005, 15:44
ocio che ha la stampante sempre accesa...
ZAC fa tipo pistolero far west, stampa tutto e via di querele
si vede anche dalla foto che non è uno che perdona...
ecco quindi per legge, quello che ha detto è assolutamente vero. Se tu dici che ha detto delle cazzate vuol dire che ha detto cose giuste :cool:
ocio che ha la stampante sempre accesa...
ZAC fa tipo pistolero far west, stampa tutto e via di querele
si vede anche dalla foto che non è uno che perdona...
Siete due folli temerari!! :D
Torniamo in topic se ne esiste uno. :p
PESCEDIMARZO
14-12-2005, 17:24
Secondo me è uno che si spaccia per ADG e si diverte su tutti i forum di Hardware.
Guardate anche qui (http://www.dinoxpc.com/News/news.asp?ID_News=9984&What=news)
Lo spero per lui..
Sawato Onizuka
14-12-2005, 17:35
:doh: e cmq ora si spiega la differenziazione delle strategie:
nvidia -> aspettare a rilasciare 7300 e 7600 [desktop s'intende] per finire le scorte di 6x00 rimaste nel periodo natalizio e ricercate dal mercato (specie la 6800gs agp), così da non creare dei tappi e penalizzarsi da soli :fagiano:
ati -> se consideriamo i prezzi americani, la strategia è ben diversa, è più di "test" infatti x1300 e x1600 sono 2 entry-level sperimentali probabilmente in attesa del prox entry-level derivato da R580 del q1 2006, così lasciando le x1800 in fascia mid e R580 al top della gamma ... (ai conti fatti le x800 rimaste sono come le 6x00 della rivale: ne vogliono finire le scorte x natale, ma intanto offrono anche prodotti meno competitivi per i giochi ma con altre features -AVIVO- dedicate ad altri settori, per tastare già da subito la situazione per il futuro -R580 e derivati-)
halduemilauno
14-12-2005, 17:36
Secondo me è uno che si spaccia per ADG e si diverte su tutti i forum di Hardware.
Guardate anche qui (http://www.dinoxpc.com/News/news.asp?ID_News=9984&What=news)
Lo spero per lui..
no. quello è il suo capo. o cmq uno lo è dell'altro.
;)
PESCEDIMARZO
14-12-2005, 17:40
no. quello è il suo capo. o cmq uno lo è dell'altro.
;)
E io sono Babbo Natale :D .
halduemilauno
14-12-2005, 17:49
E io sono Babbo Natale :D .
veramente non sto scherzando sono due persone diverse.
;)
:doh: e cmq ora si spiega la differenziazione delle strategie:
nvidia -> aspettare a rilasciare 7300 e 7600 [desktop s'intende] per finire le scorte di 6x00 rimaste nel periodo natalizio e ricercate dal mercato (specie la 6800gs agp), così da non creare dei tappi e penalizzarsi da soli :fagiano:
ati -> se consideriamo i prezzi americani, la strategia è ben diversa, è più di "test" infatti x1300 e x1600 sono 2 entry-level sperimentali probabilmente in attesa del prox entry-level derivato da R580 del q1 2006, così lasciando le x1800 in fascia mid e R580 al top della gamma ... (ai conti fatti le x800 rimaste sono come le 6x00 della rivale: ne vogliono finire le scorte x natale, ma intanto offrono anche prodotti meno competitivi per i giochi ma con altre features -AVIVO- dedicate ad altri settori, per tastare già da subito la situazione per il futuro -R580 e derivati-)
Se come prevedibile, ATI vendera' le X800 nella stessa proporzione con la quale le ha vendute fino ad oggi nei confronti della serie 6800, penso che gliene rimarranno anche per il prossimo natale. Deve spingere su nuovi prodotti, quella serie gli ha fatto perdere quote importanti di mercato e "immagine". O le svende o se le tiene.
Per quanto riguarda nVidia, non si sente la mancanza di una "media", sarebbe giusto introdurla a fronte di qualcosa di sostanzioso nelle "feature" ad esempio un HDR con AA o consumi ridotti (di molto).
Se come prevedibile, ATI vendera' le X800 nella stessa proporzione con la quale le ha vendute fino ad oggi nei confronti della serie 6800, penso che gliene rimarranno anche per il prossimo natale. Deve spingere su nuovi prodotti, quella serie gli ha fatto perdere quote importanti di mercato e "immagine". O le svende o se le tiene.
Per quanto riguarda nVidia, non si sente la mancanza di una "media", sarebbe giusto introdurla a fronte di qualcosa di sostanzioso nelle "feature" ad esempio un HDR con AA o consumi ridotti (di molto).
veramente le stà vendendo a vagonate come attuale fascia media di mercato di Ati :D la gto e la gto2 stanno andando a ruba ;)
Secondo me è uno che si spaccia per ADG e si diverte su tutti i forum di Hardware.
Guardate anche qui (http://www.dinoxpc.com/News/news.asp?ID_News=9984&What=news)
Lo spero per lui..
Io mi butto!! :D
veramente le stà vendendo a vagonate come attuale fascia media di mercato di Ati :D la gto e la gto2 stanno andando a ruba ;)
Sono due buoni prodotti, ma tropo ritardatari. Una XT costa pochi € in piu' di una GTO2 (anche se non controllo i listini dei fornitori da qualche giorno) e la 6800GS e' un prodotto migliore, piu' conveniente e si trova senza problema alcuno in rete, inoltre, entro breve, arrivera' la 7x00 AGP.. Non vedo 'sto gran futuro per delle VGA MS2.0/2.0b.
Sono due buoni prodotti, ma tropo ritardatari. Una XT costa pochi € in piu' di una GTO2 (anche se non controllo i listini dei fornitori da qualche giorno) e la 6800GS e' un prodotto migliore, piu' conveniente e si trova senza problema alcuno in rete, inoltre, entro breve, arrivera' la 7x00 AGP.. Non vedo 'sto gran futuro per delle VGA MS2.0/2.0b.
Una tua opinione, poco condivisibile, e solamente per gli sm3.0 ;) che non sono chissa quale innovazione su :) gli sm2.0b sono più che sufficienti. Ma scusa, le schede basate su r420 e r480 secondo te non si trovano a vagonate nel mercato retail?
Una tua opinione, poco condivisibile, e solamente per gli sm3.0 ;) che non sono chissa quale innovazione su :) gli sm2.0b sono più che sufficienti. Ma scusa, le schede basate su r420 e r480 secondo te non si trovano a vagonate nel mercato retail?
Se ritieni che negli ultimi mesi di vita di quel chip possa esservi uno srint, sono affari tuoi, lo auguro a ATI. :)
All'atto pratico non ha mai venduto decentemente e non penso che ora che' e' anche vecchio (anche perche' altro non e' che un potenziamento di un'architettura vecchia come il cucco) vendera' maggiormente. Ho detto, tutto dipendera' dai prezzi. Svedendolo si potra' ricavare la sua nicchia, altrimenti seguira' i suoi parenti.
Che gli SM2.0b (per i pixel shader) e 2.0 (vertex) siano uguali ai 3.0 e' una (te lo dico in temini tecnici :D) cazzata. Se ne sei convinto, quelle VGA ti aspettano. ;)
edit
P.S. Chiediti perche' anche ATi e' passata (con assurdo ritardo fra l'altro) ai 3.0, sarebbe potuta passare direttamente ai 4.0 con la prossima generazione. Non penso le avanzassero transistor. :)
Se ritieni che negli ultimi mesi di vita di quel chip possa esservi uno srint, sono affari tuoi, lo auguro a ATI. :)
All'atto pratico non ha mai venduto decentemente e non penso che ora che' e' anche vecchio (anche perche' altro non e' che un potenziamento di un'architettura vecchia come il cucco) vendera' maggiormente. Ho detto, tutto dipendera' dai prezzi. Svedendolo si potra' ricavare la sua nicchia, altrimenti seguira' i suoi parenti.
Che gli SM2.0b (per i pixel shader) e 2.0 (vertex) siano uguali ai 3.0 e' una (te lo dico in temini tecnici :D) cazzata. Se ne sei convinto, quelle VGA ti aspettano. ;)
edit
P.S. Chiediti perche' anche ATi e' passata (con assurdo ritardo fra l'altro) ai 3.0, sarebbe potuta passare direttamente ai 4.0 con la prossima generazione. Non penso le avanzassero transistor. :)
infatti è una cazzata ed infatti non l'ho detto :D rileggi il mio messaggio è capirai quello che voluto dire (ma che fai non mi leggi i messaggi e li quoti?).
Quello che dici del poco mercato che hanno avuto questi chip è una tua opinione, poco verosimile... se vuoi mandami un link di un sondaggio di mercato in cui dice che queste schede hanno venduto poco :D (qua dentro è pieno di gente con queste schede? saranno una sparuta minoranza in italia? :read: )
halduemilauno
14-12-2005, 20:18
Se come prevedibile, ATI vendera' le X800 nella stessa proporzione con la quale le ha vendute fino ad oggi nei confronti della serie 6800, penso che gliene rimarranno anche per il prossimo natale. Deve spingere su nuovi prodotti, quella serie gli ha fatto perdere quote importanti di mercato e "immagine". O le svende o se le tiene.
Per quanto riguarda nVidia, non si sente la mancanza di una "media", sarebbe giusto introdurla a fronte di qualcosa di sostanzioso nelle "feature" ad esempio un HDR con AA o consumi ridotti (di molto).
una news di diverso tempo fa infatti diceva che il rapporto era sul doppio a favore delle 6800. e il trend andava verso il triplo.
cmq i più attenti sicuramente se la ricorderanno.
la media attuale è appunto la/le 6800. in particolare la gs il tutto in attesa delle 7600.
;)
MiKeLezZ
14-12-2005, 20:20
:doh: e cmq ora si spiega la differenziazione delle strategie:
nvidia -> aspettare a rilasciare 7300 e 7600 [desktop s'intende] per finire le scorte di 6x00 rimaste nel periodo natalizio e ricercate dal mercato (specie la 6800gs agp), così da non creare dei tappi e penalizzarsi da soli :fagiano: La strategia di nvidia è questa:
guadagnare il massimo, spendendo il minimo
fare uscire una 7000 di fascia media è del tutto inutile... e direi che hanno pure ragione ;)
ati -> se consideriamo i prezzi americani, la strategia è ben diversa, è più di "test" infatti x1300 e x1600 sono 2 entry-level sperimentali probabilmente in attesa del prox entry-level derivato da R580 del q1 2006, così lasciando le x1800 in fascia mid e R580 al top della gamma ... (ai conti fatti le x800 rimaste sono come le 6x00 della rivale: ne vogliono finire le scorte x natale, ma intanto offrono anche prodotti meno competitivi per i giochi ma con altre features -AVIVO- dedicate ad altri settori, per tastare già da subito la situazione per il futuro -R580 e derivati-)
Se tu andassi a chiederlo ai vertici ATI, neppure loro saprebbero risponderti in merito alla loro strategia.
Inizialmente doveva essere una cosa del tipo "mo facciamo uscire il chip nuovo e sfonnammo tutti", mutata poi in "la pari fascia ce sdruma debbrutto, abbassiamo i prezzi", per poi sfociare nel disperatissimo "ste schede diamogliele al costo... almeno ci rifacessimo dei costi... diavolo".
Il che non credo sia proprio il massimo
Una tua opinione, poco condivisibile, e solamente per gli sm3.0 ;) che non sono chissa quale innovazione su :) gli sm2.0b sono più che sufficienti. Ma scusa, le schede basate su r420 e r480 secondo te non si trovano a vagonate nel mercato retail?
Vabbè se non sono un'innovazione, a te SM2 a vita...
ma che mi toccca sentire... i SM3.0 sono tanta roba, guarda due test e renditene conto... che poi su schede di fascia media siano inutili, sono d'accordo
certo che ripeterlo 100 volte...
Secondo me è uno che si spaccia per ADG e si diverte su tutti i forum di Hardware.
Guardate anche qui (http://www.dinoxpc.com/News/news.asp?ID_News=9984&What=news)
Lo spero per lui..
La cosa più strana secondo me è che una persona adulta, che copre un ruolo di prestigio, e tutto il resto, si metta a scrivere in un forum "per plebei", ma soprattutto lo faccia alle ore 3.00 di notte.
Capisco l'amore per il proprio lavoro... Ma questo non è professionalmente normale.
infatti è una cazzata ed infatti non l'ho detto :D rileggi il mio messaggio è capirai quello che voluto dire (ma che fai non mi leggi i messaggi e li quoti?).
Quello che dici del poco mercato che hanno avuto questi chip è una tua opinione, poco verosimile... se vuoi mandami un link di un sondaggio di mercato in cui dice che queste schede hanno venduto poco :D (qua dentro è pieno di gente con queste schede? saranno una sparuta minoranza in italia? :read: )
La gente qua dentro non conta un cazzo per il mercato
Tutti insieme siamo l'1%
Dire che l'1% del mercato ha scelto la GTO non significa una pippa
Le scheda che vendon più di ATi son x700 e la mirabolante x300se
Sawato Onizuka
14-12-2005, 20:27
...ma soprattutto lo faccia alle ore 3.00 di notte.
Capisco l'amore per il proprio lavoro... Ma questo non è professionalmente normale.
ipotizzare che il tale in questione sia in una locazione con fuso orario diverso ? :mbe:
una news di diverso tempo fa infatti diceva che il rapporto era sul doppio a favore delle 6800. e il trend andava verso il triplo.
cmq i più attenti sicuramente se la ricorderanno.
la media attuale è appunto la/le 6800. in particolare la gs il tutto in attesa delle 7600.
;)
mi passi il link alla news... veramente mi sarà sfuggito ;)
@mikelezz
per la fascia media sono più che sufficienti gli sm2.0b :rolleyes:
halduemilauno
14-12-2005, 20:30
La strategia di nvidia è questa:
guadagnare il massimo, spendendo il minimo
fare uscire una 7000 di fascia media è del tutto inutile... e direi che hanno pure ragione ;)
Se tu andassi a chiederlo ai vertici ATI, neppure loro saprebbero risponderti in merito alla loro strategia.
Inizialmente doveva essere una cosa del tipo "mo facciamo uscire il chip nuovo e sfonnammo tutti", mutata poi in "la pari fascia ce sdruma debbrutto, abbassiamo i prezzi", per poi sfociare nel disperatissimo "ste schede diamogliele al costo... almeno ci rifacessimo dei costi... diavolo".
Il che non credo sia proprio il massimo
il bello o il brutto è che tutto questo è o dovrebbe essere sotto gli occhi di tutti.
;)
halduemilauno
14-12-2005, 20:35
mi passi il link alla news... veramente mi sarà sfuggito ;)
@mikelezz
per la fascia media sono più che sufficienti gli sm2.0b :rolleyes:
ricordo il sito xbits lab la news dava anche le cifre un milione e mezzo per le 6800 e 800.000 per le x800. con trend che andava verso i 2 milioni per le 6800. sto parlando di schede vendute al trimestre o al quadrimestre.
ricordo il sito xbits lab la news dava anche le cifre un milione e mezzo per le 6800 e 800.000 per le x800. con trend che andava verso i 2 milioni per le 6800. sto parlando di schede vendute al trimestre o al quadrimestre.
passamelo questo link che voglio leggerlo anche io :D
mi passi il link alla news... veramente mi sarà sfuggito ;)
@mikelezz
per la fascia media sono più che sufficienti gli sm2.0b :rolleyes:
Se vuoi ti passo i fatturati ATI. :)
_____________
X MiKeLezZ
Il discorso che i PS siano inutili su serie minori e' falso, permettono un notevole incremento delle prestazioni. Certo, (se ben) usati.
Chi ha detto che qui tutti comprano una GTO2?? mica sono tutti fessi, comprare una simile VGA a 250€ (prezzo medio buono) circa e' da babbei totali, sia perche' a meno si prende una 6800GS, sia perche' (se proprio si e' fan ATI) si prende una x850XT a 30€ in piu'..
Se vuoi ti passo i fatturati ATI. :)
_____________
X MiKeLezZ
Il discorso che i PS siano inutili su serie minori e' falso, permettono un notevole incremento delle prestazioni. Certo, (se ben) usati.
Chi ha detto che qui tutti comprano una GTO2?? mica sono tutti fessi, comprare una simile VGA a 250€ (prezzo medio buono) circa e' da babbei totali, sia perche' a meno si prende una 6800GS, sia perche' (se proprio si e' fan ATI) si prende una x850XT a 30€ in piu'..
ok mi piace leggere :D
se per 30€ in più si può prendere una x850XT... sta scheda è un'affare per la fascia media :read:
Una tua opinione, poco condivisibile, e solamente per gli sm3.0 ;) che non sono chissa quale innovazione su :) gli sm2.0b sono più che sufficienti. Ma scusa, le schede basate su r420 e r480 secondo te non si trovano a vagonate nel mercato retail?
Beh, T3d, ci sono alcune sostanziali differenze fra sm2.b e sm3.0. Principalmente il supporto al dynamic branching. C'e' tutta una classe di effetti che e' implementabile in sm2.b, ma che in sm3.0 risultano prestazionalmente usabili (piu' veloci per intenderci). Mi possono venire in mente su due piedi varianti del parallax mapping, oppure algoritmi di ray casting.
Beh, T3d, ci sono alcune sostanziali differenze fra sm2.b e sm3.0. Principalmente il supporto al dynamic branching. C'e' tutta una classe di effetti che e' implementabile in sm2.b, ma che in sm3.0 risultano prestazionalmente usabili (piu' veloci per intenderci). Mi possono venire in mente su due piedi varianti del parallax mapping, oppure algoritmi di ray casting.
questo è poco ma sicuro :read: la scheda 6800U è tecnologicamente superiore alle schede x8x0. Io parlavo di un giudizio soggettivo sulla necessità dei sm3.0 sulle schede di fascia media, fascia indirizzato a videogiocatori non incalliti che giocano sporadicamente :)
MiKeLezZ
14-12-2005, 21:25
X MiKeLezZ
Il discorso che i PS siano inutili su serie minori e' falso, permettono un notevole incremento delle prestazioni. Certo, (se ben) usati.
A dire il vero, attualmente sm2b e sm3, nei giochi, è un po' come dire "dettagli alti" e "dettagli altissimi", e infatti in AoEIII mi pare si setti proprio così.
http://www.tomshw.it/graphic.php?guide=20051202&page=vga_charts_viii-04#age_of_empires_iii
Quindi, attivare "dettagli altissimi" comporta un calcolo prestazionale non indifferente, a cui, appunto, giusto una 7800 o x1800 possono far fronte degnamente (vedere link).
Questo leggendo la specifica recensione su Tom's (che sarà anche di parte, ma su queste cose oggettive credo ci possiamo discutere poco sopra).
Attiva sm3 con una 6800U, per poi giocare a 20fps, non mi sembra il caso! :)
Chi ha detto che qui tutti comprano una GTO2?? mica sono tutti fessi, comprare una simile VGA a 250€ (prezzo medio buono) circa e' da babbei totali, sia perche' a meno si prende una 6800GS, sia perche' (se proprio si e' fan ATI) si prende una x850XT a 30€ in piu'..
Il problema è che la GTO2 sarebbe stata pure un affarone... L'idea era quella di venderla a 199€ (e la Club3D, infatti, ugualmente moddabile, sta a quel prezzo), peccato che il mercato con la domanda/offerta abbia fatto il resto... Così ora Sapphire ha colto la palla al balzo, e l'ha messa a 250€ di suo... Mica scema
Chi la compra invece della x850xt, in effetti deve avere i suoi perchè...
ipotizzare che il tale in questione sia in una locazione con fuso orario diverso ? :mbe:
Ma il country manager per l'Italia, che ci fa in una location diversa?
Ma soprattutto, ammettendo che effettivamente ci sia, è lì per svago, e per postare su hwupgrade, oppure avrà date mansioni (si pensa più importanti, dato che è all'estero), a cui dedicarsi?
A dire il vero, attualmente sm2b e sm3, nei giochi, è un po' come dire "dettagli alti" e "dettagli altissimi", e infatti in AoEIII mi pare si setti proprio così.
http://www.tomshw.it/graphic.php?guide=20051202&page=vga_charts_viii-04#age_of_empires_iii
Quindi, attivare "dettagli altissimi" comporta un calcolo prestazionale non indifferente, a cui, appunto, giusto una 7800 o x1800 possono far fronte degnamente (vedere link).
Questo leggendo la specifica recensione su Tom's (che sarà anche di parte, ma su queste cose oggettive credo ci possiamo discutere poco sopra).
Attiva sm3 con una 6800U, per poi giocare a 20fps, non mi sembra il caso! :)
Perche' no?? e' un gioco abbastanza calmo direi, non son il massimo della vita, ma ci si gioca degnamente. :)
Comuqnue gli SM3.0 possono essere usati in piu' modi, intendevo dire questo. Ci si possono anche velocizzare le stesse identiche operazioni dei 2.0. Per una fascia media e' molto utile.
Il problema è che la GTO2 sarebbe stata pure un affarone... L'idea era quella di venderla a 199€ (e la Club3D, infatti, ugualmente moddabile, sta a quel prezzo), peccato che il mercato con la domanda/offerta abbia fatto il resto... Così ora Sapphire ha colto la palla al balzo, e l'ha messa a 250€ di suo... Mica scema
Chi la compra invece della x850xt, in effetti deve avere i suoi perchè...
Scusa, se hai 230€ compri uan GTO2 anziche' una GS?? se proprio vuoi ATI a tutti i costi, spendi 30€ in piu' e prendi una ben migliore 850XT. Certo, a 200€ sarebbe gia' differente.. anche se sempre con i soliti 30€ (anche meno) prendi sempre la suddetta GS e se cerchi bene anche una GT. :)
walter89
15-12-2005, 17:43
Ma mi spiegate una cosa?
Negli shop si continuano a vendere x800xl sui 240 € e x850 xt sui 290 €.
Le 6800 gt e le 6800 ultra sono sparite (con l'avvento della serie 7).
Così Nvidia ha avuto la strabiliante idea di cambiare nome alla 6800 GT, castrandogli 4 pipepelines e alzandogli le frequenze e + o - (secondo me -) la stessa capacità di elebarozaione di una 6800 GT? :confused: :confused:
Ho detto bene?
Se ne deduce che nella fascia media la 6800 gs è la migliore per il supporto agli shader 3.0.
Nella fascia medio-alta la x850 xt a quei prezzi 290 € è un ottimo acquisto per me: io infatti ho fatto così.
Cmq la recensione non è che ci azzecchi molto visto che riguarda due schede che coprono fasce di mercato diverse: medio bassa 190 € la x1600xt media la 6800gs 240 €.
Per me la x1600xt è una scheda molto buona e una valida alternatia alla GTO non dal punto di vista elaborativo/prestazionale ma bensì tecnologico.
Bye
MiKeLezZ
15-12-2005, 21:08
Perche' no?? e' un gioco abbastanza calmo direi, non son il massimo della vita, ma ci si gioca degnamente. :)
Comuqnue gli SM3.0 possono essere usati in piu' modi, intendevo dire questo. Ci si possono anche velocizzare le stesse identiche operazioni dei 2.0. Per una fascia media e' molto utile. Era un esempio... Se era uno shootemup il discorso era il medesimo.
Potrebbero velocizzare, ma per ora il trend è quello di usarli per aggiungere effetti... Quindi avere una VGA di fascia bassa SM3 è discretamente inutile.
Scusa, se hai 230€ compri uan GTO2 anziche' una GS?? se proprio vuoi ATI a tutti i costi, spendi 30€ in piu' e prendi una ben migliore 850XT.E' quello che ho detto pure io.
Certo, a 200€ sarebbe gia' differente.. anche se sempre con i soliti 30€ (anche meno) prendi sempre la suddetta GS e se cerchi bene anche una GT. :)Per questi 30€ in meno, comincia a diventare estremamente conveniente, anche di fronte alla GS.
Ma mi spiegate una cosa?
Negli shop si continuano a vendere x800xl sui 240 € e x850 xt sui 290 €.
Le 6800 gt e le 6800 ultra sono sparite (con l'avvento della serie 7).
Così Nvidia ha avuto la strabiliante idea di cambiare nome alla 6800 GT, castrandogli 4 pipepelines e alzandogli le frequenze e + o - (secondo me -) la stessa capacità di elebarozaione di una 6800 GT? :confused: :confused:
Ho detto bene?
Se ne deduce che nella fascia media la 6800 gs è la migliore per il supporto agli shader 3.0.Sì.
Nella fascia medio-alta la x850 xt a quei prezzi 290 € è un ottimo acquisto per me: io infatti ho fatto così.Mha. Io avrei preso 7800GT/X1800XL. Anche per un fatto di deprezzamento e supporto.
Cmq la recensione non è che ci azzecchi molto visto che riguarda due schede che coprono fasce di mercato diverse: medio bassa 190 € la x1600xt media la 6800gs 240 €.Sembra che nvidia voglia portarle a 200€ :)
Per me la x1600xt è una scheda molto buona e una valida alternatia alla GTO non dal punto di vista elaborativo/prestazionale ma bensì tecnologico.
Bye
Tecnologico? Spiegati meglio.
int main ()
17-12-2005, 01:42
paragonare la 9800 pro alla 6600 secondo me nn è nemmeno pensabile è tutta n'altra potenza la 6600!!! cmq contenti voi :O
per quanto riguarda ati il suo momento di splendore l'ha avuto solo dalla serie 96xx e 98xx e basta le altre nn servono a niente nvidia roxxa dalle 6xxx sono sempre + potenti delle ati di stessa fascia e il fatto che voi difendiate ati nonostante l'evidenza è un pò.....l'unica scheda che si salva è la x850xt pe che ha una potenza straordinaria e tiene testa in alcune cose alla mia 7800gt! :read: le altre tutte a casa! perkè nvidia è legge da sempre è stato così e continuerà ad esserlo per sempre! :cool: :cool:
ma nn dimentichiamoci i vecchi modelli nvidiAA la mitica e favolosa serie TI (TI4200, 4600,4800) :sofico: :sofico:
nvidia for ever ati solo per la fascia high end è buona
int main (): dovresti diminuire la dimensione della tua firma, così com'è occupa troppo spazio...
int main ()
17-12-2005, 09:32
va bene così?
Dovresti ridurrre di parecchio la dimensione dell'ultima riga...
int main ()
17-12-2005, 10:08
Dovresti ridurrre di parecchio la dimensione dell'ultima riga...
spero che vada bene adesso :ncomment: :sofico: :sofico:
cmq sempre e solo manowar style!!!!!!!!
:cool:
Leva la riga vuota e sei a posto ;) Altrimenti va su 4 righe (la prima va a capo)...
Capiscco che ti piacciano i Manowar, ma così com'è devi scegliere fra Manowar e Nvidia, le righe di testo devono essere 3 a 1024x768...con al max 3 smiles...
int main ()
17-12-2005, 10:13
:cool:
Leva la riga vuota e sei a posto ;) Altrimenti va su 4 righe (la prima va a capo)...
dai dimmi ora :D
Capiscco che ti piacciano i Manowar, ma così com'è devi scegliere fra Manowar e Nvidia, le righe di testo devono essere 3 a 1024x768...con al max 3 smiles...
:D
int main ()
17-12-2005, 10:15
:D
ma dai fai no strappo alla regola:D chiudi gli occhi e via :sofico:
ho tolto l'emoticon ad nvidia..così va bene? :help:
int main ()
17-12-2005, 10:23
non costringermi a scegliere tra il piacere nvidia ed il dovere MANOWAR :cry: :cry: :cry: :cry: :cry:
Allora riduci la prima riga :D Oppure metti Nvidia e Manowar sulla stessa riga...
int main ()
17-12-2005, 10:33
ok fatto asd :sofico:
Sawato Onizuka
17-12-2005, 13:47
ok fatto asd
hai pvt
walter89
17-12-2005, 14:30
Tecnologico? Spiegati meglio.
Avivo e HDR + AA ;)
MiKeLezZ
17-12-2005, 15:00
Avivo e HDR + AA ;)
HDR+AA:
Giusto, peccato che manchi invece di un buon supporto OpenGL (molti giochi infatti arrancano) e non supporti il vertex texturing (cosa invece presente nei prodotti nvidia). Questo taglia le gambe a molti giochi, certamente più del non usare una cosa inutile.
Inoltre nell'uso degli SM3.0 hanno cali più consistenti.
AVIVO:
Per ora, si parla solo di:
- riproduzione dvd peggiore rispetto al purevideo
- accelerazione h.264 parziale (cosa che comunque nvidia sta implementando, e probabilmente non in modo parziale), ovvero con la x1600 non acceleri i 1080
- encoding farlocco, in realtà è solo un encoding software via cpu ottimizzato, nulla che usi la vpu
Quindi, ripeto, dove è questo predominio "tecnologico"?
Schiavo anche tu del marketing?
HDR+AA:
Giusto, peccato che manchi invece di un buon supporto OpenGL (molti giochi infatti arrancano)
Non sei certo imparziale con affermazioni del genere! ;)
Il supporto OpenGL di Ati nei giochi è ottimo (era pessimo anni fa)... semplicemente quello di nvidia è uno scalino sopra... ma da qua a dire che i giochi "arrancano" ne passa!!!
ps: con al mia 6800 non ho nessuna accelerazione hardware dei video vmw9 a causa del bug del chip nv40 (purevideo non lo supporta)... con la ati invece nessun problema con la serie x800... questo però non l'hai detto! ;)
yossarian
17-12-2005, 15:10
HDR+AA:
Giusto, peccato che manchi invece di un buon supporto OpenGL (molti giochi infatti arrancano) e non supporti il vertex texturing (cosa invece presente nei prodotti nvidia).
Inoltre nell'uso degli SM3.0 hanno cali più consistenti.
AVIVO:
Per ora, si parla solo di:
- riproduzione dvd peggiore rispetto al purevideo
- accelerazione h.264 parziale (cosa che comunque nvidia sta implementando, e probabilmente non in modo parziale), ovvero con la x1600 non acceleri i 1080
- encoding farlocco, in realtà è solo un encoding software via cpu ottimizzato, nulla che usi la vpu
Quindi, ripeto, dove è questo predominio "tecnologico"?
quella del vertex texturing è una finta mancanza; se ne è già discusso abbondantemente in altri thread. Le tmu presenti nei vertex shader dei chip NV fanno solo texture fetch e texture lookup con filtraggio point sampling (non a caso, il buffer in cui finiscono le texture elaborate dalle tmu dei vs e quelle elaborate da quelle dei ps dei chip NV è lo stesso); sono quindi tmu dalle funzionalità molto limitate. In assenza di tali tmu si possono utilizzare delle tecniche altenative che coinvolgano direttamente le tmu presenti nelle pixel pipeline (sono sufficienti semplici istruzioni che permettono di rendere i risultati delle operazioni di texturing direttamente accessibili dalle vertex unit; la tecnica è analoga a quella adoperata nei chip a shader unificati).
Per quanto riguarda AVIVO, intento è da verificare quanto riportato da elite bastards; inoltre, l'articolo parla del supporto fornito dai 5.13, non della funzionalità AVIVO. Non a caso, c'è scritto "al momento è implementato via SW" (o qualcosa del genere).
int main ()
17-12-2005, 15:14
HDR+AA:
Giusto, peccato che manchi invece di un buon supporto OpenGL (molti giochi infatti arrancano) e non supporti il vertex texturing (cosa invece presente nei prodotti nvidia). Questo taglia le gambe a molti giochi, certamente più del non usare una cosa inutile.
Inoltre nell'uso degli SM3.0 hanno cali più consistenti.
AVIVO:
Per ora, si parla solo di:
- riproduzione dvd peggiore rispetto al purevideo
- accelerazione h.264 parziale (cosa che comunque nvidia sta implementando, e probabilmente non in modo parziale), ovvero con la x1600 non acceleri i 1080
- encoding farlocco, in realtà è solo un encoding software via cpu ottimizzato, nulla che usi la vpu
Quindi, ripeto, dove è questo predominio "tecnologico"?
Schiavo anche tu del marketing?
up nvidia ati ormai nn la raggiunge +!! se continua così va a finire come la sony contro la xbox 360!!!
da quando nvidia ha avuto il coraggio d Passare agli sm3.0 ati è rimasta sui 2 e la gente le comprava solo perkè avevano i processori + potenti delle gforce e quindi gli tenevano testa ma in fatto d qualità erano dietro anni luce ASD e sopratutto se nvidia con la serie nv 40 avesse uppato i processori alle frequenze delle ati rv480 ati sarebbe stata spazzata via completamente!!! perkè poi si che la potenza nvidia si vedeva e la mankanza d sm3.0 nelle ati si sentiva!! :read: e cmq il purevideo è na figata assurda!!!
:ciapet: ATI :ciapet:
:winner: :O NVIDIA :O :winner:
MiKeLezZ
17-12-2005, 15:24
Non sei certo imparziale con affermazioni del genere! ;)
Il supporto OpenGL di Ati nei giochi è ottimo (era pessimo anni fa)... semplicemente quello di nvidia è uno scalino sopra... ma da qua a dire che i giochi "arrancano" ne passa!!!
A quanto pare il supporto OpenGL è migliorato solo:
- per la serie x1x00
- per Quake4 e Doom3
Per referenze, puoi controllare qua:
http://www.xbitlabs.com/articles/video/display/sapphire-x1800xl.html
e qua (dove c'è tutta l'evoluzione dei catalyst):
http://www.anandtech.com/video/showdoc.aspx?i=2640
Se un gioco su x1800xl va a 10/20 fps minimi, invece che 30/35fps sulla 7800gt, significa che il gioco "arranca" (anzi, è proprio ingiocabile).
Io spero che tu sia d'accordo con me in questo :) .
Sono il massimo dell'imparzialità, visto che di tutte le cose che dico fornisco ampie argomentazioni (mentre invece il tizio che parla di "supremazia tecnologica", si riempie la bocca solo di aria).
quella del vertex texturing è una finta mancanza; se ne è già discusso abbondantemente in altri thread. Le tmu presenti nei vertex shader dei chip NV fanno solo texture fetch e texture lookup con filtraggio point sampling; sono quindi tmu dalle funzionalità molto limitate. In assenza di tali tmu si possono utilizzare delle tecniche altenative che coinvolgano direttamente le tmu presenti nelle pixel pipeline (sono sufficienti semplici istruzioni che permettono di rendere i risultati delle operazioni di texturing direttamente accessibili dalle vertex unit; la tecnica è analoga a quella adoperata nei chip a shader unificati).
Saranno anche tmu limitate, non ha importanza.
Il discorso è che tale mancanza inficia pesantemente i risultati nei giochi.
Mi sembra che l'importante alla fine sia solo questo, non l'avere o meno tmu "fully functional", e via dicendo.
Quelle tecniche alternative evidentemente non sono usate, così come non sono usate quelle per avere HDR+AA su GPU che non permettono la full precision (vedi Lost Coast).
Alla fine contano solo i risultati.
Per quanto riguarda AVIVO, intento è da verificare quanto riportato da elite bastards; inoltre, l'articolo parla del supporto fornito dai 5.13, non della funzionalità AVIVO. Non a caso, c'è scritto "al momento è implementato via SW" (o qualcosa del genere).
Qua trovi qualcosa di più completo, e tangibile:
http://www.anandtech.com/video/showdoc.aspx?i=2645
Ne stiamo comunque parlando sulla news relativa di hwupgrade.
Per il supporto VPU, ATI è stata MOLTO vaga a proposito, dice ci sia la possibilità, e che ci sta lavorando, ma allora, non vedo la differenza fra lei e nvidia, visto l'identica programmabilità del purevideo, che potrebbe riuscire a fare le stesse cose...
Qua c'è gente che parla di "superiorità" portando come esempio cose non esistenti.. mi sembra abbastanza ridicolo.
Sono 3 mesi che aspettiamo tutto il pacchetto AVIVO, e ora escono questi driver beta, buggati, con metà delle funzioni.
Mi chiedo se non sia il caso non siate un po' più critici sulle cose.
up nvidia ati ormai nn la raggiunge +!! se continua così va a finire come la sony contro la xbox 360!!!
da quando nvidia ha avuto il coraggio d Passare agli sm3.0 ati è rimasta sui 2 e la gente le comprava solo perkè avevano i processori + potenti delle gforce e quindi gli tenevano testa ma in fatto d qualità erano dietro anni luce ASD e sopratutto se nvidia con la serie nv 40 avesse uppato i processori alle frequenze delle ati rv480 ati sarebbe stata spazzata via completamente!!! perkè poi si che la potenza nvidia si vedeva e la mankanza d sm3.0 nelle ati si sentiva!! :read: e cmq il purevideo è na figata assurda!!!
:ciapet: ATI :ciapet:
:winner: :O NVIDIA :O :winner:
1. Quanti anni hai?! :) Spero x te pochi...
2. Post da tifoso così smaccatamente di parte non sono bene accetti su questo forum!
3. Hai sopattutto scritto un'ENORME accozzaglia di fregnacce!!!
- La qualità di visualizzazione di Ati è almeno pari a quella di Nvidia, visto che giochi che sfruttano l'sm ce ne sono 2/3 e quelli che lo usano lo sfruttano per il metodo di calcolo e non per fare nuovi effetti (tranne forse AoE 3).
- Anzi l'AA di Ati è imho superiore come qualità
- "sopratutto se nvidia con la serie nv 40 avesse uppato i processori alle frequenze delle ati rv480 "... questa poi è stupenda! :D sono 2 architetture DIVERSE!... Ati ha puntato sulle frequenze.. nvidia no!... Le schede vanno confrontate a default, ma che scherziamo!? ,,,che senso ha dire "se overclocchiamo le nvidia"... è come se dicessi "se mio nonno avesse avuto le ruote allora era una carriola" :rolleyes:
Qua trovi qualcosa di più completo, e tangibile:
http://www.anandtech.com/video/showdoc.aspx?i=2645
Per il supporto VPU, ATI è MOLTO MOLTO vaga a proposito, dice ci sia la possibilità, e di starci lavorando, ma allora, non vedo la differenza fra nvidia, visto l'identica programmabilità del purevideo, che potrebbe riuscire a fare le stesse cose...
... e di questo che mi dici (l'avevo aggiunto dopo nel mio post)?!
"con la mia 6800 non ho nessuna accelerazione hardware dei video vmw9 a causa del bug del chip nv40 (purevideo non lo supporta)... con la ati invece nessun problema con la serie x800... "
MiKeLezZ
17-12-2005, 15:35
... e di questo che mi dici (l'avevo aggiunto dopo nel mio post)?!
"con la mia 6800 non ho nessuna accelerazione hardware dei video vmw9 a causa del bug del chip nv40 (purevideo non lo supporta)... con la ati invece nessun problema con la serie x800... "
Un comportamento scorretto, ma non vedo il nesso.
Anche ATI anni fa fece una cosa del genere con R300 e "la funzione per smussare gli angoli dei poligoni" (non mi ricordo come si chiama).
Qua al limite si parla di X1600 e 6800GS, e quest'ultima ha un chip pienamente funzionante, così come tutta la serie 7, le 6800 liscie, e via dicendo.
ah beata ignoranza ;) mikelezz... prima di parlare delle funzionalità "buggate" di AVIVO con i driver 5.13, ti consiglierei di leggere questa recensione ;)
http://firingsquad.com/hardware/ati_catalyst_5.13_video_quality/
è una analisi moooooolto più approfondita di quella fatta da Anandtech :rolleyes:
Saranno anche tmu limitate, non ha importanza.
Il discorso è che tale mancanza inficia pesantemente i risultati nei giochi.
Mi sembra che l'importante alla fine sia solo questo, non l'avere o meno tmu "fully functional", e via dicendo.
Quelle tecniche alternative evidentemente non sono usate, così come non sono usate quelle per avere HDR+AA su GPU che non permettono la full precision (vedi Lost Coast).
Alla fine contano solo i risultati.
questo è tutto da dimostrare... yossarian ti ha già detto che ci sono metodi alternativi per fare le stesse cose senza avere degradi nelle prestazioni. Poi sta cosa è oldissima, se ne parlava da due mesi :rolleyes:
MiKeLezZ
17-12-2005, 15:43
ah beata ignoranza ;) mikelezz... prima di parlare delle funzionalità "buggate" di AVIVO con i driver 5.13, ti consiglierei di leggere questa recensione ;)
http://firingsquad.com/hardware/ati_catalyst_5.13_video_quality/
è una analisi moooooolto più approfondita di quella fatta da Anandtech :rolleyes:
Da che pulpito... :rolleyes: poi parlare di ignoranza per una cosa uscita ieri, è buffo.
Son felice se entri in discussione e apporti nuovo materiale da esaminare, ma il tuo modo di farlo è bizzarro, sembra come se sia tu colui che detiene il Verbo e ha la Sacra Missione di diffonderlo.
Il sito non è dei più autorevoli, ma ora lo leggerò volentieri.
questo è tutto da dimostrare... yossarian ti ha già detto che ci sono metodi alternativi per fare le stesse cose senza avere degradi nelle prestazioni. Poi sta cosa è oldissima, se ne parlava da due mesi :rolleyes:
We.. segugio.. Il problema è che l'ho pure dimostrato.
Leggi
Comprendi
Rispondi
Argomenta
Hai saltato parecchi passaggi.
We.. segugio.. Il problema è che l'ho pure dimostrato.
Hai saltato parecchi passaggi.
dove hai dimostrato che la mancanza vertex texturing degrada le prestazioni nei giochi? :what:
MiKeLezZ
17-12-2005, 15:50
dove hai dimostrato che la mancanza vertex texturing degrada le prestazioni nei giochi? :what:
http://www.xbitlabs.com/articles/video/display/sapphire-x1800xl_18.html
Riguardo l'articolo, sono alla seconda pagina, ma forse ho capito dove si va a parare.
Ripeto, hai di nuovo saltato parecchi passaggi.
Estratto dalla mini-recensione di anandtech:
The other item we didn't touch on that makes its appearance in the Catalyst 5.13 drivers is significantly improved video playback quality. ATI didn't have all of their Avivo ducks in a row when the X1000 series launched, but with Catalyst 5.13 they are looking to improve a number of the issues we noted in our first Avivo video quality article. We will be working on a follow-up to that piece in the near future to take a look at exactly what Catalyst 5.13 brings us in terms of video quality.
edit: io aspetto anzi quella di anandtech :rolleyes:
Un comportamento scorretto, ma non vedo il nesso.
Anche ATI anni fa fece una cosa del genere con R300 e "la funzione per smussare gli angoli dei poligoni" (non mi ricordo come si chiama).
Qua al limite si parla di X1600 e 6800GS, e quest'ultima ha un chip pienamente funzionante, così come tutta la serie 7, le 6800 liscie, e via dicendo.
Si chiamava truform... e fu introdotta in r200... e andava benissimo nei giochi che la supportavano! (never winter nights era favoloso)... che colpa ne ebbe ati se gli sviluppatori non la supportarono?!... :confused: La storia è piena di feature che non ebbero seguito... io parlavo dinvece di un vero e proprio BUG "nascosto" da nvidia... (ahhh.. tutti i chip nv40 x agp ne sono affetti, quindi anche le 6800le e 6800 liscie... solo la versione pci express di nv40 a 12 pipe non moddabile ne è esente...)
http://www.xbitlabs.com/articles/video/display/sapphire-x1800xl_18.html
Riguardo l'articolo, sono alla seconda pagina, ma forse ho capito dove si va a parare.
Ripeto, hai di nuovo saltato parecchi passaggi.
Graphics processors from the RADEON X1000 series do not support vertex texturing, but flight sims from Maddox Games do use this feature. That’s why the Shader Model 3.0 rendering mode of Pacific Fighters does not work with RADEON X1000 cards. Yet even working in the game’s Shader Model 2.0 mode, the Sapphire RADEON X1800 XL is by far slower than the GeForce 7800 GT. High fps rate is no less important for a flight sim than for a shooter with first-person view. It means that this game won’t be playable on the reviewed graphics card at high resolutions.
boh io lo vedo come un semplice bug... non attiva gli sm3.0 a causa della mancanza delle vertex texturing, se gli sviluppatori avessero usato il metodo alternativo di yossarian... probabilmente questo bug non sussisterebbe :)
p.s. hai letto l'articolo? i catalyst 5.13 sono proprio buggati eh :stordita:
int main ()
17-12-2005, 16:00
1. Quanti anni hai?! :) Spero x te pochi...
2. Post da tifoso così smaccatamente di parte non sono bene accetti su questo forum!
3. Hai sopattutto scritto un'ENORME accozzaglia di fregnacce!!!
- La qualità di visualizzazione di Ati è almeno pari a quella di Nvidia, visto che giochi che sfruttano l'sm ce ne sono 2/3 e quelli che lo usano lo sfruttano per il metodo di calcolo e non per fare nuovi effetti (tranne forse AoE 3).
- Anzi l'AA di Ati è imho superiore come qualità
- "sopratutto se nvidia con la serie nv 40 avesse uppato i processori alle frequenze delle ati rv480 "... questa poi è stupenda! :D sono 2 architetture DIVERSE!... Ati ha puntato sulle frequenze.. nvidia no!... Le schede vanno confrontate a default, ma che scherziamo!? ,,,che senso ha dire "se overclocchiamo le nvidia"... è come se dicessi "se mio nonno avesse avuto le ruote allora era una carriola" :rolleyes:
io intendevo dire che se nvidia fosse stata messa a parità d clock delle ati nn c sarebbe stata storia!!!ed è così è inutile nominare le differenti architetture!! perkè è la stessa cosa tra amd ed intel e potrei paragonare nvidia ad AMD mentre ati a INTEL perkè amd come nvidia nonostante abbia frequenze d core molto + basse del "pentium/ati" è comunque la migliore scelta per giokare invece intel e ati puntano sulle frequenze...però ati è sempre una strabuona scheda!! anke se starà epr sempre dietro ad nvidia e nn sono d parte! perkè ho un p4 e la 9600xt ASD che però da mercoledì passerà ad amd e 7800gt! quindi è inutile che scrivi che sono di parte io ho detto la mia e ne vado fiero è un mio pensiero "IMHO" :sofico:
MiKeLezZ
17-12-2005, 16:08
Si chiamava truform... e fu introdotta in r200... e andava benissimo nei giochi che la supportavano! (never winter nights era favoloso)... che colpa ne ebbe ati se gli sviluppatori non la supportarono?!... :confused: La storia è piena di feature che non ebbero seguito... io parlavo dinvece di un vero e proprio BUG "nascosto" da nvidia... (ahhh.. tutti i chip nv40 x agp ne sono affetti, quindi anche le 6800le e 6800 liscie... solo la versione pci express di nv40 a 12 pipe non moddabile ne è esente...)
Sì.. ecco.. ma mi ricordo ci fu una discussione proprio perchè fu introdotto in R200, ma fino a R300 non era utilizzabile (anche qui il chip era castrato).
Io son d'accordo sia un bug nascosto.. ecc.. ma io non ho colpe :(
Graphics processors from the RADEON X1000 series do not support vertex texturing, but flight sims from Maddox Games do use this feature. That’s why the Shader Model 3.0 rendering mode of Pacific Fighters does not work with RADEON X1000 cards. Yet even working in the game’s Shader Model 2.0 mode, the Sapphire RADEON X1800 XL is by far slower than the GeForce 7800 GT. High fps rate is no less important for a flight sim than for a shooter with first-person view. It means that this game won’t be playable on the reviewed graphics card at high resolutions.
boh io lo vedo come un semplice bug... non attiva gli sm3.0 a causa della mancanza delle vertex texturing, se gli sviluppatori avessero usato il metodo alternativo di yossarian... probabilmente questo bug non sussisterebbe :) Ah bhe... Allora è buggato pure Serious Sam 2 perchè non mi fa usare HDR+AA... ma che discorsi... :rolleyes:
E' una mancata funzionalità.
Poi dicono a me che non sono oggettivo.
Sul fatto che ne parlate da 2 mesi... e io che ne so.. l'ho saputo ora.
Ne parlate così tanto che ve ne dimenticate sempre.. però dell'AA+HDR lo sa pure mio nonno, da tanto che viene scritto.
p.s. hai letto l'articolo? i catalyst 5.13 sono proprio buggati eh :stordita:Sì sono buggati nelle funzionalità AVIVO (encoding, h.264 decoding).
La qualità di riproduzione DVD è però migliorata consistentemente.
Tutte cose scritte da tempo.
Tutto ciò che ho scritto è sempre valido.
Mi domando quindi sul perchè della tua uscita, sembrava quasi che avessi detto qualche abominio, invece no, volevi solo precisare una cosa non inertente alla discussione, non importante, di cui nessuno stava parlando, e comunque sottolineata nello stesso articolo che denigravi. Inoltre non c'entrava un cazzo con l'articolo di anandtech.
NON SOLO!!!
Oltretutto, sono pure buggati:
http://firingsquad.com/hardware/ati_catalyst_5.13_video_quality/page10.asp
MHA!!!
Una sola parola: INUTILE!!!
yossarian
17-12-2005, 16:14
Saranno anche tmu limitate, non ha importanza.
Il discorso è che tale mancanza inficia pesantemente i risultati nei giochi.
Mi sembra che l'importante alla fine sia solo questo, non l'avere o meno tmu "fully functional", e via dicendo.
Quelle tecniche alternative evidentemente non sono usate, così come non sono usate quelle per avere HDR+AA su GPU che non permettono la full precision (vedi Lost Coast).
Alla fine contano solo i risultati.
non limita un bel niente; basta una patch per risolvere il problema :D
Se vogliamo essere pignoli, il modello di rasterizzazione di G70 non è perfettamente aderente alle specifiche sm3.0 (tanto che non ha passato il test). Questo significa che non è sm3.0 full compliant? O che ci sono pesanti limitazioni nei giochi che fanno uso di sm3.0?
In realtà, l'unica reale limitazione è la scarsa efficienza del db
Qua trovi qualcosa di più completo, e tangibile:
http://www.anandtech.com/video/showdoc.aspx?i=2645
Ne stiamo comunque parlando sulla news relativa di hwupgrade.
Per il supporto VPU, ATI è stata MOLTO vaga a proposito, dice ci sia la possibilità, e che ci sta lavorando, ma allora, non vedo la differenza fra lei e nvidia, visto l'identica programmabilità del purevideo, che potrebbe riuscire a fare le stesse cose...
Qua c'è gente che parla di "superiorità" portando come esempio cose non esistenti.. mi sembra abbastanza ridicolo.
Sono 3 mesi che aspettiamo tutto il pacchetto AVIVO, e ora escono questi driver beta, buggati, con metà delle funzioni.
Mi chiedo se non sia il caso non siate un po' più critici sulle cose.
il pure video, su NV40 ha il motore HW buggato, su G70, se non erro, è stata del tutto rimossa la funzionalità HW
Sì.. ecco.. ma mi ricordo ci fu una discussione proprio perchè fu introdotto in R200, ma fino a R300 non era utilizzabile (anche qui il chip era castrato).
Il discorso è un po' diverso (poi chiudiamo l'OT)... il truform funzionava perfettamente sia in r200 (ati 8500) che in r300 (ati 9700)... ma nella prima era implementato in hardware!... io avevo la 8500 e andava da dio senza perdita di prestazioni... chi invece lo attivava in r300 perdeva un bel po' di performance, perché l'effetto era emulato via driver... cosa che ha fatto incacchiare alcuni possessori della allora appena uscita 9700...
Fu una decisione di ati (garantirne il supporto almeno via software) in quanto lo scarso successo della tecnologia in questione li indusse a non implementare più in hardware questa funzione...
Ah bhe... Allora è buggato pure Serious Sam 2 perchè non mi fa usare HDR+AA... ma che discorsi... :rolleyes:
E' una mancata funzionalità.
Poi dicono a me che non sono oggettivo.
Sul fatto che ne parlate da 2 mesi... e io che ne so.. l'ho saputo ora.
Ne parlate così tanto che ve ne dimenticate sempre.. però dell'AA+HDR lo sa pure mio nonno, da tanto che viene scritto.
beh che centra... non esiste un metodo alternativo per fare l'HDR+AA!!! ce ne solo uno e il G70 non ha l'architettura per farlo. Invece il vertex texturing può essere fatto pure su schede ATi, credo una patch per Pacific Fighter possa risolvere il problema. E' logico che se non lo si fa le prestazioni decadono ;) mi sembra chiaro come il sole
Sì sono buggati nelle funzionalità AVIVO (encoding, h.264 decoding).
dove? :what:
Ma ancora con questa storia... ATi è sempre stata e sarà presumibilmente uno scalino sopra sulla riproduzione video e sulle features video.
Così come nVidia è uno scalino sopra ad OpenGL... poi è questione di esigenze.
Ma soprattutto, PureVideo funziona con il suo lettore proprietario che per altro è a pagamento, questo nn ce lo mettiamo?
Il truform funzionava benissimo sulla R200, anzi pure troppo, mi ricordo che Serious Sam Second Encounter quando lo attivavi era tutto bombato (il ponte all'inizio, quello quando Sam dice "guarda mamma sono un taglialegna :sofico: ), ma qui è colpa dei programmatori probabilmente.
E cmq parlate di qualcosa che ancora nn è uscito in versione definitiva (Catalyst 5.13) quindi inutili sono questi discorsi.
yossarian
17-12-2005, 16:19
Io son d'accordo sia un bug nascosto.. ecc.. ma io non ho colpe :(
Ah bhe... Allora è buggato pure Serious Sam 2 perchè non mi fa usare HDR+AA... ma che discorsi... :rolleyes:
E' una mancata funzionalità.
Poi dicono a me che non sono oggettivo.
Sul fatto che ne parlate da 2 mesi... e io che ne so.. l'ho saputo ora.
Ne parlate così tanto che ve ne dimenticate sempre.. però dell'AA+HDR lo sa pure mio nonno, da tanto che viene scritto.
non è la stessa cosa; R520 può fare accesso al texture buffer sa vertex shader in maniera alternativa, G70 non può in alcun modo fare fp blending sullo stesso render target del MSAA.
Si può utilizzare il procedimento di lost coast, con tone mapping all'uscita dal pixel processor, ma è una procedura applicabile anche su R4x0 e R3x0, in quanto le rop's non fanno blending in fp ma con valori interi
per quanto riguarda il truform, le cose stanno diversamente. Il truform non è altro che un metodo per fare HOS tramite n-patches. Su R200, non solo funzionava, ma aveva un'unità dedicata per farlo; su R3x0, invece, questa unità dedicata non è più stata utilizzata, eprchè lo sm2.0 prevede l'utilizzo di n-patches per fare HOS e il supporto HW era fornito direttamente dai vs (quelli di R200 non erano in grado di farlo, per cui era necessaria l'unità di calcolo dedicata).
Per T3d: i metodi alternativi non sono miei (a livello di istruzioni, fek li conosce molto meglio di me; anzi, di questa storia ne eravamo e conoscenza e ne avevamo parlato qualche mese prima che usciorsse R520) :D
per Raven: l'AF di R520 è superiore a quello di NV; con l'AA, grosso, modo, il livello è lo steso. ATi ha il vantaggio di poter utilizzare il 6x in virtù di una griglia "rotante" (che è quella che permette di utilizare il TAA e che funziona così dai tempi di R300); ma il 4x di ATi e quello di nVIDIA, a livello di efficacia di AA, sono pressochè uguali (quello di ATi può avere, in alcuni casi, una resa apparentemente migliore a causa della gamma correction, ma a livello di attenuazione delle scalettature sono del tutto equivalenti). Quello qualitativamente supeiore è l'8xs di nv, che, però, a causa anche della componente di SS, abbatte completamente le prestazioni
io intendevo dire che se nvidia fosse stata messa a parità d clock delle ati nn c sarebbe stata storia!!!ed è così è inutile nominare le differenti architetture!!
Sbagli IN TOTO a pensarla così... le gpu nvidia avevano frequenze minori proprio perché più complesse e non reggevano frequenze maggiori (del tutto inutile parlare di se e di ma... non possono! punto e basta!) compensando con un'efficienza maggiore... Le gpu ati invece, con meno transistor, potevano avvantaggiarsi di frequenze maggiori... sono 2 filosofie completamente diverse... tu mi paragoni pere con mele...
Comunque pensala poi come vuoi, per carità...
int main ()
17-12-2005, 16:23
Sbagli IN TOTO a pensarla così... le gpu nvidia avevano frequenze minori proprio perché più complesse e non reggevano frequenze maggiori (del tutto inutile parlare di se e di ma... non possono! punto e basta!) compensando con un'efficienza maggiore... Le gpu ati invece, con meno transistor, potevano avvantaggiarsi di frequenze maggiori... sono 2 filosofie completamente diverse... tu mi paragoni pere con mele...
Comunque pensala poi come vuoi, per carità...
io continuo a pensarla così nn cambio idea :)
però basta stà lotta tra me e te asd
pace? :mano:
P.S. = ho 20 anni e mi piace fare il bambino e me ne vanto e me ne vanterò finkè campo :)
MiKeLezZ
17-12-2005, 16:32
non limita un bel niente; basta una patch per risolvere il problema :D Basta.... ma non c'è.
Poi, non ci sarebbero degradi prestazionali?
Perchè allora hanno scelto anzi questo metodo?
Se vogliamo essere pignoli, il modello di rasterizzazione di G70 non è perfettamente aderente alle specifiche sm3.0 (tanto che non ha passato il test). Questo significa che non è sm3.0 full compliant? O che ci sono pesanti limitazioni nei giochi che fanno uso di sm3.0?
In realtà, l'unica reale limitazione è la scarsa efficienza del dbPerchè allora generalmente G70 "soffre" meno con gli sm3.0 attivati, rispetto a x1x?
il pure video, su NV40 ha il motore HW buggato, su G70, se non erro, è stata del tutto rimossa la funzionalità HWE' stata rimossa la funzionalità HW? Cioè?
beh che centra... non esiste un metodo alternativo per fare l'HDR+AA!!! ce ne solo uno e il G70 non ha l'architettura per farlo.Bugia n.1 (Lost Coast?).
Invece il vertex texturing può essere fatto pure su schede ATiBugia n.2 (non è un vertex texturing, ma è usare le pixel pipeline per farlo).
credo una patch per Pacific Fighter possa risolvere il problema. E' logico che se non lo si fa le prestazioni decadono ;) mi sembra chiaro come il soleVabbè qua c'è la modalità pappagallo attivata.
dove? :what:
Leggi i link (fino in fondo).
Ma ancora con questa storia... ATi è sempre stata e sarà presumibilmente uno scalino sopra sulla riproduzione video e sulle features video.Bugia n.3, fino a 10 giorni fa, ATI era peggio pure di XGI in queste cose (ma le leggete le cose?).
Ma soprattutto, PureVideo funziona con il suo lettore proprietario che per altro è a pagamento, questo nn ce lo mettiamo?Cosa sacrosanta. ma non è il lettore a pagamento, sono i codec.
Il truform funzionava benissimo sulla R200, anzi pure troppo, mi ricordo che Serious Sam Second Encounter quando lo attivavi era tutto bombato (il ponte all'inizio, quello quando Sam dice "guarda mamma sono un taglialegna :sofico: ), ma qui è colpa dei programmatori probabilmente.Sì ma il discorso non era questo.
E cmq parlate di qualcosa che ancora nn è uscitoBugia n.4, c'è pure un link per scaricarlo (comunque si parla del 22 dicembre per tutti).
Il discorso è un po' diverso (poi chiudiamo l'OT)... il truform funzionava perfettamente sia in r200 (ati 8500) che in r300 (ati 9700)... ma nella prima era implementato in hardware!... io avevo la 8500 e andava da dio senza perdita di prestazioni... chi invece lo attivava in r300 perdeva un bel po' di performance, perché l'effetto era emulato via driver... cosa che ha fatto incacchiare alcuni possessori della allora appena uscita 9700...
Fu una decisione di ati (garantirne il supporto almeno via software) in quanto lo scarso successo della tecnologia in questione li indusse a non implementare più in hardware questa funzione...Ecco, hai ragione, è questo... Me lo ricordavo diverso, comunque è stata scorretta (un po' meno), visto che lo pubblicizzava uguale, ma di fatto non era lo stesso (8500 HW -> 9000 SW). Come funzionalità però non era mica male ;) .
T3D, è irritante che tu dica le stesse cose di yossirian, spacciandole per tuoi pensieri. Se non hai nulla da aggiungere, stai zitto.
ma se abbiamo postato insieme???? guarda la data dei due post... mahh :rolleyes:
guarda che sei incredibile :mc: cmq se per te è irritante me fa piacere :D
Bugia n.2 (non è un vertex texturing, ma è usare le pixel pipeline per farlo).
se vabbè... ciaooo... logico che non è lo stesso. Era per farti capire che si può ottenere lo stesso risultato con un metodo diverso :muro:
yossarian
17-12-2005, 16:56
Basta.... ma non c'è.
Poi, non ci sarebbero degradi prestazionali?
Perchè allora hanno scelto anzi questo metodo?
per ora;
nessun degrado prestazionale, anzi. Per fare vertex texturing e filtering con modalità superiore al point sampling (ad esempio un semplice bilinear), NV40 e G70 fanno texture fetch con le tmu delle unità presenti nelle vertex pipeline, quindi inviano le texture nel texture buffer, queste devono esser eprelevate dalle tmu delle pixel pipeline che procedono alle operazioni di texturing. Questo significa un accesso al texture buffer nella vram e uno alla testure cache interna al chip (tanto per vare un'idea, solo il secondo richiede qualche centinaio di cicli di clock, il primo è ancora più lento). La modalità alternativa è quella di far prelevare direttamente le texture dalle tmu delle pixel pipeline, farle filtrare dalle stesse, e renderle disponibili per la lettura da parte dei vertex shader.
Per ora si utilizza il primo metodo perchè è quello esposto nelle API, non perchè sia migliore o più veloce.
Perchè allora generalmente G70 "soffre" meno con gli sm3.0 attivati, rispetto a x1x?
di quali test parli? Se ti riferisci a giochi ancora scarsamente ottimizzati, ti ricordo che fino a 5.10, la serie X1x00 non era neppure riconosciuta dai driver. Se parliamo di test sintetici che provano le funzionalità dello sm3.0, i risultati parlano chiari (il db di G70 ha un'efficacia che è meno della metà di quello di R5x0).
E' stata rimossa la funzionalità HW? Cioè?
sembrerebbe, ma questo non te lo do èer sicuro, che G70 non implementi più il supporto HW a pure video che era presente, seppure buggato, su NV40. Se così fosse, tutto avverrebbe via SW.
Bugia n.1 (Lost Coast?).
non è una bugia, nel senso che lost coast permette l'utilizzo di MSAA+HDR, ma lo fa anche con chip della serie R4x0 e R3x0, perchè non fa ricorso a fp blending nelle texture. In pratica, esegue i calcoli in fp nel pixel processor e, prima di passare i dati alle rop's, li comprime da fp a integer; quindi le rop's lavorano solo in modalità integer (8 bit per canale). Invece, l'hdr proposta da OPenEXR e adottato da NV e ATi, prevede l'utilizzo di fp16 anche per le operazioni di blending all'interno delle rop's (che i chip R4x0 e R3x0 non supportano).
Bugia n.2 (non è un vertex texturing, ma è usare le pixel pipeline per farlo).
si, è vertex texturing (anche se le vertex unit non hanno circuiti che fanno vertex fetch direttamente), anche se non nella modalità prevista ufficialmente (per ora) dallo sm3.0. E' più un problema di standard che un problema reale (come pure quello del modello di rasterizzazione di G70). Così come è stata un scelta dettata dall'adozione di uno standard quella delle n-patch per le HOS; non sono gli unici algoritmi che permattano di ricavare vertici da un determinato set di valori iniziali e non è neppure detto che sinao sempre i migliori in assoluto. Si tratta semplicemente di algoritmi validi (al pari di altri), forse più facili da implementare in HW rispetto ad altri.
MiKeLezZ
17-12-2005, 17:01
Capito...
di quali test parli? Se ti riferisci a giochi ancora scarsamente ottimizzati, ti ricordo che fino a 5.10, la serie X1x00 non era neppure riconosciuta dai driver. Se parliamo di test sintetici che provano le funzionalità dello sm3.0, i risultati parlano chiari (il db di G70 ha un'efficacia che è meno della metà di quello di R5x0).Di questi, con i 5.12
http://www.xbitlabs.com/articles/video/display/sapphire-x1800xl_19.html
yossarian
17-12-2005, 17:14
Capito...
Di questi, con i 5.12
http://www.xbitlabs.com/articles/video/display/sapphire-x1800xl_19.html
non ti viene il sospetto che un test con un solo gioco possa non essere così attendibile? Innanzitutto c'è da vedere cosa e quanto ci sia di sm3.0 in AoE3.
Poi, prima di trarre conclusioni, vediamo con i prossimi driver e le relative ottimizzazioni cosa succede.
La serie X1x00 ha un'architettura completamente nuova rispetto a R4x0; la stessa cosa non si può dire di G70 rispetto a NV40
Mikelez io nn parlo solo di quello che leggo (che poi molto spesso è ampiamente discutibile)... ma ho avuto una 9500pro e ora una 6800LE, sul muletto una 9250 e ti posso garantire che la GeForce nn va bene nei video quanto le due Radeon che ho avuto, i bug dei drivers si risolvono sia da una parte che dall'altra, ma se poi per usare una feature (per altro nn si capisce bene se funzioni o meno) devo comprare a parte un software proprietario per altro della stessa casa, mi dispiace, ma questo nn è affatto serio da parte di nVidia.
Inoltre che cavolo di argomentazioni sono, "fino a 10 giorni fa", ma fammi il piacere dai...
Le cose miglioreranno con l'aggiornarsi dei drivers, è normale che una scheda appena uscita sul mercato abbia alcuni problemi, ed è anche uno dei tanti motivi per il quale NON CONVIENE MAI comprare un prodotto appena uscito sul mercato.
Sia ATi che nVidia hanno a disposizione un parco macchine dove sviluppano, testano e verificano i loro drivers, e questo parco nn è comparabile alla totalità delle macchine presenti ovunque, quindi i problemi ci possono benissimo stare e probabilmente sanno anche quali e perché.
Ad ogni modo resto del parere che ATi dopo la 9500pro nn sia stata più di tanto competitiva rispetto a nVidia nella fascia media. E questo è proprio una cosa intollerabile da parte sua, speriamo che qualcuno glielo comunichi.
La gamma di prodotti che hanno sia ATi che nVidia cmq permette all'utente di avere a disposizione molta scelta, quindi è una cosa positiva... quando alla ATi sbatteranno la testa contro al muro (mi auguro molto presto per consentirgli di immettere sul mercato molto in fretta qualcosa di competitivo alla fascia media, chiariamoci mica mi auguro che fallisca) le cose nn potranno che migliorare per il consumatore.
Si chiamava truform... e fu introdotta in r200... e andava benissimo nei giochi che la supportavano! (never winter nights era favoloso)... che colpa ne ebbe ati se gli sviluppatori non la supportarono?!... :confused:
Un attimo Raven, non e' che gli sviluppatori non supportano una feature cosi' tanto per antipatia :)
Per ogni feature bisogna capire qual e' il suo scopo, nel caso del Truform lo scopo non e' un miglioramento della qualita' dell'immagine, ma una diminuzione del consumo di banda passante (e occupazione di memoria). L'idea dietro al Truform e' di prendere un triangolo e, secondo un certo algoritmo (tripatch tessellation) creare nuovi triangoli. Ora, per creare da un triangolo sempre gli stessi triangoli ad ogni frame (semplifico), perche' non posso fare questo lavoro una volta per tutte prima di lanciare il gioco magari in un tool? Ovvero, se ho un modello da 1000 triangoli, invece di attivare il Trueform, eseguo quell'algoritmo sul modello prima di lanciare il gioco ed ottengo una mesh da 4000 triangoli: tanto alla GPU alla fine arrivano sempre questi 4000 triangoli, indifferentemente da come sono stati ottenuti.
Ecco perche' il Truform non e' stato usato, sostanzialmente perche' non era utile al tempo. Ma il trend di crescita della potenza elaborativa e' maggiore del trend di crescita della banda passante, quindi in futuro potrebbe risultare un'opzione piu' appetibile. Ad esempio sul 360 c'e' qualcosa di simile ed e' consigliato usarlo per ridurre la memoria occupata dalla geometria.
MiKeLezZ
18-12-2005, 02:38
Mikelez io nn parlo solo di quello che leggo (che poi molto spesso è ampiamente discutibile)... ma ho avuto una 9500pro e ora una 6800LE, sul muletto una 9250 e ti posso garantire che la GeForce nn va bene nei video quanto le due Radeon che ho avuto, i bug dei drivers si risolvono sia da una parte che dall'altra, ma se poi per usare una feature (per altro nn si capisce bene se funzioni o meno) devo comprare a parte un software proprietario per altro della stessa casa, mi dispiace, ma questo nn è affatto serio da parte di nVidia.
Inoltre che cavolo di argomentazioni sono, "fino a 10 giorni fa", ma fammi il piacere dai...
Le cose miglioreranno con l'aggiornarsi dei drivers, è normale che una scheda appena uscita sul mercato abbia alcuni problemi, ed è anche uno dei tanti motivi per il quale NON CONVIENE MAI comprare un prodotto appena uscito sul mercato.
Sia ATi che nVidia hanno a disposizione un parco macchine dove sviluppano, testano e verificano i loro drivers, e questo parco nn è comparabile alla totalità delle macchine presenti ovunque, quindi i problemi ci possono benissimo stare e probabilmente sanno anche quali e perché.
Ad ogni modo resto del parere che ATi dopo la 9500pro nn sia stata più di tanto competitiva rispetto a nVidia nella fascia media. E questo è proprio una cosa intollerabile da parte sua, speriamo che qualcuno glielo comunichi.
La gamma di prodotti che hanno sia ATi che nVidia cmq permette all'utente di avere a disposizione molta scelta, quindi è una cosa positiva... quando alla ATi sbatteranno la testa contro al muro (mi auguro molto presto per consentirgli di immettere sul mercato molto in fretta qualcosa di competitivo alla fascia media, chiariamoci mica mi auguro che fallisca) le cose nn potranno che migliorare per il consumatore.Io francamente non ho visto differenze qualitative passando da 9700pro a 7800gt, sono miti e leggende del passato.
Era vero con la vecchia ti200 (ma se ben ricordo, era colpa semplicemente di un settaggio mal messo), ma da allora non è più vero.
Le argomentazioni le trovi qua:
http://www.anandtech.com/video/showdoc.aspx?i=2551
E' che mi rompo il cazzo a postare 1000 volte gli stessi link.
Per il resto sono d'accordo, fin che c'è competizione, c'è miglioramento.
Il purevideo non è perfetto, ma neppure AVIVO lo è. Certamente, ora che AVIVO diventa un'ombra minacciosa, pure purevideo diventà migliore (io spero addirittura gratis), e tutto va a nostro favore...
Sul fatto della serietà, il discorso è tutto sul ritorno economico.
Prima nvidia era padrona, e decideva lei cosa fare (far pagare il codec), ora ha un nemico, quindi sarà il mercato a influenzare le sue decisioni
Probabilmente è come dici tu sulla serie 7, io parlavo della serie 6 (e vabbè che è "robba vecchia")... ad ogni modo nn è che ritengo il Purevideo inferiore, anzi probabilmente fa benissimo il lavoro per cui è stato progettato, è che proprio nn c'è perché serve un software a pagamento per abilitarlo!
http://www.nvidia.com/object/dvd_decoder_1.02-185-trial.html
http://www.nvidia.com/object/dvd_decoder_1.02-185-retail.html
Su AnandTech c'è pure specificato che usano questa versione del decoder PureVideo.
A questo punto nn elencare tra le feature di una scheda grafica, qualcosa che in realtà si "compra" a parte.
D'accordo che niente è gratis, ma almeno ATi ha avuto la decenza di includere nel suo pacchetto drivers il necessario per sfruttare le funzionalità che la scheda può mettere a disposizione:
http://www.anandtech.com/video/showdoc.aspx?i=2645&p=1
L'articolo che hai linkato è del 5 ottobre 2005 (mi pare il giorno di lancio delle X1800XT o sbaglio?).
Devo ritrovare quell'articolo con i test che hai postato aggiornati, l'avevo visto e mi pare che ATi con questi nuovi drivers abbia superato i 100 punti al test che hanno fatto loro...
Edit: eccolo -> http://firingsquad.com/hardware/ati_catalyst_5.13_video_quality/page9.asp
Edit2: curioso notare che la 6600 ottiene lo stesso identico punteggio della 7800GTX, questo presumo dipenda proprio dal software di decodifica, magari con nuove versioni miglioreranno il supporto.
Come dicono anche loro nelle conclusioni, il vantaggio sta principalmente nell'essere un aggiornamento gratuito.
MiKeLezZ
18-12-2005, 18:35
sì.. cose dette e stradette
RayStorm
14-01-2006, 03:50
Salve, riguardo ai consumi si parla di misura presa sulla corrente alternata, quindi non è la potenza erogata ma quella assorbita dalla rete elettrica giusto? Non è chiarissima sta cosa. Grazie
Ray
Con i nuovi driver ati pensate che le prestazioni della serie x1000 potranno avere un boost significativo?
grazie
ciao
ivanroma
15-02-2006, 17:24
Io nn sono un grankè esperto, xò vedendo gli ultimi benchmark
- 3d mark è sopra a tutte, anke alla 6800GS
- doom 3 (OpenGl tallone d'Achille) una decina sotto, tranne ke con i filtri attivati ke torna sopra a tutte
- Farcry se la battono a colpi di qualke FPS
- Half life 2 idem, tranne un leggero predominio della 6800GS con i filtri
- Quake 4 se la batte tranne sempre la 6800GS
- Giudizio in breve: mediamente superiore alla 6600,silenziosa,sm3,avivo; difetto: poco overcloccabile
considerando ke la trovi a meno di 180€, contro i 235 della 6800GS e i 210 della GTO2, secondo me nn è male, considerando ke è ancora molto giovane e d avrà sicuramente un margine di miglioramento, e ke implementa tutte le ultime tecnologie per il prossimo futuro.
A Parte le pure prestazioni...
consuma solo 42W (quanto consuma la 6600GT????), l'AVIVO cmq funziona, nn sono stati fatti test diretti, xò almeno da un punto di vista di qualità dell'immagine, è accertato ke funziona meglio del Purevision (ke è anke a pagamento...), decodifica hardware dei principali formati video (l'uso della CPU scende dal 90% al 30%)...
ivanroma
15-02-2006, 17:28
ah scusate mi ero dimenticato di un particolare nn tanto trascurabile...queste prove sono state fatte con i 5.13...ora siamo al 6.2, ke da quanto ho letto migliorano parecchio...quindi ci sono ottime possibilità ke rifacendo lo stesso bench ora migliorerebbe ancora...
MiKeLezZ
15-02-2006, 17:30
A Parte le pure prestazioni...
consuma solo 42W (quanto consuma la 6600GT????)
48W ma recupera in idle e 2d
...una x1600 è senza'altro da preferire alle 6600 nvidia ed effettivamente adesso viene proposta ad un prezzo estremamente allettante! ;)
ivanroma
15-02-2006, 18:22
ti ringrazio, infatti sarei molto interessato, solo ke salire oltre i 200 nn mi va, visto ke nn sono un videogiocatore incallito, e mi sembrava la miglior rapporto prezzo/prestazioni.
:cincin:
halduemilauno
15-02-2006, 18:37
ti ringrazio, infatti sarei molto interessato, solo ke salire oltre i 200 nn mi va, visto ke nn sono un videogiocatore incallito, e mi sembrava la miglior rapporto prezzo/prestazioni.
:cincin:
insomma ti stai autoconvincendo a comprartela. lascia perdere ora a meno di 200€ si può trovare la 6800gs.
;)
ivanroma
15-02-2006, 20:12
insomma ti stai autoconvincendo a comprartela. lascia perdere ora a meno di 200€ si può trovare la 6800gs.
;)
meno di 200? ho già guardato ovunque ed il prezzo migliore è stato 229...Se sai dove prenderla a meno di 200, mi faresti un favore
Non è ke mi sto autoconvincendo, io l'ultima nvidia ke ho avuto è stata una 440MX, e mi dava parecchi problemi di incompatibilità (ti parlo di un pò di anni fa). Poi sono passato alla 9500Pro, ke la sto rimpiangendo ancora adesso...mi si è fusa a causa di un corto all'alimentatore e la garanzia era scaduta da 2 giorni! :muro:
Sono passato all'attuale 9600XT, e sono rimasto tutto sommato soddisfatto, nn tanto dalle prestazioni (7800 al 3dmark 2003) ma quanto più dall'ottima qualità video anke nell'uscita secondaria (io faccio molto editing video, e nvidia da quanto ho visto da amici nn è all'altezza), dagli ottimi catalyst ke nn hanno nulla a ke vedere con i driver nvidia per completezza.
Sono orientato sulla 1600 x questi motivi, e poi sicuro del fatto ke col tempo migliorerà parecchio, mentre nvidia finkè nn esce la 7x è già al suo pieno potenziale. Sbaglio secondo te?
sdjhgafkqwihaskldds
15-02-2006, 20:47
ciao.
Sono orientato sulla 1600 x questi motivi, e poi sicuro del fatto ke col tempo migliorerà parecchio, mentre nvidia finkè nn esce la 7x è già al suo pieno potenziale. Sbaglio secondo te?
Se non sei un videogiocatore esigente, allora ti conviene puntare semplicemente sulla scheda col prezzo più basso! :D
Nemmeno io ho trovato la 6800GS a meno di 230€ ivata (270 la versione agp)... se si trovasse a meno di 200 in effetti sarebbe un affare... Come prestazioni in 3D infatti è decisamente superiore alla x1600...
In caso fossi indeciso tra le due devi valutare se la usi più per gioco (vai sulla 6800GS) o per editing video (dove innegabilmente ATI è meglio, e poi con Avivo... ;) )
ivanroma
16-02-2006, 14:03
In caso fossi indeciso tra le due devi valutare se la usi più per gioco (vai sulla 6800GS) o per editing video (dove innegabilmente ATI è meglio, e poi con Avivo... ;) )
Grazie tante Raven, effettivamente farmi qualke partita nn mi dispiace affatto, ma nn è quello il mio obiettivo principale...infatti sono orientato più sulla qualità ke sulle prestazioni pure, soprattutto per il videoediting, quindi anke grazie alle tue conferme, credo ke resterò fedele ad ATI...innegabile ke se trovassi una 6800GS a meno di 200, la mia fede vacillerebbe almeno un poketto!!! :D
Grazie a tutti e a presto!
halduemilauno
16-02-2006, 14:41
meno di 200? ho già guardato ovunque ed il prezzo migliore è stato 229...Se sai dove prenderla a meno di 200, mi faresti un favore
Non è ke mi sto autoconvincendo, io l'ultima nvidia ke ho avuto è stata una 440MX, e mi dava parecchi problemi di incompatibilità (ti parlo di un pò di anni fa). Poi sono passato alla 9500Pro, ke la sto rimpiangendo ancora adesso...mi si è fusa a causa di un corto all'alimentatore e la garanzia era scaduta da 2 giorni! :muro:
Sono passato all'attuale 9600XT, e sono rimasto tutto sommato soddisfatto, nn tanto dalle prestazioni (7800 al 3dmark 2003) ma quanto più dall'ottima qualità video anke nell'uscita secondaria (io faccio molto editing video, e nvidia da quanto ho visto da amici nn è all'altezza), dagli ottimi catalyst ke nn hanno nulla a ke vedere con i driver nvidia per completezza.
Sono orientato sulla 1600 x questi motivi, e poi sicuro del fatto ke col tempo migliorerà parecchio, mentre nvidia finkè nn esce la 7x è già al suo pieno potenziale. Sbaglio secondo te?
inviato pvt per 6800gs a 213€ I.I. quelle da 178€ I.I. son finite.
;)
Motosauro
16-02-2006, 17:02
inviato pvt per 6800gs a 213€ I.I. quelle da 178€ I.I. son finite.
;)
Non è che dal tuo cappello a cilindro salta fuori una 7800gs AGP a che so, 220€? (scherzoso ma neanche troppo) :D
halduemilauno
16-02-2006, 20:38
Non è che dal tuo cappello a cilindro salta fuori una 7800gs AGP a che so, 220€? (scherzoso ma neanche troppo) :D
no. 311€ I.I.
;)
Motosauro
16-02-2006, 22:59
no. 311€ I.I.
;)
Eh, quello l'ho visto anch'io, ma sono un pò troppi per l'upgrade di un sistema come il mio. IMHO con la 7800gs i negozianti stanno annusando molto l'aria: potrebbe essere un buon affar, ma è un rischio enorme di trovarsi la roba a marcire in magazzino. Li capisco.
Grazie comunque ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.