View Full Version : NVIDIA GeForce 7800 GTX: arrivano le 24 pipeline
Volevo dire che ha poco senso usare ancora UT2004 e Halo come metro di paragone. Engine troppo vetusti. Per verificare la bontà di una scheda e dei suoi driver penso sia più utile e corretto utilizzare i titoli più pesanti a disposizione, non quelli più leggeri.
Non sono d'accordo con te. Io ritengo che le schede video vadano testate anche con motore grafici non recenti.
Non sono d'accordo con te. Io ritengo che le schede video vadano testate anche con motore grafici non recenti.
Che una faccia 400 fps ed un'altra 500 fps cosa ti cambia? Meglio sapere che una ti fa 40 a Fear, mentre l'altra 25.
andreamarra
25-06-2005, 15:10
cmq anch'io ho visto 6800gt a 282€ I.I.
;)
azz... se uno prende de schede del genere, le clocca a Ultra (tanto ci vanno tutte a Ultra), le mette in SLI... ha prestazioni superiori alla 7800GTX e spenderebbe praticamente quasi lo stesso (qualcosa in più).
mah, io preferisco sempre avere una sola scheda video per ora :D
Che una faccia 400 fps ed un'altra 500 fps cosa ti cambia? Meglio sapere che una ti fa 40 a Fear, mentre l'altra 25.
hanno fatto test con quake3 finche non è uscito doom3
halduemilauno
25-06-2005, 16:49
linka linka ;)
fatto fatto.
;)
Demin Black Off
25-06-2005, 17:10
fatto fatto.
;)
Pure a me pure a me :D Che ci faccio un pensierino, se fare lo sli o prendermi la 360 a natale... :muro:
halduemilauno
25-06-2005, 17:15
Pure a me pure a me :D Che ci faccio un pensierino, se fare lo sli o prendermi la 360 a natale... :muro:
anche a te anche a te.
;)
cmq anch'io ho visto 6800gt a 282€ I.I.
;)
Se ti riferisci alla pci express, allora il prezzo e' ottimo.
Altrimenti, se agp, quello che avevo detto io e' inferiore. E parliamo di un prezzo in listino dal 15 giugno e quindi PRIMA della fine dell'NDA su g70. Magari ora e' ulteriormente meno (non so, non ho controllato, magari non e' piu' disponibile o peggio e' salito - ma non credo).
Questo link che stai dando in pvt e' assolutamente disinteressato vero ? :oink:
Demin Black Off
25-06-2005, 17:45
Se ti riferisci alla pci express, allora il prezzo e' ottimo.
Altrimenti, se agp, quello che avevo detto io e' inferiore. E parliamo di un prezzo in listino dal 15 giugno e quindi PRIMA della fine dell'NDA su g70. Magari ora e' ulteriormente meno (non so, non ho controllato, magari non e' piu' disponibile o peggio e' salito - ma non credo).
Questo link che stai dando in pvt e' assolutamente disinteressato vero ? :oink:
Si è la versione agp, e quello è il prezzo onesto, la pci-e sta ancora su livelli "proibiti" per lo sli, sempre intorno a 350 e mi sa che sui 250 la si vedrà verso novembre.
Era troppo bello per essere vero :muro:
halduemilauno
25-06-2005, 17:54
Se ti riferisci alla pci express, allora il prezzo e' ottimo.
Altrimenti, se agp, quello che avevo detto io e' inferiore. E parliamo di un prezzo in listino dal 15 giugno e quindi PRIMA della fine dell'NDA su g70. Magari ora e' ulteriormente meno (non so, non ho controllato, magari non e' piu' disponibile o peggio e' salito - ma non credo).
Questo link che stai dando in pvt e' assolutamente disinteressato vero ? :oink:
si riferisce all'agp. certo che è disinteressato.
;)
azz... se uno prende de schede del genere, le clocca a Ultra (tanto ci vanno tutte a Ultra), le mette in SLI... ha prestazioni superiori alla 7800GTX e spenderebbe praticamente quasi lo stesso (qualcosa in più).
mah, io preferisco sempre avere una sola scheda video per ora :D
c' è pure il fatto elettricità=€, due 6800Ultra pocciano.. :D davvero tanta corrente, alla fine ci rimetti un sacco di soldi, almeno la g70 consuma meno corrente, e poi con quello che scaldano 2 6800ultra sei obbligato ad usare il liquido per la cpu perchè sennò il case diventa una stufa...
ciao
bronzodiriace
25-06-2005, 20:48
confermo
purtroppo agp :(
due 6800gt pci exp a 350 euro è ancora proibitivo, mi tengo la mia x850xt
bartolino3200
25-06-2005, 20:55
Link ufficiali di Ati e/o TMSC che confermino problemi produttivi li hai? Ah no, scusa leggi pure tu The Inquirer :asd:
Che ti piaccia o no G70 è un evoluzione di Nv40, nessuna rivoluzione, nessuna nuova vita. Come dici tu è la conclusione di un progetto che ti porterà (magari con uno step produttivo autunnale assolutamente identico) alle Wgf 2.0.
Oltretutto mi devi spiegare cosa significa per te overclockato di fabbrica poichè tale cose non ha senso. Se esce a X mhz vuol dire che è stabile e che quella è la frequenza di partenza :)
Su su, vabbhè che quando leggi "Nvidia" in una frase sbarelli, ma non mi pare il caso di far passare G70 per una cosa che non è :asd:
Un'ottima gpu, continuazione di un ottimo progetto. Niente altro :)
http://www.tomshw.it/news.php?newsid=4186
http://www.tomshw.it/news.php?newsid=4072
Da TOM'S HW: "Per quanto riguarda gli sviluppi futuri, Ati è concentrata sul chip grafico dell' X360 e riporta alcuni problemi nella produzione del futuro chip grafico di fascia alta R520. Vi sono stati inoltre problemi con i volumi della serie X8xx prima di Aprile."
Spero che ti basti.
Ati non è ancora capace di produrre in volumi la serie X800 figuariamoci ahahhah lolololol.
Che fai stasera di vesti di nero? :-)
Per quanto riguarda l' OCCATO in fabbrica, prova a mettere quel mattone di dissy su una 6800GT e vedi se le frequenze " stabili" non salgono.
Ciao djlode stammi bene, non pretendo scuse perchè non ne ho bisogno.
Ma le Ati lavorano ancora in FP24 se non erro e le Nvidia in FP32.
Perche' se cosi' fosse, il vantaggio in alcuni bench per Ati, piomberebbe in fondo al mare forzando una situazione di parita'.
halduemilauno
25-06-2005, 22:23
Ma le Ati lavorano ancora in FP24 se non erro e le Nvidia in FP32.
Perche' se cosi' fosse, il vantaggio in alcuni bench per Ati, piomberebbe in fondo al mare forzando una situazione di parita'.
azz.
ma la parità non la si può forzare. ati solo fp24 e nVidia fp16 o fp32.
;)
azz.
ma la parità non la si può forzare. ati solo fp24 e nVidia fp16 o fp32.
;)
Io con la mia 6800gt non posso forzare i 16 o almeno non ci sono ancora riuscito!! :o e poi lo stuf di JF2 ha detto che anche sulle nvidia il loro gioco lavora a 24, ammesso che non sia una ca... vuol dire che si puo' fare.
Se sai come forzare i 16 dimmelo, voglio scalare ancora in classifica 3dm05. :D :mc:
Ma le Ati lavorano ancora in FP24 se non erro e le Nvidia in FP32.
Perche' se cosi' fosse, il vantaggio in alcuni bench per Ati, piomberebbe in fondo al mare forzando una situazione di parita'.
Per cortesia, l'argomento FP24 vs FP16/32 mi sembrava si fosse esaurito all'epoca delle presentazione di NV40 e R420. Non potete venirvene nuovamente con questa storia dopo oltre un anno. FP24 consente di elaborare qualsiasi shader attualmente disponibile con una qualità indistinguibile da FP32. Quando ci saranno shader ancora più complessi, probabilmente il numero di istruzioni sarà superiore a quello permesso da R420 e quindi il problema non si pone proprio. Inoltre vi ricordo che gli shader per NV40 o G70 non sono full FP32. NVIDIA stessa alla presentazione di G70 ha scritto nelle sue slides di utilizzare sempre FP16 là dove tale precisione sia sufficiente per le operazioni da svolgere. Questo perché usare FP32 comporta comunque un impatto sulle prestazioni, non è di certo "for free".
http://www.tomshw.it/news.php?newsid=4186
http://www.tomshw.it/news.php?newsid=4072
Da TOM'S HW: "Per quanto riguarda gli sviluppi futuri, Ati è concentrata sul chip grafico dell' X360 e riporta alcuni problemi nella produzione del futuro chip grafico di fascia alta R520. Vi sono stati inoltre problemi con i volumi della serie X8xx prima di Aprile."
Spero che ti basti.
Ati non è ancora capace di produrre in volumi la serie X800 figuariamoci ahahhah lolololol.
Che fai stasera di vesti di nero? :-)
Per quanto riguarda l' OCCATO in fabbrica, prova a mettere quel mattone di dissy su una 6800GT e vedi se le frequenze " stabili" non salgono.
Ciao djlode stammi bene, non pretendo scuse perchè non ne ho bisogno.
Ti ho chiesto link ufficiali, da quanto in qua Tom's è una fonte Ati :asd:
:rotfl:
yossarian
26-06-2005, 15:35
Per cortesia, l'argomento FP24 vs FP16/32 mi sembrava si fosse esaurito all'epoca delle presentazione di NV40 e R420. Non potete venirvene nuovamente con questa storia dopo oltre un anno. FP24 consente di elaborare qualsiasi shader attualmente disponibile con una qualità indistinguibile da FP32. Quando ci saranno shader ancora più complessi, probabilmente il numero di istruzioni sarà superiore a quello permesso da R420 e quindi il problema non si pone proprio. Inoltre vi ricordo che gli shader per NV40 o G70 non sono full FP32. NVIDIA stessa alla presentazione di G70 ha scritto nelle sue slides di utilizzare sempre FP16 là dove tale precisione sia sufficiente per le operazioni da svolgere. Questo perché usare FP32 comporta comunque un impatto sulle prestazioni, non è di certo "for free".
volendo si potrebbe aggiungere che l'utilizzo di fp16 permette di effettuare in un solo ciclo, un'operazione di normalizzazione su un vettore (su NV40) e su un vettore e su uno scalare (su G70), mentre con fp32 le stesse operazioni richiedono almeno un paio di cicli
NVIDIA stessa alla presentazione di G70 ha scritto nelle sue slides di utilizzare sempre FP16 là dove tale precisione sia sufficiente per le operazioni da svolgere. Questo perché usare FP32 comporta comunque un impatto sulle prestazioni, non è di certo "for free".
Escluso il caso della normalizzazione di un vettore di cui ha parlato yoss, per shader di poche istruzioni calcolare a fp32 e' "free".
Va pero' detto che shader corti sono sempre piu' l'eccezione piuttosto che la norma.
yossarian
26-06-2005, 15:43
Escluso il caso della normalizzazione di un vettore di cui ha parlato yoss, per shader di poche istruzioni calcolare a fp32 e' "free".
Va pero' detto che shader corti sono sempre piu' l'eccezione piuttosto che la norma.
infatti; una volta risolti i problemi dovuti alla carenza di registri temporanei, che hanno afflitto la serie NV3x, con NV40 e G70 l'unico vantaggio nell'utilizzo di fp16 è riscontrabile nelle operazioni di normalizzazione.
Volevo farti una domanda: da programmatore, quanto reputi utile, in base alla struttura degli shader che scrivi, l'adozione di un maggior numero di unità logiche per pipeline?
Volevo farti una domanda: da programmatore, quanto reputi utile, in base alla struttura degli shader che scrivi, l'adozione di un maggior numero di unità logiche per pipeline?
Dipende fortmente dalla tipologia dello shader.
Se scrivo uno shader per una simulazione di un qualche tipo (vuoi un modello di illuminazione, vuoi la superficie dell'acqua, fisica) torna utile avere piu' unita' per pipeline nei limiti di quello che puo' fare il compilatore per riordinare le istruzioni per evitare dipendente.
Se scrivo uno shader che implementa il kernel di un filtro, ad esempio un filtro di blur, oppure un filtro per il blooming, in genere un po' tutto quello che ha a che vedere con il postprocessing dell'immagine, piu' unita servono a poco perche' si tratta di operazioni molto semplici a seguito di un fetch con questo schema (fetch/operazione) eseguito anche decine di volte per ogni frammento (pixel).
bartolino3200
26-06-2005, 16:54
Ti ho chiesto link ufficiali, da quanto in qua Tom's è una fonte Ati :asd:
:rotfl:
:asd:Si ma purtroppo in casa Ati sono tutti in coma dopo il lancio della 7800GTX quindi nessuno dal canada è riuscito a dire nulla.:asd:
Tutto tace al livello ufficiale, ma chiaramente per convenienza.
Che vuoi che ti dicano quelli di Ati siamo con la m.rda fino al collo? :rotfl:
beh il fatto che nvidia abbia anticipato i tempi, non solo con il lancio su carta della nuova generazione ma sopratutto sulla commercializzazione effettiva delle vga, è un duro colpo inflitto ad ati. anche se entro un mese ati proporrà l'r520 non è detto che la sua capacità produttiva sia subito effettiva. Se i rumors sulle 32 pipe saranno vere temo che sarà dura per ati avere una quantità di schede accettabile sul mercato.
Flames e commenti velocistici a parte, è importante cercare di andare a fondo. Ovvero: Ati in questo momento sta inseguendo. E si è sempre trovata "dietro" a nVidia, sia pur poi arrivando con soluzioni di gran lunga migliori, com'erano le 9700 confrontate con le 4600 e via dicendo negli ultimi tempi, con una x850Pe che supera la 6800 Ultra.
Preferirei però che al di là dei commenti di parte sulla situazione, si cercasse un attimo di porre un'attenzione più mirata alla tecnologia.
In questo, nVidia molto spesso è avanti. E non è da poco, per valutare la "forza" (efficienza/efficacia) di un'azienda, in ottica FUTURO. I micron contano, e nVidia è arrivata prima. I pixel e vertex shaders contano e anche qui nVidia è arrivata prima.
Le prestazioni, misurate da benchmark sempre meno illuminanti (non certo per colpa dei recensori - ottimi su questo sito), sono analizzabili, da utente ad utente, ognuno con le proprie esigenze e ricordando che questa gara al Mhz, al Ghz è quello che manda avanti il mercato, e non ci sarà mai "il migliore", per ovvie leggi di compensazione.
Tutto questo per dire che nell'ambito tecnologico secondo me nVidia è avanti in quelle "piccole cose" che conteranno parecchio imho nel futuro. Non credo sia un caso che i mac siano orientati a nvidia come fascia alta, visto l'utilizzo a cui quelle piattaforme sono destinate.
Queste piccole differenze secondo me pesano.
IMHO.
Demin Black Off
26-06-2005, 17:42
Ti ho chiesto link ufficiali, da quanto in qua Tom's è una fonte Ati :asd:
:rotfl:
:rotlf: :D mitico
Escluso il caso della normalizzazione di un vettore di cui ha parlato yoss, per shader di poche istruzioni calcolare a fp32 e' "free".
Va pero' detto che shader corti sono sempre piu' l'eccezione piuttosto che la norma.
Pertanto ritieni che non sia un "vantaggio" per ATI il calcolo a FP24??
Pertanto ritieni che non sia un "vantaggio" per ATI il calcolo a FP24??
Ritengo sia stata una scelta assolutamente legittima che ha dato ottimi risultati.
Dal punto di vista del programmatore questa e' una stata scelta che semplifica la vita, a scapito di una certa flessibilita' garantita dalla possibilita' di specificare fp16/fp32 in base alle esigenze.
yossarian
26-06-2005, 17:55
Pertanto ritieni che non sia un "vantaggio" per ATI il calcolo a FP24??
no (se posso rispondere al posto di fek); è un vantaggio per nVIDIA il calcolo a fp16 solo perchè c'è la possibilità di eseguire operazioni di normalizzazioni "for free". Ma questo vale sia nei confronti di fp32 che nei confronti di fp24 e solo perchè nelle ultime generazioni di chip NV c'è un blocco logico dedicato alle operazioni di normalizzazione ma funziona solo con fp16
fp32 richiede solo l'impiego di un maggior numero di transistor, ma le operazioni svolte sono esattamente le stesse
per un programmatore è meglio IMHO avere piu opzioni per ottimizzare il codice
LukeHack
26-06-2005, 18:06
...queste è l'occasione per riflettere sulla serietà di una società che non solo produce schede fantasma ed introvabili (x850 pe sta per Phantom Edition,lo sapevate? :sofico: )solo per alzare l'hype , ma persevera nel produrre schede quasi incompatibili per qualsiasi sistema operativo eccetto windows .net (gia, le api win32 native erano troppo leggere :asd: si correva il rischio che il control panel fosse troppo poco colorato :D )..
vedremo le prossime mazzate che auguro vivamente ad una società che da anni prende in giro milioni di utenti (me compreso) :mad:
ma persevera nel produrre schede quasi incompatibili per qualsiasi sistema operativo eccetto windows .net (gia, le api win32 native erano troppo leggere :asd: si correva il rischio che il control panel fosse troppo poco colorato :D )..
Il Control Panel e' un add-on, non e' necessario al corretto funzionamento della scheda grafica.
ATI ha sempre prodotto ottime GPU con ottimi rapporti prezzo/prestazioni per gli utenti a partire dalla 9700.
Il Control Panel e' un add-on, non e' necessario al corretto funzionamento della scheda grafica.
ATI ha sempre prodotto ottime GPU con ottimi rapporti prezzo/prestazioni per gli utenti a partire dalla 9700.
R300 ha dominato contro Nv30 che era una porcata di scheda video con scelte sbagliatissime di ogni tipo...
...queste è l'occasione per riflettere sulla serietà di una società che non solo produce schede fantasma ed introvabili (x850 pe sta per Phantom Edition,lo sapevate? :sofico: )solo per alzare l'hype , ma persevera nel produrre schede quasi incompatibili per qualsiasi sistema operativo eccetto windows .net (gia, le api win32 native erano troppo leggere :asd: si correva il rischio che il control panel fosse troppo poco colorato :D )..
vedremo le prossime mazzate che auguro vivamente ad una società che da anni prende in giro milioni di utenti (me compreso) :mad:
Mai visto un commento più ridicolo di questo. Le Radeon X850 XT si trovano senza problemi. Forse ti riferisci alla Radeon X800 XT PE che ormai è sei mesi che non c'è più.
Schede incompatibili con qualsiasi sistema operativo eccetto Windows? Iniziamo col dire che tutti questi sistemi operativi non sono 1000, ma sono tre: Windows, Mac OS e Linux. I primi due sono pienamente supportati ed il terzo ha un supporto in crescita.
Riguardo il discorso .NET, mio caro amico, questo è il futuro. Longhorn supporterà Win32 via legacy e lo sai quando arriva Longhorn? Tra un anno, non tra 10 anni.
Esistono molte argomentazioni per denigrare ATI in base a fatti concreti. Se vuoi proprio far uscire il fan boy che è in te, abbi almeno l'accortezza di sceglierle con intelligenza.
Riguardo il discorso .NET, mio caro amico, questo è il futuro. Longhorn supporterà Win32 via legacy e lo sai quando arriva Longhorn? Tra un anno, non tra 10 anni.
Tecnicamente Longhorn sara' ancora Win32 nativo perche' non sposteranno il CLR (.NET) nel Kernel ancora per qualche anno. Magari con un Service Pack futuro? Oppure con il successore nel 2010, ancora Microsoft e' cucita su questo argomento.
Ma questa e' piu' una curiosita' che altro perche' di fatto .NET sara' la piattaforma di sviluppo principe e piu' supportata da Microsoft in Longhorn, relegando Win32 ad un ruolo molto marginale.
Esistono molte argomentazioni per denigrare ATI in base a fatti concreti. Se vuoi proprio far uscire il fan boy che è in te, abbi almeno l'accortezza di sceglierle con intelligenza.
Ne posso accennare un paio io: pessima politica nel settore entry level e mid, dove ha offerto soluzioni non attraenti come il competitor, una relativa lentezza nell'adottare soluzioni rischiose come l'SM3.0.
Ne posso accennare un paio io: pessima politica nel settore entry level e mid, dove ha offerto soluzioni non attraenti come il competitor, una relativa lentezza nell'adottare soluzioni rischiose come l'SM3.0.
Ecco, ad esempio queste sono argomentazioni molto più realistiche :D
LukeHack
26-06-2005, 21:04
Mai visto un commento più ridicolo di questo. Le Radeon X850 XT si trovano senza problemi. Forse ti riferisci alla Radeon X800 XT PE che ormai è sei mesi che non c'è più.
si mi riferivo a quelle,ma tu non fai testo ovviamente non essendo un utente privato qualsiasi (avete visto piu hw voi che utenti "normali" ) ;)
Schede incompatibili con qualsiasi sistema operativo eccetto Windows? Iniziamo col dire che tutti questi sistemi operativi non sono 1000, ma sono tre: Windows, Mac OS e Linux. I primi due sono pienamente supportati ed il terzo ha un supporto in crescita.
su macos non mi pronuncio, ma su linux lo scandalo è evidente, forse tu non usi linux, io si e avevo un R300 quindi se permetti ;)
Riguardo il discorso .NET, mio caro amico, questo è il futuro. Longhorn supporterà Win32 via legacy e lo sai quando arriva Longhorn? Tra un anno, non tra 10 anni.
su longhorn ti ha gia risposto fek ;) e cmq il pannello è pesante come un dbms :rolleyes:
Esistono molte argomentazioni per denigrare ATI in base a fatti concreti. Se vuoi proprio far uscire il fan boy che è in te, abbi almeno l'accortezza di sceglierle con intelligenza.
vedi sopra, chi ne sa piu di me ti ha gia risposto ;)
su longhorn ti ha gia risposto fek ;) e cmq il pannello è pesante come un dbms :rolleyes:
Guarda che su .NET ho dato pienamente ragione a Raffaele.
LukeHack
26-06-2005, 21:08
Il Control Panel e' un add-on, non e' necessario al corretto funzionamento della scheda grafica.
si è vero ma presto pare che sarà imprescindibile.
ATI ha sempre prodotto ottime GPU con ottimi rapporti prezzo/prestazioni per gli utenti a partire dalla 9700.
questo è vero,io avevo proprio la 9700 ed era una bomba... ma solo su windows :mad:
si è vero ma presto pare che sarà imprescindibile.
Lo sara' infatti.
LukeHack
26-06-2005, 21:14
Guarda che su .NET ho dato pienamente ragione a Raffaele.
ma su sta cosa avete ragione, il .NET è il futuro, ok..
la pesantezza però non è OK. :read: leggete i 3d nella sezione schede video/driver per le lamentele degli utenti sulla memoria allocata e sulla lentezza di esecuzione, non lo dico io, lo dicono gli altri (i possessori insomma)..
cmq il discorso del control panel era un "add-on" in realtà la polemica è incentrata su:
1)poca reperibilità di pezzi
2) driver per sistemi *nix allucinanti
su MacOs tralascio ma una cosa chiedo: è possibile cmq mettere una scheda video ATI acquistata per x86 su un PowerPC? se la risposte è NO allora un'Ati comprata resta compatibile, PIENAMENTE e ben funzionante, solo su Windows...
olazzz
la pesantezza però non è OK.
La pesantezza di un'add-on che cosa c'entra con .NET e col fatto che la scheda e' perfettamente usabile anche senza l'add-on?
2) driver per sistemi *nix allucinanti
Noi videogiocatori sopravviveremo anche a questo dramma.
yossarian
26-06-2005, 22:10
Dipende fortmente dalla tipologia dello shader.
Se scrivo uno shader per una simulazione di un qualche tipo (vuoi un modello di illuminazione, vuoi la superficie dell'acqua, fisica) torna utile avere piu' unita' per pipeline nei limiti di quello che puo' fare il compilatore per riordinare le istruzioni per evitare dipendente.
Se scrivo uno shader che implementa il kernel di un filtro, ad esempio un filtro di blur, oppure un filtro per il blooming, in genere un po' tutto quello che ha a che vedere con il postprocessing dell'immagine, piu' unita servono a poco perche' si tratta di operazioni molto semplici a seguito di un fetch con questo schema (fetch/operazione) eseguito anche decine di volte per ogni frammento (pixel).
grazie per la spiegazione; quindi si può affermare, senza perdita di generalità, che l'aver aggiunto la possibilità di eseguire calcoli di tipo MADD anche nelle prima ALU darebbe vantaggi sostanziosi solo con shader del primo tipo, piuttosto ricchi di operazioni di moltiplicazione+addizione?!
grazie per la spiegazione; quindi si può affermare, senza perdita di generalità, che l'aver aggiunto la possibilità di eseguire calcoli di tipo MADD anche nelle prima ALU darebbe vantaggi sostanziosi solo con shader del primo tipo, piuttosto ricchi di operazioni di moltiplicazione+addizione?!
Secondo me si'.
Normalmente un filtro viene implementato con codice simile a questo, ripetuto N volte dove N e' la dimensione del kernel del filtro e c[i] sono i suoi coefficienti:
fetch t[i]
madd r, t[i], c[i], r
In questa configurazione una seconda unita di madd rimarrebbe sostanzialmente inoperosa.
yossarian
26-06-2005, 22:41
Secondo me si'.
Normalmente un filtro viene implementato con codice simile a questo, ripetuto N volte dove N e' la dimensione del kernel del filtro e c[i] sono i suoi coefficienti:
fetch t[i]
madd r, t[i], c[i], r
In questa configurazione una seconda unita di madd rimarrebbe sostanzialmente inoperosa.
in effetti...........................
In base alla tua esperienza, quindi, quanto può incidere la presenza della seconda unità MADD (il che equivale a dire quanto incidono, grosso modo, a livello percentuale, gli shader relativi ad una simulazione)?
in effetti...........................
In base alla tua esperienza, quindi, quanto può incidere la presenza della seconda unità MADD (il che equivale a dire quanto incidono, grosso modo, a livello percentuale, gli shader relativi ad una simulazione)?
A occhio, molto spannometricamente?
Un 50% del frametime.
Ti posso dire che la maggior parte degli shader di BW2 non sono filtri di postprocessing, ma il postprocessing incide sul frame time per un 20/30% a seconda delle situazioni e della GPU. Parlo del frame time totale, comprensivo del processamento della geometria, non solo il tempo speso all'interno degli shader.
Sono calcoli un po' complicati da fare in maniera precisa perche' anche io non so di preciso dove siano i colli di bottiglia: ho passato il finesettimana ad esempio a fare profiling.
yossarian
26-06-2005, 22:56
A occhio, molto spannometricamente?
Un 50% del frametime.
Ti posso dire che la maggior parte degli shader di BW2 non sono filtri di postprocessing, ma il postprocessing incide sul frame time per un 20/30% a seconda delle situazioni e della GPU. Parlo del frame time totale, comprensivo del processamento della geometria, non solo il tempo speso all'interno degli shader.
Sono calcoli un po' complicati da fare in maniera precisa perche' anche io non so di preciso dove siano i colli di bottiglia: ho passato il finesettimana ad esempio a fare profiling.
ok, grazie, mi accontento della valutazione spannometrica :D
Te l'ho chiesto perchè anche da parte di ATi avevo sentito voci circa l'opportunità di aumentare le unità logiche delle pipeline; quindi ero interessato a conoscere le motivazioni di questa tendenza. Un 50%, anche con un'eventuale tolleranza di un 5-10% mi sembra un motivo valido.
:)
no (se posso rispondere al posto di fek); è un vantaggio per nVIDIA il calcolo a fp16 solo perchè c'è la possibilità di eseguire operazioni di normalizzazioni "for free". Ma questo vale sia nei confronti di fp32 che nei confronti di fp24 e solo perchè nelle ultime generazioni di chip NV c'è un blocco logico dedicato alle operazioni di normalizzazione ma funziona solo con fp16
fp32 richiede solo l'impiego di un maggior numero di transistor, ma le operazioni svolte sono esattamente le stesse
Allora perche' alla Vale hanno deciso di adottare un FP24 anche per Nvidia?? (non so molto in piu' al riguardo, cio' che ho letto si manteneva molto sul vago). Un maggior numero di transistor puo' generare come tu dici giustamente una situazione di "parita'", ma se usati per un FP24 impiegherebbero il 33% del tempo in meno o meglio, potrebbero calcolare il 33% in piu'.. no?? e' un po' come il concetto degil SM2.0, Nvidia ha l'HW per i 3, ma se si forzano i 2.o/2.0b ad esempio con il 3dm05, si ottengono risultati decisamente migliori.
Mi sa che mi sfugge qualcosa.
yossarian
26-06-2005, 23:24
Allora perche' alla Vale hanno deciso di adottare un FP24 anche per Nvidia?? (non so molto in piu' al riguardo, cio' che ho letto si manteneva molto sul vago). Un maggior numero di transistor puo' generare come tu dici giustamente una situazione di "parita'", ma se usati per un FP24 impiegherebbero il 33% del tempo in meno o meglio, potrebbero calcolare il 33% in piu'.. no?? e' un po' come il concetto degil SM2.0, Nvidia ha l'HW per i 3, ma se si forzano i 2.o/2.0b ad esempio con il 3dm05, si ottengono risultati decisamente migliori.
Mi sa che mi sfugge qualcosa.
nel passaggio tra sm2.0 e sm3.0 non è l'utilizzo di una diversa precisione di calcolo a fare la differenza dal punto di vista prestazionale, ma l'utilizzo di feture come hdr e soft shadow.
Il maggior numero di transistor serve solo ad avere registri di dimensioni maggiori e unità di calcolo che utilizzino più bit per ciclo. Se i registri sono dimensionati in maniera corretta (e quelli di NV40 e di G70 lo sono), nel passaggio da fp16 a fp32 non c'è perdita nelle prestazioni salvo che per l'utilizzo delle operazioni di normalizzazione. L'utilizzo di 32 bit anzichè di 24 richiede circuiti con circa un 33% in più di componenti, proprio per poter "leggere" tutti i bit relativi ad ogni singolo dato in un solo ciclo. L'HW di NV40 e di G70 è già predisposto per lavorare a fp32 e passando a fp16 la metà della circuiteria relativa alle pixel pipeline resterebbe inoperosa (quella che i chip NV a fp16 elaborerebbero il doppio dei dati, processando 2 thread al posto di uno, è una leggenda metropolitana che gira dai tempi dell'NV30).
Tra l'altro, riguardo ai registri, sin dall'R300 ATi utilizza registri a 32 bit, pur processando i dati nei ps a 24 bit (i vs lavorano sempre a fp32) e su R420 c'è già il numero di registri temporanei richiesto dallo sm3.0.
Per quanto riguarda l'utilizzo di fp24, non so a cosa tu ti riferisca, visto che i chip NV non hanno la possibilità di lavorare internamente a fp24, ma solo a fp16 e fp32. Se il riferimento è all'implementazione dell'hdr, allora si parla di fp16 (non di fp24) e il discorso cambia completamente (ad essere coinvolta è l'intera pipeline e non solo i ps)
ma su sta cosa avete ragione, il .NET è il futuro, ok..
la pesantezza però non è OK. :read: leggete i 3d nella sezione schede video/driver per le lamentele degli utenti sulla memoria allocata e sulla lentezza di esecuzione, non lo dico io, lo dicono gli altri (i possessori insomma)..
La pesantezza del CCC è dovuta sia alla sua architettura sia al .NET Framework 1.1. La situazione è comunque destinata a migliorare nel tempo. Già i Catalyst 5.6 comportano miglioramenti e l'arrivo del .NET Framework 2.0 porterà ulteriori giovamenti. Del resto ATI è conscia di questo aspetto e consente ancora oggi di installare i driver con il vecchio pannello di controllo.
2) driver per sistemi *nix allucinanti
So bene quale è la situazione dei driver Linux di ATI. La seguo costantemente perché ho già scritto un articolo in proposito e ho intenzione di scriverne altri. All'epoca di R300, tuttavia, la situazione era ben peggiore di oggi. Vedo che ora tu hai una 6800 GT. All'epoca di R300 non c'erano driver per Xorg o AMD64 e quelli open andavano bene solo con il 2D. Oggi esistono driver per Xorg e per AMD64 sebbene la situazione sia lungi da poter essere definita ottimale, sicuramente si sono fatti passi in avanti (l'ultima revisione ha introdotto anche un installatore grafico).
su MacOs tralascio ma una cosa chiedo: è possibile cmq mettere una scheda video ATI acquistata per x86 su un PowerPC? se la risposte è NO allora un'Ati comprata resta compatibile, PIENAMENTE e ben funzionante, solo su Windows...
olazzz
Non penso che si possano installare senza, diciamo, alcun problema. So che le schede video per Mac hanno un BIOS differente da quelle per PC, almeno fino a qualche anno fa. Oggi non so bene se la cosa sia stata risolta. Comunque sicuramente la maggiore similanza nell'architettura hardware dei Mac in futuro visto l'accordo con Intel porterà alla possibilità di installare schede video anche su Mac senza problemi.
LukeHack
27-06-2005, 00:59
La pesantezza di un'add-on che cosa c'entra con .NET e col fatto che la scheda e' perfettamente usabile anche senza l'add-on?
ma scusa, sai anche tu che presto saranno imprescindibili! questo comporterà belle gatte da pelare per chi dovrà sorbirsi questo "add-on"
Noi videogiocatori sopravviveremo anche a questo dramma.
e ci mancherebbe, però "il dramma" condanna chi vorrebbe avere una vga per x86, non per WINDOwS :O
nel passaggio tra sm2.0 e sm3.0 non è l'utilizzo di una diversa precisione di calcolo a fare la differenza dal punto di vista prestazionale, ma l'utilizzo di feture come hdr e soft shadow.
Il maggior numero di transistor serve solo ad avere registri di dimensioni maggiori e unità di calcolo che utilizzino più bit per ciclo. Se i registri sono dimensionati in maniera corretta (e quelli di NV40 e di G70 lo sono), nel passaggio da fp16 a fp32 non c'è perdita nelle prestazioni salvo che per l'utilizzo delle operazioni di normalizzazione. L'utilizzo di 32 bit anzichè di 24 richiede circuiti con circa un 33% in più di componenti, proprio per poter "leggere" tutti i bit relativi ad ogni singolo dato in un solo ciclo. L'HW di NV40 e di G70 è già predisposto per lavorare a fp32 e passando a fp16 la metà della circuiteria relativa alle pixel pipeline resterebbe inoperosa (quella che i chip NV a fp16 elaborerebbero il doppio dei dati, processando 2 thread al posto di uno, è una leggenda metropolitana che gira dai tempi dell'NV30).
Tra l'altro, riguardo ai registri, sin dall'R300 ATi utilizza registri a 32 bit, pur processando i dati nei ps a 24 bit (i vs lavorano sempre a fp32) e su R420 c'è già il numero di registri temporanei richiesto dallo sm3.0.
Per quanto riguarda l'utilizzo di fp24, non so a cosa tu ti riferisca, visto che i chip NV non hanno la possibilità di lavorare internamente a fp24, ma solo a fp16 e fp32. Se il riferimento è all'implementazione dell'hdr, allora si parla di fp16 (non di fp24) e il discorso cambia completamente (ad essere coinvolta è l'intera pipeline e non solo i ps)
Cerchero' l'intervista alla vale che lessi tempo a dietro, magari la leggo piu' attentamente.
Comunque accettato il fatto che l'hw rimanga inoperoso lavorando ad FP16, perche' Far Cry quando lavora in FP16 gira molto piu' rapidamente??
http://www.hwupgrade.it/articoli/skvideo/1013/19.html
In base a questi risultati direi che teoricamente "forzando" un FP24 si avrebbero risultati pressoché equilibrati.
Qui di seguito un pezzo dell'articolo:
"Per analizzare la resa delle schede NV3x e NV40 con gli shader di Far Cry abbiamo effettuato due screenshots, entrambi all'inizio della mappa Volcano. In particolare abbiamo prima utilizzato il percorso di rendering predefinito dal gioco (quello ottimizzato FP16) e successivamente abbiamo forzato quello generico (FP32)."
Domanda.. come si fa a forzarne l'uno piuttosto che un altro??
yossarian
27-06-2005, 08:26
Cerchero' l'intervista alla vale che lessi tempo a dietro, magari la leggo piu' attentamente.
Comunque accettato il fatto che l'hw rimanga inoperoso lavorando ad FP16, perche' Far Cry quando lavora in FP16 gira molto piu' rapidamente??
http://www.hwupgrade.it/articoli/skvideo/1013/19.html
In base a questi risultati direi che teoricamente "forzando" un FP24 si avrebbero risultati pressoché equilibrati.
Qui di seguito un pezzo dell'articolo:
"Per analizzare la resa delle schede NV3x e NV40 con gli shader di Far Cry abbiamo effettuato due screenshots, entrambi all'inizio della mappa Volcano. In particolare abbiamo prima utilizzato il percorso di rendering predefinito dal gioco (quello ottimizzato FP16) e successivamente abbiamo forzato quello generico (FP32)."
Domanda.. come si fa a forzarne l'uno piuttosto che un altro??
perchè ci sono alcune operazioni che in fp16 sono eseguite in un unico ciclo, in particolare le normalizzazioni vettoriali; questo non vuol dire che l'HW in generale lavori più velocemente a fp16, ma semplicemente che su NV40 (nel caso da te riportato) ci sono unità che eseguono calcoli specifici a fp16 (e non sono attive a fp32). L'unità dedicata alle normalizzazioni, per ragioni di spazio "on die", lavora solo a fp16, mentre a fp32 le stesse operazioni passano attraverso le unità di shading, inpiegando più cicli di clock. Un altro esempio, relativo all'hdr, è quello del blending che viene eseguito solo a fp16 (infatti né NV40 né G70 fanno hdr a fp32).
Per quanto riguarda NV3x, invece, le cose stanno in maniera differente, in quanto nell'utilizzo di fp32 è penalizzato dalla scarsa capacità dei registri temporanei (tra l'altro non escludo che i drivers NV, nel caso di NV38, facciano operazione di shader replacement)
Se, invece, fosse valido il tuo discorso, passando da fp32 a fp16 le prestazioni dovrebbero raddoppiare, mentre nella realtà non è così. Quindi, forzando fp24 (cosa impossibile sulle Geforce), non si avrebbe un equilibrio dei risultati.
Lavorando a fp32, NV40 si pone nelle stesse condizioni di R420; quando si passa a fp16, invece, può sfruttare il vantaggio dell'unità dedicata alle normalizzazioni, assente su R420.
mah...mi aspettavo molto di +...secondo me..stavolta ati sorpasserà nvidia.
CiccoMan
27-06-2005, 15:16
mah...mi aspettavo molto di +...secondo me..stavolta ati sorpasserà nvidia.
Per ora nvidia sta davanti alla grande ... per 550€ la scelta è tra 7800gtx e x850xt/xtpe ... direi che la scelta è obbligata :D
sta di fatto che mi sembra assurdo spendere 550 euro per una scheda video, soprattutto pensando al fatto che ci sono schede da 200 euro con cui si gioca già da dio! mica dobbiamo per forza giocare a 1600x1200 con miliardi di filtri attivi (soprattutto l'AA che a queste risoluzioni non mi sembra cambi radicalmente l'impatto grafico..) cmq con la mia configurazione solo discreta e di vecchia origine finora non sono mai sceso sotto i 1280x1024 con una 6600gt con svariati filtri attivi..poi sarà una mia idea anche non condivisibile...vi parla uno che ha giocato fino a 2 mesi fa con una geforce 2 gts...mi piacciono i pc, ma mi sembra esagerato spendere continuamente così tanto solo per giocare...questo non mette in dubbio che sia un'ottima scheda...
Demin Black Off
27-06-2005, 18:19
sta di fatto che mi sembra assurdo spendere 550 euro per una scheda video, soprattutto pensando al fatto che ci sono schede da 200 euro con cui si gioca già da dio! mica dobbiamo per forza giocare a 1600x1200 con miliardi di filtri attivi (soprattutto l'AA che a queste risoluzioni non mi sembra cambi radicalmente l'impatto grafico..) cmq con la mia configurazione solo discreta e di vecchia origine finora non sono mai sceso sotto i 1280x1024 con una 6600gt con svariati filtri attivi..poi sarà una mia idea anche non condivisibile...vi parla uno che ha giocato fino a 2 mesi fa con una geforce 2 gts...mi piacciono i pc, ma mi sembra esagerato spendere continuamente così tanto solo per giocare...questo non mette in dubbio che sia un'ottima scheda...
GIA' COMPRARE UNA 6800GT a 370euro è una pazzia che ho fatto io, 550 euro sono proprio fuori di testa, una scheda video oltre il caro vecchio milione di lire... ragazzi compratevi na bella moto sentite a me con quei soldi :P
perchè ci sono alcune operazioni che in fp16 sono eseguite in un unico ciclo, in particolare le normalizzazioni vettoriali; questo non vuol dire che l'HW in generale lavori più velocemente a fp16, ma semplicemente che su NV40 (nel caso da te riportato) ci sono unità che eseguono calcoli specifici a fp16 (e non sono attive a fp32). L'unità dedicata alle normalizzazioni, per ragioni di spazio "on die", lavora solo a fp16, mentre a fp32 le stesse operazioni passano attraverso le unità di shading, inpiegando più cicli di clock. Un altro esempio, relativo all'hdr, è quello del blending che viene eseguito solo a fp16 (infatti né NV40 né G70 fanno hdr a fp32).
Per quanto riguarda NV3x, invece, le cose stanno in maniera differente, in quanto nell'utilizzo di fp32 è penalizzato dalla scarsa capacità dei registri temporanei (tra l'altro non escludo che i drivers NV, nel caso di NV38, facciano operazione di shader replacement)
Se, invece, fosse valido il tuo discorso, passando da fp32 a fp16 le prestazioni dovrebbero raddoppiare, mentre nella realtà non è così. Quindi, forzando fp24 (cosa impossibile sulle Geforce), non si avrebbe un equilibrio dei risultati.
Lavorando a fp32, NV40 si pone nelle stesse condizioni di R420; quando si passa a fp16, invece, può sfruttare il vantaggio dell'unità dedicata alle normalizzazioni, assente su R420.
Effettivamente cosi' fila gia' di piu'.
C'e' solo un punto pero', la considerazione da te fatta riguardo il teorico raddoppio delle prestazioni (qualora fosse possibile utilizzare l'hw a riposo), che non avviene e' un po' sballata. Il raddoppio lo avremmo con una VPU completamente doppia, con RAM al doppio del clock, con una CPU il doppio piu' potente.. ecc.. quello potrebbe corrispondere ad uno scarto grossomodo simile agli incrementi risultati in quei test e che, probabilmente per coincidenza, fa risultare i valori dell'FP24 a meta' strada tra i 16 ed i 32. Questo mi ha forviato. Me la studiero' meglio.
Trall'altro li ipotizzano anche dei limiti legati alla banda vista la mole magigore dei dati elaborati a 32, stabilito che l'utilizzo dei registri inusati non sia possibile, un calcolo a 24bit richiedera' comunque un carico inferiore. no??
Ti faccio un'altra domanda gia' che ci sono. L'utilizzo di SM 2.0/2.0b nell'NV40 anziche' dei 3.0, puo' portare ad un incremento di prestazioni??
Comunque grazie.
P.S. Sai come si forzana L'FP16??
mah...mi aspettavo molto di +...secondo me..stavolta ati sorpasserà nvidia.
ATI esce sempre in ritardo.. grazie che sorpassa.. Poi con frequenze assurde ed un mare di problemi di produzione.
Senza considerare che per quando le X9x0 saranno sugli scaffali Nvidia sara' quasi pronta a presentare L'NV50.. Li ci sara' da ridere.
sta di fatto che mi sembra assurdo spendere 550 euro per una scheda video, soprattutto pensando al fatto che ci sono schede da 200 euro con cui si gioca già da dio! mica dobbiamo per forza giocare a 1600x1200 con miliardi di filtri attivi (soprattutto l'AA che a queste risoluzioni non mi sembra cambi radicalmente l'impatto grafico..) cmq con la mia configurazione solo discreta e di vecchia origine finora non sono mai sceso sotto i 1280x1024 con una 6600gt con svariati filtri attivi..poi sarà una mia idea anche non condivisibile...vi parla uno che ha giocato fino a 2 mesi fa con una geforce 2 gts...mi piacciono i pc, ma mi sembra esagerato spendere continuamente così tanto solo per giocare...questo non mette in dubbio che sia un'ottima scheda...
Mi sembra assurdo pagare tutta questa tecnologia queste cifre assurde, ma all'atto pratico se vuoi giocare Doom 3 a 1280 con driver e le impostazioni del gioco, su alta qualita', devi prenderti una 6800gt. Perche' il filtro anisotropico serve a parer mio molto piu' dell'AA soprattutto all'aumentare della risoluzione.
Giocare a 1600*1200 con AA attivo (e soprattutto a 6 o 8 x) non mi sembra molto intelligente.
GIA' COMPRARE UNA 6800GT a 370euro è una pazzia che ho fatto io, 550 euro sono proprio fuori di testa, una scheda video oltre il caro vecchio milione di lire... ragazzi compratevi na bella moto sentite a me con quei soldi :P
Io l'ho pagata 350€ diversi mesi fa e la versioen AGP costa gia' 282€ ivata.
Con 550€ che moto ci compri?? ti compri uno scooter usato.. Una MOTO costa molto di piu'.. con quella cifra ci compri i copertoni che ti durano 4000 Km :p .. Io amo le moto.. ma costano molto.. altro che i computer. ;)
yossarian
27-06-2005, 21:08
Effettivamente cosi' fila gia' di piu'.
C'e' solo un punto pero', la considerazione da te fatta riguardo il teorico raddoppio delle prestazioni (qualora fosse possibile utilizzare l'hw a riposo), che non avviene e' un po' sballata. Il raddoppio lo avremmo con una VPU completamente doppia, con RAM al doppio del clock, con una CPU il doppio piu' potente.. ecc.. quello potrebbe corrispondere ad uno scarto grossomodo simile agli incrementi risultati in quei test e che, probabilmente per coincidenza, fa risultare i valori dell'FP24 a meta' strada tra i 16 ed i 32. Questo mi ha forviato. Me la studiero' meglio.
Ti faccio un'altra domanda gia' che ci sono. L'utilizzo di SM 2.0/2.0b nell'NV40 anziche' dei 3.0, puo' portare ad un incremento di prestazioni??
Comunque grazie.
non puoi fare valutazioni tra fp16, fp24 e fp32, basandoti sulle prestazioni di due chip che, se per certi versi sono simili, per altri si differenziano in notevolmente. R420 ha, fondamentalmente, una unità MADD o SFU e una tmu che lavorano indipendentemente l'una dall'altra; NV40 ha un'unità MUL o SFU non indipendente dalla tmu e un'unità MADD indipendente; inoltre ha una unità logica che si occupa delle operazioni di normalizzazione vettoriale in fp16 (ovvero compie un'operazione di tipo RCP e 3 MUL in un solo ciclo); quest'ultima, in particolare, permette a NV40 di eseguire "gratis" 4 operazioni che, lavorando a fp32, sarebbero a carico delle altre due unità (si spreca un ciclo che tiene impegnate due unità).
Riguardo al discorso sul raddoppio delle prestazioni, sono partito dalle considerazioni che avevi fatto in precedenza; in poche parole, se l'incremento tra fp32 e fp24 è dovuto alla diminuzione della precisione di calcolo, la ragione principale, assunto che non ci siano problemi di registri e nelle situazioni in cui non si è bandwidth limited, potrebbe essere imputato solo ad un riutilizzo di quelle unità di calcolo che in fp24 sarebbero inattive (un'unità full fp32 esegue una miniops in un solo ciclo, che sia essa a fp16 o a fp24 o a fp32); pertanto, passando da fp32 a fp16, secondo questo principio, le prestazioni delle pixel pipeline dovrebbero raddoppiare (e le pixel pipeline sono quelle che incidono maggiormente sul fillrate). In realtà, le cose non stanno così; il raddoppio di prestazioni si aveva solo con la serie NV3x, poichè passando a fp32, per immagazzinare uno stesso valore in un registro temporaneo occorrevano il doppio dei cicli di clock.
Con NV40 e G70, l'incremento da fp32 a fp16 è molto più modesto e dipende dal fatto che a fp16 ci sono alcune operazioni extra che la pipeline è in grado di eseguire nello stesso ciclo. Ad esempio, relativamente alla funzione di normalizzazione, lavorando a fp32, NV40 lavora in maniera molto più simile a R420, rinunciando al valore aggiunto del circuito di normalizzazione vettoriale (che R420 non ha).
Per quanto riguarda l'incremento di prestazioni tra sm3.0 e sm2.0, in effetti tale incremento si ha (e anche sostanzioso) nel momento in cui non utilizziamo feature specifiche dello sm3.0 (per esempio soft shadow e hdr) che provocano un marcato calo prestazionale. Non utilizzando queste due, invece, NV40 dovrebbe addirittura trarre beneficio dall'utilizzo di sm3.0
p.s. il problema non è relativo ai registri ma alle unità di calcolo non utilizzate. Sia NV40 che G70, ma anche R420 hanno un numero di registri temporanei sufficienti per soddisfare le richieste dello sm3.0
Ti faccio un'altra domanda gia' che ci sono. L'utilizzo di SM 2.0/2.0b nell'NV40 anziche' dei 3.0, puo' portare ad un incremento di prestazioni??
No. Usare SM 3.0 porta in alcune condizioni ad un incremento di prestazioni.
P.S. Sai come si forzana L'FP16??
Il programmatore segnala la volonta' di usare istruzioni fp16 aggiungendo il suffisso _pp alle istruzioni in assembly (o usando il tipo half in HLSL).
ATI esce sempre in ritardo.. grazie che sorpassa.. Poi con frequenze assurde ed un mare di problemi di produzione.
Senza considerare che per quando le X9x0 saranno sugli scaffali Nvidia sara' quasi pronta a presentare L'NV50.. Li ci sara' da ridere.
Non credo visto che l'NV50 non uscira' prima delle WGF2.0 e sulle architetture a pipeline unificate NVIDIA e' piuttosto in ritardo rispetto ad ATI, non avendo ancora alcun chip funzionante con questa architettura.
In realtà, le cose non stanno così; il raddoppio di prestazioni si aveva solo con la serie NV3x, poichè passando a fp32, per immagazzinare uno stesso valore in un registro temporaneo occorrevano il doppio dei cicli di clock.
Yoss, da come l'avevo capita io a seguito di svariate spiegazioni da parte di Mark Harris di NVIDIA, il decadimento di prestazioni era dovuto al limite nel numero totale di registri temporanei a disposizione. Due registri a fp16 occupavano un registro a fp32 e quando il numero di registri temporanei si esaurisce durante il processamento dei frammenti, la GPU deve aspettare che alcuni pixel finiscano di essere elaborati liberino registri temporanei prima di proseguire con altri pixel.
Da qui il fatto che per pixel corti (molto corti su NV3X) non c'e' alcuna differenza fra fp16 e fp32; il threshold e' di 2 registri temporanei se ricordo bene.
yossarian
27-06-2005, 22:08
Yoss, da come l'avevo capita io a seguito di svariate spiegazioni da parte di Mark Harris di NVIDIA, il decadimento di prestazioni era dovuto al limite nel numero totale di registri temporanei a disposizione. Due registri a fp16 occupavano un registro a fp32 e quando il numero di registri temporanei si esaurisce durante il processamento dei frammenti, la GPU deve aspettare che alcuni pixel finiscano di essere elaborati liberino registri temporanei prima di proseguire con altri pixel.
Da qui il fatto che per pixel corti (molto corti su NV3X) non c'e' alcuna differenza fra fp16 e fp32; il threshold e' di 2 registri temporanei se ricordo bene.
hai ragione, mi sono spiegato da cani :doh:
Si, il valore di treshold è pari a 2 registri (per valori full vect)
è la stessa cosa; mi sono spiegato veramente male (e faccio ammenda :doh: ); in effetti il problema è proprio relativo alla capacità totale dei registri temporanei e l'elaborazione procede nel modo che hai descritto.
Per quanto riguarda il treshold, se ti riferisci a valori vettoriali, il valore è 2 (l'equivalente di 8 grandezze scalari in gioco per volta)
Avevo capito male io quello che hai scritto! Pensavo ti riferissi al tempo fisico di scrittura in un registro. Sorry :)
yossarian
27-06-2005, 22:14
Avevo capito male io quello che hai scritto! Pensavo ti riferissi al tempo fisico di scrittura in un registro. Sorry :)
non è colpa tua, l'ho dovuto rileggere anche io per capire cosa avevo scritto
:D
Ma allora si da per sicuro che r520 non avrà le pipe unificate?
Se hanno un prototipo pronto per le consolle perchè non introdurlo fin da subito, porterre a degradi prestazionali? difficoltà con i driver? chi mi illumina... :muro:
Ma allora si da per sicuro che r520 non avrà le pipe unificate?
Se hanno un prototipo pronto per le consolle perchè non introdurlo fin da subito, porterre a degradi prestazionali? difficoltà con i driver? chi mi illumina... :muro:
E' un'architettura troppo evoluta per i tempi che tra l'altro non verrebbe neanche sfruttata a dovere con le API disponibili attualmente.
Non credo visto che l'NV50 non uscira' prima delle WGF2.0 e sulle architetture a pipeline unificate NVIDIA e' piuttosto in ritardo rispetto ad ATI, non avendo ancora alcun chip funzionante con questa architettura.
Sinceramente non credo sia esattamente cosi'. Almeno stando a cio' che dicono loro. Nvidia sostiene di avere entrambe le tecnologie e di aver scelto la soluzione "separata" per questioni prestazionali.
Credo che un'architettura unificata, possa essere assai piu' flessibile ma probabilmnte meno efficace, questo cosa comporta e perche'..
Quando ci sono poche richieste di VS e tante PS, le ALU a riposo, correranno in soccorso delle altre, mentre quando si presentera' una scena complessa ed evoluta, si divideranno il carico altrettanto equamente.
Ora pero', riflettendo su quando queste situazioni possano effettivamente verificarsi, ci accorgiamo che una scena con poche richieste VS o PS, non e' una scena pesate, in genere e' una delle scene "picco" in termini di frame rate e dunque l'aiuto delle ALU ferme fara' aumentare questo picco notevolmente.
Una scena complessa invece, presentera' in misura molto piu' equilibrata le richieste di VS e PS, dunque questa tecnologia portera' poco aiuto in tali situazioni e SE le ALU generiche, dovessero essere meno efficienti di quelle dedicate (dell'attuale tecnologia), potremmo verosimilmente trovarci di fronte ad un calo prestazionale.. (compensabile con un maggior numero di unita' aritmetico logiche).
Poi ce da dire che tutto qusto dovra' esser pur gestito da qualcosa.. Sapete se avverra' via SW o HW?? L'efficienza dell'assegnamento delle ALU incidera' notevolmente.
Questo non vuol dire che io non creda in questo, anzi, potrebbe portare pure una semplificazione per chi dovra' programmarle e sicuramente (evolvendosi) una maggior flessibilita', ma allo stato attuale delle cose, potrebbe non essere tutto oro quel che luccica.
Sbaglio??
non puoi fare valutazioni tra fp16, fp24 e fp32, basandoti sulle prestazioni di due chip che, se per certi versi sono simili, per altri si differenziano in notevolmente. R420 ha, fondamentalmente, una unità MADD o SFU e una tmu che lavorano indipendentemente l'una dall'altra; NV40 ha un'unità MUL o SFU non indipendente dalla tmu e un'unità MADD indipendente; inoltre ha una unità logica che si occupa delle operazioni di normalizzazione vettoriale in fp16 (ovvero compie un'operazione di tipo RCP e 3 MUL in un solo ciclo); quest'ultima, in particolare, permette a NV40 di eseguire "gratis" 4 operazioni che, lavorando a fp32, sarebbero a carico delle altre due unità (si spreca un ciclo che tiene impegnate due unità).
Riguardo al discorso sul raddoppio delle prestazioni, sono partito dalle considerazioni che avevi fatto in precedenza; in poche parole, se l'incremento tra fp32 e fp24 è dovuto alla diminuzione della precisione di calcolo, la ragione principale, assunto che non ci siano problemi di registri e nelle situazioni in cui non si è bandwidth limited, potrebbe essere imputato solo ad un riutilizzo di quelle unità di calcolo che in fp24 sarebbero inattive (un'unità full fp32 esegue una miniops in un solo ciclo, che sia essa a fp16 o a fp24 o a fp32); pertanto, passando da fp32 a fp16, secondo questo principio, le prestazioni delle pixel pipeline dovrebbero raddoppiare (e le pixel pipeline sono quelle che incidono maggiormente sul fillrate). In realtà, le cose non stanno così; il raddoppio di prestazioni si aveva solo con la serie NV3x, poichè passando a fp32, per immagazzinare uno stesso valore in un registro temporaneo occorrevano il doppio dei cicli di clock.
Con NV40 e G70, l'incremento da fp32 a fp16 è molto più modesto e dipende dal fatto che a fp16 ci sono alcune operazioni extra che la pipeline è in grado di eseguire nello stesso ciclo. Ad esempio, relativamente alla funzione di normalizzazione, lavorando a fp32, NV40 lavora in maniera molto più simile a R420, rinunciando al valore aggiunto del circuito di normalizzazione vettoriale (che R420 non ha).
Grazie per la delucidazione, pero' ringrazio anche Fek per la delucidazione della tua delucidazione. :p
P.S. Sul test che ho postato, dicono di aver Forzato l'FP16.. ma lo dicono in redazione, come fosse fattibile da driver o dal gioco stesso. Non sono stati troppo chiari al riguardo, mi parrebbe strano che si siano messi ad aggiungere _pp o cose simili. no??
No. Usare SM 3.0 porta in alcune condizioni ad un incremento di prestazioni.
Per quanto riguarda l'incremento di prestazioni tra sm3.0 e sm2.0, in effetti tale incremento si ha (e anche sostanzioso) nel momento in cui non utilizziamo feature specifiche dello sm3.0 (per esempio soft shadow e hdr) che provocano un marcato calo prestazionale. Non utilizzando queste due, invece, NV40 dovrebbe addirittura trarre beneficio dall'utilizzo di sm3.0
p.s. il problema non è relativo ai registri ma alle unità di calcolo non utilizzate. Sia NV40 che G70, ma anche R420 hanno un numero di registri temporanei sufficienti per soddisfare le richieste dello sm3.0
Immaginavo queste risposte, era esattamente cio' che pensavo, ma a questo punto mi domando perche' impostando gli shader 2.0 e 2.0b con il 3dmark2005, si ottengono framerate maggiori che con i 3.0, maggiori non di poco.
Sinceramente non credo sia esattamente cosi'. Almeno stando a cio' che dicono loro. Nvidia sostiene di avere entrambe le tecnologie e di aver scelto la soluzione "separata" per questioni prestazionali.
Non dare ascolto a quello che sostengono ATI e NVIDIA. Fidati di quello che ti diciamo io e yoss su questo punto ;)
Ora pero', riflettendo su quando queste situazioni possano effettivamente verificarsi, ci accorgiamo che una scena con poche richieste VS o PS, non e' una scena pesate, in genere e' una delle scene "picco" in termini di frame rate e dunque l'aiuto delle ALU ferme fara' aumentare questo picco notevolmente.
In una scena bilanciata un'architettura a pipeline non unificate bilanciata per quella particolare scena dovrebbe essere piu' performante, ma scene di questo tipo sono una rarita'. Di solito quella e' la media.
Spesso invece si hanno parecchie situazioni dove solo vertex shader o solo pixel shader vengono caricati. Ti posso parlare del depth pass di Doom 3 (che poi fanno tutti in realta'), come delle stencil shadow sempre di Doom 3 che usano prevalentemente vertex shader. Oppure delle fasi d post processing che sovraccaricano i pixel shader. Sono situazioni limite sempe piu' frequenti.
Poi ce da dire che tutto qusto dovra' esser pur gestito da qualcosa.. Sapete se avverra' via SW o HW?? L'efficienza dell'assegnamento delle ALU incidera' notevolmente.
Tutto in hardware. L'algoritmo di bilanciamento e piuttosto banale.
Questo non vuol dire che io non creda in questo, anzi, potrebbe portare pure una semplificazione per chi dovra' programmarle e sicuramente (evolvendosi) una maggior flessibilita', ma allo stato attuale delle cose, potrebbe non essere tutto oro quel che luccica.
Sbaglio??
Non sbagli, ed e' per questo che NVIDIA non ha ancora molta esperienza con questa soluzione perche' fino ad oggi non l'ha reputata vincente.
P.S. Sul test che ho postato, dicono di aver Forzato l'FP16.. ma lo dicono in redazione, come fosse fattibile da driver o dal gioco stesso. Non sono stati troppo chiari al riguardo, mi parrebbe strano che si siano messi ad aggiungere _pp o cose simili. no??
E' teoricamente possibile forzarlo da driver, ma piu' probabilmente lo hanno fatto dal gioco con qualche opzione non documentata.
Immaginavo queste risposte, era esattamente cio' che pensavo, ma a questo punto mi domando perche' impostando gli shader 2.0 e 2.0b con il 3dmark2005, si ottengono framerate maggiori che con i 3.0, maggiori non di poco.
Puo' essere dovuto a qualunque cosa :)
Trovare i colli di bottiglia in un'applicazione e' un lavoro dannatamente complicato e lungo. Dovrei avere il 3dmark05 sotto mano e mettermi a fare un po' di prove per risponderti in maniera precisa.
Dark Schneider
28-06-2005, 12:28
Non dare ascolto a quello che sostengono ATI e NVIDIA. Fidati di quello che ti diciamo io e yoss su questo punto ;)
Quindi tra un anno nVidia sarà costretta ad inseguire in pratica. :)
Vista la maggiore esperienza Ati che ha già un chip video di questo tipo progettato, pronto e finito.
Dalla teoria delle code, N serventi generici con una unica coda sono meglio di N/2 e N/2 (o qualunque altra suddifisione) serventi specializzati, con 2 code separate. Non a caso da qualche anno è approdata la coda unica anche alle poste (ma purtroppo non ancora alla mia banca! Uffa!)...
Demin Black Off
28-06-2005, 12:55
Quindi tra un anno nVidia sarà costretta ad inseguire in pratica. :)
Vista la maggiore esperienza Ati che ha già un chip video di questo tipo progettato, pronto e finito.
Se entro dicembre nvidia non presenta qualcosa di rivoluzionario per davvero, viene affondata di brutto brutto brutto :)
Athlon 64 3000+
28-06-2005, 13:14
Quindi se ho ben capito grazie alla GPU dell'Xbox (R500)Ati nello sviluppo dell'architettura WGF 2.0 a unità shader unificate è nettamente in vantaggio rispetto a nVidia dato che hà già un gpu bella e pronta che può usare come come base di partenza per la GPU che dovrà uscira nel 2006 inoltrato e che sarà R600.
Demin Black Off
28-06-2005, 13:18
Quindi se ho ben capito grazie alla GPU dell'Xbox (R500)Ati nello sviluppo dell'architettura WGF 2.0 a unità shader unificate è nettamente in vantaggio rispetto a nVidia dato che hà già un gpu bella e pronta che può usare come come base di partenza per la GPU che dovrà uscira nel 2006 inoltrato e che sarà R600.
;) Uno che ha capito come stanno le cose. La 7800 è già vecchia prima di uscire :muro:
;) Uno che ha capito come stanno le cose. La 7800 è già vecchia prima di uscire :muro:
Affermazione non condivisibile. La 7800 al momento e' la GPU piu' avanzata in commercio.
yossarian
28-06-2005, 14:09
Dalla teoria delle code, N serventi generici con una unica coda sono meglio di N/2 e N/2 (o qualunque altra suddifisione) serventi specializzati, con 2 code separate. Non a caso da qualche anno è approdata la coda unica anche alle poste (ma purtroppo non ancora alla mia banca! Uffa!)...
il paragone con le poste calza, ma fino ad un certo punto, in quanto, nel caso delle file separate in un ufficio postale, l'unico inconveniente che può capitare è che qualche impiegato abbia carichi di lavoro maggiori e risulti più lento degli altri (nell'ipotesi, visto che si fa il paragone con delle unità di calcolo identiche tra loro, che tutti gli impiegati siano veloci allo stesso modo nell'effettuare lo stesso tipo di operazioni); diciamo che il paragone può essere fatto con un ufficio in cui ci sono n code, ognuna con m sportelli (ciascuno specializzato in una singola operazione), in cui l'utente A, per completare il thread, deve scegliere una coda e passare tutti gli m sportelli della stessa. Un'architettura a unità generiche, invece, è paragonabile a un ufficio con nxm sportelli, ognuno in grado di compiere tutte le operazioni richieste da un thread (o, almeno, un certo numero delle stesse), in cui l'utente A, una volta terminata la prima operazione (che svolge al primo sportello che trova disponibile al momento del suo ingresso), viene dirottato al primo sportello che si rende disponibile per effettuare la seconda operazione e così via, fino al completamento del thread.
Beh, ma se le unità sono generiche, allora non ha senso uscire e mettersi in coda da un'altra parte... tanto vale tenere occupata la stessa unità per n slot di tempo (leggi cicli di clock) anzichè uno...
Poi il fatto che sia meglio una coda unica è stato dimostrato matematicamente del caso di distribuzione Poissoniana dei tempi di interarrivo e credo che valga anche per altre distribuzioni dei tempi (se non per tutte quelle che si hanno in pratica)... Per le altre distribuzioni... non ricordo bene... Ho fatto solo impianti di elaborazione che prevede uno studio sommario della teoria delle code... L'altro esame (di cui non ricordo il nome) che prevedeva lo studio approfondito della teoria delle code non l'ho messo nel piano di studi a suo tempo... :(
Speed399
28-06-2005, 15:33
;) Uno che ha capito come stanno le cose. La 7800 è già vecchia prima di uscire :muro:
come lo sarà la R520 guardando avanti
tanto non puoi mica far uscire una scheda a pipe unificate quando manca 1 anno e passa alle WGF
dal punto di vista del mercato saranno vecchie tutte le schede ... dal punto di vista del prospetto futuro potrebbe darsi che nvidia si troverà indietro rispetto ad ati per i motivi succitati (e cioè che grazie al pushing di microsoft per fare la GPU della xbox la ati si trova a lavorare e studiare le soluzioni a pipe unificate da molto prima e più intensamente di nvidia)
yossarian
28-06-2005, 16:04
Beh, ma se le unità sono generiche, allora non ha senso uscire e mettersi in coda da un'altra parte... tanto vale tenere occupata la stessa unità per n slot di tempo (leggi cicli di clock) anzichè uno...
infatti è quanto avviene con unità che siano completamente generiche (il che presuppone la non completa eliminazione della ridondanza circuitale, ma solo la sua diminuzione). L'unificazione delle unità di calcolo parte dal presupposto che moltissime delle operazioni svolte da vs e ps sono uguali e possono essere eseguite una volta sola, anzichè più volte.
In quest'ottica, le strade percorribili sono due:
1) unità che compiono le operazioni comuni a vs e ps (e anche ad altri blocchi) che mettono il risultato della loro elaborazione a disposizione di unità che compiono task specifici (si ha la riduzione all'osso della circuiteria ma resta il problema di come semplificare al massimo le interconnessioni tra le varie unità di calcolo)
2) unità che sono in grado di eseguire sia i calcoi relativi ai ps che quelli relativi ai vs; in questo caso, brutalmente parlando, si prende come base di partenza la parte circuitale comune e si aggiungono gli elementi specifici di entrambi. Il circuito finale risulta un po' più complesso ma si risolve il problema della messa in comune dei dati.
ATi, nell'R500, ha scelto questa seconda soluzione. Le pipeline generiche sono divise in 3 blocchi da 16 unità full vect + 16 unità scalari, ognuna delle quali in grado di effettuare cicli di loopback fino ad elaborazione terminata. Questa struttura è collegata da due crossbar connection a 4 gruppi di texture unit da una parte e al chip secondario (che comprende ROP's e eDRAM dall'altra; anzi, ad essere sinceri, non escluderei a priori un'architettura parzialmente unificata anche a livello di ROP's); questo, in linea di massima, non avendo tenuto conto di un vertex buffer, di un'unità che si occupa di fare operazioni di batch sui quad, ecc.
OK, interessante... Sembra che questa GPU debba essere molto potente... Una curiosità... ma da dove hai preso queste informazioni ? Sono rumors ??? ;)
yossarian
28-06-2005, 16:21
OK, interessante... Sembra che questa GPU debba essere molto potente... Una curiosità... ma da dove hai preso queste informazioni ? Sono rumors ??? ;)
no, la fonte è ATi stessa; tra l'altro, lo studio di un'architettura di tipo unificata è iniziato ancora prima dell'accordo con MS per la produzione dell'x-chip. In quest'ottica ATi ha anche "acquistato" la possibilità di sfruttare il know how tecnologico di Intrinsity, una delle aziende leader nella progettazione di processori di tipo SIMD (che fanno ampio uso di embedded ram).
Più che molto potente (anche se la potenza non manca) la definirei una gpu molto "razionale", come dimostrano anche i circa 256 Gb di bus tra ROP's e eDRAM, proprio a beneficio di quelle operazioni che richiedono uno sfruttamento intensivo della bandwidth
Più che molto potente (anche se la potenza non manca) la definirei una gpu molto "razionale", come dimostrano anche i circa 256 Gb di bus tra ROP's e eDRAM, proprio a beneficio di quelle operazioni che richiedono uno sfruttamento intensivo della bandwidth
Multisampling e alpha blending.
Piu' penso a questa architettura piu' e' geniale.
... infatti è un modo efficiente di usare i transistors... Questo design è stato applicato in parte nei P4 Northwood: per le moltiplicazioni intere non c'era una unità dedicata, ma si usava la FPU. Peccato che di moltiplicatore la FPU ne aveva uno solo...
yossarian
28-06-2005, 17:15
... infatti è un modo efficiente di usare i transistors... Questo design è stato applicato in parte nei P4 Northwood: per le moltiplicazioni intere non c'era una unità dedicata, ma si usava la FPU. Peccato che di moltiplicatore la FPU ne aveva uno solo...
nick in tema con l'argomento trattato.............
;)
OT
alle superiori (ho fatto l'I.T.I.S.) il prof di elettronica era bjt ed io bjt2... ;)
/OT
Non sbagli, ed e' per questo che NVIDIA non ha ancora molta esperienza con questa soluzione perche' fino ad oggi non l'ha reputata vincente.
Tanto, volenti o nolenti, migliore o peggiore, ci si dovra' dirigere verso quella direzione.
no, la fonte è ATi stessa; tra l'altro, lo studio di un'architettura di tipo unificata è iniziato ancora prima dell'accordo con MS per la produzione dell'x-chip. In quest'ottica ATi ha anche "acquistato" la possibilità di sfruttare il know how tecnologico di Intrinsity, una delle aziende leader nella progettazione di processori di tipo SIMD (che fanno ampio uso di embedded ram).
Più che molto potente (anche se la potenza non manca) la definirei una gpu molto "razionale", come dimostrano anche i circa 256 Gb di bus tra ROP's e eDRAM, proprio a beneficio di quelle operazioni che richiedono uno sfruttamento intensivo della bandwidth
Penso che R500 sia un processore grafico veramente innovativo. Ci sono i presupposti per un'efficienza sconosciuta alle attuali GPU nel calcolo degli shaders.
Allora se per indirizzare 24 pipeline ho bisogno per forza di 5 bit,perchè altrimenti con soli 4 bit potrei indirizzare 2^4 16 unità,allora 2^5 fa prorpio 32 quindi è quasi probabile che nvidia andrà ad abbilitare le restanti pipeline!!!!
Allora se per indirizzare 24 pipeline ho bisogno per forza di 5 bit,perchè altrimenti con soli 4 bit potrei indirizzare 2^4 16 unità,allora 2^5 fa prorpio 32 quindi è quasi probabile che nvidia andrà ad abbilitare le restanti pipeline!!!!
che?!?!
leoneazzurro
28-06-2005, 19:34
che?!?!
mips32 pensa che le 7800 in realtà non siano chip a 24, ma a 32 pipeline di cui 8 disabilitate, anche se la "prova" direi sia un pò scarsina :p. piuttosto, c'è Dave Baumann di Beyond3D che ha aperto un topic in pagina iniziale per discutere di questa possibilità, speculando sul fatto che il die di G70 sembrerebbe un pelino più grande di quello che dovrebbe essere. Chissà....
Anche se Unwinder sembra convinto di no.
spakkiuso
28-06-2005, 19:46
anche a te anche a te.
;)
A me a me!!!!!!!!!! :D
halduemilauno
28-06-2005, 20:02
A me a me!!!!!!!!!! :D
fatto fatto.
;)
Dark Schneider
28-06-2005, 20:48
Se entro dicembre nvidia non presenta qualcosa di rivoluzionario per davvero, viene affondata di brutto brutto brutto :)
Falso. Entro dicembre proprio no. Cosa deve rivoluzionare per dicembre 2005?
Forse intendi il dicembre 2006.
AnonimoVeneziano
28-06-2005, 21:53
Infatti, R520 a parte le 32 pipeline non ha niente di più interessante di G70 ;)
Per le unificate dovremo aspettare la prossima generazione (NV50 / R600)
Ciao
_. SLM ._
28-06-2005, 23:17
... R520 a parte le 32 pipeline non ha niente di più interessante di G70...
Più di G70... sicuro?
LINK (http://www.hwupgrade.it/forum/showthread.php?t=967262)
AnonimoVeneziano
29-06-2005, 00:55
Più di G70... sicuro?
LINK (http://www.hwupgrade.it/forum/showthread.php?t=967262)
Parlo di cose ufficiali :)
Infatti, R520 a parte le 32 pipeline non ha niente di più interessante di G70 ;)
:D
Saved_ita
29-06-2005, 02:31
Io per fare un paragopne mi baso solo su quello che i "umors" dicono.
Ho trovato questa "notizia" (e per favore non ammazzatevi troppo dalle risate perchè io stesso stento a definirla "notizia") reperita sul solito siti di abbaiate incredibili che fà di nome Inquirer
Link (http://www.theinquirer.net/?article=23752)
Ora, stando alle abbaiate citate si dice che l'r520 dovrebbe fare attorno ai 10000 punti al 3d2k5... e sempre nello stesso articolo afferma che la 7800 non avrebbe mai raggiutno tale valore.
In realtà la versione di fascia medio bassa li supera abbondantemente (sempre che per le 7800 ci siano le versioni di fascia alta come per la 6800, ovvero la Ultra e Ultra Extreme Edition).
Di fatto se quel valore è minimente attendibile... io dico che il confronto non sarà mai così "scontato" come lo si vuol far sembrare.
Ola
La GTX non è la versione di fascia medio bassa. Raggiunge 11300 punti a 700mhz raffreddata con un sistema a cascata. Non è alla portata di tutti. Si parla sui forum di 475mhz/480mhz per la Ultra (non so altro e la fonte è tutto fuorchè affidabile ma parla di sample inviati a qualche produttore) e quindi siamo ben lontani da 700mhz. Anche ipotizzando 500mhz, il punteggio è stato raggiunto con una cpu mi pare di ricordare da 3.5ghz che su Athlon è un valore tutt'altro semplice da raggiungere. Quindi quel "supera abbondantemente" è tutto fuorchè veritiera.
Anche il valore della R520 è un rumors, oltretutto non mi pare sia stato specificato quale delle versioni, se fosse quella normale? Se fosse la XT? Se fosse una balla?
Parliamo di G70 va che è meglio, i rumors lasciamoli al loro posto :)
Athlon 64 3000+
29-06-2005, 10:49
La GTX non è la versione di fascia medio bassa. Raggiunge 11300 punti a 700mhz raffreddata con un sistema a cascata. Non è alla portata di tutti. Si parla sui forum di 475mhz/480mhz per la Ultra (non so altro e la fonte è tutto fuorchè affidabile ma parla di sample inviati a qualche produttore) e quindi siamo ben lontani da 700mhz. Anche ipotizzando 500mhz, il punteggio è stato raggiunto con una cpu mi pare di ricordare da 3.5ghz che su Athlon è un valore tutt'altro semplice da raggiungere. Quindi quel "supera abbondantemente" è tutto fuorchè veritiera.
Anche il valore della R520 è un rumors, oltretutto non mi pare sia stato specificato quale delle versioni, se fosse quella normale? Se fosse la XT? Se fosse una balla?
Parliamo di G70 va che è meglio, i rumors lasciamoli al loro posto :)
Quoto.
Dei rumors non me ne faccio niente.
Parliamo di G70 che e gia sul mercato con tanto di recensioni e tutto.
Saved_ita
29-06-2005, 13:22
Dunque, precisando.... e che noia dover essere sempre frainteso.
La 7800GTX è sicuramente la versione di fascia medio bassa della 7800 su questo non ci piove.
E' da vedere se oltre alla versione Ultra sarà affiancata una Ultra EE come per la 6800 o semplicemente se la versione GT (che sicuramente ci sarà) avrà delle frequenze superiori.
Per ora, di fatto, della 7800 non è stato rilasciato il modello di punta e questo implica che i 10000 punti al 3d2k5 vengono abbondantemente superati da almeno 3 versioni di 7800... stando a quelli che, come in molti hanno intuito la velatura ironica, ho chiamato UMORS (AKA rumors che fanno ridere) si diceva che l'r520 avrebbe fatto più di 10000 punti... ebbene tutti contenti di avere un prodotto che non dovrebbe, sempre secondo rumors, discostarsi troppo dalle 7800.
Per finire... che la 7800 superi abbondantemente i 7800 punti è un dato di fatto lampante e lasciate stare cascade e balle varie.
La recensione parla chiaro: 10170 punti senza CPU e GPU overclockata... con un incremento del 10% in OC (ovvero un ipotetico ma non testato 11000 per la GTX in OC SENZA sistemi estremi).
Un valore ben al di sopra dei 10000 punti che dal sito The Inquirer erano visti come irraggiungibili dalle suddette schede. :rolleyes:
Ola.
Dunque, precisando.... e che noia dover essere sempre frainteso.
Ok, precisa.
La 7800GTX è sicuramente la versione di fascia medio bassa della 7800 su questo non ci piove.
Ci piove ci piove. Ci grandina sopra e diciamo che c'è pure un uragano in arrivo. La GTX è sicuramente di fascia alta. Punto.
E' da vedere se oltre alla versione Ultra sarà affiancata una Ultra EE come per la 6800 o semplicemente se la versione GT (che sicuramente ci sarà) avrà delle frequenze superiori.
Ehm questa volendo è la recensione della versione GT :)
Per ora, di fatto, della 7800 non è stato rilasciato il modello di punta e questo implica che i 10000 punti al 3d2k5 vengono abbondantemente superati da almeno 3 versioni di 7800... stando a quelli che, come in molti hanno intuito la velatura ironica, ho chiamato UMORS (AKA rumors che fanno ridere) si diceva che l'r520 avrebbe fatto più di 10000 punti... ebbene tutti contenti di avere un prodotto che non dovrebbe, sempre secondo rumors, discostarsi troppo dalle 7800.
Continuo a non capire quanli siano i modelli che superano 'sti benedetti 10mila punti. Visto che la GTX ne fa abbondantemente meno, circa 7800.
Per finire... che la 7800 superi abbondantemente i 7800 punti è un dato di fatto lampante e lasciate stare cascade e balle varie.
La recensione parla chiaro: 10170 punti senza CPU e GPU overclockata... con un incremento del 10% in OC (ovvero un ipotetico ma non testato 11000 per la GTX in OC SENZA sistemi estremi).
Un valore ben al di sopra dei 10000 punti che dal sito The Inquirer erano visti come irraggiungibili dalle suddette schede. :rolleyes:
Ola.
Ma dove cacchio li hai visti sti valori? Ne fa 11mila e rotti in Sli e 10170 in single senza overlock nè di gpu nè di cpu? Che recensione hai visto per curiosità?
Perchè secondo me ti stai inventando qualche valore o ti stai sbagliando con il test in SLI :)
Ma porcazza miseria ho visto ora :muro:
Ma li leggi i grafici? Quello che tu riporti è il test del fillrate :muro: :muro:
Per ora, di fatto, della 7800 non è stato rilasciato il modello di punta e questo implica che i 10000 punti al 3d2k5 vengono abbondantemente superati da almeno 3 versioni di 7800... stando a quelli che, come in molti hanno intuito la velatura ironica,
Per ora, di fatto, la 7800 presentata e' il modello di punta. NVIDIA non ha presentato altri modelli.
Demin Black Off
29-06-2005, 15:35
Mi fa piacere vedere che chi possiede ati dice che la scheda è favolosa, e chi possiede nvidia come me dice il contrario.
:eek:
No. Usare SM 3.0 porta in alcune condizioni ad un incremento di prestazioni.
Hold your horses.
Sembra che compilare lo stesso shader ps2_a come ps_3.0 possa portare ad un leggero decadimento delle prestazioni. Ma se c'e' non l'ho mai notato nel profiling.
Ho chiesto spiegazioni e attendo risposta...
Saved_ita
30-06-2005, 03:13
Effettivamente ho fatto una gaff clamorosa riguardo i punteggi al 3d2k5... ero passato alla sezione bench sintetici senza aver prima letto le note di "avvertimento" per cui avevo erroneamente interpretato quei 10000 punti nel fillrate :muro:
Per quanto riguarda l' esistenza di almeno una versione di punta (AKA 7800Ultra) più la possibilità che la versione GT sia ancora da presentare realmente è una mezza voce talmente tanto insistente e, per certi versi ovvia, che faccio fatica a comprendere come la si possa considerare "non attendibile" :confused:
Su Tom's anzi la considerano, come me, il modello di fascia bassa.
Che allo stato delle cose sia il modello di punta non lo metto in dubbio... ma se dovessimo prendere la cosa alla lettera dovremmo anche dire che ATI non ha una scheda in grado di competere con la suddetta 7800GTX... e sappiamo tutti che non è vero...
Hold your horses.
Sembra che compilare lo stesso shader ps2_a come ps_3.0 possa portare ad un leggero decadimento delle prestazioni. Ma se c'e' non l'ho mai notato nel profiling.
Ho chiesto spiegazioni e attendo risposta...
Questo significa che il tanto decantato supporto degli SM3.0 dell'ultima patch del 3dm05, potrebbe essere semplicemente una ricompliazione come ps 3.0??
Questo vale anche per i 2.0 ed i 2.0b?? Sono comunque curioso di capire in virtu' di cosa avvenga questa perdita prestazionale.
halduemilauno
30-06-2005, 08:03
Effettivamente ho fatto una gaff clamorosa riguardo i punteggi al 3d2k5... ero passato alla sezione bench sintetici senza aver prima letto le note di "avvertimento" per cui avevo erroneamente interpretato quei 10000 punti nel fillrate :muro:
Per quanto riguarda l' esistenza di almeno una versione di punta (AKA 7800Ultra) più la possibilità che la versione GT sia ancora da presentare realmente è una mezza voce talmente tanto insistente e, per certi versi ovvia, che faccio fatica a comprendere come la si possa considerare "non attendibile" :confused:
Su Tom's anzi la considerano, come me, il modello di fascia bassa.
Che allo stato delle cose sia il modello di punta non lo metto in dubbio... ma se dovessimo prendere la cosa alla lettera dovremmo anche dire che ATI non ha una scheda in grado di competere con la suddetta 7800GTX... e sappiamo tutti che non è vero...
aspetta aspetta stai dicendo che anche la futura 7800gt sarà superiore alla 7800gtx? e che addirittura qualcuno la giudica di fascia bassa?
credo che ti sbagli e di molto.
;)
cmq se i rumors sull'r520 saranno confermati non credo che nvidia non abbia già pronta una contromossa per ribattere ad ati. Ora non ha interesse a immettere nel mercato una scheda ancora piu potente.
Saved_ita
30-06-2005, 14:51
Leggere lo sò fare... su Tom's la GTX è il modello di fascia bassa e da sempre in casa nVidia la X viene utilizzata per i modelli di fascia bassa (tipo 4200 Mx, 5700 XT, 5900 XT).
Per finire è altrettanto vero che c'è da sempre una versione Ultra per il modello di punta... oltre a questo è anche ovvio dal punto di vista del marketing e della concorrenza che alla nVidia sarebbe stato solo uno svantaggio svelare tutte le proprie carte in un solo momento... giusto per dare la possibilità ad ATI di overclockare le proprie VPU al punto giusto per guadagnare quei 100 punti che la porrebbe nuovamente in vetta.
Semplicemente alla Nvidia adesso aspettano la contromossa ATI per svelare i veri modelli di punta (tantè che già cosi' questa scheda con un semplice raffreddamento a liquido e senza Vmod supera abbondantemente i 500Mhz).
Leggere lo sò fare... su Tom's la GTX è il modello di fascia bassa e da sempre in casa nVidia la X viene utilizzata per i modelli di fascia bassa (tipo 4200 Mx, 5700 XT, 5900 XT).
Per finire è altrettanto vero che c'è da sempre una versione Ultra per il modello di punta... oltre a questo è anche ovvio dal punto di vista del marketing e della concorrenza che alla nVidia sarebbe stato solo uno svantaggio svelare tutte le proprie carte in un solo momento... giusto per dare la possibilità ad ATI di overclockare le proprie VPU al punto giusto per guadagnare quei 100 punti che la porrebbe nuovamente in vetta.
Semplicemente alla Nvidia adesso aspettano la contromossa ATI per svelare i veri modelli di punta (tantè che già cosi' questa scheda con un semplice raffreddamento a liquido e senza Vmod supera abbondantemente i 500Mhz).
quoto tutto
halduemilauno
30-06-2005, 16:46
Leggere lo sò fare... su Tom's la GTX è il modello di fascia bassa e da sempre in casa nVidia la X viene utilizzata per i modelli di fascia bassa (tipo 4200 Mx, 5700 XT, 5900 XT).
Per finire è altrettanto vero che c'è da sempre una versione Ultra per il modello di punta... oltre a questo è anche ovvio dal punto di vista del marketing e della concorrenza che alla nVidia sarebbe stato solo uno svantaggio svelare tutte le proprie carte in un solo momento... giusto per dare la possibilità ad ATI di overclockare le proprie VPU al punto giusto per guadagnare quei 100 punti che la porrebbe nuovamente in vetta.
Semplicemente alla Nvidia adesso aspettano la contromossa ATI per svelare i veri modelli di punta (tantè che già cosi' questa scheda con un semplice raffreddamento a liquido e senza Vmod supera abbondantemente i 500Mhz).
guarda sulla gtx ti sbagli e di parecchio. la gtx è tra la gt e la ultra. quindi fascia alta.
:rolleyes:
Leggere lo sò fare... su Tom's la GTX è il modello di fascia bassa e da sempre in casa nVidia la X viene utilizzata per i modelli di fascia bassa (tipo 4200 Mx, 5700 XT, 5900 XT).
Da sempre in casa NVIDIA si dava un numero progressivo (NV20, NV30, NV40) ad ogni cambio di generazione, questa volta l'hanno chiamata G70 e tutti ci sono cascati.
I nomi che danno non c'entrano nulla ne' con la tecnologia che c'e' dentro ne' con la GPU, e' puro marketing e danno ad ogni scheda il nome che secondo il reparto marketing la fara' vendere meglio e per acchiappare piu' gonzi.
La 7800GTX al momento e' il modello di fascia alta di NVIDIA ed il resto sono speculazioni.
Questo significa che il tanto decantato supporto degli SM3.0 dell'ultima patch del 3dm05, potrebbe essere semplicemente una ricompliazione come ps 3.0??
Questo vale anche per i 2.0 ed i 2.0b?? Sono comunque curioso di capire in virtu' di cosa avvenga questa perdita prestazionale.
Non ti so' dire se e' una semplice ricompilazione o no. Ieri stavo parlando via mail con NVIDIA su come ottimizzare alcuni shader che ho scritto e mi hanno detto che in determinate condizoni compilare lo stesso shader in SM3.0 porta ad un leggero decadimento di prestazioni per motivi che ora non sto a spiegare. E questo va contro la risposta che ti avevo dato, quindi mi e' sembrato il caso di correggere il mio errore :)
Riguardo ai ps2_b, la ricompilazione porta sempre ad un miglioramento, di questo sono certo perche' l'ho sperimentato direttamente ed ho i dati alla mano.
Da sempre in casa NVIDIA si dava un numero progressivo (NV20, NV30, NV40) ad ogni cambio di generazione, questa volta l'hanno chiamata G70 e tutti ci sono cascati.
I nomi che danno non c'entrano nulla ne' con la tecnologia che c'e' dentro ne' con la GPU, e' puro marketing e danno ad ogni scheda il nome che secondo il reparto marketing la fara' vendere meglio e per acchiappare piu' gonzi.
La 7800GTX al momento e' il modello di fascia alta di NVIDIA ed il resto sono speculazioni.
Da quel che si legge in giro pero', sembrerebbero non avere tutti i torti. Anche con l'NV40 hanno immesso prima la 6800 a 12 pipe, le altre non hanno tardato troppo solo perche' Ati era dietro l'angolo. Questa volta invece, Nvidia gioca da sola, chi vuole il massimo non ha scelte di sorta, non c'e' motivo di immettere sul mercato un prodotto "superiore" che come effetto produca SOLO il crollo dei prezzi dei prodotti inferiori di gamma. Ora vendono la GTX a 550€, qualora uscisse una GT o Ultra, finirebbe a 350€.
Margini di miglioramento ne hanno. (32pipe,90nm,frequenze maggiori ecc.).
Secondo me, hanno gia' tutto pronto, magari usano questo vantaggio (temporale e monetario), per migliorare le prossime uscite e soprattutto, potranno calibrare le proprie mosse in base alla ritardataria Ati.
Non ti so' dire se e' una semplice ricompilazione o no. Ieri stavo parlando via mail con NVIDIA su come ottimizzare alcuni shader che ho scritto e mi hanno detto che in determinate condizoni compilare lo stesso shader in SM3.0 porta ad un leggero decadimento di prestazioni per motivi che ora non sto a spiegare. E questo va contro la risposta che ti avevo dato, quindi mi e' sembrato il caso di correggere il mio errore :)
Riguardo ai ps2_b, la ricompilazione porta sempre ad un miglioramento, di questo sono certo perche' l'ho sperimentato direttamente ed ho i dati alla mano.
Fra l'altro Il 3dm2005, presenta una grafica assai piu' brutta in MS 3.0!! ho fatto moltissimi test IQ. Ti diro' di piu', rispetto ad Ati, e' uno schifo, in parte recuperi forzando gli SM2.0/2.0b, ma si mangia un livello di ombre come se niente fosse. Un po' come accadeva con il 3dm2003 (e decine di giochi) tra geffo4 e rad9500/9700 (pesantemente a sfavore di queste ultime). Solo che al tempo a sparire erano i colori, spariti definitivamente anche su NV con l'avvento della vrs 30.
Se non sai di che parlo, ti posto qualche immagine..
Fra l'altro Il 3dm2005, presenta una grafica assai piu' brutta in MS 3.0!! ho fatto moltissimi test IQ. Ti diro' di piu', rispetto ad Ati, e' uno schifo, in parte recuperi forzando gli SM2.0/2.0b, ma si mangia un livello di ombre come se niente fosse. Un po' come accadeva con il 3dm2003 (e decine di giochi) tra geffo4 e rad9500/9700 (pesantemente a sfavore di queste ultime). Solo che al tempo a sparire erano i colori, spariti definitivamente anche su NV con l'avvento della vrs 30.
Questo e' decisamente dovuto a bug nel 3dmark e negli shader che hanno scritto, non certo per colpa dell'NV40. Tutti gli shader che ho scritto in ps3_0 non hanno cambiato un colore rispetto alle versioni ps2_0 e ps2_a.
Da quel che si legge in giro pero', sembrerebbero non avere tutti i torti. Anche con l'NV40 hanno immesso prima la 6800 a 12 pipe, le altre non hanno tardato troppo solo perche' Ati era dietro l'angolo. Questa volta invece, Nvidia gioca da sola, chi vuole il massimo non ha scelte di sorta, non c'e' motivo di immettere sul mercato un prodotto "superiore" che come effetto produca SOLO il crollo dei prezzi dei prodotti inferiori di gamma. Ora vendono la GTX a 550€, qualora uscisse una GT o Ultra, finirebbe a 350€.
Margini di miglioramento ne hanno. (32pipe,90nm,frequenze maggiori ecc.).
Ah si? A me risulta che al lancio di NV40 le schede presentate fossero le GeForce 6800 Ultra e le GeForce 6800 GT, non quella a 12 pipeline. Mi dispiace, ma ricordi male. NVIDIA dopo il lancio della Radeon X800 XT PE si inventò la GeForce 6800 Ultra Extreme, ma l'architettura a 16 pipeline era bella e funzionante fin dal suo primo lancio.
Secondo me, hanno gia' tutto pronto, magari usano questo vantaggio (temporale e monetario), per migliorare le prossime uscite e soprattutto, potranno calibrare le proprie mosse in base alla ritardataria Ati.
E sono sicuro che anche ATI sfrutterà questo periodo per studiarsi a fondo G70 e per prevedere anche eventuali versioni overcloccate e/o a 32 pipeline :)
Questo e' decisamente dovuto a bug nel 3dmark e negli shader che hanno scritto, non certo per colpa dell'NV40. Tutti gli shader che ho scritto in ps3_0 non hanno cambiato un colore rispetto alle versioni ps2_0 e ps2_a.
Per la precisione gli SM 3 fanno perdere parte dei riflessi degli oggetti e calcolare sballatamente altri particolari. Le ombre sono perse e basta!! non gli interessa assolutamente il driver installato o lo sm utilizzato. Poi ti posto un paio di IQ, cosi' capisci che intendo.
Ah si? A me risulta che al lancio di NV40 le schede presentate fossero le GeForce 6800 Ultra e le GeForce 6800 GT, non quella a 12 pipeline. Mi dispiace, ma ricordi male. NVIDIA dopo il lancio della Radeon X800 XT PE si inventò la GeForce 6800 Ultra Extreme, ma l'architettura a 16 pipeline era bella e funzionante fin dal suo primo lancio.
Utra extreme?? (forse ti sbagli con XT-Xtreme.. PE-Platinum Edition :p) hehe vendo queste schede all'ordine del giorno, ma non ne ho mai vista mezza in nessun listino, mentre ho visto ATI arrampicarsi sugli specchi proponendo prima la PRO, poi la XT, poi la PE, poi la 850 e dinuovo la XT e poi ancora la PE, perche' la 800 aveva fallito la missione, poi arrivo' la XL per tentare di arginalre la 6800GT che schiaccio' la PRO.
La 6800Ultra, e' quella da un anno, non e' mai cambiata di mezzo Mhz. Non e' dovuta ricorrere a versioni "PE" o 6850U PE. Cosa che non e' accaduta per nessuna scheda Nvidia di nessuna facia (e piu' scendiamo piu' il confronto per Ati diventa ridicolizzante). Questo per questa generazione ovviamente.
Insomma, mi sembra esattamente il panorama inverso della generazione precedente.
5800U-->5900U-->5950U=X800XT-->X800XTPE-->X850XTPE 5900XT=X800XL.
Con la differenza che per ora e' in vantaggio pure con la nuova generazione.
Il resto sono ipotesi, vedremo.
E sono sicuro che anche ATI sfrutterà questo periodo per studiarsi a fondo G70 e per prevedere anche eventuali versioni overcloccate e/o a 32 pipeline :)
Per quanto riguarda l'altro discorso, la 6800 liscia fu commercializzata prima della GT e della ULTRA. Comuqnue, anche qualora ricordassi male, poco importerebbe, era solo nua considerazione da aggiungere ai vari elementi (molto piu' validi) nel contesto, ma come giustamente dice Fek, Nvidia ha cambiato alcune cose dei propri "schemi" di commercializzazione, dunque non fa molto testo.
Permettersi di battere la strada, anziche' fare da gregario, in questo settore e' una veramente gran prova di forza/superiorita'.
halduemilauno
01-07-2005, 06:49
Utra extreme?? (forse ti sbagli con XT-Xtreme.. PE-Platinum Edition :p) hehe vendo queste schede all'ordine del giorno, ma non ne ho mai vista mezza in nessun listino, mentre ho visto ATI arrampicarsi sugli specchi proponendo prima la PRO, poi la XT, poi la PE, poi la 850 e dinuovo la XT e poi ancora la PE, perche' la 800 aveva fallito la missione, poi arrivo' la XL per tentare di arginalre la 6800GT che schiaccio' la PRO.
La 6800Ultra, e' quella da un anno, non e' mai cambiata di mezzo Mhz. Non e' dovuta ricorrere a versioni "PE" o 6850U PE. Cosa che non e' accaduta per nessuna scheda Nvidia di nessuna facia (e piu' scendiamo piu' il confronto per Ati diventa ridicolizzante). Questo per questa generazione ovviamente.
Insomma, mi sembra esattamente il panorama inverso della generazione precedente.
5800U-->5900U-->5950U=X800XT-->X800XTPE-->X850XTPE 5900XT=X800XL.
Con la differenza che per ora e' in vantaggio pure con la nuova generazione.
Il resto sono ipotesi, vedremo.
Per quanto riguarda l'altro discorso, la 6800 liscia fu commercializzata prima della GT e della ULTRA. Comuqnue, anche qualora ricordassi male, poco importerebbe, era solo nua considerazione da aggiungere ai vari elementi (molto piu' validi) nel contesto, ma come giustamente dice Fek, Nvidia ha cambiato alcune cose dei propri "schemi" di commercializzazione, dunque non fa molto testo.
Permettersi di battere la strada, anziche' fare da gregario, in questo settore e' una veramente gran prova di forza/superiorita'.
confondi. l'altr'anno furono presentate per prime le 6800ultra e gt e annunciata la liscia. poi successivamente la LE.
e la commercializzazione ha seguito questo schema.
;)
Per la precisione gli SM 3 fanno perdere parte dei riflessi degli oggetti e calcolare sballatamente altri particolari. Le ombre sono perse e basta!! non gli interessa assolutamente il driver installato o lo sm utilizzato. Poi ti posto un paio di IQ, cosi' capisci che intendo.
Ho capito che cosa intendi, e' un bug dell'applicazione (al massimo dei driver). La GPU non c'entra.
Ah si? A me risulta che al lancio di NV40 le schede presentate fossero le GeForce 6800 Ultra e le GeForce 6800 GT, non quella a 12 pipeline. Mi dispiace, ma ricordi male. NVIDIA dopo il lancio della Radeon X800 XT PE si inventò la GeForce 6800 Ultra Extreme, ma l'architettura a 16 pipeline era bella e funzionante fin dal suo primo lancio.
E sono sicuro che anche ATI sfrutterà questo periodo per studiarsi a fondo G70 e per prevedere anche eventuali versioni overcloccate e/o a 32 pipeline :)
e non credi che nvidia stia preparando la contromossa? :fagiano:
yossarian
01-07-2005, 13:06
Utra extreme?? (forse ti sbagli con XT-Xtreme.. PE-Platinum Edition :p) hehe vendo queste schede all'ordine del giorno, ma non ne ho mai vista mezza in nessun listino, mentre ho visto ATI arrampicarsi sugli specchi proponendo prima la PRO, poi la XT, poi la PE, poi la 850 e dinuovo la XT e poi ancora la PE, perche' la 800 aveva fallito la missione, poi arrivo' la XL per tentare di arginalre la 6800GT che schiaccio' la PRO.
La 6800Ultra, e' quella da un anno, non e' mai cambiata di mezzo Mhz. Non e' dovuta ricorrere a versioni "PE" o 6850U PE. Cosa che non e' accaduta per nessuna scheda Nvidia di nessuna facia (e piu' scendiamo piu' il confronto per Ati diventa ridicolizzante). Questo per questa generazione ovviamente.
Insomma, mi sembra esattamente il panorama inverso della generazione precedente.
5800U-->5900U-->5950U=X800XT-->X800XTPE-->X850XTPE 5900XT=X800XL.
Con la differenza che per ora e' in vantaggio pure con la nuova generazione.
Il resto sono ipotesi, vedremo.
le analogie si fermano alle difficoltà nel reperire vga con chip R420 di fascia alta; per il resto, il confronto con la generazione precedente non regge affatto. R420, a livello prestazionale, non è affatto inferiore a NV40; al contrario, la serie NV3x al completo, nell'utilizzo di applicazioni DX9 è assolutamente poco competitiva. La dimostrazione lampante è stata data dalle continua operazioni di shder replacement effettuate dai drivers NV per tutto il 2003 e buona parte del 2004 (e che ancora continuano con la serie NV3x); al contrario, ATi ha effettuato operazioni del genere solo con Doom3 (progettato interamente avendo in mente le specifiche dei chip NV).
Per quanto riguarda l'altro discorso, la 6800 liscia fu commercializzata prima della GT e della ULTRA. Comuqnue, anche qualora ricordassi male, poco importerebbe, era solo nua considerazione da aggiungere ai vari elementi (molto piu' validi) nel contesto, ma come giustamente dice Fek, Nvidia ha cambiato alcune cose dei propri "schemi" di commercializzazione, dunque non fa molto testo.
Permettersi di battere la strada, anziche' fare da gregario, in questo settore e' una veramente gran prova di forza/superiorita'.
per quanto riguarda commercializzazioni e presentazioni, ha ragione hal.
Sull'ultima frase avresti ragione se il tuo riferimento non fosse relativo alla sola nVIDIA; con R3x0 ATi era ben avanti rispetto alla concorrente; con la passata generazione nVIDIA è stata avanti come feature, ma ATi ha sperimentato processi produttivi più "raffinati" ed è ancora in vantaggio sotto questo aspetto. Inoltre ATi ha già pronta la base di sviluppo per i chip WGF2.
Quindi, e con questo rispondo anche a KuWa, sicuramente nVIDIA ha pronta la contromossa, però, allo stato attuale, ha un chip a 0,11 che andrebbe a confrontarsi con un chip a 0,09 e, se sono veritiere le specifiche su RSX e le relative speculazioni, sembrerebbe da escludere anche la possibilità che G70 possa avere altre pipeline nascoste o che le stesse possano essere aggiunte a 0,11 u. Quindi, allo stato attuale, l'unica contromossa possibile, sembra un aumento delle frequenze (tra l'altro il passaggio da 0,13 a 0,11 è molto più semplice di quello da 0,11 a 0,09, per ragioni tecniche su cui non credo sia opportuno disquisire in questo contesto).
In ogni caso, è inutile fare considerazioni su quello che succederà da qui ad un paio di mesi; la situazione va valutata, di volta in volta, per quello che è: allo stato attuale si ha la 7800 GTX che è la vga più veloce e ricca di feature presente sul mercato; il fatto che salga in frequenza lascia presupporre l'arrivo di una versione con clock superiori. Tutto il resto (le 32 pipeline presunte di G70, le prestazioni eventuali di R520, l'altrettanto eventuale risposta di nVIDIA e la contromoissa di ATi) sono tutte seghe mentali
andreamarra
01-07-2005, 13:10
e non credi che nvidia stia preparando la contromossa? :fagiano:
sicuro, solo che avrebbe il problema di dover creare un chip ancora più evoluto tecnologicamente. Non è facile ottenere le conoscenze per un chip a 0.09 micron e a 32 pipeline.
Se la ati fa uscire a settembre una scheda video con 32 pipeline e a 0.09 micron, oltre agli shader 3.0, la nvidia per poter contrbattere dovrebbe ripiegarsi sul 0.09 micron di processo produttivo. E non ci metterebbe un paio di mesi.
Io spero che a questo giro la ati faccia molto meglio di nvidia, e spero che poi al prossimo la nvidia faccia meglio di ati.
Meglio per tutti noi :D
tra l'altro il passaggio da 0,13 a 0,11 è molto più semplice di quello da 0,11 a 0,09, per ragioni tecniche su cui non credo sia opportuno disquisire in questo contesto
Ehm ehm coff coff
A me pare che il suo terreno ideale sia il thread su R520 in Schede Video sul forum :)
Sempre che tu voglia farlo :fiufiu:
Utra extreme?? (forse ti sbagli con XT-Xtreme.. PE-Platinum Edition :p) hehe vendo queste schede all'ordine del giorno, ma non ne ho mai vista mezza in nessun listino, mentre ho visto ATI arrampicarsi sugli specchi proponendo prima la PRO, poi la XT, poi la PE, poi la 850 e dinuovo la XT e poi ancora la PE, perche' la 800 aveva fallito la missione, poi arrivo' la XL per tentare di arginalre la 6800GT che schiaccio' la PRO.
La 6800Ultra, e' quella da un anno, non e' mai cambiata di mezzo Mhz. Non e' dovuta ricorrere a versioni "PE" o 6850U PE. Cosa che non e' accaduta per nessuna scheda Nvidia di nessuna facia (e piu' scendiamo piu' il confronto per Ati diventa ridicolizzante). Questo per questa generazione ovviamente.
Mi dispiace, ma continui a sbagliarti. Visto che scrivo le recensioni per questo sito ho le schede video ben prima che arrivino al tuo negozio e so perfettamente quale viene presentata per prima. La GeForce 6800 Ultra a 16 pipeline è stata presentata ben prima della GeForce 6800 da 12 pipeline. E la GeForce 6800 Ultra Extreme è stata proposta da NVIDIA all'epoca della recensione della Radeon X800 XT PE proprio per riuscire a controbatterla. E' vero: la GeForce 6800 Ultra Extreme poi di fatto non ha mai visto la luce se non in qualche implementazione fuori specifiche come le GeForce 6800 Ultra di Gainward o simili.
Per schiarirti le idee forse è il caso che tu ti legga due articoli:
Presentazione di NV40 - http://www.hwupgrade.it/articoli/skvideo/1004/index.html
Presentazione di R420 - http://www.hwupgrade.it/articoli/skvideo/1013/index.html
Inoltre le Radeon X800 PRO e le Radeon X800 XT PE sono state presentate insieme e non, come dici tu, una dopo l'altra.
yossarian
01-07-2005, 14:49
Ehm ehm coff coff
A me pare che il suo terreno ideale sia il thread su R520 in Schede Video sul forum :)
Sempre che tu voglia farlo :fiufiu:
non so se sia il caso di approfondire troppo la questione dal punto di vista tecnico (già la premessa rarebbe troppo lunga); però, in sintesi, si può riassumere nel modo seguente: nel passaggio da 0,13 a 0,11 l'aumento dei disturbi di "diafonia" è molto contenuto, tanto che, da questo punto di vista, sono considerati alla stregua di un unico processo produttivo (o quasi); nel passaggio a 0,09, invece, la diafonia costituisce un problema più serio e, per questo motivo, la tecnica di fotoincisione adoperata differisce da quella adoperata fino a 0,11 u.
e non credi che nvidia stia preparando la contromossa? :fagiano:
Su questo non ho alcun dubbio. Alla fine avrà la meglio chi ha l'architettura più efficiente e chi riuscirà a proporre la soluzione con più pipeline e le frequenze più elevate.
Su questo non ho alcun dubbio. Alla fine avrà la meglio chi ha l'architettura più efficiente e chi riuscirà a proporre la soluzione con più pipeline e le frequenze più elevate.
ma poi è un bene avere un numero di pipeline cosi elevate? per gestirle le frequenze dovrebbero essere molto superiori. E' cosi scontata l'equazione:+pipeline=+prestazioni?
yossarian
01-07-2005, 15:10
ma poi è un bene avere un numero di pipeline cosi elevate? per gestirle le frequenze dovrebbero essere molto superiori. E' cosi scontata l'equazione:+pipeline=+prestazioni?
:confused:
parli di frequenze delle ram?
Ho capito che cosa intendi, e' un bug dell'applicazione (al massimo dei driver). La GPU non c'entra.
Beh, ci mancherebbe che c'entrasse la GPU, pero' devo mostrarti una cosa
http://img266.imageshack.us/img266/3619/esempio9cf.jpg (http://www.imageshack.us)
L'immagine di destra e' creata da una geforce4, quella di sinistra da una radeon 9500/9700 ed e' identica per TUTTE la ATI, comprese le vecchie 8500. Dopo la serie fx, anche Nvidia ha i medesimi risultati.
Ora osserva bene, non guardare il dettaglio delle texture, perche' quello per Geffo e' senza anisotropico (non era quello che cercavo) e vedrai come il colore verde dell'ala che si ritrova anche in altri dettagli, sulla Radeon non esista affatto!! L'ala stessa della versione Geffo4 (destra), ha un andamento cromatico variabile, si puo' notare che a seconda del punto dell'ala stessa vi siano 3 colori differenti, mentre nella versione ATI, e' quantomai piatta e sempre dello stesso colore.
Lo notai immediatamente, montata la mia prima ATI molti anni fa, anche nei giochi.
In UNREAL si vede da morire ad esempio, un sito che recensi' la 9700 al tempo, aveva pubblicato un IQ confrontandola con la Ge4, dicendole pressoche' identiche, ma non si accorse che nel muro rosso tratto da proprio Unreal, da loro esaminato, macasse COMPLETAMENTE, una sfumatura/invecchiamento, tipo scolatura semitrasparente.
Quando poi Nvidia con le FX recupero' gran parte del divario prestazionale, questi colori sparirono anche per le sue schede.. Credo proprio che le cose siano correlate.. Ho l'impressione che ci stiano fregando.
Mi dispiace, ma continui a sbagliarti. Visto che scrivo le recensioni per questo sito ho le schede video ben prima che arrivino al tuo negozio e so perfettamente quale viene presentata per prima. La GeForce 6800 Ultra a 16 pipeline è stata presentata ben prima della GeForce 6800 da 12 pipeline. E la GeForce 6800 Ultra Extreme è stata proposta da NVIDIA all'epoca della recensione della Radeon X800 XT PE proprio per riuscire a controbatterla. E' vero: la GeForce 6800 Ultra Extreme poi di fatto non ha mai visto la luce se non in qualche implementazione fuori specifiche come le GeForce 6800 Ultra di Gainward o simili.
Per schiarirti le idee forse è il caso che tu ti legga due articoli:
Presentazione di NV40 - http://www.hwupgrade.it/articoli/skvideo/1004/index.html
Presentazione di R420 - http://www.hwupgrade.it/articoli/skvideo/1013/index.html
Inoltre le Radeon X800 PRO e le Radeon X800 XT PE sono state presentate insieme e non, come dici tu, una dopo l'altra.
Menomale che avevo detto di non cavillare su questo, inquanto poco importante ai fini dei discorso..
Per le PE.. dopo o insieme cambia poco o nulla. Ati ne ha avuto bisogno Nvidia no.
halduemilauno
01-07-2005, 20:26
e non credi che nvidia stia preparando la contromossa? :fagiano:
sulla contromossa di nVidia non ci sono dubbi. i dubbi vengono riguardo sulla sua riuscita. e finche non si sapranno le specifiche e le prestazioni della top di ati tali rimarranno.
ciao.
;)
Demin Black Off
01-07-2005, 20:33
Beh, ci mancherebbe che c'entrasse la GPU, pero' devo mostrarti una cosa
http://img266.imageshack.us/img266/3619/esempio9cf.jpg (http://www.imageshack.us)
L'immagine di destra e' creata da una geforce4, quella di sinistra da una radeon 9500/9700 ed e' identica per TUTTE la ATI, comprese le vecchie 8500. Dopo la serie fx, anche Nvidia ha i medesimi risultati.
Ora osserva bene, non guardare il dettaglio delle texture, perche' quello per Geffo e' senza anisotropico (non era quello che cercavo) e vedrai come il colore verde dell'ala che si ritrova anche in altri dettagli, sulla Radeon non esista affatto!! L'ala stessa della versione Geffo4 (destra), ha un andamento cromatico variabile, si puo' notare che a seconda del punto dell'ala stessa vi siano 3 colori differenti, mentre nella versione ATI, e' quantomai piatta e sempre dello stesso colore.
Lo notai immediatamente, montata la mia prima ATI molti anni fa, anche nei giochi.
In UNREAL si vede da morire ad esempio, un sito che recensi' la 9700 al tempo, aveva pubblicato un IQ confrontandola con la Ge4, dicendole pressoche' identiche, ma non si accorse che nel muro rosso tratto da proprio Unreal, da loro esaminato, macasse COMPLETAMENTE, una sfumatura/invecchiamento, tipo scolatura semitrasparente.
Quando poi Nvidia con le FX recupero' gran parte del divario prestazionale, questi colori sparirono anche per le sue schede.. Credo proprio che le cose siano correlate.. Ho l'impressione che ci stiano fregando.
Azz non sono riuscito a capire il succo del discorso... ma concordo pienamente sull'ultima riga :stordita:
Ottima recensione!
:)
L'immagine del tuo avatar fa venire il mal di testa, :D giuro!!
..almeno a me.. :D
Azz non sono riuscito a capire il succo del discorso... ma concordo pienamente sull'ultima riga :stordita:
Il succo e' semplice.. L'immagine che si puo' ottenere con le geffo4-3-2 ecc.. e' migliore di quella che si puo' ottenere con le attuali Nvidia o con qualsiasi Radeon presente o passata. Ora non ho PC assemblati con AGP, come ne rimetto su uno faccio altre foto e le posto, c'e' da rimanere esterrefatti solo al pensare che nessuno lo abbia mai notato oltre me ed il mio collega/amico.
Demin Black Off
02-07-2005, 11:34
Il succo e' semplice.. L'immagine che si puo' ottenere con le geffo4-3-2 ecc.. e' migliore di quella che si puo' ottenere con le attuali Nvidia o con qualsiasi Radeon presente o passata. Ora non ho PC assemblati con AGP, come ne rimetto su uno faccio altre foto e le posto, c'e' da rimanere esterrefatti solo al pensare che nessuno lo abbia mai notato oltre me ed il mio collega/amico.
Le schede che facevano una volta non le fanno più ora :P Le schede di ora sono dei rimpiazzi per compesare il fatto che i giochi sono tutti convertiti da console a pc, una volta non era cosi e con la bella matroxg400 che usavo avevo qualità superiore alla 6800gt che ho ora. :D
Un gioco decente runna meglio su mio vecchio athlon800 & g400 di un gioco convertito da console a pc su una 6800gt.
Fino a 2 mesi fa ero uno che diceva che il game sul pc non era morto, infatti è diventato ridicolo a pensare che una xbox rimane sempre tale e che per poter far partire un gioco a 640x480 occorre aggiornare la scheda ogni 6 mesi da che escono le novità lamere che la scheda precedente non ha.
Io aspetto la xbox360 :P sta scheda per me è un pacco.
LukeHack
02-07-2005, 16:16
Le schede che facevano una volta non le fanno più ora :P Le schede di ora sono dei rimpiazzi per compesare il fatto che i giochi sono tutti convertiti da console a pc, una volta non era cosi e con la bella matroxg400 che usavo avevo qualità superiore alla 6800gt che ho ora. :D
:mode change pusher on:
Un gioco decente runna meglio su mio vecchio athlon800 & g400 di un gioco convertito da console a pc su una 6800gt.
cosa fa un gioco vecchio?? runna? e che vordi:D
se intendi "gira" ti consiglio sempre quanto scritto sopra nel tag :mod: :sofico:
Io aspetto la xbox360 :P sta scheda per me è un pacco.
ok me la regali? :sofico: in cambio ti do la x-box di mio cugino (fidati i giochi girano meglio lì)
Demin Black Off
02-07-2005, 17:02
ok me la regali? :sofico: in cambio ti do la x-box di mio cugino (fidati i giochi girano meglio lì)
In cambio della 360 quando esce si lo faccio questo scambio :D, mi sa che ci vai a perdere tu :Prrr:
Le schede che facevano una volta non le fanno più ora :P Le schede di ora sono dei rimpiazzi per compesare il fatto che i giochi sono tutti convertiti da console a pc, una volta non era cosi e con la bella matroxg400 che usavo avevo qualità superiore alla 6800gt che ho ora. :D
Un gioco decente runna meglio su mio vecchio athlon800 & g400 di un gioco convertito da console a pc su una 6800gt.
Fino a 2 mesi fa ero uno che diceva che il game sul pc non era morto, infatti è diventato ridicolo a pensare che una xbox rimane sempre tale e che per poter far partire un gioco a 640x480 occorre aggiornare la scheda ogni 6 mesi da che escono le novità lamere che la scheda precedente non ha.
Io aspetto la xbox360 :P sta scheda per me è un pacco.
Sono pienamente d'accordo sul regresso tecnologico che sta avvenendo. Basti guardare come il Dothan (che consuma 1/3-1/4 di un p4), con ram a 333, si pappi QUALUNQUE CPU per desk attualmente prodotta. Essendo derivato dal P3, significa che i vecchi AMD (che erano piu' celoci del P3), avevano un'architettura piu' efficente degli attuali A64. Per non parlare di quella iper cag.. del P4.. non lo veorrei nemmeno in regalo, prodotto a mezzi con le societa' che forniscono la corrente ai cittadini secondo me!!
ok me la regali? :sofico: in cambio ti do la x-box di mio cugino (fidati i giochi girano meglio lì)
Un xbox 360 (e meglio ancora la PS3) costera' quanto una 6800gt (quando uscira' costera' attorno ai 250-300€) se ci pensi bene, dentro ci sara' non solo una scheda video piu' potente, ma anche una super CPU, una RAM e quant'altro..
Se secondo te non ci stanno fregando.. Fa un po' tu..
Comuqne ti invito a riprodurre la schermata di DX con un'attuale scheda video o con un'ATi anche vecchia, se ci riesci sei veramewnte bravo.
La Gefforce4, secondo me, e' l'ultimo baluardo della "produzione-per-la-qualità".
AnonimoVeneziano
02-07-2005, 20:26
Il succo e' semplice.. L'immagine che si puo' ottenere con le geffo4-3-2 ecc.. e' migliore di quella che si puo' ottenere con le attuali Nvidia o con qualsiasi Radeon presente o passata. Ora non ho PC assemblati con AGP, come ne rimetto su uno faccio altre foto e le posto, c'e' da rimanere esterrefatti solo al pensare che nessuno lo abbia mai notato oltre me ed il mio collega/amico.
Io ho tutt'ora una GF3 Ti200 . E' davvero così grande la differenza??
Ciao
andreamarra
02-07-2005, 21:17
minchia, ma sempre sti paragoni tra consolle e pc?
escono fuori ogni volta che escono nuove consolle...
una consolle costa quanto una ottima scheda video di fascia media?
Sti gran cazzi.
IO mi faccio il pc per diversi scopi, poi se ho voglia ci aggiungo la scheda video.
POi ancora aspetto di vedere sti giochi su ste consolle, e soprattutto il tipo di gioco e il divertimento che mi possono dare.
OvErClOck82
02-07-2005, 21:25
L'immagine del tuo avatar fa venire il mal di testa, :D giuro!!
..almeno a me.. :D
non sai quanto hai ragione :confused: :confused: :confused: :D :Prrr:
Sono pienamente d'accordo sul regresso tecnologico che sta avvenendo. Basti guardare come il Dothan (che consuma 1/3-1/4 di un p4), con ram a 333, si pappi QUALUNQUE CPU per desk attualmente prodotta. Essendo derivato dal P3, significa che i vecchi AMD (che erano piu' celoci del P3), avevano un'architettura piu' efficente degli attuali A64. Per non parlare di quella iper cag.. del P4.. non lo veorrei nemmeno in regalo, prodotto a mezzi con le societa' che forniscono la corrente ai cittadini secondo me!!
Ma vuoi scherzare spero. I vecchi Athlon avevano un bus EV6 a 100 Mhz a doppio fronte (200 Mhz effettivi) i nuovi hanno un bus a 800 Mhz a doppio fronte (1,6 Ghz effettivi). I nuovi Athlon hanno cache maggiorate, migliori unità di predizione dei salti ed il memory controller integrato nella CPU. A tutto ciò aggiungiamo il supporto alle SSE, SSE2, SS3 e AMD64. Insomma, il confronto non esiste nemmeno.
L'architettura Centrino è derivata da quella dei P3, ma è stata completamente rivista e rispetto ai P3 a ben poco a che fare. L'unico aspetto che Intel ha dimostrato con Centrino è che le architetture Hyperpipelined come quella del P4 sono fallimentari e che quelle superscalari dei P3, Athlon, Athlon 64 e Centrino offrono le migliori prestazioni e le migliori rese produttive.
SilverXXX
02-07-2005, 23:34
L'architettura Centrino è derivata da quella dei P3, ma è stata completamente rivista e rispetto ai P3 a ben poco a che fare. L'unico aspetto che Intel ha dimostrato con Centrino è che le architetture Hyperpipelined come quella del P4 sono fallimentari e che quelle superscalari dei P3, Athlon, Athlon 64 e Centrino offrono le migliori prestazioni e le migliori rese produttive.
La gente è cmq convinta che centrino sia un P3, e spiegargli che non è così è molto difficile (e spesso non ci crede cmq)
La gente è cmq convinta che centrino sia un P3, e spiegargli che non è così è molto difficile (e spesso non ci crede cmq)
Beh la gente sbaglia :)
Personalmente più che dire una cosa e spiegarla non posso fare.
Io ho tutt'ora una GF3 Ti200 . E' davvero così grande la differenza??
Ciao
Se vuoi ti posto la schermata intera, se quel particolare non dovesse bastarti, ma tanto, oramai con una geffo3-4 non ci fai piu' nulla, hai poco da scegliere. Io ho una 6800gt (per altro e' gia' la seconda che brucio, mentre con la 4200ti triplex feci record assurdi ed ancora vive!!). Comuqne sempre meglio delle ATI, ne ho viste parecchie (specialmente le alte di gamma) gia' difettose di fabrica.
Beh la gente sbaglia :)
Personalmente più che dire una cosa e spiegarla non posso fare.
Sicuramente non e' un pentium 4!! Il Banias fu creato partendo al core del P3 incrementando la cache di 512Kb e portando il processo produttivo a 130nm. Questa volta Hanno introdotto il set di istruzioni SSE2 (lo Yonah supporta pure le SSE£) e migliorato l'unita di prefech per gestire la maggiore chache che appunto arriva a 2Mb (L2).
Insomma e' l'evoluzione del P3 con diversi accorgimenti.. e ridicolizza qualunque avversario attualmente disponibile. Ve lo dice uno che intel non la puo' soffrire. :muro:
In comunque con il P4 ha solo l'interfaccia di BUS.
Se questo non e' un P3..
Nel 2006 uscira' il dual core Yonah (due Dothan piu' o meno) ed a fine 2006-inizio 2007 ci sara' il (forse) Meron a 64bit..
Ma vuoi scherzare spero. I vecchi Athlon avevano un bus EV6 a 100 Mhz a doppio fronte (200 Mhz effettivi) i nuovi hanno un bus a 800 Mhz a doppio fronte (1,6 Ghz effettivi). I nuovi Athlon hanno cache maggiorate, migliori unità di predizione dei salti ed il memory controller integrato nella CPU. A tutto ciò aggiungiamo il supporto alle SSE, SSE2, SS3 e AMD64. Insomma, il confronto non esiste nemmeno.
Il Dothan con FSB e DDR1 a 133, ridicolizza il P4 con FSB 266 e DDR2 533.
Eppure non supporta le SSE3 (il Banias era messo pure peggio, ma sempre meglio di un P4 va).
L'architettura Centrino è derivata da quella dei P3, ma è stata completamente rivista e rispetto ai P3 a ben poco a che fare. L'unico aspetto che Intel ha dimostrato con Centrino è che le architetture Hyperpipelined come quella del P4 sono fallimentari e che quelle superscalari dei P3, Athlon, Athlon 64 e Centrino offrono le migliori prestazioni e le migliori rese produttive.
Il Pentium-M e' nato da un dipartimento di sviluppo a bassi stanziamenti sito in israele, parti' dal P3 per ragioni econimiche (perhce' per Intel era un progetto di nicchia, destinato solamente al settore mobile), ma con grande sorpresa (e grande maestria degli ingegneri della divisione), si sono ragiounti risultati estrememente superiori alle aspettative.
Insomma, a quanto pare Intel ha deciso di ridiventare competitiva riciclando il P3, che poi non e' che l'evoluzione del P2, che poi sarebbe un p-pro con istruzioni MMX.. (e tante, tante altre modifiche, ora non serve elenxarle).
E visto che gli AMD erano piu' potenti al tempo.. speriamo che AMD faccia lo stesso!! hehe :D (ovviamente in questo caso e piu' o meno una battuta, anche se l'evoluzione del P3 e' piu' veloce degli attuali Athlon64/FX).
P.S. Il centrino non e' un processore, e' un insieme di CPU, chipset ed interfaccia WL.
AnonimoVeneziano
03-07-2005, 10:38
Se vuoi ti posto la schermata intera, se quel particolare non dovesse bastarti, ma tanto, oramai con una geffo3-4 non ci fai piu' nulla, hai poco da scegliere. Io ho una 6800gt (per altro e' gia' la seconda che brucio, mentre con la 4200ti triplex feci record assurdi ed ancora vive!!). Comuqne sempre meglio delle ATI, ne ho viste parecchie (specialmente le alte di gamma) gia' difettose di fabrica.
Beh, la mia GF3 fa ancora egregiamente il suo dovere con diversi giochi nuovi :p
Fa girare senza rallentamenti Guild Wars a 1280x1024 tutto attivato NoAA decentemente senza rallentamenti (Eventuali PS 2.0 o superiori però non ci stanno ) . Però solo da overcloccata, a frequenze di default è un chiodo a sta risoluzione :P
Adesso devo cambiarla però
Ciao
Paolo Corsini
03-07-2005, 12:10
Siamo un po' fuori topic rispetto all'articolo, che è sulla GeForce 7800 GTX, comunque qui
http://www.hwupgrade.it/articoli/cpu/1143/index.html
c'è un'analisi sulle prestazioni delle cpu Pentium M con piattaforme desktop.
Proprio in questi giorni sto lavorando ad altre misure prestazionali di questo tipo con cpu Pentium M
leoneazzurro
03-07-2005, 12:37
Sicuramente non e' un pentium 4!! Il Banias fu creato partendo al core del P3 incrementando la cache di 512Kb e portando il processo produttivo a 130nm. Questa volta Hanno introdotto il set di istruzioni SSE2 (lo Yonah supporta pure le SSE£) e migliorato l'unita di prefech per gestire la maggiore chache che appunto arriva a 2Mb (L2).
Insomma e' l'evoluzione del P3 con diversi accorgimenti.. e ridicolizza qualunque avversario attualmente disponibile. Ve lo dice uno che intel non la puo' soffrire. :muro:
In comunque con il P4 ha solo l'interfaccia di BUS.
Se questo non e' un P3..
Nel 2006 uscira' il dual core Yonah (due Dothan piu' o meno) ed a fine 2006-inizio 2007 ci sara' il (forse) Meron a 64bit..
Il Dothan con FSB e DDR1 a 133, ridicolizza il P4 con FSB 266 e DDR2 533.
Eppure non supporta le SSE3 (il Banias era messo pure peggio, ma sempre meglio di un P4 va).
Il Pentium-M e' nato da un dipartimento di sviluppo a bassi stanziamenti sito in israele, parti' dal P3 per ragioni econimiche (perhce' per Intel era un progetto di nicchia, destinato solamente al settore mobile), ma con grande sorpresa (e grande maestria degli ingegneri della divisione), si sono ragiounti risultati estrememente superiori alle aspettative.
Insomma, a quanto pare Intel ha deciso di ridiventare competitiva riciclando il P3, che poi non e' che l'evoluzione del P2, che poi sarebbe un p-pro con istruzioni MMX.. (e tante, tante altre modifiche, ora non serve elenxarle).
E visto che gli AMD erano piu' potenti al tempo.. speriamo che AMD faccia lo stesso!! hehe :D (ovviamente in questo caso e piu' o meno una battuta, anche se l'evoluzione del P3 e' piu' veloce degli attuali Athlon64/FX).
P.S. Il centrino non e' un processore, e' un insieme di CPU, chipset ed interfaccia WL.
Decisamente stai scherzando.
Tutta l'unità di branch prediction del Pentium M, già nel Banias, è completamente diversa da quella del Pentium 3 ed è superiore a quella dei Pentium 4 fino al Prescott (che ne utilizza una versione derivata). Gli stadi nella pipeline sono stati ridisegnati e la pipeline stessa è più lunga che nel Pentium 3. E di differenze ce ne sono altre: una cosa è dire DERIVATO dal P3 ed un altra cosa è dire E' un P3. Altra imprecisione: il core del Pentium 2, pur essendo derivato da quello del Pentium Pro, era stato ridisegnato non solo per le MMX, ma anche per garantirgli una maggiore omogeneità prestazionale (difatti il Pentium Pro era persino inferiore al Pentium nelle applicazioni legacy a 16 bit). Questo senza contare tutta la gestione della cache...
Gli AMD erano "più potenti al tempo" perchè sugli interi avevano le stesse prestazioni di un P3 ma avevano (ed hanno) una FPU decisamente più potente (con un picco di 2 volte la velocità della FPU del PIII). Mentre oggi si usano per calcoli FP "generici" le istruzioni SIMD SSE e SSE2. Ma le unità FPU del Pentium M continuano ad essere molto più scarse di quelle di un qualsiasi Athlon a parità di frequenza, dato che quelle sì che derivano dal Pentium III in maniera quasi diretta(per non parlare di quella del P4, che è inferiore anche a quella del PIII/P-M).
Poi un P-M ed un Athlon 64 in media hanno prestazioni simili (a 32 bit, perchè gli A64 hanno anche la modalità a 64 bit, per quanto so che mi risponderai "ma tanto non li usa nessuno" al che io ti risponderò "intanto hanno questa modalità.. e sarà possibile sfruttarla quando verrà il momento" :p) ma per questo dobbiamo prendere le versioni di Pentium-M su piattaforma Sonoma (o con piattaforme "non naturali" come l'adattatore ASUS per schede madri Socket 478, che tralaltro presto spariranno dal mercato) dato che le versioni notebook con DDR1 single channel sono pesantemente limitate dal FSB e dalla banda della memoria in tutte quelle applicazioni che ne fanno uso. Inoltre gli Athlon 64 viaggiano (per le versioni a grande diffusione) intorno ai 2.2-2.4 GHz con costi decisamente inferiori rispetto al P-M (i P4 a 3.2-3.4 GHz), mentre i "top di gamma" sono il P-M a 2-13 GHZ (che non è economico) e Athlon FX 57 a 2.8 GHz, P4 a 3.8 GHz. E non mi puoi dire che abbiano le stesse prestazioni (prego non linkare la recensione di GamePC perchè pesantemente fallata, con il sistema A64 castrato da timings delle RAM a 2t e CAS 3 contro P-M a CAS 2... andiamo a vedere recensioni serie come quelle di Anandtech, per favore)... a meno che non pensi di prendere gli A64 a default contro P-M in overclock (come fa "l'imparziale" Tom mettendo a confronto P-M in overclock contro A64 e P4 a default, tra l'altro gli A64 della vecchia revisione a 0.13, giusto per "dimostrare" quanto poco consumino i P-M , scordandosi del tutto delle revisioni a 0.09 con controller RAM migliorato e consumi ridotti). O magari ci si sta riferendo al "solito" superPI 1 million, senza sapere che dà quei risultati sul P-M SOLO PERCHE' QUESTA APPLICAZIONE CON QUEL DATASET VIENE ESEGUITA TOTALMENTE NEI 2 MEGA DI CACHE A BASSA LATENZA DEI P-M E NON NEI 512K-1MEGA DEGLI A64, tanto è vero che AUMENTANDO IL NUMERO DI CIFRE CALCOLATE E QUINDI COMINCIANDO AD ACCEDERE ALLA MEMORIA DI SISTEMA LE PRESTAZIONI DEL P-M CROLLANO E CON IL DATASET 32 MILLION IL P-M E' DECISAMENTE INDIETRO RISPETTO AGLI ATHLON 64 ED AI P4. Insomma. il P-M è una CPU fantastica, ben bilanciata, ottima per i notebook dato il basso consumo e le alte prestazioni, ma non è la CPU top performer per il desktop (anche perchè non esiste la CPU "più potente in tutto").
leoneazzurro
03-07-2005, 12:42
Siamo un po' fuori topic rispetto all'articolo, che è sulla GeForce 7800 GTX, comunque qui
http://www.hwupgrade.it/articoli/cpu/1143/index.html
c'è un'analisi sulle prestazioni delle cpu Pentium M con piattaforme desktop.
Proprio in questi giorni sto lavorando ad altre misure prestazionali di questo tipo con cpu Pentium M
Scusa Paolo, hai postato mentre stavo scrivendo. Non ho linkato la recensione di HWupgrade solo perchè Anand ha svolto test anche con dual channel (adattatore ASUS su scheda P4P800-SE).
Siamo un po' fuori topic rispetto all'articolo, che è sulla .
Proprio in questi giorni sto lavorando ad altre misure prestazionali di questo tipo con cpu Pentium M
Piccolissimo OT
Riuscite ad includere in questi test pure i Celeron M core Dothan, cosi x vedere l'impatto della fascia bassa del socket 479???
X Tutti, ricordo che Abbiamo un bel 3D ufficiale sul CT479 & Pentium M
[ASUS]CT 479 ***Pentium M alla riscossa*** Official Topic (http://www.hwupgrade.it/forum/showthread.php?t=963578)
Non vedo l'ora d provare la 7800 su questa piattaforma :cry:
Scusate d nuovo l' OT
:)
Sicuramente non e' un pentium 4!! Il Banias fu creato partendo al core del P3 incrementando la cache di 512Kb e portando il processo produttivo a 130nm. Questa volta Hanno introdotto il set di istruzioni SSE2 (lo Yonah supporta pure le SSE£) e migliorato l'unita di prefech per gestire la maggiore chache che appunto arriva a 2Mb (L2).
Insomma e' l'evoluzione del P3 con diversi accorgimenti.. e ridicolizza qualunque avversario attualmente disponibile. Ve lo dice uno che intel non la puo' soffrire. :muro:
In comunque con il P4 ha solo l'interfaccia di BUS.
Se questo non e' un P3..
Nel 2006 uscira' il dual core Yonah (due Dothan piu' o meno) ed a fine 2006-inizio 2007 ci sara' il (forse) Meron a 64bit..
Mai detto che Centrino è derivato ai P4. Ho detto il contrario e cioè che è derivato ai P3 ai quali sono state fatte, però, moltissime modifiche.
Il Dothan con FSB e DDR1 a 133, ridicolizza il P4 con FSB 266 e DDR2 533.
Eppure non supporta le SSE3 (il Banias era messo pure peggio, ma sempre meglio di un P4 va).
Questo non significa che i primi Athlon siano più efficienti di un Athlon 64. Non esiste alcun caso in cui questa affermazione è vera. L'Athlon 64 grazie alle modifiche che ho elencato è nettamente più veloce a parità di frequenza dei primi Athlon. Tu stai confrontando due architetture completamente differenti e cioè Dothan con P4. Il primo Athlon e l'Athlon 64 sono essenzialmente simili nelle pipeline di calcolo e nelle unità, il secondo, tuttavia, ha qualche stadio in più e le modifiche che ho già citato: memory controller integrato, maggiore cache, migliore unità per la predizione dei salti e supporto alle istruzioni SSE, SSE2, SSE3 e AMD64. Queste modifiche lo rendono nettamente più veloce a parità di frequenza dei primi Athlon.
Insomma, a quanto pare Intel ha deciso di ridiventare competitiva riciclando il P3, che poi non e' che l'evoluzione del P2, che poi sarebbe un p-pro con istruzioni MMX.. (e tante, tante altre modifiche, ora non serve elenxarle).
E visto che gli AMD erano piu' potenti al tempo.. speriamo che AMD faccia lo stesso!! hehe :D (ovviamente in questo caso e piu' o meno una battuta, anche se l'evoluzione del P3 e' piu' veloce degli attuali Athlon64/FX).
P.S. Il centrino non e' un processore, e' un insieme di CPU, chipset ed interfaccia WL.
So benissimo cosa è Centrino, ma di solito ci si riferisce innanzitutto alla CPU... sai per farlo capire alla gente...
Ancora una volta: gli Athlon non erano più veloci al tempo. Il divario tra AMD ed Intel poteva essere differente, ma i vecchi Athlon a parità di frequenza sono molto meno efficienti degli Athlon 64.
Mai detto che Centrino è derivato ai P4. Ho detto il contrario e cioè che è derivato ai P3 ai quali sono state fatte, però, moltissime modifiche.
Questo non significa che i primi Athlon siano più efficienti di un Athlon 64. Non esiste alcun caso in cui questa affermazione è vera. L'Athlon 64 grazie alle modifiche che ho elencato è nettamente più veloce a parità di frequenza dei primi Athlon. Tu stai confrontando due architetture completamente differenti e cioè Dothan con P4. Il primo Athlon e l'Athlon 64 sono essenzialmente simili nelle pipeline di calcolo e nelle unità, il secondo, tuttavia, ha qualche stadio in più e le modifiche che ho già citato: memory controller integrato, maggiore cache, migliore unità per la predizione dei salti e supporto alle istruzioni SSE, SSE2, SSE3 e AMD64. Queste modifiche lo rendono nettamente più veloce a parità di frequenza dei primi Athlon.
Menomale che ho spiecificato che era una sorta di battuta, intendevo dire che le migliorie portate al P3 nella creazione di P-M, sono di gran lunga migliori di quelle portate agli Atlhlon in questi anni, anche se ha meno tipi di istruzioni ad esempio, (come le SSE3 per le operazioni multimediali), e' comunque piu' prestante nonostante anche componentistiche periferali nettamente inferiori. (e molto meno dispendiose).
So benissimo cosa è Centrino, ma di solito ci si riferisce innanzitutto alla CPU... sai per farlo capire alla gente...
Ancora una volta: gli Athlon non erano più veloci al tempo. Il divario tra AMD ed Intel poteva essere differente, ma i vecchi Athlon a parità di frequenza sono molto meno efficienti degli Athlon 64.
Non credo sia giusto insegnare alla gente che il centrino sia un processore, non lo e' e non lo sara' mai. Il processore si chiama Pentium-M (per gli amici Pentium 3 :p).
Non credo sia giusto insegnare alla gente che il centrino sia un processore, non lo e' e non lo sara' mai. Il processore si chiama Pentiom-M (per gli amici Pentium 3 :p).
Pentiom-M :ciapet:
Non credo sia giusto insegnare alla gente che il centrino sia un processore, non lo e' e non lo sara' mai. Il processore si chiama Pentiom-M (per gli amici Pentium 3 :p).
Il mio obiettivo innanzitutto è farmi comprendere. Solo dopo è possibile fare le puntualizzazioni. Del resto la colpa è dei produttori che mettono in listino "Processore Intel Centrino a 1,6 Ghz" ecc..., non la mia.
Pentiom-M :ciapet:
Se vuoi correggo i tuoi post ;) :p
e poi leggi bene!! :D
Il mio obiettivo innanzitutto è farmi comprendere. Solo dopo è possibile fare le puntualizzazioni. Del resto la colpa è dei produttori che mettono in listino "Processore Intel Centrino a 1,6 Ghz" ecc..., non la mia.
Tu chiamalo come va chiamato, se qualcuno dovesse non capire (ed in questo thread non mi credo possa accadere), gli si spiega bene.
Se vuoi correggo i tuoi post ;) :p
E correggili pure ... che te devo di' :oink:
e poi leggi bene!! :D
Leggi bene cosa ? Hai sbagliato a scrivere, stop, inutile modificare il post. :read:
Intendi il resto ? Ti stanno zittendo da circa una settimana ma tu continui imperterrito ... bella pe te :rolleyes:
Pregasi ritornare In-Topic... grazie! ;)
Un xbox 360 (e meglio ancora la PS3) costera' quanto una 6800gt (quando uscira' costera' attorno ai 250-300€) se ci pensi bene, dentro ci sara' non solo una scheda video piu' potente, ma anche una super CPU, una RAM e quant'altro..
Le previsioni parlano di uscite fra un minimo 399$ ed un massimo di 499$. Decisamente lontano dai 250/300 euro.
Le previsioni parlano di uscite fra un minimo 399$ ed un massimo di 499$. Decisamente lontano dai 250/300 euro.
e mi sembra che anche nel caso peggiore questa macchina valga ogni € richiesto ;)
Io dico 399 cmq :)
Le previsioni parlano di uscite fra un minimo 399$ ed un massimo di 499$. Decisamente lontano dai 250/300 euro.
Si sa che all'uscita costeranno di piu', come e' sempre stato.... poi sotto natale, figuriamoci. Fatto sta che microsoft dichiara un prezzo di 250$, che con dovuti aumenti per noi europei diventeranno 250€, con tasse varie si puo' arrivare a 350.
Allancio il 360 in america dovrebbe costare 400$ (sempre il discorso del natale) che sono meno di 320€ e poi scendere abbastanza rapidamente. Si vedra'.
Quello che intendo dire e' che una X850XT PE costa 500€!!
Tanto in Italia, paghiamo tutto di piu', mi han detto che una 6800 GT in germania costa 250€ nei grandi magazini (figuriamoci nei negozi specializzati) gia' da un paio di mesi. Non l'ho visto di persona perhe' e' molto che non ci vado, ma non mi stupirebbe, dato che non sarebbe la prima volta.
e mi sembra che anche nel caso peggiore questa macchina valga ogni € richiesto ;)
Io dico 399 cmq :)
Vale anche di piu' visto che le vendono sotto costo :)
Si sa che all'uscita costeranno di piu', come e' sempre stato.... poi sotto natale, figuriamoci. Fatto sta che microsoft dichiara un prezzo di 250$, che con dovuti aumenti per noi europei diventeranno 250€, con tasse varie si puo' arrivare a 350.
Ti assicuro da fonti "interne" che MS non intende vendere l'X360 a meno di 350$.
Decisamente stai scherzando.
Tutta l'unità di branch prediction del Pentium M, già nel Banias, è completamente diversa da quella del Pentium 3 ed è superiore a quella dei Pentium 4 fino al Prescott (che ne utilizza una versione derivata). Gli stadi nella pipeline sono stati ridisegnati e la pipeline stessa è più lunga che nel Pentium 3. E di differenze ce ne sono altre: una cosa è dire DERIVATO dal P3 ed un altra cosa è dire E' un P3. Altra imprecisione: il core del Pentium 2, pur essendo derivato da quello del Pentium Pro, era stato ridisegnato non solo per le MMX, ma anche per garantirgli una maggiore omogeneità prestazionale (difatti il Pentium Pro era persino inferiore al Pentium nelle applicazioni legacy a 16 bit). Questo senza contare tutta la gestione della cache...
Gli AMD erano "più potenti al tempo" perchè sugli interi avevano le stesse prestazioni di un P3 ma avevano (ed hanno) una FPU decisamente più potente (con un picco di 2 volte la velocità della FPU del PIII). Mentre oggi si usano per calcoli FP "generici" le istruzioni SIMD SSE e SSE2. Ma le unità FPU del Pentium M continuano ad essere molto più scarse di quelle di un qualsiasi Athlon a parità di frequenza, dato che quelle sì che derivano dal Pentium III in maniera quasi diretta(per non parlare di quella del P4, che è inferiore anche a quella del PIII/P-M).
Poi un P-M ed un Athlon 64 in media hanno prestazioni simili (a 32 bit, perchè gli A64 hanno anche la modalità a 64 bit, per quanto so che mi risponderai "ma tanto non li usa nessuno" al che io ti risponderò "intanto hanno questa modalità.. e sarà possibile sfruttarla quando verrà il momento" :p) ma per questo dobbiamo prendere le versioni di Pentium-M su piattaforma Sonoma (o con piattaforme "non naturali" come l'adattatore ASUS per schede madri Socket 478, che tralaltro presto spariranno dal mercato) dato che le versioni notebook con DDR1 single channel sono pesantemente limitate dal FSB e dalla banda della memoria in tutte quelle applicazioni che ne fanno uso. Inoltre gli Athlon 64 viaggiano (per le versioni a grande diffusione) intorno ai 2.2-2.4 GHz con costi decisamente inferiori rispetto al P-M (i P4 a 3.2-3.4 GHz), mentre i "top di gamma" sono il P-M a 2-13 GHZ (che non è economico) e Athlon FX 57 a 2.8 GHz, P4 a 3.8 GHz. E non mi puoi dire che abbiano le stesse prestazioni (prego non linkare la recensione di GamePC perchè pesantemente fallata, con il sistema A64 castrato da timings delle RAM a 2t e CAS 3 contro P-M a CAS 2... andiamo a vedere recensioni serie come quelle di Anandtech, per favore)... a meno che non pensi di prendere gli A64 a default contro P-M in overclock (come fa "l'imparziale" Tom mettendo a confronto P-M in overclock contro A64 e P4 a default, tra l'altro gli A64 della vecchia revisione a 0.13, giusto per "dimostrare" quanto poco consumino i P-M , scordandosi del tutto delle revisioni a 0.09 con controller RAM migliorato e consumi ridotti). O magari ci si sta riferendo al "solito" superPI 1 million, senza sapere che dà quei risultati sul P-M SOLO PERCHE' QUESTA APPLICAZIONE CON QUEL DATASET VIENE ESEGUITA TOTALMENTE NEI 2 MEGA DI CACHE A BASSA LATENZA DEI P-M E NON NEI 512K-1MEGA DEGLI A64, tanto è vero che AUMENTANDO IL NUMERO DI CIFRE CALCOLATE E QUINDI COMINCIANDO AD ACCEDERE ALLA MEMORIA DI SISTEMA LE PRESTAZIONI DEL P-M CROLLANO E CON IL DATASET 32 MILLION IL P-M E' DECISAMENTE INDIETRO RISPETTO AGLI ATHLON 64 ED AI P4. Insomma. il P-M è una CPU fantastica, ben bilanciata, ottima per i notebook dato il basso consumo e le alte prestazioni, ma non è la CPU top performer per il desktop (anche perchè non esiste la CPU "più potente in tutto").
Non ho fatto un'analisi cosi' dettagliata semplicemente per non andare in OT.
Tom non ha fatto assolutamente una comparativa "incorretta", anzi, io avrei spinto entrambi al limite. Avrei dato un bus a 400 anche al Pentium-M (cosa fatta e ftrafatta) o anche superiore.
Quella CPU lavora a simili frequenze per via della propria origine "mobile", deve scaldare e consumare poco e nonostante l'overclock, scaldava e consumava MOOLOTO di meno dei concorrenti. Alla fine non lo hanno overcloccato, ma semplicemente reso piu' simile a quel che sarebbe una CPU basata su P-M, per Desk.
Messa su una main adeguata (esistono anche native, che non necessitano di slot adattatori, tante volte non lo sapessi), con un bel dissipatore sopra, sarebbe una CPU, SICURAMENTE migliore di un P4. Magari, mettiamogli pure chipset avanzati e ddr2).
I vantaggi derivanti dalla cache, sono pur sempre dei vantaggi, (grazie per la puntiualizzazione, ma l'ho scritto anche io che ha subito modifiche all'unita' di prefech per via dlela cache) che, tuttavia non sono "l'intera" potenza di quel processore.
All'atto pratico a parita' di clock, e' piu' prestante di qualunque altra CPU ora in commercio, soprattutto in ambito ludico.
Il prezzo, inoltre, non e' poi cosi' elevato in rapporto alle prestazioni ottenibili.
Vorrei ricordarti che ha spiazzato degli FX55 (quale costa di piu'??) pur lavorando con un bus a 333.. La cosa si commenta da sola.
Intendi il resto ? Ti stanno zittendo da circa una settimana ma tu continui imperterrito ... bella pe te :rolleyes:
Zittendo?? ma che fai le sfide?!?! :D comuqnue e' un'impresione tua, so di cosa sto parlando.
P.S. non rispondo a null'altro riguardo tale CPU, perche' segiuto nel 3D giusto.
Ti assicuro da fonti "interne" che MS non intende vendere l'X360 a meno di 350$.
Entro quali tempi?? io credo parlassero di prospettive di vendita dopo almeno 6 mesi. Anche perche' in tale periodo, vi sara' una tale frenesia d'acquisto, che la potrebbero vendere a 800€ tranquillamente, tanto piu' che sono senza concorrenti. Anche se credo che i prezzi non andranno veramente giu' fin quando non uscira' la PS3.
Demin Black Off
04-07-2005, 19:44
La xbox a 350 mi sembra assurdo, ma le avete lette le caratteristiche ? 350 euro vorrebbe dire che la vga costa sulla 70ina di euro, il procio altrettanto e cosi via :mbe: Ammazza capisco che a bill viene a fare meno col discorso della produzione ma stiamo esagerando, qua nvidia e company ci pigliano proprio per il cul@ allora con schede a 500 euro, ma anche con schede a 360 euro, e io sto parlando solo della scheda video :mad:
PER ME la xbox360 all'uscita sotto i 450 non la si vede :stordita:
La xbox a 350 mi sembra assurdo, ma le avete lette le caratteristiche ? 350 euro vorrebbe dire che la vga costa sulla 70ina di euro, il procio altrettanto e cosi via :mbe: Ammazza capisco che a bill viene a fare meno col discorso della produzione ma stiamo esagerando, qua nvidia e company ci pigliano proprio per il cul@ allora con schede a 500 euro, ma anche con schede a 360 euro, e io sto parlando solo della scheda video :mad:
PER ME la xbox360 all'uscita sotto i 450 non la si vede :stordita:
MS e Sony possono vendere l'hw sotto costo perche' incassano le royalty su ogni gioco venduto, mentre NVIDIA e ATI non incassano royalty sui giochi venduti quindi possono solo guadagnare sull'hw.
Demin Black Off
04-07-2005, 19:58
MS e Sony possono vendere l'hw sotto costo perche' incassano le royalty su ogni gioco venduto, mentre NVIDIA e ATI non incassano royalty sui giochi venduti quindi possono solo guadagnare sull'hw.
Ste royality le vorrei incassare pure io ogni tanto :D
MS e Sony possono vendere l'hw sotto costo perche' incassano le royalty su ogni gioco venduto, mentre NVIDIA e ATI non incassano royalty sui giochi venduti quindi possono solo guadagnare sull'hw.
Sappiamo bene che il primo anno di vendita dell'Xbox 1, vide un forte passivo, ma c'e' un limite a tutto, compreso il sottocosto. Sarei veramente curioso di vedere quanto costi in produzione una 6800GT.
Vendere un anno di HW con una simile remissione e quasi come regalarlo!! Insomma , facendo calcoli mooolto approssimativi, una 7800GTx costa 550€.. una CPU dual core ne costa 400, delle ram a 600 (e non 700) costano altri 200€.. aggiungiamoci la mainboard i controller, alimentatore, il lettore ottico di ultima generazione ecc.. Capisci bene come 350€ non siano nemmeno assimilabili a tutto cio'.
Zittendo?? ma che fai le sfide?!?! :D comuqnue e' un'impresione tua, so di cosa sto parlando.
Di cosa stai parlando si riesce a capire ben poco, considerando anche tutti gli errori che continui a fare :eek:
(cosa fatta e ftrafatta)
MOOLOTO di meno
grazie per la puntiualizzazione
prefech per via dlela cache
ha spiazzato degli FX55
No comment :ciapet:
E per concludere in bellezza, un PS. da antologia ...
P.S. non rispondo a null'altro riguardo tale CPU, perche' segiuto nel 3D giusto.
"Segiuto" anche con tutta la buona volonta' che posso metterci, non riesco a capire cosa significhi.
Perdonatemi :mbe:
leoneazzurro
04-07-2005, 23:01
Non ho fatto un'analisi cosi' dettagliata semplicemente per non andare in OT.
Tom non ha fatto assolutamente una comparativa "incorretta", anzi, io avrei spinto entrambi al limite. Avrei dato un bus a 400 anche al Pentium-M (cosa fatta e ftrafatta) o anche superiore.
Quella CPU lavora a simili frequenze per via della propria origine "mobile", deve scaldare e consumare poco e nonostante l'overclock, scaldava e consumava MOOLOTO di meno dei concorrenti.
Problema numero 1 (dopo non ti rispondo più perchè basta con gli OT e perchè non c'è peggior sordo di chi non vuole sentire): perchè comparare Dothan con CPU basate su core Clawhammer, che consuma circa il DOPPIO di un core Winchester/Venice (quest'ultimo dotato di SSE3), entrambi con controller di memoria migliorato rispetto ai core più anziani e quindi più prestanti?
Inoltre le misure di consumo sono palesemente incorrette in quella recensione, dato che per un P-M a 2.56 GHz indicavano LO STESSO CONSUMO del P-M a default. E questo è impossibile. Secondo, il bus del P-M overclockato NON E' 333! La CPU in quel test sta già utilizzando il dual channel (basta gardare la mainboard usata), e per essere overclockato a 2.56 GHz da 2.13 il FSB del processore è stato portato a 640 MHZ effettivi (da 533 e non 400) e la memoria viaggia a 400 MHz!
Vuoi una recensione interessante e completa? Vai su HWupgrade o Anandtech!
Alla fine non lo hanno overcloccato, ma semplicemente reso piu' simile a quel che sarebbe una CPU basata su P-M, per Desk.
Messa su una main adeguata (esistono anche native, che non necessitano di slot adattatori, tante volte non lo sapessi), con un bel dissipatore sopra, sarebbe una CPU, SICURAMENTE migliore di un P4. Magari, mettiamogli pure chipset avanzati e ddr2).
I vantaggi derivanti dalla cache, sono pur sempre dei vantaggi, (grazie per la puntiualizzazione, ma l'ho scritto anche io che ha subito modifiche all'unita' di prefech per via dlela cache) che, tuttavia non sono "l'intera" potenza di quel processore.
All'atto pratico a parita' di clock, e' piu' prestante di qualunque altra CPU ora in commercio, soprattutto in ambito ludico.
Il prezzo, inoltre, non e' poi cosi' elevato in rapporto alle prestazioni ottenibili.
Vorrei ricordarti che ha spiazzato degli FX55 (quale costa di piu'??) pur lavorando con un bus a 333.. La cosa si commenta da sola.
A parte che data l'enorme cache a bassa latenza, difficilmente si vedranno grossi incrementi prestazionali aumentando la banda con le DDR2 (che hanno anche latenze più elevate) tanto è vero che i primi test su piattaforma Sonoma hanno dimostrato una essenziale parità prestazionale con la vecchia piattaforma, quello che tu stai dicendo (Pentium M CPU sempre più performante a parità di clock) è PALESEMENTE FALSO. Infatti a seconda dell'applicazione (e del gioco usato) il P-M è più prestante di A64 (attuale) di pari frequenza solo in alcuni test, mentre in altri è sotto. Mediamente, in 32 bit, le due CPU si equivalgono. Inoltre, vuoi capire che le CPU si prendono a default? Perchè in quella review non si è preso un core San Diego 3700+ e lo si è portato a 3 GHz o un P4 portato a 4.2-4-4 GHZ, se bisogna verificare anche l'overclock? E guarda che il Pentium M a 2.13 GHz costa più o meno quanto un FX 55 (adesso che è uscito l'FX 57 forse sarà anche più caro). E, come detto, il P-M in overclock NON HA il bus a 333 (verso la memoria) o 533 (FSB). Meno costosi sono i modelli a 1.7-1.8 GHz, ma a quei livelli di prezzo di trovano A64 a 2.2-2.4 GHz e P4 a 3.4 GHz. Fai un pò tu.
Di cosa stai parlando si riesce a capire ben poco, considerando anche tutti gli errori che continui a fare :eek:
No comment :ciapet:
E per concludere in bellezza, un PS. da antologia ...
"Segiuto" anche con tutta la buona volonta' che posso metterci, non riesco a capire cosa significhi.
Perdonatemi :mbe:
Se non capisci non prendertela con me. :) Il limite e' tuo, non mio.
Se non capisci non prendertela con me. :) Il limite e' tuo, non mio.
La tua frase mi ha colpito nell'intimo. Vado a dormire :)
Problema numero 1 (dopo non ti rispondo più perchè basta con gli OT e perchè non c'è peggior sordo di chi non vuole sentire): perchè comparare Dothan con CPU basate su core Clawhammer, che consuma .....
......guarda che il Pentium 2.13 GHz costa più o meno quanto un FX 55 (adesso che è uscito l'FX 57 forse sarà anche più caro). E, come detto, il P-M in overclock NON HA il bus a 333 (verso la memoria) o 533 (FSB). Meno costosi sono i modelli a 1.7-1.8 GHz, ma a quei livelli di prezzo di trovano A64 a 2.2-2.4 GHz e P4 a 3.4 GHz. Fai un pò tu.
Non ho mai detto nulla di quanto sostieni tu, hai letteralmente condotto uno sproloquio basato su tue affermazioni e tue risposte.
Se vuoi ribattere riguardo qualcosa che non condividi, prendi il mio post INTERO e rispondi pezzo pezzo.
Ho solo detto che il PM e' in molte cose e' migliore del P4 e anche del A64 (un po' meno). Soprattutto in un settore FONDAMENTALE come quello dei giochi.
Per quanto mi riguarda, e' giusto overcloccarlo per assimilarlo agil altri. (fosse stato fatto per postazioni desk, avrebbe grossomodo quelle impostazioni, non e' difficile da capire come concetto).
Quello che ho detto e' che Intel avrebbe dovuto puntare su quello ed evolverlo ancora di piu', stanziando maggiori fondi.. cio' che infatti fara' nel prossimo futuro insomma (fai sempre in tempo a fermarli).
Se poi non capisci che una CPU destinata ad essere comprata in grandi quantitativi SOLO dai grandi assemblatori di portatili e dunque al pubblico (come pezzo singolo) costa MOLTO, non so che farci, tanto piu' che non ha di certo la produzione di un P4 o di un A64.
Ed il tutto e' ridicolizzante sia per AMD che per INTEL, perche' il PM e' stato fatto per un mercato di nicchia, che tutto cerca, tranne che le prestazioni!!
Intel come CPU di punta per potenza scelse il P4 ed ha dimostrato di non averci capito nulla, le disquisizioni tecniche in merito non servono a nulla (se non a fare la figura del "io so come funziona, ora lo faccio vedere a tutti"). Non mi interessa ORA, che l'A64 sia o non sia migliore in qualcosa, ovvio che lo e'!! (io ho un A64, non un Dothan!!).
Non mi servi tu per sapere come funzioni una CPU, cerca di capire piuttosto quello che uno vuol intendere.
P.S. Gli articoli li ho letti tutti, ho parlato di Tom solo per riallacciarmi al tuo discorso. Comuqnue la solfa tra tom, HWU ed Anandtech, cambia ben poco.
Ora vedi di fare un'altra analisi tecnica fuori luogo o paragonare direttamente le varie CPU, Bill. Mi raccomando!! Visto che non capisci il concetto di O.T.
La tua frase mi ha colpito nell'intimo. Vado a dormire :)
Fare le correzioni a post scritti velocemente (probabilmente ne scrivo 4 mentre tu ne pensi uno di una riga e mezza di media), non ti fa certo onore.. Dimostra solo una pochezza di spirito e di argomenti. Del resto non hai fatto che questo, hai sbagliato forum, andiamo in uno d'italiano.. dove sicuramente potresti dimostrarmi quanto tu valga veramente in materia.
"bella per te". ;)
Per quanto mi riguarda voi due potrete scrivere quel che volete, non avrete mie risposte.
La tua frase mi ha colpito nell'intimo. Vado a dormire :)
Grande Hal :asd:
"bella per te".
Inizi pure a copiare le battute (e nemmeno tanto bene, io avevo scritto "bella PE te" senza R ... vabbe' riprova, magari ti andra' bene la prossima volta !), sei troppo :mc:
Non si parlava di 7800GTX qui?
yossarian
05-07-2005, 11:53
Non si parlava di 7800GTX qui?
hai sbagliato thread: il G70 si è trasferito altrove
:D
Demin Black Off
05-07-2005, 12:19
Sappiamo bene che il primo anno di vendita dell'Xbox 1, vide un forte passivo, ma c'e' un limite a tutto, compreso il sottocosto. Sarei veramente curioso di vedere quanto costi in produzione una 6800GT.
Vendere un anno di HW con una simile remissione e quasi come regalarlo!! Insomma , facendo calcoli mooolto approssimativi, una 7800GTx costa 550€.. una CPU dual core ne costa 400, delle ram a 600 (e non 700) costano altri 200€.. aggiungiamoci la mainboard i controller, alimentatore, il lettore ottico di ultima generazione ecc.. Capisci bene come 350€ non siano nemmeno assimilabili a tutto cio'.
La soluzione più ragionevole per un utente medio è quella di avere un pc senza una scheda del genere, e senza una scheda del genere un pc di ultima generazione non costa quasi nulla ( 500 euro max, ma molto MAX ) e la console per giocare, in modo che col pc ci si fa quello che gli pare e la console si gioca . <- ( punto ). In questo modo la spesa è == ad un pc di alto livello ma la durata nel tempo è nettamente superiore come anche la disponibilità di titoli.
edit : ovviamente un utente medio che col pc ci leggere la posta e ci usa il paint non è un esaltato che si prende un athlon fx per fare cose del genere...
leoneazzurro
05-07-2005, 13:22
Non ho mai detto nulla di quanto sostieni tu, hai letteralmente condotto uno sproloquio basato su tue affermazioni e tue risposte.
Se vuoi ribattere riguardo qualcosa che non condividi, prendi il mio post INTERO e rispondi pezzo pezzo.
Ho solo detto che il PM e' in molte cose e' migliore del P4 e anche del A64 (un po' meno). Soprattutto in un settore FONDAMENTALE come quello dei giochi.
Per quanto mi riguarda, e' giusto overcloccarlo per assimilarlo agil altri. (fosse stato fatto per postazioni desk, avrebbe grossomodo quelle impostazioni, non e' difficile da capire come concetto).
Quello che ho detto e' che Intel avrebbe dovuto puntare su quello ed evolverlo ancora di piu', stanziando maggiori fondi.. cio' che infatti fara' nel prossimo futuro insomma (fai sempre in tempo a fermarli).
Se poi non capisci che una CPU destinata ad essere comprata in grandi quantitativi SOLO dai grandi assemblatori di portatili e dunque al pubblico (come pezzo singolo) costa MOLTO, non so che farci, tanto piu' che non ha di certo la produzione di un P4 o di un A64.
Ed il tutto e' ridicolizzante sia per AMD che per INTEL, perche' il PM e' stato fatto per un mercato di nicchia, che tutto cerca, tranne che le prestazioni!!
Intel come CPU di punta per potenza scelse il P4 ed ha dimostrato di non averci capito nulla, le disquisizioni tecniche in merito non servono a nulla (se non a fare la figura del "io so come funziona, ora lo faccio vedere a tutti"). Non mi interessa ORA, che l'A64 sia o non sia migliore in qualcosa, ovvio che lo e'!! (io ho un A64, non un Dothan!!).
Non mi servi tu per sapere come funzioni una CPU, cerca di capire piuttosto quello che uno vuol intendere.
P.S. Gli articoli li ho letti tutti, ho parlato di Tom solo per riallacciarmi al tuo discorso. Comuqnue la solfa tra tom, HWU ed Anandtech, cambia ben poco.
Ora vedi di fare un'altra analisi tecnica fuori luogo o paragonare direttamente le varie CPU, Bill. Mi raccomando!! Visto che non capisci il concetto di O.T.
Fare le correzioni a post scritti velocemente (probabilmente ne scrivo 4 mentre tu ne pensi uno di una riga e mezza di media), non ti fa certo onore.. Dimostra solo una pochezza di spirito e di argomenti. Del resto non hai fatto che questo, hai sbagliato forum, andiamo in uno d'italiano.. dove sicuramente potresti dimostrarmi quanto tu valga veramente in materia.
"bella per te". ;)
Per quanto mi riguarda voi due potrete scrivere quel che volete, non avrete mie risposte.
Segnalato. Non te la prendere con gli altri se ti fanno notare che scrivi cose errate.
Segnalato. Non te la prendere con gli altri se ti fanno notare che scrivi cose errate.
Non ho scritto nulla di errato, hanno portato avanti discussioni oziose riguardo cose e concetti che non ho né proposto né affrontato. Se mai segnali loro.
Credo dovresti rileggere bene prima di segnalare qualcuno.
E poi non segnali uno che fa correzioni di errori di digitazione?!?! Mah!!
La soluzione più ragionevole per un utente medio è quella di avere un pc senza una scheda del genere, e senza una scheda del genere un pc di ultima generazione non costa quasi nulla ( 500 euro max, ma molto MAX ) e la console per giocare, in modo che col pc ci si fa quello che gli pare e la console si gioca . <- ( punto ). In questo modo la spesa è == ad un pc di alto livello ma la durata nel tempo è nettamente superiore come anche la disponibilità di titoli.
edit : ovviamente un utente medio che col pc ci leggere la posta e ci usa il paint non è un esaltato che si prende un athlon fx per fare cose del genere...
In parte sono d'accordo, pero' una schede un minimo decente per giocare, almeno 200€ li costa. un pc da 500€ e' scarsino, non puoi pensare che tutti se li assemblino da soli e magari pagnino le componenti a prezzo di costo. Non credo che i componenti di questo forum facciano propriamente "media".
Poi il discorso verteva sul fatto che, per quanto MS e Sony possano andare in passivo con la vendita dell'HW, c'e' un limite a tutto e l'HW di quelle macchine non e' ceto da paragonarsi ad un celeron con radeon 9200se e 256 mega di RAM a 333.
Ne facevano un mero discorso monetario.
Qualcuno si sente giustamente "fregato".
APPELLO: Se qualcuno dovesse gia' avere una 7800, potrebbe fara un IQ del frame 270 GT1 del 3dmark 2005??
Mi servirebbe alla qualita' migliore con anisotropico 16x, sia con gli sh2.0/s.0b che con i 3.0. Vorrei vedere se tante volte avessero recuperato il gap nei confronti di ATI, ma non credo.
Grazie.
Crashman
05-07-2005, 21:01
Nooooooooooooooo
Anche su questo forum c'è MadRat, e anche qui spara cazzate su cazzate
:help: :help:
Nooooooooooooooo
Anche su questo forum c'è MadRat
:rotfl:
Nooooooooooooooo
Anche su questo forum c'è MadRat, e anche qui spara cazzate su cazzate
:help: :help:
Anche qui ci sono incompetenti come te ed hel, vedo che ti brucia ancora la figura che hai fatto dall'altra parte, ma non mi pare il luogo adatto per i risentimenti personali, tienili per te.
Basta off-topic !!! ;)
Il mio post non era OT!! Forse non ti riferisci a quello.. ma a quanto pare qui postano solo per fare baldoria. :o
No, mi riferivo a quelli precedenti...
Crashman
05-07-2005, 22:50
Anche qui ci sono incompetenti come te ed hel, vedo che ti brucia ancora la figura che hai fatto dall'altra parte, ma non mi pare il luogo adatto per i risentimenti personali, tienili per te.
Se vuoi metto il link a quella discussione, così facciamo fare qualche risata anche agli utenti di questo forum con ciò che hai scritto ;)
E cmq devo dirti grazie, visto che grazie a te ho imparato una grande lezione: è inutile arrabbiarsi. Non mi ero mai trovato di fronte a qualcuno che negasse così spudoratamente l'evidenza, rifiutando anche link ad articoli autorevoli (come quelli di Baumann). Ogni volta che negava mi incazzavo come una iena e mi veniva da chiedermi come dove quando e perchè qualcuno fosse così ostinato nei suoi errori. Ma poi ho capito che ero io a sbagliare, perchè non capivo che non c'è peggior sordo di chi non vuol sentire. E ora non mi arrabbio più :)
Ancora grazie
Se vuoi metto il link a quella discussione, così facciamo fare qualche risata anche agli utenti di questo forum con ciò che hai scritto ;)
E cmq devo dirti grazie, visto che grazie a te ho imparato una grande lezione: è inutile arrabbiarsi. Non mi ero mai trovato di fronte a qualcuno che negasse così spudoratamente l'evidenza, rifiutando anche link ad articoli autorevoli (come quelli di Baumann). Ogni volta che negava mi incazzavo come una iena e mi veniva da chiedermi come dove quando e perchè qualcuno fosse così ostinato nei suoi errori. Ma poi ho capito che ero io a sbagliare, perchè non capivo che non c'è peggior sordo di chi non vuol sentire. E ora non mi arrabbio più :)
Ancora grazie
Mettilo pure.. e gia' che ci sei, rileggilo con attenzione.. Ora basta OT per favore.
Non interessa a nessuno quali sono i vostri rapporti al di fuori di questo forum... Se volete parlarne scambiatevi dei PVT... Ultimo avvertimento... :O
Non interessa a nessuno quali sono i vostri rapporti al di fuori di questo forum... Se volete parlarne scambiatevi dei PVT... Ultimo avvertimento... :O
a me interessa :D
a me interessa :D
Fatti girare i privati, ma per favore non insozzate il thread. E' un articolo e come tale dura un pò più degli altri, vedersi 12 pagine di OT e insulti non è mai bello :)
Fatti girare i privati, ma per favore non insozzate il thread. E' un articolo e come tale dura un pò più degli altri, vedersi 12 pagine di OT e insulti non è mai bello :)
Alleluja!!..
Comuqnue, torno a riproporre la mia domanda, sempre che qualcun altri non abbia altri OT interessantissimi da proporci..
QUALCUNO HA GIA' UNA 7800GTX?? :eek:
Dei su, la domanda e' semplice. :D
Vi do pure la scelta.
Sì
NO
:D
Ma qui o si rompe le scatole alla gente o si sta zitti??
Qualcuno mi sa dare una risposta riguardo i colori assenti nelle nuove schede (e vecchie ati) come si vede nelle foto del 3dm03 che ho postato precedentemente?? La 7800 e' ancora cosi'?? (temo di sì).
La terza alternativa è FORSE :D
Alleluja!!..
Comuqnue, torno a riproporre la mia domanda, sempre che qualcun altri non abbia altri OT interessantissimi da proporci..
QUALCUNO HA GIA' UNA 7800GTX?? :eek:
Dei su, la domanda e' semplice. :D
Vi do pure la scelta.
Sì
NO
:D
no ;)
agp nulla eh?
Forse, probabile.
no ;)
Quanto mi piace la gente reattiva. :D
in tutto il complesso e tecnicissimo discorso del consumo... non ho capoito quanti watt sono richiesti e che alimentatore devo montare
in tutto il complesso e tecnicissimo discorso del consumo... non ho capoito quanti watt sono richiesti e che alimentatore devo montare
Ti sembra il caso di portare "up" un thread infausto :D ?
Ps. Scherzi a parte, c'e' il thread ufficiale, chiedi la' e ti risponderanno con precisione.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.