View Full Version : ATI Radeon X1800: quando 16 pipeline sono meglio di 24
Einhander
13-10-2005, 21:24
Ragazzi ma nn vi arrendete mai!!
Quasi 500 post in meno di 48 ore,cavolo!!
X Bartolino:
Guarda ti svelo un segreto nn ho mai creduto ,nn credo e mai credero' quindi nn sono un clerichetto semplicemente,come ho scritto nel mio post,DOPO centinaia di post scritti da persone che sicuramente ci capiscono piu' di te e di me moltiplicati x10 tesi a farti notare come L'OBIETTIVITA' delle performance della scheda ati fossero superiori a quelle nVidia,continuavi a dire che e' meglio il G70 aggrappandoti forse agli unici due punti in favore di quest'ultima:Un migliore supporto nei confronti di linux e prestazioni superiori in ambito opengl.
Il fatto e' che in tutto il resto i vantaggi della scheda ati sono evidenti,quindi SAREI PIU' PROPENSO A DEFINIRE TE UN EVANGELISTA CHE CERCA E PORTA AVANTI UNA PROPRIA CONVINZIONE.
E siccome i fatti nn supportano quello che dici se nn per i motivi sopracitati mi e' venuto da pensare che la tua fosse una specie di fede,ma nn in qualcosa di divino,bensi nella sacra Nvidia,punto.
Cmq detto questo il tuo commento nn era niene male in fatto di ironia :)
ti faccio una domanda diretta madrat: :Prrr:
mettiamo caso che devi comprarti una vga e ti regalassi 600€ per comprartela :p, con l'unica condizione che il resto me lo devi ridare.
Quali delle due schede compreresti, la 7800gtx o la x1800xt?
Probabilmente una X1800XT, ma hai intenzione di regalare a me o a qualcuno 600€?? perche' se cosi' non fosse, i poveri acquirenti si troveranno a dover scegliere tra una 7800GT a 380€ ed una X1800XL a .. boh, presumo un po' di piu'.. in questo caso direi che vi sia una condizione di parita', miglior qualita' ATI, maggiori prestazioni Nvidia. Secondo me sono le due scelte piu' intelligenti da comprare in italia ora (se si trovasse anche la ATI).
Restano un ottimo acquisto anche le 6800GT/ultra, visti i prezzi ai quali attualmente si riescono a reperire, con le quali si deve rinunciare solo all'AA in alcune implementazioni dell'HDR.
Dai yossetto bello, dicci qualcosina!! Vi sono sostaziali modifiche in vista?? (a parte un'eventuale G70-Ultra). Dai su, su.. sii magnanimo. :D
^TiGeRShArK^
13-10-2005, 21:39
Sei uno dei pochi a ritenerlo tale, ma rispetto al tua posizione.
No, utilizzando la tecnologia SOI, non avranno problemi di questo tipo.
Grazie per la spiegazione, ma credo di sapere bene (e fino alla nausea) come si ragioni in bit. :)
Direi solo che non e' vero che nella maggior parte dei casi 16 bit bastino, anzi!! con 24 ci si puo' accontentare, 32 mi sembrano gia' un traguardo ragionevole (ovviamente da superare presto, come avverra' presumibilmente con la PS3).
ok...allora se dici ke non è vero ke i 16 bit bastano...
xkè G70 in MOLTI casi utilizza SOLO la precisione a 16 bit??? :Prrr:
yossarian
13-10-2005, 21:44
Dai yossetto bello, dicci qualcosina!! Vi sono sostaziali modifiche in vista?? (a parte un'eventuale G70-Ultra). Dai su, su.. sii magnanimo. :D
0,09 non SOI 16-1,5-3-1,5 (mancano le frequenze) :D
XL=XT-0,23 :read:
ok...allora se dici ke non è vero ke i 16 bit bastano...
xkè G70 in MOLTI casi utilizza SOLO la precisione a 16 bit??? :Prrr:
Molte mi sembra eccessivo, ma sicuramente hai ragione. Comuqnue nell'impatto cromatico (vedi farcry che da risultati migliori, anche se in questo caso, hai ragione a dire che 16 sono palesemente peggiori di 24 quanto non lo siano 24 di 32, ma non e' il caso di queste architetture, dovremmo tornare al passato con l'NV30). :)
0,09 non SOI 16-1,5-3-1,5 (mancano le frequenze) :D
XL=XT-0,23 :read:
Non SOI??
leoneazzurro
13-10-2005, 22:01
0,09 non SOI 16-1,5-3-1,5 (mancano le frequenze) :D
XL=XT-0,23 :read:
Per Nvidia? Più ROPs che pipeline (anche se con 3 unità PS per pipe)? :mbe:
Ipotesi, scherzo o qualcosa di più concreto? ;)
bartolino3200
13-10-2005, 22:06
Ragazzi ma nn vi arrendete mai!!
Quasi 500 post in meno di 48 ore,cavolo!!
X Bartolino:
Guarda ti svelo un segreto nn ho mai creduto ,nn credo e mai credero' quindi nn sono un clerichetto semplicemente...
Ok, non mi addentro in questioni di fede, per quanto temo sia triste una vita senza.
...continuavi a dire che e' meglio il G70 aggrappandoti forse agli unici due punti in favore di quest'ultima:Un migliore supporto nei confronti di linux e prestazioni superiori in ambito opengl....
...Cmq detto questo il tuo commento nn era niene male in fatto di ironia :)
Continuo tutt' ora a parlare, non ad aggrapparmi, sulle bontà discutibile di Ati sotto Linux e OpenGL, perchè sono i fattori a cui più tengo in una scheda video. Ecco perchè è solo il mio punto di vista, ed ecco perchè rimango così netto nel considerare Ati. Mi pare ovvio, se le mie priorita sono OpenGL e Linux, Ati non è la mia scelta migliore, almeno per il momento.
Considerando che nVidia va cmq benissimo anche in D3D la valuto un prodotto più completo, e dunque anche solo 1 pipeline di nVidia a mio avviso sarebbe meglio di 16 pipeline di Ati.
Se domani Ati inizia ad andare melio di nVidia sotto tali ambiti, benvenga ATI.
Riguardo alla tua domanda
e' piu' efficiente chi fa piu' lavoro utile a parita' di cicli di clock, quindi se nel tuo caso l'output richiesto e' "a" allora B e' piu' efficiente (se ho capito bene dopo la latenza iniziale produce 8a per ciclo) (ovviamente la misura va fatta a regime non all'inizio dell'esecuzione).
Comunque stai facendo finta di non capire, perche' di discorsi riguardo all'efficienza fra Athlon e P4 ne sono stati fatti parecchi.
A proposito, visto che sei cosi' ferrato in materia, ho una curiosita' riguardo agli elevati valori del 3D mark di ATI: nel test pixel shader NV40 e G70 vanno molto meglio delle controparti pero' il risultato del test e' piu' basso (e non di poco). Non e' che il 3D mark usa piu' i vertex shader (in cui ATI spadroneggia) che i pixel shader?
Ok, non mi addentro in questioni di fede, per quanto temo sia triste una vita senza.
Com'e' tutto soggettivo.. io ritengo molto piu' triste dover credere in un dio per essere felici :) (specialmente se si chiama Nvidia o ATi che sia :p).
Continuo tutt' ora a parlare, non ad aggrapparmi, sulle bontà discutibile di Ati sotto Linux e OpenGL, perchè sono i fattori a cui più tengo in una scheda video. Ecco perchè è solo il mio punto di vista, ed ecco perchè rimango così netto nel considerare Ati. Mi pare ovvio, se le mie priorita sono OpenGL e Linux, Ati non è la mia scelta migliore, almeno per il momento.
Considerando che nVidia va cmq benissimo anche in D3D la valuto un prodotto più completo, e dunque anche solo 1 pipeline di nVidia a mio avviso sarebbe meglio di 16 pipeline di Ati.
Se domani Ati inizia ad andare melio di nVidia sotto tali ambiti, benvenga ATI.
Credo lo abbiano capito anche i sassi.
bartolino3200
13-10-2005, 22:13
Riguardo alla tua domanda
A proposito, visto che sei cosi' ferrato in materia, ho una curiosita' riguardo agli elevati valori del 3D mark di ATI: nel test pixel shader NV40 e G70 vanno molto meglio delle controparti pero' il risultato del test e' piu' basso (e non di poco). Non e' che il 3D mark usa piu' i vertex shader (in cui ATI spadroneggia) che i pixel shader?
Precisamente ;)
Ecco perchè 3d mark non serve a dire quale delle due schede sia più veloce, ma di solito andrebbe utilizzato su un sistema, solo per constatare gli effettivi guadagni in OC, ma sempre con il medesimo HW.
Ho sempre reputato il 3dmark per questo un po' ati friendly...
Per Nvidia? Più ROPs che pipeline (anche se con 3 unità PS per pipe)? :mbe:
Ipotesi o qualcosa di più concreto? ;)
Che casino che ha fatto yoss con 'sta dichiarazione!! Vogliamo il seguito vero?? :D
UltimaWeapon
13-10-2005, 22:16
0,09 non SOI 16-1,5-3-1,5 (mancano le frequenze)
XL=XT-0,23
A cosa sono riferiti i numeri nell'ordine in cui li hai messi?
E cos'è il 0,23 della seconda parte? :D
A cosa sono riferiti i numeri nell'ordine in cui li hai messi?
E cos'è il 0,23 della seconda parte? :D
Ci sono premi in palio?? :D
Probabilmente una X1800XT, ma hai intenzione di regalare a me o a qualcuno 600€?? perche' se cosi' non fosse, i poveri acquirenti si troveranno a dover scegliere tra una 7800GT a 380€ ed una X1800XL a .. boh, presumo un po' di piu'.. in questo caso direi che vi sia una condizione di parita', miglior qualita' ATI, maggiori prestazioni Nvidia. Secondo me sono le due scelte piu' intelligenti da comprare in italia ora (se si trovasse anche la ATI).
Restano un ottimo acquisto anche le 6800GT/ultra, visti i prezzi ai quali attualmente si riescono a reperire, con le quali si deve rinunciare solo all'AA in alcune implementazioni dell'HDR.
ohhhhhhhhhh.... grande, questo è parlare obiettivamente. E' quello che si dovrebbe fare per parlare in questo forum. Se poi comunque per passione si sceglie nvidia come soluzione, non c'è problema. L'importante è essere obiettivi. ;)
bye
leoneazzurro
13-10-2005, 22:22
A cosa sono riferiti i numeri nell'ordine in cui li hai messi?
E cos'è il 0,23 della seconda parte? :D
Pixel pipeline, Z compare units per pipeline, PS units per pipeline e ROPs per pipeline, nell'ordine.
Mi sembra più R580 che G7x.
La seconda aprte credo siano i rapporti di frequenza tra versione XT e XL, percui credo che Yoss siriferisse a R580.
bartolino3200
13-10-2005, 22:27
Com'e' tutto soggettivo.. io ritengo molto piu' triste dover credere in un dio per essere felici :) (specialmente se si chiama Nvidia o ATi che sia :p).
Ok cadiamo sul teologico, o ci buttiamo sulla filosofia?
Il semplice fatto che stia pensando alla possibilità dell' esistenza di DIO, già ti pone in una situazione dilemmatica. E quindi ti mette difronte all' alternativa di credere o non credere. Questo immagino possa creare un certo sconcerto in un essere pensante quale l' uomo. Soprattutto se, pur essendo dotato di intelletto, debba limitare a considerarsi solo un ammasso di cellule al pari di un ratto.
E che la propria esistenza si limiti nel migliore dei casi a una corsa affannosa senza traguardo, penso sia anche più sconcertante.
ps: Einhander, adesso sono io il prete del forum ;)
Pixel pipeline, Z compare units per pipeline, PS units per pipeline e ROPs per pipeline, nell'ordine.
Mi sembra più R580 che G7x.
La seconda aprte credo siano i rapporti di frequenza tra versione XT e XL, percui credo che Yoss siriferisse a R580.
Solo che io parlavo di Nvidia, quando gliel'ho chiesto, per questo mi sembrava strano il "non SOI" e mi sembrava scontato parlando di ATI.
yossarian
13-10-2005, 22:29
Riguardo alla tua domanda
e' piu' efficiente chi fa piu' lavoro utile a parita' di cicli di clock, quindi se nel tuo caso l'output richiesto e' "a" allora B e' piu' efficiente (se ho capito bene dopo la latenza iniziale produce 8a per ciclo) (ovviamente la misura va fatta a regime non all'inizio dell'esecuzione).
Comunque stai facendo finta di non capire, perche' di discorsi riguardo all'efficienza fra Athlon e P4 ne sono stati fatti parecchi.
B continua a produrre 4,5a per ciclo, mentre A produce output diversi a seconda del ciclo, con picchi massimi e valori teorici, per ciclo, superiori a quelli di B, ma che non si traducono in un vantaggio pratico.
Nel caso dell'esempio fatto, in qualunque momento io vada a considerare il lavoro eseguito, posso notare che A è in vantaggio sia come numero di operazioni per ciclo che come output di a per ciclo. Però è meno efficiente complessivamente, per un motivo molto semplice. Il lavoro di A è organizzato in maniera tale che non tutte le unità di calcolo siano occupate per ogni ciclo, quelle di B lavorano al 100% delle loro possibilità. Quindi, B è semplicemente più efficiente di A, perchè il lavoro interno è meglio organizzato e distribuito. Non ha importanza se, per ogni ciclo, l'output e il numero di operazioni di A siano superiori. Non è un ciclo a fare testo, perchè non tutti i cicli sono uguali e non tutte le operazioni compiute in un ciclo hanno la stessa valenza (lo sono solo in un'architettura con il 100% di efficienza).
Il paragone Athlon-Pentium non ha senso alcuno; tu non stai facendo un paragone tra due chip con uguale architettura. Stai paragonando un processore RISC nell'architettura e nel codice (tipo il Cell, tanto per intenderci, anche se con logica ooo) ad un processore con logica RISC (a livello di frazionamento di istruzioni), ma di tipo superpipelined che macina codice CISC (tipo Athlon o Pentium). Si tratta di due cose completamente diverse, con la prima molto più efficiente della seconda.
A proposito, visto che sei cosi' ferrato in materia, ho una curiosita' riguardo agli elevati valori del 3D mark di ATI: nel test pixel shader NV40 e G70 vanno molto meglio delle controparti pero' il risultato del test e' piu' basso (e non di poco). Non e' che il 3D mark usa piu' i vertex shader (in cui ATI spadroneggia) che i pixel shader?
il 3DMark fa la media dei valori dei test sintetici (sul fillrate e sugli shader), e degli fps medi delle demo. G70 è in vantaggio solo nel test dei ps (che nel 2005 sono relativi allo sm2.0, non al 3.0) semplicemente perchè ha un numero 3 volte superiore di unità di shading. ATi, invece, è in vantaggio con i VS in virtù delle frequenze maggiori (l'architettura dei vs dei due chip sono abbastanza simili e derivano da quelli dell'R3x0, ma le similitudini si fermano li).
yossarian
13-10-2005, 22:30
Non SOI??
no
yossarian
13-10-2005, 22:31
Per Nvidia? Più ROPs che pipeline (anche se con 3 unità PS per pipe)? :mbe:
Ipotesi, scherzo o qualcosa di più concreto? ;)
ricontrolla bene, vedrai che non è così. Il primo è il numero di ROP's
:D
Ok cadiamo sul teologico, o ci buttiamo sulla filosofia?
Il semplice fatto che stia pensando alla possibilità dell' esistenza di DIO, già ti pone in una situazione dilemmatica. E quindi ti mette difronte all' alternativa di credere o non credere. Questo immagino possa creare un certo sconcerto in un essere pensante quale l' uomo. Soprattutto se, pur essendo dotato di intelletto, debba limitare a considerarsi solo un ammasso di cellule al pari di un ratto.
E che la propria esistenza si limiti nel migliore dei casi a una corsa affannosa senza traguardo, penso sia anche più sconcertante.
ps: Einhander, adesso sono io il prete del forum ;)
Taglia frate', io non credo assolutamente in alcun'entita' superiore e ti risparmio dai miei pareri in merito. :) Il resto sono futili (ed OT) chiacchiere.
Mi ritengo esattamente un ammasso fortuito (o meno che si voglia considerare) di molecole, hai detto bene.. finalmente ne hai azzeccata una!! :p
Byez.
Taglia frate', io non credo assolutamente in alcun'entita' superiore e ti risparmio dai miei pareri in merito. :) Il resto sono futili (ed OT) chiacchiere.
Mi ritengo esattamente un ammasso fortuito (o meno che si voglia considerare) di molecole, hai detto bene.. finalmente ne hai azzeccata una!! :p
Byez.
:asd:
leoneazzurro
13-10-2005, 22:34
ricontrolla bene, vedrai che non è così. Il primo è il numero di ROP's
:D
Ah, hai usato unanotazione diversa da quella che circolava per ATI per R520(che partiva dalle pixel pipeline), quindi sarebbero 16 ROPs, 24 PP, 3 PS per pipe e 24 Z compare units?
yossarian
13-10-2005, 22:34
Pixel pipeline, Z compare units per pipeline, PS units per pipeline e ROPs per pipeline, nell'ordine.
Mi sembra più R580 che G7x.
La seconda aprte credo siano i rapporti di frequenza tra versione XT e XL, percui credo che Yoss siriferisse a R580.
no, sono i rapporti tra le tensioni di alimentazione:
XT a 1,3 v (come G70) e 2,11 di ram
XL a 1,08 v, con ram a 1,88 (immagina come sale bene in o/c aumentando il v-core) :D
yossarian
13-10-2005, 22:36
Ah, hai usato unanotazione diversa da quella che circolava per ATI per R520(che partiva dalle pixel pipeline), quindi sarebbero 16 ROPs, 24 PP, 3 PS per pipe e 24 Z compare units?
l'ultimo valore potrebbe essere 48 (anzi è molto probabile :D )
yossarian
13-10-2005, 22:38
Ok cadiamo sul teologico, o ci buttiamo sulla filosofia?
Il semplice fatto che stia pensando alla possibilità dell' esistenza di DIO, già ti pone in una situazione dilemmatica. E quindi ti mette difronte all' alternativa di credere o non credere. Questo immagino possa creare un certo sconcerto in un essere pensante quale l' uomo. Soprattutto se, pur essendo dotato di intelletto, debba limitare a considerarsi solo un ammasso di cellule al pari di un ratto.
E che la propria esistenza si limiti nel migliore dei casi a una corsa affannosa senza traguardo, penso sia anche più sconcertante.
ps: Einhander, adesso sono io il prete del forum ;)
fra' bertoldino ahem, bartolino da Frosolone. :D
Tutto immaginavo fuorchè che il tuo scopo fosse quello di trascinare la discussione su un dialogo sui massimi sistemi. :sofico:
leoneazzurro
13-10-2005, 22:39
no, sono i rapporti tra le tensioni di alimentazione:
XT a 1,3 v (come G70) e 2,11 di ram
XL a 1,08 v, con ram a 1,88 (immagina come sale bene in o/c aumentando il v-core) :D
Ah, ecco. Perchè il rapporto di frequenza è 1.25, infatti ho come l'impressione che le XL siano downvoltate apposta...
leoneazzurro
13-10-2005, 22:40
l'ultimo valore potrebbe essere 48 (anzi è molto probabile :D )
Uhm..e a che dovrebbero servire 48 Z compare units? Ultrashadow III? HSR^2? :D
no, sono i rapporti tra le tensioni di alimentazione:
XT a 1,3 v (come G70) e 2,11 di ram
XL a 1,08 v, con ram a 1,88 (immagina come sale bene in o/c aumentando il v-core) :D
E che c'entra con la domanda che ti avevo fatto?? :o :)
yossarian
13-10-2005, 22:43
E che c'entra con la domanda che ti avevo fatto?? :o :)
era per par conditio :D
era per par conditio :D
Ma io voglio sapere qualcusina riguardo Nvidia ora.. daiii non farci soffrire troppo. :D Ti faccio un altarino d'oro?? (cosi' restiamo in tema :D).
yossarian
13-10-2005, 22:49
Uhm..e a che dovrebbero servire 48 Z compare units? Ultrashadow III? HSR^2? :D
melius abundare quam deficere :D
Battute a parte, nVIDIA passerà a 0,09 con un chip molto simile a G70; uguale nell'architettura, a livello di numeri, ma con qualche "aggiustamento" qua e là (niente HDR+AA, non almeno all'inizio; il che significa niente modifiche alle rop's, ma un miglioramento della funzione di branching)
Il cambio di architettura si avrà con il chip WGF2.0 (anche se non è esclusa qualche anticipazione a livello di feature minori; niente di rivoluzionario, ovviamente).
Quello che posso dire è che il chip WGF2.0 difficilmente sarà, al contrario di quanto ha detto Kirk, un chip con sola implementazione via SW dell'unificazione degli shader.
Quello che posso dire è che il chip WGF2.0 difficilmente sarà, al contrario di quanto ha detto Kirk, un chip con sola implementazione via SW dell'unificazione degli shader.
Tuto sto giro di parole per dire che avrà un'architettura a shader unificati? :D
leoneazzurro
13-10-2005, 22:57
melius abbundare quam deficere :D
Battute a parte, nVIDIA passerà a 0,09 con un chip molto simile a G70; uguale nell'architettura, a livello di numeri, ma con qualche "aggiustamento" qua e là (niente HDR+AA, non almeno all'inizio; il che significa niente modifiche alle rop's, ma un miglioramento della funzione di branching)
Il cambio di architettura si avrà con il chip WGF2.0 (anche se non è esclusa qualche anticipazione a livello di feature minori; niente di rivoluzionario, ovviamente).
Quello che posso dire è che il chip WGF2.0 difficilmente sarà, al contrario di quanto ha detto Kirk, un chip con sola implementazione via SW dell'unificazione degli shader.
Beh, con 24 PP e 3 PS per pipeline, avrà più potenza bruta sugli shader a parità di frequenza rispetto a R580, tutto il resto dipenderà dalle frequenze che riuscirà a raggiungere, a 500 MHz IMHO potrebbe essere un pò poco, se raggiungesse i 600 non sarebbe male, soprattutto se migliorano il DB e magari l'AF. A questo punto, è prequesto che Nvidia non ha fatto uscire la generazione 7 di schede mainstream e low-end? Forse queste schede usciranno direttamente con l'architettura "affinata"?
Ho riletto l'esercizio che hai proposto allora:
se vogliamo essere precisi, poiche' A ha una pipeline di 10 stadi, allora al primo ciclo non esse nulla, al secondo nemmeno, fino al decimo quando finalmente la prima istruzione e' stata completamente eseguita. Quindi dopo 10 cicli vengono completate 4 operazioni.
Analogamente B, anvendo una pipelinedi 3 stadi necessita di 3 cicli prima di far uscire il primo risultato.
Poi che vuol dire che 5 stadi di A completano una "a"?
Una singola istruzione per essere eseguita deve attraversare tutta la pipeline, quindi o la pipeline ha 5 stadi oppure li deve fare tutti e 10.
Analogo stranezza per B: che vuol dire che per completare una "a" servono 2 stadi?
??????????
melius abundare quam deficere :D
Battute a parte, nVIDIA passerà a 0,09 con un chip molto simile a G70; uguale nell'architettura, a livello di numeri, ma con qualche "aggiustamento" qua e là (niente HDR+AA, non almeno all'inizio; il che significa niente modifiche alle rop's, ma un miglioramento della funzione di branching)
Il cambio di architettura si avrà con il chip WGF2.0 (anche se non è esclusa qualche anticipazione a livello di feature minori; niente di rivoluzionario, ovviamente).
Quello che posso dire è che il chip WGF2.0 difficilmente sarà, al contrario di quanto ha detto Kirk, un chip con sola implementazione via SW dell'unificazione degli shader.
La sensazione che ho e' che vi sia stata un'inversione di tendenza notevole nell'ultimo periodo. Insomma, prima si tendeva a migliorare le proprie architetture, o almeno a rimanere sui concetti e criteri gia' esistenti ora ci si inventa continuamente soluzioni nuove, mi sembra che il passaggio da architetture separate a unificate, stia creando non poco caos, (che comunque porta benefici).
yossarian
13-10-2005, 23:04
a pensarci bene, secondo me l'R520 è il tuo chip ideale. Pensa alla possibilità di programmarlo via driver, ottimizzandolo per Linux e OpenGL
:sofico:
bartolino3200
13-10-2005, 23:07
Taglia frate', io non credo assolutamente in alcun'entita' superiore e ti risparmio dai miei pareri in merito. :) Il resto sono futili (ed OT) chiacchiere.
Mi ritengo esattamente un ammasso fortuito (o meno che si voglia considerare) di molecole, hai detto bene.. finalmente ne hai azzeccata una!! :p
Byez.
http://img97.imageshack.us/img97/4720/logowelcome0fc.gif (http://imageshack.us)
"Ok fratè cioè sa' e che me so fumato na canna e cioè sai, e pure una pistaccia de coca e quando fumo io lo vedo eccome DIO, e cioè evviva semo tutti uguali e tutti fratè..."
http://img97.imageshack.us/img97/3156/lineocoke3ur.jpg (http://imageshack.us)
http://img97.imageshack.us/img97/1429/pp0158a1ly.jpg (http://imageshack.us)
ITAaaaaaaaLIA UUUUNOOOOOOOO!!!
Spot, contro l' utilizzo di sostanze stupefacenti appena terminato.
"Ok fratè cioè sa' e che me so fumato na canna e cioè sai, e pure una pistaccia de coca e quando fumo io lo vedo eccome DIO, e cioè evviva semo tutti uguali e tutti fratè..."
ITAaaaaaaaLIA UUUUNOOOOOOOO!!!
Spot, contro l' utilizzo di sostanze stupefacenti appena terminato.
Ma fratello era in senso spirituale. Sei proprio di coccoarmato!! :D
Riguardo alla tua risposta sul 3D mark...
ti chiedevo se i test che danno origine al punteggio dipendono piu' dalle prestazioni dei vertex shader che dai pixel shader
che nvidia fosse piu' potente sui pixel shader e ati sui vertex shader lo sapevo gia' dai test specifici ....
bartolino3200
13-10-2005, 23:13
Ma fratello era in senso spirituale. Sei proprio di coccoarmato!! :D
Oh madrat, sto scherzando dai, uno spot di mezzo ci vuole ogni tanto ;)
Ma la hai vista almeno la scatola dei giochi per bambini :asd:
Altro che pipeline!!!
Ognitanto fa bene smorzare...;)
Oh madrat, sto scherzando dai, uno spot di mezzo ci vuole ogni tanto ;)
Ma la hai vista almeno la scatola dei giochi per bambini :asd:
Altro che pipeline!!!
Ognitanto fa bene smorzare...;)
Tranquillo, non mi dispiace la tua ironia. :)
fra' bertoldino ahem, bartolino da Frosolone. :D
Tutto immaginavo fuorchè che il tuo scopo fosse quello di trascinare la discussione su un dialogo sui massimi sistemi. :sofico:
In realta' fa parte di una setta satanica e tenta di portarci tutti sulla sua strada.
bartolino3200
13-10-2005, 23:24
In realta' fa parte di una setta satanica e tenta di portarci tutti sulla sua strada.
Bhe no, che no so Turines...
melius abundare quam deficere :D
Battute a parte, nVIDIA passerà a 0,09 con un chip molto simile a G70; uguale nell'architettura, a livello di numeri, ma con qualche "aggiustamento" qua e là (niente HDR+AA, non almeno all'inizio; il che significa niente modifiche alle rop's, ma un miglioramento della funzione di branching)
Il cambio di architettura si avrà con il chip WGF2.0 (anche se non è esclusa qualche anticipazione a livello di feature minori; niente di rivoluzionario, ovviamente).
Quello che posso dire è che il chip WGF2.0 difficilmente sarà, al contrario di quanto ha detto Kirk, un chip con sola implementazione via SW dell'unificazione degli shader.
Ma nVidia non rischia di sfornare un prodotto obsoleto così facendo?
Mettiamo caso abbia anche lei dei ritardi, visto che abbiamo imparato che sono molto più che possibili, non rischierebbe di far slittare troppo in là una scheda WGF2.0? Vista non è poi così lontano, almeno credo, dato che si è già in beta 2...
UltimaWeapon
13-10-2005, 23:25
aspè aspè aspè :D
sto cercando di capire qualcosa a proposito delle architetture ma con tutto sto casino non si va da nessuna parte :D
con quei numeri (16-1,5-3-1,5) il chip ha 16ROP, 24 pipe (ha ancora senso parlarne?), 3 pixel shader per pipe e 24 compare units che non so cosa siano.
il mio dubbio è a proposito delle tre unità PS che sarebbero 72 in totale: sono unità di calcolo interne ad ognuna delle shader pipelines che a gruppi compongono i blocchi dei chip Rx5xx? e cosa fanno? :D
così a occhio sembra soffrire della stessa limitazione di fillrate di G70, con 24 pipe ma 16 ROP.
yossarian
13-10-2005, 23:27
Ho riletto l'esercizio che hai proposto allora:
se vogliamo essere precisi, poiche' A ha una pipeline di 10 stadi, allora al primo ciclo non esse nulla, al secondo nemmeno, fino al decimo quando finalmente la prima istruzione e' stata completamente eseguita. Quindi dopo 10 cicli vengono completate 4 operazioni.
Analogamente B, anvendo una pipelinedi 3 stadi necessita di 3 cicli prima di far uscire il primo risultato.
se consideri l'andamento a regime, saltando la fase di riempimento delle pipeline (non ce l'ho messa, anche perchè sarebbe stata sicuramente più svantaggiosa per il chip a pipleine più lunghe che, nel caso concreto, è il G70), le considerazioni da fare sono solo relative a ciò che ogni chip produce per ciclo e quello che è il risultato finale.
Comunque, come vedi, stai arrivando a capire (spero) quali sono i limiti di un'architettura come quella di G70, rispetto ad una come quella di R520. Un primo passo lo hai fatto (con le consoiderazioni sul riempimento e lo svuotamento delle pipeline; la considerazione si potrebbe estendere ad un'operazione di salto sbagliata, oppure alla propagazione di una o più bolle "bolla"). Vediamo se riusciamo a farne altri, considerando anche l'efficenza nei calcoli di una singola pipeline.
Poi che vuol dire che 5 stadi di A completano una "a"?
Una singola istruzione per essere eseguita deve attraversare tutta la pipeline, quindi o la pipeline ha 5 stadi oppure li deve fare tutti e 10.
Analogo stranezza per B: che vuol dire che per completare una "a" servono 2 stadi?
??????????
quanto conosci un'architettura a pipeline come quella di G70? Quante unità di shading ha? Che tipo di operazioni può svolgere ognuna? Come sono collegate tra loro? Possono svolgere operazioni su elementi (ad esempio pixel) diversi? Quanti pixel diversi possono circolare dentro una pipeline di G70? Mai sentito parlare di istruzioni di salto? Hai idea di quanti punti di ingresso e uscita può avere una pipeline? Sai cosa sono i cicli di loopback e a cosa servono?
Se vogliamo fare i pignoli, anche una pipeline a 3 stadi è un'anomalia.
Per avere una risposta devo farti uno schema di una pipeline, o magari di un processore intero, oppure ci si accontenta di uno schemino elementare (anche perchè tu parli dell'efficienza di G70 ma mi pare che non lo conosci poi tanto)? Andiamo sul pratico; un set di valori relativi ad uno z pixel, all'interno di una pipeline grafica, dove entra, dove passa e dove esce?
E R520, rispetto a G70, come funziona?
yossarian
13-10-2005, 23:29
Riguardo alla tua risposta sul 3D mark...
ti chiedevo se i test che danno origine al punteggio dipendono piu' dalle prestazioni dei vertex shader che dai pixel shader
che nvidia fosse piu' potente sui pixel shader e ati sui vertex shader lo sapevo gia' dai test specifici ....
ti ho risposto: dai test sintetici e da quelli sui motori grafici dei giochi. Ora, si dà il caso che, solitamente, un motore grafico è più pixel shader o texture bounded di quanto non possa risultare vertex shader bounded. Questo significa che, solitamente, nei giochi, le prestazioni sono determinate da quanto velocemente si elaborano i pixel shader o le texture; e i giochi del 3DMark non fanno eccezione.
dm69, e' un po' quello che volevo intendere prima dicendo che le architetture si stanno "complicando", non ha piu' senso parlare di bittaggio di una CPU o fare paragoni di efficienza in base ai Mhz. almeno non nell'ambito di queste VPU.
Sicuramente tra G70-NV40 ed R300-R400 ne aveva di piu' e credo che risieda qui il tuo errore di valutazione.
Diciamo che un simile confronto avrebbe un minimo di senso se valutassi ogni singola sottoarchitettura paragonandola con la controparte, ma solo se avessero un output qualitativamente e funzionalmente identico.
leoneazzurro
13-10-2005, 23:45
aspè aspè aspè :D
sto cercando di capire qualcosa a proposito delle architetture ma con tutto sto casino non si va da nessuna parte :D
con quei numeri (16-1,5-3-1,5) il chip ha 16ROP, 24 pipe (ha ancora senso parlarne?), 3 pixel shader per pipe e 24 compare units che non so cosa siano.
il mio dubbio è a proposito delle tre unità PS che sarebbero 72 in totale: sono unità di calcolo interne ad ognuna delle shader pipelines che a gruppi compongono i blocchi dei chip Rx5xx? e cosa fanno? :D
così a occhio sembra soffrire della stessa limitazione di fillrate di G70, con 24 pipe ma 16 ROP.
Anche R520 ha 16 ROPs, così come probabilmente R580. La differenza tra le 16 ROPs di G70 e le 16 ROPs di R520 in termini di fill rate stanno nelle frequenze, che per G70 sono di 430 MHz e per R520 sono di 625 MHz.
Un vantaggio di fill rate reale di R520 nei confronti di G70 di ben il 45%, a parità di ROPs.
beh tu hai parlato di pipeline e le pipeline funzionano come ho detto io.
Se poi le GPU hanno un comportamento completamente diverso allora non stiamo piu' parlando di pipeline (impianti di elaborazione dati l'ho fatto piu' di 10 anni fa', ma ho buona memoria) e nel tuo esempio avresti dovuto specificare meglio.
Riguardo alle architetture di G70 & R520 no ne so' nulla, ma non ho mai sostenuto di essere un esperto: ho solamente cominciato la discussione sul significato che normalmente si da' al termine di efficienza quando si parla di processori e tu hai cominciato a fare il notaio sulle mie definizioni e hai tirato fuori l'esempio (impreciso fra l'altro).
Riguardo alla domanda sul 3d mark, allora rimane piuttosto strano il fatto che (se i test sono pixel shader limited) ATI vince comodamente il test anche se le sue prestazioni sugli shader sono minori (G70 +25%).
UltimaWeapon
13-10-2005, 23:51
Anche R520 ha 16 ROPs, così come probabilmente R580. La differenza tra le 16 ROPs di G70 e le 16 ROPs di R520 in termini di fill rate stanno nelle frequenze, che per G70 sono di 430 MHz e per R520 sono di 625 MHz.
Un vantaggio di fill rate reale di R520 nei confronti di G70 di ben il 45%, a parità di ROPs.
Si però R520 ha 16 shader pipelines, con 16 ROP nel frame buffer scrive tutto quello che calcola. Con 24 pipe e 16 ROP vedrebbe i dati andare a vuoto come per G70, il cui fillrate puro è di 6Kpixel/s e qualcosa contro i 10Kpixel/s di R520 per via della frequenza pià alta.
io infatti ho cominciato questo thread solo dicendo che la parte della recensione relativa al confronto sull'efficienza non era corretta
tutte ste' seg.e sulle pipeline esempietti etc. sono dovute a yossarian ...
yossarian
13-10-2005, 23:58
Ma nVidia non rischia di sfornare un prodotto obsoleto così facendo?
Mettiamo caso abbia anche lei dei ritardi, visto che abbiamo imparato che sono molto più che possibili, non rischierebbe di far slittare troppo in là una scheda WGF2.0? Vista non è poi così lontano, almeno credo, dato che si è già in beta 2...
obsoleto non direi; è ATi che è un po' troppo avanti, nel senso che ha introdotto alcune delle novità di R500 e della generazione WGF2.0.
ATi ha dovuto portare avanti lo sviluppo contemporaneo di due chip a 0,09, di cui uno quasi sm4.0 e l'altro sm3.0. Un upgrade di R4x0 non si prestava allo scopo (non è idoneo a lavorare con lo sm3.0); quindi andavano progettate due nuove architetture. Perchè non farle con molti elementi in comune? Il progetto R400/R500 non è recentissimo e il passaggio da R520 a R500 non è così "traumatico", tanto che un R520 con qualche modifica, emulerebbe anche il funzionamento di un chip a shder unificati.
Al contrario, nVIDIA, un chip sm3.0 già l'aveva. Non ha fatto altro che potenziarlo più che poteva, in attesa della transizione verso le wgf2.0. In caso contrario, si sarebbe dovuta mettere a progettare un nuovo chip, dopo aver già revisionato NV40, e con la prospettiva di dover lavorare ad un ulteriore chip sm4.0 (questo senza tener conto del progetto RSX che, pur essendo basato sull'architettura di G70, porta con sé qualche piccola modifica). Nel frattempo sta portando avanti anche la transizione verso gli 0,09 u.
Proporre una nuova architettura tra 5 o 6 mesi, che avrebbe la durata di un anno e mezzo o forse meno, non di più, per poi essere di nuovo completamente stravolta nel passaggio allo sm4.0, non avrebbe alcun senso.
A meno che, nVIDIA non abbia in mente un'architettura sul modello di quella di R520, che con qualche aggiustamento può comportarsi come una sm4.ò. Questo, però, significherebbe innovare adesso per ritrovarsi di nuovo in svantaggio con il chip successivo (che ATi avrebbe a shader unificati)
Anche R520 ha 16 ROPs, così come probabilmente R580. La differenza tra le 16 ROPs di G70 e le 16 ROPs di R520 in termini di fill rate stanno nelle frequenze, che per G70 sono di 430 MHz e per R520 sono di 625 MHz.
Un vantaggio di fill rate reale di R520 nei confronti di G70 di ben il 45%, a parità di ROPs.
Non ci puo' essere una differenza prestazionale/qualitativa anche a parita' di frequenze?? Una Raster Operation pipeline del G70 potrebbe essere piu' performate (o meno) rispetto a quella di un R520 anche a frequenze inferiori??
Domandona (presumibilmente per yoss): La pixel pipe del G70 (come quella dell'NV40) possiede unita' shader FP32, lavorando assieme possono raggiungere la precisione di 128 bit in FP (32bpp, 64bpp e 128bpp). Ammesso che non abbia commesso errori, e' un concetto valido anche per ATI??
leoneazzurro
14-10-2005, 00:03
Si però R520 ha 16 shader pipelines, con 16 ROP nel frame buffer scrive tutto quello che calcola. Con 24 pipe e 16 ROP vedrebbe i dati andare a vuoto come per G70, il cui fillrate puro è di 6Kpixel/s e qualcosa contro i 10Kpixel/s di R520 per via della frequenza pià alta.
Anche G70 scrive tutto quello che calcola... non vedo il punto (non è che i dati vanno persi... perchè in genere ci vogliono più cicli di clock dei PS per avere un risultato da scrivere nelle ROPs, ecco perchè G70 ha 24PP e 16 ROPs).
Se G7X andasse a 700 MHz, sarebbe R520/580 ad avere uno svantaggio in termini di fill rate puro, oltre che in termini di potenza bruta di shading.
bartolino3200
14-10-2005, 00:08
obsoleto non direi; è ATi che è un po' troppo avanti, nel senso che ha introdotto alcune delle novità di R500 e della generazione WGF2.0.
ATi ha dovuto portare avanti lo sviluppo contemporaneo di due chip a 0,09, di cui uno quasi sm4.0 e l'altro sm3.0. Un upgrade di R4x0 non si prestava allo scopo (non è idoneo a lavorare con lo sm3.0); quindi andavano progettate due nuove architetture. Perchè non farle con molti elementi in comune? Il progetto R400/R500 non è recentissimo e il passaggio da R520 a R500 non è così "traumatico", tanto che un R520 con qualche modifica, emulerebbe anche il funzionamento di un chip a shder unificati.
Al contrario, nVIDIA, un chip sm3.0 già l'aveva. Non ha fatto altro che potenziarlo più che poteva, in attesa della transizione verso le wgf2.0. In caso contrario, si sarebbe dovuta mettere a progettare un nuovo chip, dopo aver già revisionato NV40, e con la prospettiva di dover lavorare ad un ulteriore chip sm4.0 (questo senza tener conto del progetto RSX che, pur essendo basato sull'architettura di G70, porta con sé qualche piccola modifica). Nel frattempo sta portando avanti anche la transizione verso gli 0,09 u.
Proporre una nuova architettura tra 5 o 6 mesi, che avrebbe la durata di un anno e mezzo o forse meno, non di più, per poi essere di nuovo completamente stravolta nel passaggio allo sm4.0, non avrebbe alcun senso.
A meno che, nVIDIA non abbia in mente un'architettura sul modello di quella di R520, che con qualche aggiustamento può comportarsi come una sm4.ò. Questo, però, significherebbe innovare adesso per ritrovarsi di nuovo in svantaggio con il chip successivo (che ATi avrebbe a shader unificati)
Certo che adesso si stanno giocando molto entrambe le case.
E' probabilmente uno dei passaggi più delicati degli ultimi anni, basilare per il nuovo OS, che diano il meglio è il minimo che si può augurare.
Certo che Vista no è ancora uscito e già comincia a pesare sulle prossime scelte HW. da parte dell' utente.
leoneazzurro
14-10-2005, 00:10
Non ci puo' essere una differenza prestazionale/qualitativa anche a parita' di frequenze?? Una Raster Operation pipeline del G70 potrebbe essere piu' performate (o meno) rispetto a quella di un R520 anche a frequenze inferiori??
Domandona (presumibilmente per yoss): La pixel pipe del G70 (come quella dell'NV40) possiede unita' shader FP32, lavorando assieme possono raggiungere la precisione di 128 bit in FP (32bpp, 64bpp e 128bpp). Ammesso che non abbia commesso errori, e' un concetto valido anche per ATI??
A) si, c'è un'efficienza anche per le operazioni sulle ROPs, ovviamente, e avendo le ROPs indipendenti dai PS ATI pare in vantaggio anche da quel punto di vista, almeno al momento. Ma in questi casi, con architetture molto differenti, non si può dire sempre come andrà afinire, applicazione per applicazione. Ad esempio considerare il solo fill rate è fuorviante, infatti R520 non ha il 45% di vantaggio medio anche a filtri attivati, perchè bisogna vedere se non si è limitati dai PS, o dalla banda passante, ecc.
B) R520 opera sempre a FP 32 per componente.
obsoleto non direi; è ATi che è un po' troppo avanti, nel senso che ha introdotto alcune delle novità di R500 e della generazione WGF2.0.
ATi ha dovuto portare avanti lo sviluppo contemporaneo di due chip a 0,09, di cui uno quasi sm4.0 e l'altro sm3.0. Un upgrade di R4x0 non si prestava allo scopo (non è idoneo a lavorare con lo sm3.0); quindi andavano progettate due nuove architetture. Perchè non farle con molti elementi in comune? Il progetto R400/R500 non è recentissimo e il passaggio da R520 a R500 non è così "traumatico", tanto che un R520 con qualche modifica, emulerebbe anche il funzionamento di un chip a shder unificati.
Sapessi quante cose mi sono sentito dire quando in un altro forum sostenevo la possibile somiglianza tra l'architettura del "futuro" (al tempo) R520 con l'R500, ribadendo inutilmente che, anche se a shader separati, sarebbe potuto essere estremamente simile ed avrebbe potuto condividere e/o ereditare molto da esso. Certa gente mi innervosice molto, ora dovrei tornare lì e restituire loro tutte le offese gratuite. Quando alcuni hanno la mente chiusa, non si puo' far nulla per farli andare oltre le concezioni standard (come quando trattavano il Cell come una normale CPU).
Al contrario, nVIDIA, un chip sm3.0 già l'aveva. Non ha fatto altro che potenziarlo più che poteva, in attesa della transizione verso le wgf2.0. In caso contrario, si sarebbe dovuta mettere a progettare un nuovo chip, dopo aver già revisionato NV40, e con la prospettiva di dover lavorare ad un ulteriore chip sm4.0 (questo senza tener conto del progetto RSX che, pur essendo basato sull'architettura di G70, porta con sé qualche piccola modifica). Nel frattempo sta portando avanti anche la transizione verso gli 0,09 u.
Domandina.. avendo l'RSX un bus flexio e potendosi permettere un ottimo scambi dati con il CELL, che a quanto pare risulta un provetto macinatore di vertici, non sarebbe stato piu' logico potenziare le unita' di pixel shading (e di molto) rispetto a quelle del G70??
Proporre una nuova architettura tra 5 o 6 mesi, che avrebbe la durata di un anno e mezzo o forse meno, non di più, per poi essere di nuovo completamente stravolta nel passaggio allo sm4.0, non avrebbe alcun senso.
A meno che, nVIDIA non abbia in mente un'architettura sul modello di quella di R520, che con qualche aggiustamento può comportarsi come una sm4.ò. Questo, però, significherebbe innovare adesso per ritrovarsi di nuovo in svantaggio con il chip successivo (che ATi avrebbe a shader unificati)
Credo che una generazione nuova tra questa e una a shader unificati serva per forza.. manca un po' troppo tempo ancora, a meno che non si riesca a "migliorare" il G70 in modo sensibile in un paio di punti deboli in particolare. (ma e' possibile senza stravolgerlo?? difficile).
B) R520 opera sempre a FP 32 per componente.
Dunque niente 128bit?? giusto??
Certo che adesso si stanno giocando molto entrambe le case.
E' probabilmente uno dei passaggi più delicati degli ultimi anni, basilare per il nuovo OS, che diano il meglio è il minimo che si può augurare.
Certo che Vista no è ancora uscito e già comincia a pesare sulle prossime scelte HW. da parte dell' utente.
Assolutamente sì, i pc che assemblo (tranne i piu' economici, che in genere sconsiglio), oramai da tempo sono "sufficienti" per supportare Vista (almeno spero, vista la confusione che c'e' ancora riguardo le specifiche minime). Non e' molto logico per uno che li vende.. ma misembra piu' corretto.
leoneazzurro
14-10-2005, 00:23
Dunque niente 128bit?? giusto??
Sbagliato: FP 32 per colore, + Alpha, cioè 32x4=128 bit esattamente come G70.
Solo che G70 può lavorare anche a FP16, R520 laovra a FP 32 anche quando è richiesta una precisione inferiore.
Sbagliato: FP 32 per colore, + Alpha, cioè 32x4=128 bit esattamente come G70.
Solo che G70 può lavorare anche a FP16, R520 laovra a FP 32 anche quando è richiesta una precisione inferiore.
avevo capito male la risposta. Comunque questo e' uno svantaggio considerevole.. come mai ATi ha sempre optato per una precisione unica??
leoneazzurro
14-10-2005, 00:29
avevo capito male la risposta. Comunque questo e' uno svantaggio considerevole.. come mai ATi ha sempre optato per una precisione unica??
Non so risponderti: probabilmente gli ingegneri ATI sono fatti così :D
yossarian
14-10-2005, 00:36
beh tu hai parlato di pipeline e le pipeline funzionano come ho detto io.
Se poi le GPU hanno un comportamento completamente diverso allora non stiamo piu' parlando di pipeline (impianti di elaborazione dati l'ho fatto piu' di 10 anni fa', ma ho buona memoria) e nel tuo esempio avresti dovuto specificare meglio.
Riguardo alle architetture di G70 & R520 no ne so' nulla, ma non ho mai sostenuto di essere un esperto: ho solamente cominciato la discussione sul significato che normalmente si da' al termine di efficienza quando si parla di processori e tu hai cominciato a fare il notaio sulle mie definizioni e hai tirato fuori l'esempio (impreciso fra l'altro).
Riguardo alla domanda sul 3d mark, allora rimane piuttosto strano il fatto che (se i test sono pixel shader limited) ATI vince comodamente il test anche se le sue prestazioni sugli shader sono minori (G70 +25%).
quelle di G70 sono pipeline. La tua idea di pipeline è molto "scolastica" (perdonami il termine, non è inteso in senso offensivo). All'interno delle pipeline sono previsti "salti" che bypassino interi stadi; così come sono previsti cicli di loopback che interessino solo alcuni stadi; sono previsti accessi ai registri interni e persino accessi alla ram da stadi diversi (secondo te come sono adoperate le cache interne alle cpu?). A meno che non si voglia far riferimento al modello elementare con uno schema a blocchi del tipo fetch-decode-read-write (come vedi servono più di tre stadi), con un singolo punto di ingresso ed un solo punto di uscita.
C'era poco da specificare; si parlava di chip grafici (uno dei quali, ti sto ripetendo da due giorni che non ha un fragment processor di tipo pipelined).
Se non sai nulla delle architetture di G70 e R520, come fai a giudicarne l'efficienza in base a una definizione inesatta e che mal si adatterebbe, in ogni caso, a paragonare due architetture completamente diverse?
Le prestazioni di R520 sono minori nel calcolo dei soli ps2.0. Questo, però non implica che siano minori nei giochi, che non si basano solo sui calcoli matematici. Con istruzioni che prevedono texture fetch e operazioni matematiche, il potenziale di calcolo di G70 si riduce a sole 24 unità sulle 48 complessive (24 si occupano di effettuare sia texture fetch che operazioni matematiche e possono eseguire solo le une o solo le altre: anche qui sono stato impreciso, perchè ci sono alcune operazioni semplici che possono essere eseguite anche insieme alle texture fetch, però essere precisi significa mettersi a elencare le operazioni ammesse e quelle non ammesse). Al contrario r520 ha unità matematiche e tmu indipendenti, quindi il potenziale di calcolo non si riduce. Inoltre ha un algoritmo di hsr più efficace (ancjhe quello di R4x0 è supeiore a quello di G70, in realtà), un maggior rapporto di compressione dei dati, una più efficiente gestione degli accessi in memoria e un maggior quantitativo di registri interni (il che significa più operazioni "on chip"). Le tmu esterne alle pixel pipleine e raggruppate a blocchi di 4 riducono i cicli di idle delle altre unità di calcolo, permettendo di organizzarne il lavoro (ogni blocco di 4 tmu è dedicato ad un quad e non, come in G70 ogni pipeline ha una sola tmu dedicata). Infine, ma queste sono cose ovvie, ha una maggiore potenza di calcolo poligonale e un fillrate più elevato. Se si passa allo sm3.0, ha anche una funzione di branching dinamico di circa il 100% più efficiente. Questo a grandi linee.
Ultima considerazione, il dispatch processor, che controlla tutte le funzionalità del chip, può essere programmato via driver in maniera tale da adattare il chip ad ogni singola applicazione ci giri sopra (questo significa ottimizzazione spinta per ogni tipo di SW o gioco). Per questo motivo i driver, in questo caso, hanno bisogno di un'ottimizzazione molto più accurata ma possono fornire incrementi prestazionali rilevanti.
Discorso frequenze: l'ho già detto una decina di volte, su questo e altri forum: un chip che si basa sul principio del frazionamento dei thread è strutturato per operare a frequenze molto più elevate di uno che opera su thread molto lunghi. Si tratta di due filosofie completamente diverse e non paragonabili l'una all'altra in maniera semplicistica.
Non so risponderti: probabilmente gli ingegneri ATI sono fatti così :D
Secondo me c'e' lo zampino di quel satanista di bartolino!! :D
yossarian
14-10-2005, 00:39
dm69, e' un po' quello che volevo intendere prima dicendo che le architetture si stanno "complicando", non ha piu' senso parlare di bittaggio di una CPU o fare paragoni di efficienza in base ai Mhz. almeno non nell'ambito di queste VPU.
Sicuramente tra G70-NV40 ed R300-R400 ne aveva di piu' e credo che risieda qui il tuo errore di valutazione.
Diciamo che un simile confronto avrebbe un minimo di senso se valutassi ogni singola sottoarchitettura paragonandola con la controparte, ma solo se avessero un output qualitativamente e funzionalmente identico.
infatti; anche se con logiche di funzionamento differenti, NV40 e R4x0 erano molto più vicine e comparabili, come architetture, di quanto non lo siano R4x0 (o G70) e R520
yossarian
14-10-2005, 00:43
Domandona (presumibilmente per yoss): La pixel pipe del G70 (come quella dell'NV40) possiede unita' shader FP32, lavorando assieme possono raggiungere la precisione di 128 bit in FP (32bpp, 64bpp e 128bpp). Ammesso che non abbia commesso errori, e' un concetto valido anche per ATI??
NV40/G70 ha come precisione massima fp32 (cioè fp128 se consideriamo tutte e 4 le componenti RGB e alpha); la differenza nelle precisione di calcolo tra G70 e R520 è che il primo può anche utilizzare 16 bit, il secondo calcola sempre e comunque tutto a fp32.
Ultima considerazione, il dispatch processor, che controlla tutte le funzionalità del chip, può essere programmato via driver in maniera tale da adattare il chip ad ogni singola applicazione ci giri sopra (questo significa ottimizzazione spinta per ogni tipo di SW o gioco). Per questo motivo i driver, in questo caso, hanno bisogno di un'ottimizzazione molto più accurata ma possono fornire incrementi prestazionali rilevanti.
Mi chiedevo che fine avessi fatto (cominciavo a stare in pensiero, quando ritardi telefona e avverti!!), hai scritto un papiro per dire quello che gli ho detto io in tre righe!! :p hehe
Comuqnue quello che in tuto mi interessa e'.. quanto questa programmabilita' potra' influire nei giochi e quanto credi che sara' sfruttata?? Si trattera' di prevedere ogni singolo gioco da driver (un po' come accade per lo LSI di Nvidia) o a livello di programmazione del gioco stesso??
NV40/G70 ha come precisione massima fp32 (cioè fp128 se consideriamo tutte e 4 le componenti RGB e alpha); la differenza nelle precisione di calcolo tra G70 e R520 è che il primo può anche utilizzare 16 bit, il secondo calcola sempre e comunque tutto a fp32.
Sì, sì, fin qui ci arrivo, :) ora siamo arrivato alla domanda "perche' le architetture ATI sono sempre a precisione fissa??" prima erano 24 ora 32.. ci sono in ballo due ipotesi, una vuole che: "gli ingegneri ATI sono cosi'" l'altra vuole che: "e' tutta colpa di bartolino", tu come la vedi?? Hai risposte piu' tecniche??
P.S. Hai tralasciato qualche mia domanda (si e non una decina :D), guarda che ti riduco lo stipendio!!
andreamarra
14-10-2005, 01:01
Mi chiedevo che fine avessi fatto (cominciavo a stare in pensiero, quando ritardi telefona e avverti!!), hai scritto un papiro per dire quello che gli ho detto io in tre righe!! :p hehe
Comuqnue quello che in tuto mi interessa e'.. quanto questa programmabilita' potra' influire nei giochi e quanto credi che sara' sfruttata?? Si trattera' di prevedere ogni singolo gioco da driver (un po' come accade per lo LSI di Nvidia) o a livello di programmazione del gioco stesso??
è una domanda che mi ero fatto anch'io... quando ho saputo di un controller del R520 configurabile via driver, ho pensato che con le classiche release mensili gli ingegneri potessero aggiungere delle ottimizzazioni in base al gioco.
da quello che si dice qua, pare proprio di si
http://www.hexus.net/content/item.php?item=3668
tra l'altro ci sono gli esempi di due "talloni di achille" di ati, DooM3 e Riddick.
dall'articolo risulta che per R520, con i catalyst 5.11 (i prossimi quindi, in concomitanza -si spera :D- con XT), il gioco della ID riesca ad avere incrementi dell'ordine del +35%!
addirittura stando a dei bench, non solo il divario si assottiglia, ma dalla 1280*1024 in poi (ovviamente con filtri AA4X e aniso16X) la scheda ati di punta vada meglio di quella nvidia.
In COR l'aumento è stimato nell'ordine del 16%, non poco ma neanche tanto sicuramente, riducendo in parte il gap con risoluzioni oltre la 1024*768.
ovviamente, tutto da vedere. Ma di sicuro la programmabilità del controller di R520 tramite driver può essere davvero una mossa decisiva.
yossarian
14-10-2005, 01:04
Sapessi quante cose mi sono sentito dire quando in un altro forum sostenevo la possibile somiglianza tra l'architettura del "futuro" (al tempo) R520 con l'R500, ribadendo inutilmente che, anche se a shader separati, sarebbe potuto essere estremamente simile ed avrebbe potuto condividere e/o ereditare molto da esso. Certa gente mi innervosice molto, ora dovrei tornare lì e restituire loro tutte le offese gratuite. Quando alcuni hanno la mente chiusa, non si puo' far nulla per farli andare oltre le concezioni standard (come quando trattavano il Cell come una normale CPU).
immagino; capitò anche a me su questo forum quando, nel 2001, dissi che la generazione successiva a R200/NV2x avrebbe avuto bus a 256 bit e architettura interna a 512 bit :D
Domandina.. avendo l'RSX un bus flexio e potendosi permettere un ottimo scambi dati con il CELL, che a quanto pare risulta un provetto macinatore di vertici, non sarebbe stato piu' logico potenziare le unita' di pixel shading (e di molto) rispetto a quelle del G70??
dovrebbero progettare un chip a 32 pp e senza vsu. Però, le unità di pixel shading sono più complesse e voluminose di quelle di vertex shading (vero che il chip sarebbe a 0,09), il cell lavora con logica in order mentre una gpu, soprattutto impigata in ambito videoludico, è quanto di più out of order si possa immaginare. Infine, ci sono i numeri: RSX viaggia a 550 Mhz ed è capace di 136 operazioni di shading per ciclo.
Andiamo a contare quelle che nVIDIA definisce shader operation per G70:
2 unità vettoriali + 2 scalari per pipeline + un circuito di normalizzazione vettoriale che lavora a fp16 (capito perchè G70 in fp16 guadagna un 15-20%?). In totale, 5 operazione per pipeline, da moltiplicare per 24. Le vertex pipeline hanno, invece, un'unità vettoriale affiancata da una scalare (2 unità da moltiplicare per 8). In totale abbiamo 120 operazioni nelle pixel pipeline + 16 nelle vertex pipeline, ossia 136 complessive. Con qualnque altro numero (32, 48), volendo considerare solo pixel pipeline, il risultato è un numero decimale.
Credo che una generazione nuova tra questa e una a shader unificati serva per forza.. manca un po' troppo tempo ancora, a meno che non si riesca a "migliorare" il G70 in modo sensibile in un paio di punti deboli in particolare. (ma e' possibile senza stravolgerlo?? difficile).
si potrebbe lavorare sulle rop's per avere msaa e hdr insieme; si deve lavorare sul dynamic branching, ma questo significa stravolgere la logica del chip che lavora con batch di 1024 pixel. Si potrebbe aumentare la frequenza di clock delle rop's per essere meno fillrate limited (anche se, al momento, è un limite relativo). Se c'è spazio a sufficienza, si può aumentare il numero di fpu nella singola pipeline (eliminando le due unità scalari e introducedo una terza unità vettoriale)
yossarian
14-10-2005, 01:15
Sì, sì, fin qui ci arrivo, :) ora siamo arrivato alla domanda "perche' le architetture ATI sono sempre a precisione fissa??" prima erano 24 ora 32.. ci sono in ballo due ipotesi, una vuole che: "gli ingegneri ATI sono cosi'" l'altra vuole che: "e' tutta colpa di bartolino", tu come la vedi?? Hai risposte piu' tecniche??
P.S. Hai tralasciato qualche mia domanda (si e non una decina :D), guarda che ti riduco lo stipendio!!
se è per questo, si può risalire ancora più indietro; anche l'R100 lavorava, internamente, a 32 bit (che in quel caso erano 8 bit per canale), mentre la GF2 utilizzava la doppia modalità 16/32.
La risposta più tecnica che mi viene in mente è che sia colpa di bartolino :sofico:
Un'altra motivazione è che ATi ha sempre curato molto la precisione di calcolo (R100 utilizzava solo 32 bit, R200 lavorava con precisione a fx16 contro fx12 dell'NV2x, R3x0 e R4x0 solo a fp24, R520 e R500 solo a fp32), mentre nVIDIA ha sempre utilizato l'approccio a 2 precisioni differenti, con quella inferiore da utilizzare in caso siano richiesti incrementi di prestazioni (non a caso, il circuito di normalizzazione, funziona solo a fp16 su G70 e NV40) curando, invece, molto la velocità nelle operazioni di texturing. Nel caso specifico di fp16/fp32, nVIDIA si è attenuta alle specifiche IEEE, che prevede come precisione minima quella a 16 bit in floating, mentre ATi ha scelto di utilizzare solo la precisione di calcolo più elevata prevista (anche da sm3.0 e OGL) e, prima ancora, si era attenuta alle specifiche sm2.0.
yossarian
14-10-2005, 01:23
Mi chiedevo che fine avessi fatto (cominciavo a stare in pensiero, quando ritardi telefona e avverti!!), hai scritto un papiro per dire quello che gli ho detto io in tre righe!! :p hehe
Comuqnue quello che in tuto mi interessa e'.. quanto questa programmabilita' potra' influire nei giochi e quanto credi che sara' sfruttata?? Si trattera' di prevedere ogni singolo gioco da driver (un po' come accade per lo LSI di Nvidia) o a livello di programmazione del gioco stesso??
purtroppo non ho il dono della sintesi :D
La programmabilità via driver permette di ottimizzare il comportamento del chip per ogni singola applicazione, arrivando a riorganizzare, di volta in volta, il flusso di dati interno (agendo sui meccanismi di priorità delle operazioni e sugli accessi in menoria e alle cache interne). Questo significa, una volta individuato cosa rallenta il chip in quella determinata applicazione, poter intervenire per eliminare o ridurre l'impatto dei colli di bottiglia.
andreamarra
14-10-2005, 01:33
dopo sta notizia a me sto R520 fa ancora più gola... :oink:
ovviamente è da vedere quanto costerà la scheda, se costa all'incirca quanto una G70 per me è la soluzione migliore da prendere. Ovviamente se uno vuole una scheda High-end e non dispone già di Nv40-R420...
se la scheda costa poco di più, si può ancora fare...
se costa troppo rispetto a G70... bhè la lascio dov'è :D!
yossarian
14-10-2005, 01:36
dopo sta notizia a me sto R520 fa ancora più gola... :oink:
ovviamente è da vedere quanto costerà la scheda, se costa all'incirca quanto una G70 per me è la soluzione migliore da prendere. Ovviamente se uno vuole una scheda High-end e non dispone già di Nv40-R420...
se la scheda costa poco di più, si può ancora fare...
se costa troppo rispetto a G70... bhè la lascio dov'è :D!
ti conviene aspettare comunque (almeno R580 e G72)
andreamarra
14-10-2005, 01:43
ti conviene aspettare comunque (almeno R580 e G72)
si, poi appena arrivano R580 e G72 aspetterò l'R600 e l'altra di nvidia che non so il nome... :asd:
e intanto sto ancora con la 9700 pro... :D
:cry:
si, poi appena arrivano R580 e G72 aspetterò l'R600 e l'altra di nvidia che non so il nome... :asd:
e intanto sto ancora con la 9700 pro... :D
:cry:
No, assolutamente, intende dire che il salto sara' notevole, molto piu' di questo e comunque il lasso di tempo che le separa e' maggiore. Senza considerare che le dx10 non saranno "utilizzate" per molto tempo dopo il loro lancio. Anzi, io eviterei proprio la prima generazione di VPU a shader unificati. :) Ma tanto dovro' combatterci per forza. :p
Intendevi dire questo o una cosa simile vero yoss?? :D
andreamarra
14-10-2005, 01:59
No, assolutamente, intende dire che il salto sara' notevole, molto piu' di questo e comunque il lasso di tempo che le separa e' maggiore. Senza considerare che le dx10 non saranno "utilizzate" per molto tempo dopo il loro lancio. Anzi, io eviterei proprio la prima generazione di VPU a shader unificati. :) Ma tanto dovro' combatterci per forza. :p
Intendevi dire questo o una cosa simile vero yoss?? :D
è vero che la prima revisione di vpu a shader unificati sarebbe meglio non comprare, perchè non saranno supportate e perchè quando saranno supportate potrebbero avere problemi di potenza ecc. ecc..
solo che di questo passo, non comprerò mai più una scheda video :cry: :D
immagino; capitò anche a me su questo forum quando, nel 2001, dissi che la generazione successiva a R200/NV2x avrebbe avuto bus a 256 bit e architettura interna a 512 bit :D
Allora evitiamo di dire cosa e' successo quando ipotizzavo che il Cell avesse potuto avere potenzialita' "grafiche" degne di nota. Ora non scendiamo nel particolare, ma "qualcuno" sosteneva che fosse una boita e non ti dico le offese che ho potuto sentire. Non e' una VPU, questo e' chiaro, ma un incremento considerevole lo fornira' senza dubbio alcuno (non ti dico i nomi degli imputati, altrimenti mi picchi per pèrincipio!! :D).
A proposito, si parla di 800milioni di vertici per ogni SPE, quanto fa ridere questo dato??
dovrebbero progettare un chip a 32 pp e senza vsu. Però, le unità di pixel shading sono più complesse e voluminose di quelle di vertex shading (vero che il chip sarebbe a 0,09), il cell lavora con logica in order mentre una gpu, soprattutto impigata in ambito videoludico, è quanto di più out of order si possa immaginare. Infine, ci sono i numeri: RSX viaggia a 550 Mhz ed è capace di 136 operazioni di shading per ciclo.
Andiamo a contare quelle che nVIDIA definisce shader operation per G70:
2 unità vettoriali + 2 scalari per pipeline + un circuito di normalizzazione vettoriale che lavora a fp16 (capito perchè G70 in fp16 guadagna un 15-20%?). In totale, 5 operazione per pipeline, da moltiplicare per 24. Le vertex pipeline hanno, invece, un'unità vettoriale affiancata da una scalare (2 unità da moltiplicare per 8). In totale abbiamo 120 operazioni nelle pixel pipeline + 16 nelle vertex pipeline, ossia 136 complessive. Con qualnque altro numero (32, 48), volendo considerare solo pixel pipeline, il risultato è un numero decimale.
Ma passando tutto questo tempo, non e' probabile che vi sia qualche sostanziale cambiamento (tipo quelli che hai anticipato per la prossima uscita Nvidia)?? Nvidia spesso riserva sorprese "inattese" (e se sono sorprese grazie che sono inattese!! :D).
si potrebbe lavorare sulle rop's per avere msaa e hdr insieme; si deve lavorare sul dynamic branching, ma questo significa stravolgere la logica del chip che lavora con batch di 1024 pixel. Si potrebbe aumentare la frequenza di clock delle rop's per essere meno fillrate limited (anche se, al momento, è un limite relativo). Se c'è spazio a sufficienza, si può aumentare il numero di fpu nella singola pipeline (eliminando le due unità scalari e introducedo una terza unità vettoriale)
Infatti mi riferivo al DB, quando parlavo di stravolgimenti improbabili (che pero' sarebbero veramente utili). Il resto e' possibile sì, se non erro gia' l'architettura dell'NV40 possiede diversi clock al proprio interno, alcune parti dei chip a 400mhz dunzionano in realta' a 470 (o una frequenza simile), motivo per il quale le prime versioni di rivatuner rilevavano una frequenza sbagliata.
Direi che velocizzare nel clock (o nell'efficienza) le parti architetturalmente piu' semplici si potrebbe fare, cercando di innalzare quelli che sono i limiti dell'architettura attuale.
Comunque continuera' come da tradizione ad usare SOI, immagino??
è vero che la prima revisione di vpu a shader unificati sarebbe meglio non comprare, perchè non saranno supportate e perchè quando saranno supportate potrebbero avere problemi di potenza ecc. ecc..
solo che di questo passo, non comprerò mai più una scheda video :cry: :D
Io prenderei l'r580 o il g72 se proprio non avessi problemi di soldi. Comuqnue li aspetterei perche' saranno di notevole impatto sul mercato ed i prezzi delle varie x1800xt e 7800(ultra??), coleranno a picco.
Fermo restando che ora giochi a TUTTO tranquillamente con una 6800GT da 280€ in rapida discesa e se tra 4-6 mesi, proprio non riesci a giocare come vorresti a qualche titolo, gliene potreai affiancare un'altra (che sara' arrivata a costare presumibilmente 160€ se non meno). Alla faccia di chi trova inutile lo SLI (pagare la potenza la RATE!!). :) Discorso valido in parte anche per il CF, ma con molti piu' punti da rianalizzare, in primis, chipset, SM2.0, disponibilita' e prezzo).
Altrimenti prendi una X1800XL, se si dovesse reperire attorno ai 300€ (viste le prestazioni) sarebbe un'ottima scheda.
Arcangelit
14-10-2005, 02:29
mamma mia quanti post!!!
Appena 583.. ops.. 584 :D e pensare che ieri me li sono letti tutti ad un fiato!! :D
mi sembra di esser stato catapultato su rai due quando facevano lezioni di matematica.
ora vado a letto conscio che potevo andarci benissimo 1 ora fa che tanto non ho capito nulla...
Appena 583.. ops.. 584 :D e pensare che ieri me li sono letti tutti ad un fiato!! :D
Il problema è capire quelli di Yos più che altro :sofico:
cdimauro
14-10-2005, 09:00
P.S. Capisco la correttezza politica e la legge da rispettare, ma vorrei proprio entrare nelle vostre casette belle e vedere quanti di voi non abbiano veramente SW pirata!! Ho avuto una sensazione di ipocrisia assurda, a partire da tutti coloro i quali usano programmi P2P (utilizzati per il SW o per altro, sempre di pirateria si tratta). Del resto anche il buon (??) vecchio Bill ha detto che se non fosse stato per la pirateria lui ora non sarebbe nessuno e Windows non sarebbe nelle case di tutti.
Se non esistesse la pirateria i computer per giocare (visto gia' quello che gia' costa comprarli, aggiungerci 50-80€ a gioco sarebbe assurdo) non sarebbero cosi' diffusi, nessuno avrebbe gandi interessi a produrre nuovo HW come queste fantastiche schede, non esisterebbero tante SW house (che tentano di accaparrarsi una percentuale che sicuramente in paesi economicamente meglio messi del nostro e' maggiore) e i redattori di HWUpgrade avrebbero un decimo dei lettori. ;)
Non e' un elogio alla pirateria, ma una critica all'ipocrisia.
Non voglio aprire una polemica, ma la cosa mi ha colpito un po', mi scusassero coloro i quali si fossero sentiti offesi, ma li rapporto alla realta' che vivo quotidianamente ovunque mi sposti, privati o aziende, realta' che vede il SW pirata costituire il 90 e passa percento della totalita' (e sono stato discherto nel dare la percentuale).
Non confondere i casi di singoli paesi come l'Italia, la Cina, ecc. con la realtà globale, in cui la pirateria incide per il 30% circa. Questo vuol dire che la norma è data da prodotti regolarmenti acquistati, non da quelli piratati.
cdimauro
14-10-2005, 09:02
non condivido totalmente le tue opinioni, ma sei stato un GRANDE quando hai affrontato gli ipocriti riguardo alla pirateria.... era ora che qualcuno sbattesse in faccia a lor signori che TUTTI nel ns. piccolo, un pò di pirateria a casa ce l'abbiamo... hai fatto bene, bravo, fermo restando che la pirateria è illegale e quindi non va elogiata, come hai perfettamente specificato.
A me fanno più schifo quelli che fanno le guerre di religione esaltando i sistemi open / free e poi magari hanno la copia di Windows e collezioni sterminate di programmi, MP3, DivX e DVD copiati...
cdimauro
14-10-2005, 09:03
Allora evitiamo di dire cosa e' successo quando ipotizzavo che il Cell avesse potuto avere potenzialita' "grafiche" degne di nota. Ora non scendiamo nel particolare, ma "qualcuno" sosteneva che fosse una boita e non ti dico le offese che ho potuto sentire. Non e' una VPU, questo e' chiaro, ma un incremento considerevole lo fornira' senza dubbio alcuno (non ti dico i nomi degli imputati, altrimenti mi picchi per pèrincipio!! :D).
A proposito, si parla di 800milioni di vertici per ogni SPE, quanto fa ridere questo dato??
Infatti è noto che Cell va così bene anche per gestire la grafica dei videogiochi, che Sony ha pensato bene di infilare un G70 e non un altro Cell nella sua PS3... :asd:
yossarian
14-10-2005, 12:30
Allora evitiamo di dire cosa e' successo quando ipotizzavo che il Cell avesse potuto avere potenzialita' "grafiche" degne di nota. Ora non scendiamo nel particolare, ma "qualcuno" sosteneva che fosse una boita e non ti dico le offese che ho potuto sentire. Non e' una VPU, questo e' chiaro, ma un incremento considerevole lo fornira' senza dubbio alcuno (non ti dico i nomi degli imputati, altrimenti mi picchi per pèrincipio!! :D).
A proposito, si parla di 800milioni di vertici per ogni SPE, quanto fa ridere questo dato??
potenzialità, però, molto teoriche. Sia la PPE che le SPE sono processori in order; questo significa totale dipendenza dal compilatore. Non sono dotate di funzionalità di register renaming e instruction reordering; di conseguenza, possono solo eseguire le istruzioni nell'ordine in cui le ricevono dal compilatore. In caso di un problema, banale quanto frequente, come un cache miss, il processore resta in attesa del dato che deve essere cercato nella memoria di sistema (il che significa qualche centinanio di cicli persi) e non è in grado di mettere in coda il thread passando ad un'altra elaborazione.
Comunque continuera' come da tradizione ad usare SOI, immagino??
presumibilmente si, visto che le fonderie da cui si serve (TSMC in primo luogo) hanno sviluppato tecnologie SOI.
è ATi che è un po' troppo avanti, nel senso che ha introdotto alcune delle novità di R500 e della generazione WGF2.0.
Eh no eh! Eh NO! Prima quando nVidia supportava le PS3.0 e ATi no dicevate che ATi era indietro, ora se nVidia manca di qualcosa dite che è ATi ad essere troppo avanti... nVidia non è il centro dell'universo sapete!
leoneazzurro
14-10-2005, 14:05
Vedi, Yoss, sei diventato fanboy di ATI e Nvidia sullo stesso thread. Un nuovo record, direi :D
andreamarra
14-10-2005, 14:31
Eh no eh! Eh NO! Prima quando nVidia supportava le PS3.0 e ATi no dicevate che ATi era indietro, ora se nVidia manca di qualcosa dite che è ATi ad essere troppo avanti... nVidia non è il centro dell'universo sapete!
:confused:??
Eh no eh! Eh NO! Prima quando nVidia supportava le PS3.0 e ATi no dicevate che ATi era indietro, ora se nVidia manca di qualcosa dite che è ATi ad essere troppo avanti... nVidia non è il centro dell'universo sapete!
:mbe:
yossarian
14-10-2005, 14:46
Vedi, Yoss, sei diventato fanboy di ATI e Nvidia sullo stesso thread. Un nuovo record, direi :D
vero, probabilmente nello stesso thread non era acora capitato a nessuno :D
Free Gordon
14-10-2005, 15:08
Una domanda per Yossarian.
Il problema della 7800 è di fill rate. Perchè? (rispetto a R520)
Come potrebbe risolversi una situazione del genere?
Grazie.
UltimaWeapon
14-10-2005, 15:08
Non mi picchiate :D
Ne parlo e ne sento parlare ma di fatto non so cosa siano :|
Cosa sono gli shader? :muro: :D E perchè si differenziano in pixel shader e vertex shader? qual'è il loro compito?
scusate ma su google non trovo molto
halduemilauno
14-10-2005, 15:11
Una domanda per Yossarian.
Il problema della 7800 è di fill rate. Perchè? (rispetto a R520)
Come potrebbe risolversi una situazione del genere?
Grazie.
aumentare il core, le pipe, le rops. e per farlo in maniera adeguata deve passare allo 0.9
scusate l'intromissione.
;)
yossarian
14-10-2005, 15:30
Una domanda per Yossarian.
Il problema della 7800 è di fill rate. Perchè? (rispetto a R520)
Come potrebbe risolversi una situazione del genere?
Grazie.
perchè il fillrate è determinato dalla velocità di "scrittura" delle rop's nel frame buffer. R520 e G70 hanno entrambe 16 rop's, ma con frequenze di funzionamento molto più elevate per R520 (625 contro 430 Mhz).
Per risolvere il problema si potrebbe aumentare il numero di rop's o la frequenza del chip (anche solo di un parte di esso). Aumentare il numero di rop's comporta complicare ulteriormente il circuito (anche in considerazione dell'esecuzione delle operazioni di blending a fp16 per l'hdr). Inoltre si rischierebbe di non avere un chip molto "equilibrato". 24 rop's a, ad esempio, 550 Mhz produrrebbero un fillrate teorico di 13200 (contro gli attuali 10000 dell'R520). Però, a quel punto, si dovrebbe incrementare anche la velocità d'esecuzione del fragment processor (in questo caso non basta aumentare le frequenze, perchè il collo di bottiglia, a parità di frequenza di funzionamento, è quasi sempre costituito dalle pixel shader pipeline); inoltre, servirebbe una bandwidth molto più ampia per non essere bandwidth limited (attualmente il rapporto tra bandwidth e fillrate è pari a 5,58 per la GTX, 4,8 per la X1800XT; con 24 rop's a 550 Mhz e ram da 1500 Mhz, il rapporto per la GTX scenderebbe a 3,6).
L'altra strada è quella dell'aumento delle frequenze del chip (ma sarebbe necessario scendere a 0,09 e non è detto che sarebbe sufficiente). In ogni caso, più si sale in frequenza più il rapporto/bandwidth fillrate diminuisce velocemente.
Free Gordon
14-10-2005, 16:10
Secondo te i risultati che ottiene R520 ad alte res e con i filtri non sono influenzati dalla maggiore banda di x1800xt ma dal maggiore fillrate, giusto?
Ma perchè se nel fillrate-test del 2005, 7800GTX e X1800XT hanno gli stessi valori (circa 10Gt/s)?
Non confondere i casi di singoli paesi come l'Italia, la Cina, ecc. con la realtà globale, in cui la pirateria incide per il 30% circa. Questo vuol dire che la norma è data da prodotti regolarmenti acquistati, non da quelli piratati.
Io non confondo nulla ed i dati li so discretamente bene, comunque la gente che ha parlato sta in Italia, la realta' e' ben diversa da come l'hanno dipinta.
Gradirei che il discorso si chiudesse qui.
Infatti è noto che Cell va così bene anche per gestire la grafica dei videogiochi, che Sony ha pensato bene di infilare un G70 e non un altro Cell nella sua PS3... :asd:
Questa sì che e' un'analisi tecnica degna delle tue, vedo che la voglia di criticare non ti passa mai. Bene, a sorpresa nel Cell vi sono delle istruzioni tipiche delle VPU. Se inoltre avessi letto i miei post per intero, ti saresti accorto di come io avessi detto "certo, non e' una VPU, ma.. ecc.." dunque non ritengo che riesca a generare 800 milioni (circa il massimo teorico di una 7800 e distante dalla realta'), con texture e shader applicati, ma sicuramente, con una buona programmazione le sue istruzioni in FP64-128, potranno essere molto utili.
__________________
potenzialità, però, molto teoriche. Sia la PPE che le SPE sono processori in order; questo significa totale dipendenza dal compilatore. Non sono dotate di funzionalità di register renaming e instruction reordering; di conseguenza, possono solo eseguire le istruzioni nell'ordine in cui le ricevono dal compilatore. In caso di un problema, banale quanto frequente, come un cache miss, il processore resta in attesa del dato che deve essere cercato nella memoria di sistema (il che significa qualche centinanio di cicli persi) e non è in grado di mettere in coda il thread passando ad un'altra elaborazione.
Certo, sono perfettamente cosciente del danno causato dai cache miss o da altre casuali interruzioni, tuttavia la potenza a disposizione "in tali situazioni" e' cosi' elevata che rimane comunque un notevole sprint. Non saranno 800milioni come i poligoni teorici dichiarati da Sony/IBM, ma sicuramente saranno molti, che poi siano poligoni o applicazioni FP utilizzate per esempio per l'HDR (dico una boiata?? il bus non e' abbastanza rapido?? mi pare di sì), ha poca importanza.
presumibilmente si, visto che le fonderie da cui si serve (TSMC in primo luogo) hanno sviluppato tecnologie SOI.
Non e' stato messo a punto dall'IBM in una sua fabrica.. della quale ora non ricordo il nome??.. comunque la stessa che produce il Cell.
leoneazzurro
14-10-2005, 16:12
Non mi picchiate :D
Ne parlo e ne sento parlare ma di fatto non so cosa siano :|
Cosa sono gli shader? :muro: :D E perchè si differenziano in pixel shader e vertex shader? qual'è il loro compito?
scusate ma su google non trovo molto
Cerco di farla molto terra terra. Gli shader altro che dei programmi che applicano funzioni matematiche ai dati grafici delle scene da renderizzare, in modo da realizzare effetti grafici per illuminazione, riflessi o trasformazioni geometriche, ecc.
In genere gli shader possono essere applicati dalle shader unit (unità che eseguono i calcoli relativi a queste funzioni matematiche) che si distinguono in vertex (se operano sui dati relativi ai vertici dei poligoni che compongolo la scena,e quindi sulla geometria base della scena) e pixel (se eseguono i calcoli relativi a colori e illuminazione dei pixel, come ad esempio gli effetti di riflessione).
leoneazzurro
14-10-2005, 16:22
Secondo te i risultati che ottiene R520 ad alte res e con i filtri non sono influenzati dalla maggiore banda di x1800xt ma dal maggiore fillrate, giusto?
Io direi da entrambi, con un contributo più importante del fill rate, oltre che da una maggiore efficienza interna di R520.
Ma perchè se nel fillrate-test del 2005, 7800GTX e X1800XT hanno gli stessi valori (circa 10Gt/s)?
Quei valori descrivono il pixel fill rate delle unità PS, quindi a monte delle ROPs.
Anche se il fill rate teorico di R520 dovrebbe essere 10000, mi pare un pò strano che il dato rilevato sia leggemente superiore :confused:
Free Gordon
14-10-2005, 16:31
Quei valori descrivono il pixel fill rate delle unità PS, quindi a monte delle ROPs.
Ah, ok.
yossarian
14-10-2005, 16:47
Secondo te i risultati che ottiene R520 ad alte res e con i filtri non sono influenzati dalla maggiore banda di x1800xt ma dal maggiore fillrate, giusto?
Ma perchè se nel fillrate-test del 2005, 7800GTX e X1800XT hanno gli stessi valori (circa 10Gt/s)?
i risultati di R520 sono dovuti alla maggior efficienza dell'hsr, ai migliori algoritmi di compressione dei dati e allla miglior gestione degli accessi in memoria (migliore circolazione dei dati e utilizzo di cache di grandi dimensioni).
Il fillrate è importante, ma non è tutto. Ad esempio, nella gestione dell'hdr o del dynamic branching, l'efficienza dell'R520, anche in versione XL, è nettamente superiore a quella del G70.
Il fillrate test del 3DMark è un texel fillrate, effettuato con l'applicazione di 8 textel per pixel. Quelli che devi vedere sono i dati del pixel fillrate (guarda il pure fillrate nella recensione di xbit labs, ad esempio).
riva.dani
14-10-2005, 16:51
Si si ok, ma adesso io cosa compro? Era facile scegliere una 9700PRO, così come, per la generazione successiva, è stato facile optare per le 6800GT... Ma adesso rimango spiazzato!!
yossarian
14-10-2005, 16:59
Certo, sono perfettamente cosciente del danno causato dai cache miss o da altre casuali interruzioni, tuttavia la potenza a disposizione "in tali situazioni" e' cosi' elevata che rimane comunque un notevole sprint. Non saranno 800milioni come i poligoni teorici dichiarati da Sony/IBM, ma sicuramente saranno molti, che poi siano poligoni o applicazioni FP utilizzate per esempio per l'HDR (dico una boiata?? il bus non e' abbastanza rapido?? mi pare di sì), ha poca importanza.
una PPE del Cell gestisce fino a 2 thread per ciclo, da ripartire tra le varie SPE. Questo significa che una cache miss può causare l'arresto di un intero thread, ossia di più SPE per parecchi cicli di clock.
Il Cell ha un notevole potenziale, ma non è idoneo per applicazioni videoludiche (che sono prettamente di carattere ooo). Inoltre è totalmente dipendente dall'ordine delle istruzioni inviategli, quindi, di conseguenza, dal lavoro del programmatore.
Non e' stato messo a punto dall'IBM in una sua fabrica.. della quale ora non ricordo il nome??.. comunque la stessa che produce il Cell.
assolutamente no. IBM è solo titolare di diversi brevetti, soprattutto per tecnologia PD SOI, per altro poco indicata per circuiti ad alte prestazioni, per cui è più adatta la FD SOI
UltimaWeapon
14-10-2005, 17:25
Cerco di farla molto terra terra. Gli shader altro che dei programmi che applicano funzioni matematiche ai dati grafici delle scene da renderizzare, in modo da realizzare effetti grafici per illuminazione, riflessi o trasformazioni geometriche, ecc..
ma per programmi intendi software? e questi "programmi" sarebbero i vari Shader Model? sono un genio :eek: :D
In genere gli shader possono essere applicati dalle shader unit (unità che eseguono i calcoli relativi a queste funzioni matematiche) che si distinguono in vertex (se operano sui dati relativi ai vertici dei poligoni che compongolo la scena,e quindi sulla geometria base della scena) e pixel (se eseguono i calcoli relativi a colori e illuminazione dei pixel, come ad esempio gli effetti di riflessione).
I vertex engines sono a monte dei pixel shader (domanda: i PS sono unità interne alle pipeline?) quindi prima viene elaborata l'immagine 3D dai VS quindi i PS applicano gli effetti vari ai singoli poligoni?
grazie, mi stai aprendo le porte verso un nuovo mondo :eek: :D
fantoibed
14-10-2005, 18:09
una PPE del Cell gestisce fino a 2 thread per ciclo, da ripartire tra le varie SPE. Questo significa che una cache miss può causare l'arresto di un intero thread, ossia di più SPE per parecchi cicli di clock.
Di PPE ce n'è solo una sul Cell, che io sappia... Perché dici "una PPE del Cell gestisce..." ? :confused:
E poi, perché un cache miss della PPE dovrebbe bloccare le 8 SPE ? Le SPE possono trasferire tranquillamente i dati dalla XDR alla propria LS... :confused:
Il Cell ha un notevole potenziale, ma non è idoneo per applicazioni videoludiche...
...Neanche fosse pensato per una console.... :p
Non e' stato messo a punto dall'IBM in una sua fabrica.. della quale ora non ricordo il nome??...
Fishkill
yossarian
14-10-2005, 19:31
Di PPE ce n'è solo una sul Cell, che io sappia... Perché dici "una PPE del Cell gestisce..." ? :confused:
E poi, perché un cache miss della PPE dovrebbe bloccare le 8 SPE ? Le SPE possono trasferire tranquillamente i dati dalla XDR alla propria LS... :confused:
in realtà, per cell si intende un intero programma, che prevede l'utilizzo di più dispositivi che si scambiano dati attraverso un bus. Quello della ps3 è solo uno dei tanti dispositivi, anzi, per la precisione, è una possibile configurazione di uno dei tanti dispositivi. Le architetture cell sono di tipo modulare e questo fa pensare che, in futuro, quando il processo produttivo ne permetterà l'integrazione, sia possibile avere anche più PPE su uno stesso die.
Non ho detto di tutte e 8 ma, ad esempio, di 4, ad esempio, si. Il PPE, tra le altre cose, gestisce le operazioni da assegnare alle varie SPE (funge, in poche parole, da controller); questo significa che, pur essendo le SPE in grado di scambiarsi i dati di un'elaborazione, è la PPE a decidere a quali SPE assegnare quale thread; quindi la libertà delle SPE è limitata all'ambito dei thread assegnati loro complessivamente. Potendone gestire solo un numero limitato per volta, nell'eventualità di un qualunque accidente che blocchi un thread ad una data istruzione per un certo numero di cicli, tutte le SPE assegnate a quel thread resteranno in idle fino allo sblocco della situazione e la PPE non potrà, nel frattempo, mettere in stand by quel thread per caricarne un altro, poichè anche la logica della PPE è di tipo IN ORDER.
Cosa cambia nel rendering (e in tutto) ad avere le pipeline unificate ???
>>>>>>>>ATI RULEZ..................
Cosa cambia nel rendering (e in tutto) ad avere le pipeline unificate ???
>>>>>>>>ATI RULEZ..................
cdimauro
15-10-2005, 06:11
Io non confondo nulla ed i dati li so discretamente bene, comunque la gente che ha parlato sta in Italia, la realta' e' ben diversa da come l'hanno dipinta.
Fra la gente che ha parlato hai citato Bill Gates, che mi sembra non stia in Italia né mi risultano vere le parole che gli hai messo in bocca.
Gradirei che il discorso si chiudesse qui.
Questo è un forum pubblico: se non gradisci certe repliche non scrivere certe cose o non scrivere per niente.
Questa sì che e' un'analisi tecnica degna delle tue, vedo che la voglia di criticare non ti passa mai.
A suo tempo le mie analisi tecniche le ho fornite, ma vedo che hai la tendenza a dimenticare troppo facilmente quel che è stato detto (e non solo da me).
Bene, a sorpresa nel Cell vi sono delle istruzioni tipiche delle VPU.
Tipo?
Comunque sarebbe tutta qui la tua "analisi tecnica"?
Se inoltre avessi letto i miei post per intero,
E' un forum pubblico, e generalmente leggo tutti i post. Anche i tuoi.
ti saresti accorto di come io avessi detto "certo, non e' una VPU, ma.. ecc.."
Non è una VPU perché è MOLTO LONTANA dall'esserlo, come ti è stato spiegato più volte prima e adesso anche da yossorian: quando ti deciderai a capirlo una buona volta e a non ripetere sempre le stesse cose?
dunque non ritengo che riesca a generare 800 milioni (circa il massimo teorico di una 7800 e distante dalla realta'), con texture e shader applicati, ma sicuramente, con una buona programmazione le sue istruzioni in FP64-128, potranno essere molto utili.
Non serve una buona programmazione: tu stai chiedendo dei MIRACOLI, per fargli fare cose per cui non è stato progettato.
Poi dovresti spiegarmi cosa intendi con la parte che ho evidenziato, visto che mi suona decisamente male (di quali istruzioni parli? Di quali tipi di dati?)
cdimauro
15-10-2005, 06:15
Rimaniamo in topic ;)
Ho letto soltanto adesso il tuo messaggio. Se vuoi lo cancello (tanto c'è poco da disquisire, visto che l'argomentato è stato già più volte affrontato).
Rimaniamo in topic ;)
E non essere cosi' severo, qui ci si erudisce, anche per capire meglio che se la nuova X1800XT sia valida e quanto!! (cavolo come rivolto le frittate!! :D)
Comuqnue una piccola cosa, esistono gia' Cell con due ppe. Esistono anche gia' demo decisamente "invterattive" come quella delle paperelle (interattiva, quando l'operatore raccolgie l'acqua con i bicchieri virtuali) che danno una discreta prova di potenza grafica (e di fisica) nonostante una sola SPE (o forse due) ed un clk ridotto (2,4, mi pare). Il problema che dici della programmazione e' un tema molto affrontato nei vari topic ed a quanto pare IBM, Sony e Toshiba hanno trovato delle soluzioni.. ora basta altrimenti mi frustano. :D
P.S. C'e' un 3d, piu' adatto per contunuare il discorso del Cell e delle sue applicazioni?? lo so che c'e', ma se qualcuno lo ha tra quelli che segue, potrebbe anche evitarmi l'affannosa ricerca. :D :p Grazieeeeeeee!!
_________________
Tornado a quello che forse e' piu' in topic, e dunaque nanometrie e SOI..
"In altri termini, stiamo assistendo ad una salto generazionale nella costruzione dei processori. Di cosa stiamo parlando? Della SOI, acronimo che sta per Silicon On Insulator (Silicio sopra isolante), una tecnologia brevettata da IBM e che è stata concessa in licenza ad alcuni giganti dell'industria dei semiconduttori fra cui AMD, Philips e Motorola"
Questo e' solo uno dei tanti "estratti" dalla rete, nei quali si puo' leggere come SOI sia brevetto IBM. A questo punto, yoss, credo mi manchi qualche nozione in merito. Ci sono delle diverse forme di SOI e fin qui va bene, ma in cosa differiscono esattamente e chi ne e' l'inventore/proprietario?? (comuqnue Nvidia ha sempre utilizzato SOI di IBM).
Ho letto soltanto adesso il tuo messaggio. Se vuoi lo cancello (tanto c'è poco da disquisire, visto che l'argomentato è stato già più volte affrontato).
Non mi va di essere bannato per iniziare un discorso ozioso con te, scusa dotto'. Forse lo affrontiamo in un altro 3d. :)
Comuqnue non mi riferivo a te, quando dicevo di aver parlato di Cell ecc..
Apritelo pure un altro thread nella sezione Processori... Sono contento anche di seguirlo, l'argomento mi interessa :)
Apritelo pure un altro thread nella sezione Processori... Sono contento anche di seguirlo, l'argomento mi interessa :)
Se non lo fa nessuno, lo faccio io, basta non aprirne 20. :p
I miei complimenti alla redazione per la mastodontica rece! Siete i migliori.. ;)
Ragazzi ma avete notato che su queste schede non c'è nemmeno un condensatore?? :eek:
picard88
15-10-2005, 14:42
minch@a che fatica leggere tt qste pagine...complimenti alla redazione x la rece FAVOLOSA e ad ATI x la scheda FAVOLOSA!!!
Free Gordon
15-10-2005, 17:38
una PPE del Cell gestisce fino a 2 thread per ciclo, da ripartire tra le varie SPE. Questo significa che una cache miss può causare l'arresto di un intero thread, ossia di più SPE per parecchi cicli di clock.
Il Cell ha un notevole potenziale, ma non è idoneo per applicazioni videoludiche (che sono prettamente di carattere ooo). Inoltre è totalmente dipendente dall'ordine delle istruzioni inviategli, quindi, di conseguenza, dal lavoro del programmatore.
Io avevo sentito che PS3 sarà in grado di gestire "TEORICAMENTE" fino a 8 thread, 2 della PPE e 7 per le SPE (perchè a quanto pare nella ps3 ce ne saranno 7 e non 8, con una usata sempre per ridondanza).
Tutto ciò è falso alla luce di ciò che dici? O sono io che non capisco? (probabile :D )
yossarian
15-10-2005, 22:24
Io avevo sentito che PS3 sarà in grado di gestire "TEORICAMENTE" fino a 8 thread, 2 della PPE e 7 per le SPE (perchè a quanto pare nella ps3 ce ne saranno 7 e non 8, con una usata sempre per ridondanza).
Tutto ciò è falso alla luce di ciò che dici? O sono io che non capisco? (probabile :D )
in effetti, teoricamente, è così; però, di fatto, le SPU servono a fornire potenza di calcolo al PPE. Possono lavorare in parallelo, su più thread ma in modalità streaming; ad esempio, nella decodifica di un filmato, il PPE attiva gli SPE e istruisce ciascuno ad eseguire uno specifico compito. Ce ne sarà qualcuno che si occupa di demodulazione, qualcun altro di operazioni di decodifica e così via. E questo, fino a quando non termina l'elaborazione o non ricevono l'ordine di fermarsi. Quello che è accaduto è che un'operazione che una cpu tradizionale gestisce in un'unico thread, nel cell è stata frazionata in 8 thread differenti, in ognuno dei quali, però una spu compie sempre le stesse operazioni. Quindi, il concetto di thread e di multithreading assume connotati diversi, Il Cell non ha unità indipendenti e capaci, ciascuna, di lavorare su una singola applicazione in maniera autonoma, ma ha delle unità che coadiuvano le PPU o, comunque, dipendono da esse per l'attivazione e l'assegnazione dei singoli task.
p.s. stiamo andando pericolosamente OT; tra un po' arriva cionci :D
Free Gordon
15-10-2005, 22:47
in effetti, teoricamente, è così; però, di fatto, le SPU servono a fornire potenza di calcolo al PPE. Possono lavorare in parallelo, su più thread ma in modalità streaming; ad esempio, nella decodifica di un filmato, il PPE attiva gli SPE e istruisce ciascuno ad eseguire uno specifico compito. Ce ne sarà qualcuno che si occupa di demodulazione, qualcun altro di operazioni di decodifica e così via. E questo, fino a quando non termina l'elaborazione o non ricevono l'ordine di fermarsi. Quello che è accaduto è che un'operazione che una cpu tradizionale gestisce in un'unico thread, nel cell è stata frazionata in 8 thread differenti, in ognuno dei quali, però una spu compie sempre le stesse operazioni. Quindi, il concetto di thread e di multithreading assume connotati diversi, Il Cell non ha unità indipendenti e capaci, ciascuna, di lavorare su una singola applicazione in maniera autonoma, ma ha delle unità che coadiuvano le PPU o, comunque, dipendono da esse per l'attivazione e l'assegnazione dei singoli task.
Per cui (e poi giuro che la smetto :D ) come vedi la questione Xenon vs Cell?
Xenon dovrebbe avere TEORICAMENTE 6 thread effettivi da utilizzare nei giochi, essendo ogni core in grado di lavorare autonomamente, no?
Ti pare inferiore -come cpu da gioco- quella di 360, rispetto a quella di PS3?
Nella gestione della fisica saranno così importanti le SPU? Il 360 come se la caverà?
Grazie anticipatamente per le risposte. ;)
Ribadisco che sarebbe meglio restare in topic... Se vi interessa parlare di queste cose aprite un thread nella sezione Processori...
yossarian
15-10-2005, 23:04
E non essere cosi' severo, qui ci si erudisce, anche per capire meglio che se la nuova X1800XT sia valida e quanto!! (cavolo come rivolto le frittate!! :D)
Comuqnue una piccola cosa, esistono gia' Cell con due ppe. Esistono anche gia' demo decisamente "invterattive" come quella delle paperelle (interattiva, quando l'operatore raccolgie l'acqua con i bicchieri virtuali) che danno una discreta prova di potenza grafica (e di fisica) nonostante una sola SPE (o forse due) ed un clk ridotto (2,4, mi pare). Il problema che dici della programmazione e' un tema molto affrontato nei vari topic ed a quanto pare IBM, Sony e Toshiba hanno trovato delle soluzioni.. ora basta altrimenti mi frustano. :D
P.S. C'e' un 3d, piu' adatto per contunuare il discorso del Cell e delle sue applicazioni?? lo so che c'e', ma se qualcuno lo ha tra quelli che segue, potrebbe anche evitarmi l'affannosa ricerca. :D :p Grazieeeeeeee!!
_________________
Tornado a quello che forse e' piu' in topic, e dunaque nanometrie e SOI..
"In altri termini, stiamo assistendo ad una salto generazionale nella costruzione dei processori. Di cosa stiamo parlando? Della SOI, acronimo che sta per Silicon On Insulator (Silicio sopra isolante), una tecnologia brevettata da IBM e che è stata concessa in licenza ad alcuni giganti dell'industria dei semiconduttori fra cui AMD, Philips e Motorola"
Questo e' solo uno dei tanti "estratti" dalla rete, nei quali si puo' leggere come SOI sia brevetto IBM. A questo punto, yoss, credo mi manchi qualche nozione in merito. Ci sono delle diverse forme di SOI e fin qui va bene, ma in cosa differiscono esattamente e chi ne e' l'inventore/proprietario?? (comuqnue Nvidia ha sempre utilizzato SOI di IBM).
esistono due tipi di transistor SOI: i partial depleted e i fully depleted. IBM è titolare di una serie di brevetti riguardanti, soprattutto, i primi. Comunque non si tratta di una invenzione di IBM e neppure di qualcosa di cui IBM ha l'esclusiva. Le tecnologie SOI, silicon strained, low-k, sono appannaggio di tutte le principali fonderie planetarie, comprese TSMC e UMC e sono utilizzabili da tutti coloro che affidano a tali fonderie la realizzazione di un chip.
nVIDIA ha utilizzato sia SOI di IBM che di TSMC.
Il partial depleted SOI (quello impiegato da IBM) è ideale per circuiti a basso consumo, ha il vantaggio di costare meno di essere più semplice da realizzare rispetto al FD SOI che, però, si presta meglio ad essere utilizzato nei circuiti ad alto rendimento
Qui c'è un articolo che mette a confronto la qualità di de-interlacciamento di X1x00 e 7800: http://www.anandtech.com/video/showdoc.aspx?i=2551
ForeverBlue
15-10-2005, 23:39
nVidia è migliore in molti campi, nel pulldown domina
yossarian
15-10-2005, 23:42
Per cui (e poi giuro che la smetto :D ) come vedi la questione Xenon vs Cell?
Xenon dovrebbe avere TEORICAMENTE 6 thread effettivi da utilizzare nei giochi, essendo ogni core in grado di lavorare autonomamente, no?
si
Ti pare inferiore -come cpu da gioco- quella di 360, rispetto a quella di PS3?
il Cell ha un potenziale di calcolo superiore, ma è più difficile da "gestire" nelle applicazioni videoludiche. Essendo due cpu IO (sembra che neppure xenon sia ooo), se il cell è ben programmato ha qualcosa in più complessivamente. Poi, tutto dipenderà da cosa chiederanno ai due chip i tecnici MS e Sony.
Nella gestione della fisica saranno così importanti le SPU? Il 360 come se la caverà?
Grazie anticipatamente per le risposte. ;)
se la gestione della fisica è interamente delegata alle cpu, il cell è in vantaggio (e le spe giocano un ruolo fondamentale).
p.s. queste sono le ultime domande OT a cui rispondo; non me ne vogliate, ma non è mia intenzione portare OT il thread
ciao
Free Gordon
16-10-2005, 00:52
Grazie Yoss, è un piacere parlare con un tecnico come te. :cool:
esistono due tipi di transistor SOI: i partial depleted e i fully depleted. IBM è titolare di una serie di brevetti riguardanti, soprattutto, i primi. Comunque non si tratta di una invenzione di IBM e neppure di qualcosa di cui IBM ha l'esclusiva. Le tecnologie SOI, silicon strained, low-k, sono appannaggio di tutte le principali fonderie planetarie, comprese TSMC e UMC e sono utilizzabili da tutti coloro che affidano a tali fonderie la realizzazione di un chip.
nVIDIA ha utilizzato sia SOI di IBM che di TSMC.
Il partial depleted SOI (quello impiegato da IBM) è ideale per circuiti a basso consumo, ha il vantaggio di costare meno di essere più semplice da realizzare rispetto al FD SOI che, però, si presta meglio ad essere utilizzato nei circuiti ad alto rendimento
Dunque perche' Intel ed ATI non la adoperano??
Se non ho capito male. resta vero quanto sapevo e cioe' che la "soluzione" SOI della quale IBM e' proprietaria, e' economica, efficace e puo' essere applicata senza stravolgere i macchinari.
Comuqne ho letto piu' volte di come si tratti di un'invenzione IBM, almeno si spiegava come fosse stata messa a punto da loro (nominando anche i centri ove questo e' avvenuto). Probabilmente in tali articoli, si faceva riferimento a (o si confondeva con) la tipologia specifica utilizzata da loro e da AMD per esempio.
Ora no, perche' sono appena rientrato a casuccia e tutto sommato un po' di sonno lo ho, :D ma nei prossimi giorni mi "erudirò" meglio al riguardo.
Sai consigliarmi qualche sito??
tonino25
16-10-2005, 12:52
Raga ma stiamo parlando di qualche fps in piu' dai su non trastulliamoci con queste che secondo me sono solo delle banalita'.
Ma sono l'unico che sostiene tutte e due le case madri???
Nvidia ha fatto una gran cosa con la sua 7800 gtx e Ati non è stata con le mani in mano!
Come sempre ripeto:
Il videogiocatore incallito che vuole utilizzare due schede video e limitarsi a giocare e dilettarsi in overclock moderati optera' per una soluzione ATI.
Il clokkatore che vuole overclock altissimi e stabili sul suo sistema e puntare su un sistema video sempre con due VGA puntera' su NVIDIA senza dubbio ora come ora è la soluzione che adotterei... anzi che ho gia' adottato! :D
Il chipset NF4 è troppo maturo nei confronti del chipset ATI.
Quoto in pieno.
Comunque vorrei anche dire che se si utilizzano le due schede per soli giochi ritengo sincereamente che non ci sia nessuna differenza, vi spiego il motivo: Ad oggi non esiste un solo games che richieda schede grafiche ultrapotenti, con la mia 9700 pro sul muletto riesco a giocare a tutto anche a doom3. Io utilizzerò la mia 7800gtx almeno per 3 o 6 anni, al massimo se trovo una 7800gtx a 200 euro me la compro e la metto in sli. Ati e Nvidia possono sfornare le schede che vogliono 50 / 100 pipelline ma le prestaziooni per i giochi (io gioco a 1280) non è che cambiano tantissimo, infatti non è che ci voglia tutta questa tecnologia per giocare.Considerate che una nuova scheda la fanno pagare 500 euro e non credo che ogni 4 mesi la maggioranza degli utenti può spendere 500 euro. Per questo se ci si vuole togliere lo sfizio si compra ati o nvidia e ci si sta bene a mio parere per 3 o 4 anni, infatti la mia 9700 pro è una grande SCHEDA, ancora oggi non ha nulla da invidiare alle schede di fascia media che cambiano il nome ma la sostanza è quella.
Vorrei dire agli utenti di sperare che Nvidia tiri fuori un altra scheda video e che lo stesso faccia ati nel breve termine in modo tale che i prezzi delle schede si riducano in modo da permettere a noi utenti di avere schede che secondo ATI e NVIDIA sono vecchie ma che secondo il punto di vista di chi le utilizza sono il top. Voglio dire ai cd fan di finirla con il tifare NVIDIA o ATI non siamo allo stadio, bisogna tifare per noi utenti e BASTA. Ciao a tutti e speriamo che ci sia sempre più concorrenza anche con l' ingresso di altri produttori di schede video.
Captain_mason
16-10-2005, 13:43
Quoto in pieno.
Comunque vorrei anche dire che se si utilizzano le due schede per soli giochi ritengo sincereamente che non ci sia nessuna differenza, vi spiego il motivo: Ad oggi non esiste un solo games che richieda schede grafiche ultrapotenti, con la mia 9700 pro sul muletto riesco a giocare a tutto anche a doom3. Io utilizzerò la mia 7800gtx almeno per 3 o 6 anni, al massimo se trovo una 7800gtx a 200 euro me la compro e la metto in sli. Ati e Nvidia possono sfornare le schede che vogliono 50 / 100 pipelline ma le prestaziooni per i giochi (io gioco a 1280) non è che cambiano tantissimo, infatti non è che ci voglia tutta questa tecnologia per giocare.Considerate che una nuova scheda la fanno pagare 500 euro e non credo che ogni 4 mesi la maggioranza degli utenti può spendere 500 euro. Per questo se ci si vuole togliere lo sfizio si compra ati o nvidia e ci si sta bene a mio parere per 3 o 4 anni, infatti la mia 9700 pro è una grande SCHEDA, ancora oggi non ha nulla da invidiare alle schede di fascia media che cambiano il nome ma la sostanza è quella.
Vorrei dire agli utenti di sperare che Nvidia tiri fuori un altra scheda video e che lo stesso faccia ati nel breve termine in modo tale che i prezzi delle schede si riducano in modo da permettere a noi utenti di avere schede che secondo ATI e NVIDIA sono vecchie ma che secondo il punto di vista di chi le utilizza sono il top. Voglio dire ai cd fan di finirla con il tifare NVIDIA o ATI non siamo allo stadio, bisogna tifare per noi utenti e BASTA. Ciao a tutti e speriamo che ci sia sempre più concorrenza anche con l' ingresso di altri produttori di schede video.
:read:
yossarian
16-10-2005, 14:58
Dunque perche' Intel ed ATI non la adoperano??
chi ha detto che non l'adoperano?
Se non ho capito male. resta vero quanto sapevo e cioe' che la "soluzione" SOI della quale IBM e' proprietaria, e' economica, efficace e puo' essere applicata senza stravolgere i macchinari.
Comuqne ho letto piu' volte di come si tratti di un'invenzione IBM, almeno si spiegava come fosse stata messa a punto da loro (nominando anche i centri ove questo e' avvenuto). Probabilmente in tali articoli, si faceva riferimento a (o si confondeva con) la tipologia specifica utilizzata da loro e da AMD per esempio.
Ora no, perche' sono appena rientrato a casuccia e tutto sommato un po' di sonno lo ho, :D ma nei prossimi giorni mi "erudirò" meglio al riguardo.
Sai consigliarmi qualche sito??
IBM è stata la prima ad utilizzare metallizzazioni in rame all'interno del package (tecnologia che permette di ridurre le correnti parassite), abbinate ad uno strato di SiO2 (in precedenza si utilizzava la combinazione Al-SiO2). IBM utilizza una tecnologia PD SOI, idonea a circuiti economici e a basso consumo che, però, hanno rese inferiori rispetto alle tecnologie FD SOI (che utilizzano materiali a costante dielettrica inferiore e che rappresentano la soluzione ideale per transistor a canale corto, ma che richiedono una lavorazione supplementare per aumentarne la resistenza meccanica).
La SOI non è una tecnologia proprietaria, alla portata di chi l'ha brevettata e di chi ha ottenuto le licenze per lo sfruttamento; si tratta di un principio di isolamento dei transistor dallo strato di silicio inferiore che costituisce il ground (quindi niente di particolarmente esotico o concetualmente complicato), e ognuno ha facoltà di sperimentare nuovi materiali e sviluppare una propria variante. Ad esempio l'utilizzo di tecnologia low-k include il ricorso alla SOI, mediante l'utilizzo di materiali a costante dielettrica inferiore o, al più, uguale al SiO2. Tra l'altro, la SOI non è la panacea per tutti i problemi; come ogni altra tecnologia, presenta vantaggi ma anche qualche svantaggio, rispetto all'utilizzo della tecnica standard bulk.
Se vuoi documentarti puoi farlo mediante una banale ricerca su internet; personalmente ti consiglierei un buon libro di tecnologia dei materiali, almeno da utilizzare come base di partenza.
Se non sbaglio AMD usa la tecnologia SOI di IBM ? :confused:
yossarian
16-10-2005, 15:03
Se non sbaglio AMD usa la tecnologia SOI di IBM ? :confused:
si, è una tecnologia in parte sviluppata in collaborazione tra le due società.
fantoibed
16-10-2005, 15:15
si, è una tecnologia in parte sviluppata in collaborazione tra le due società.E Intel? Hanno sempre detto che non utilizzano la tecnologia SOI (IBM gliel'aveva offerta prima che ad AMD se non erro, ma Intel ha rifiutato). Pensi che nella strained silicon vengano inserite altri materiali a bassa costante dielettrica invece che il SiO2 in modo da non pagare il brevetto e contemporaneamente utilizzare una tecnologia completamente analoga al SOI ? :p
yossarian
16-10-2005, 16:14
E Intel? Hanno sempre detto che non utilizzano la tecnologia SOI (IBM gliel'aveva offerta prima che ad AMD se non erro, ma Intel ha rifiutato). Pensi che nella strained silicon vengano inserite altri materiali a bassa costante dielettrica invece che il SiO2 in modo da non pagare il brevetto e contemporaneamente utilizzare una tecnologia completamente analoga al SOI ? :p
Intel utiliza, per lo più, tecnologia SOI FD (all'incirca dal 2001, ma, al contrario di quanto fanno IBM e AMD, utilizza materiali isolanti solo a livello di giunzioni e non su tutto il die, per ridurre i costi) che meglio si adatta a circuiti a elevate frequenze e per cui ha alcuni brevetti, e si serve delle tecnologia di TSMC.
Ad ogni transizione da un processo tecnologico ad uno a nanometrie inferiori, va valutata l'efficacia del processo utilizzato per la nanometria precedente e, eventualmente, vanno apportate delle variazioni atte a ripristinare valori di isolamento accettabili
La tecnologia strained silicon non è una forma di SOI, ma può essere abbinata alla SOI per migliorare le prestazioni velocizzando il flusso di elettroni nella direzione voluta.
fantoibed
16-10-2005, 17:24
Sinceramente sapevo il contrario (cioè che lo SS venisse impiegato nel SiO2 "bulk" della tecnologia FD-CMOS) ma non mi sono mai preoccupato di approfondire l'argomento... :ops:
Intanto mi segno un po' di link. Più avanti leggerò tutto (in modo da chiarirmi le idee), ora sono un po' di corsa :ops:
http://www.computerworld.com/hardwaretopics/hardware/server/story/0,10801,55266,00.html
http://www.intel.com/pressroom/archive/releases/20011126tech.htm
http://www.icknowledge.com/threshold_simonton/soitechnology.pdf
http://www.sigen.com/pdf/tech1.pdf
http://www.intel.com/technology/itj/q31998/articles/art_3g.htm
http://developer.intel.com/technology/itj/2002/volume06issue02/art05_transistorarch/vol6iss2_art05.pdf
http://www.amdboard.com/soispecial.html
Edit:
http://www.electricityforum.com/news/aug04/silicon.html
http://www.compoundsemiconductor.net/articles/magazine/10/9/1/1
chi ha detto che non l'adoperano?
Tu, per esempio. :) Pochi post fa hai detto "Senza SOI". ATI, a questo punto, come Intel, probabilmente adopera altre tecnologie non definiili SOI, ma concettualmente vicine. Tuttavia..si, è una tecnologia in parte sviluppata in collaborazione tra le due società. .. evidentemente, visti i problemi riscontrati da Intel ed ATI, nella realizzazione di processori a 90nm, possiamo dire (terra terra) che il brevetto IBM, sia piu' efficafe.
Nel caso di Intel, giustifichiamo con le frequenze, (anche se al tempo erano come quelle che ora utilizza AMD tranquillamente con SOI di IBM), me nel caso di ATI, direi che non si parli di 3-4ghz. Dunque?? :-/
^TiGeRShArK^
16-10-2005, 18:55
madrat da quant'è ke non ti fai un giro su beyond 3d???
lì è spiegato kiaramente ke i problemi di ATI non hanno niente a ke vedere col SOI, ma si trattava di un baco, difficilissimo da tracciare xkè si presentava in maniera estremamente casuale nelle GPU ad elevata frequenza....
è stata la difficoltà di questo tracciamento a causare il ritardo di R520... infatti una volta individuato questo bug sono bastate poke ore di lavoro per risolverlo..... e a qaunto ho capito il SOI quindi non ha proprio niente a ke vedere con i prob riscontrati da ATI.....
yossarian
16-10-2005, 19:32
Tu, per esempio. :) Pochi post fa hai detto "Senza SOI". ATI, a questo punto, come Intel, probabilmente adopera altre tecnologie non definiili SOI, ma concettualmente vicine. Tuttavia.. .. evidentemente, visti i problemi riscontrati da Intel ed ATI, nella realizzazione di processori a 90nm, possiamo dire (terra terra) che il brevetto IBM, sia piu' efficafe.
Nel caso di Intel, giustifichiamo con le frequenze, (anche se al tempo erano come quelle che ora utilizza AMD tranquillamente con SOI di IBM), me nel caso di ATI, direi che non si parli di 3-4ghz. Dunque?? :-/
SOI non è una specifica tecnologia; significa semplicemente utilizzare un materiale isolante all'interno del package. ATi e Intel hanno a disposizione tecnologie SOI al pari di AMD, IBM o nVIDIA. La tecnologia low-k adoperata per R420 è una SOI a basso valore di k a tutti gli effetti (e, direi, anche di tipo molto sofisticato). Inoltre, per la realizzazione dei suoi chip, nVIDIA si appoggia prevalentemente a TSMC e non a IBM (che ha realizzato solo una minima parte dei chip NV della serie NV3x e poco altro). Il brevetto di IBM per i 90 nm non è affatto più efficace (TSMC ha tecnologie SOI e strained silicon già a 0,065) e la SOI non risolve affatto tutti i problemi di realizzazione di un chip.
Ho l'impressione che tu tenda a considerare questa tecnologia come qualcosa a cui pochi hanno il privilegio di accedere e che sia la panacea di tutti i mali. Questo non è affatto vero e ATi o Intel non sono per nulla più arretrate rispetto a IBM, nVIDIA o AMD nelle tecnologie dei materiali.
Infine, come ha già detto Tigershark, il problema di R520 non c'entrave niente con la SOI e non poteva essere rispolto dall'utilizzo o meno di quest'ultima.
yossarian
16-10-2005, 19:51
Sinceramente sapevo il contrario (cioè che lo SS venisse impiegato nel SiO2 "bulk" della tecnologia FD-CMOS) ma non mi sono mai preoccupato di approfondire l'argomento... :ops:
Intanto mi segno un po' di link. Più avanti leggerò tutto (in modo da chiarirmi le idee), ora sono un po' di corsa :ops:
http://www.computerworld.com/hardwaretopics/hardware/server/story/0,10801,55266,00.html
http://www.intel.com/pressroom/archive/releases/20011126tech.htm
http://www.icknowledge.com/threshold_simonton/soitechnology.pdf
http://www.sigen.com/pdf/tech1.pdf
http://www.intel.com/technology/itj/q31998/articles/art_3g.htm
http://developer.intel.com/technology/itj/2002/volume06issue02/art05_transistorarch/vol6iss2_art05.pdf
http://www.amdboard.com/soispecial.html
Edit:
http://www.electricityforum.com/news/aug04/silicon.html
http://www.compoundsemiconductor.net/articles/magazine/10/9/1/1
la SS viene impiegata sia in combinazione con tecnologie SOI che da sola; la tecnologia SS, per dirla in maniera molto terra terra, consiste nel modificare le posizioni degli atomi del reticolo cristallino del silicio, "stirandone" i legami in una direzione. In pratica, "l'allontanamento relativo" di due atomi in una determinata direzione, diminuisce le loro interazioni con gli elettroni di conduzione di una giunzione p-n; questo permette una maggiore libertà di movimento degli elettroni e una maggior velocità di spostamento e creando delle direzioni privilegiate. Allo stesso modo, si utilizzano tecniche di "compressione", per diminiure la velocità di elettroni in altre direzioni. Alcuni produttori utilizzano la SS in abbinamento a uno strato uniforme di silicio e germanio. Si può ricorrere alla SS sia con FD-CMOS che con PD-CMOS
capisco l'interesse per queste tecnologie, però non credo sia opportuno trasformare questo thread in un "corso" di tecnologie dei materiali; trasformarlo in una trattazione di tipo tecnico farebbe scappare parecchi utenti e farebbe perdere interesse al thread; trattare questi ar5gomenti in maniera troppo superficiale non renderebbe giustizia alla complessità della materia e non permetterebbe esposizioni precise e corrette. :)
fantoibed
16-10-2005, 20:15
la SS viene impiegata sia in combinazione con tecnologie SOI che da solaSi. Ho letto della s-SOI, della bulk ss, della SOI e anche di molte altre varianti (qualcuno inizia anche già a parlare di Germanium on insulator). Quello che sto dicendo è che, a quanto si legge in rete, la Intel usa il bulk strained silicon e non il SOI o qualche sua variante (sia nell'attuale processo a 90nm sia in quello prossimo venturo a 65nm). Che poi non lo usino per scelta e non per impossibilità, sono perfettamente d'accordo con te. :mano:
(...e chiudo qui, sennò andiamo OT...) :p
yossarian
16-10-2005, 20:34
Si. Ho letto della s-SOI, della bulk ss, della SOI e anche di molte altre varianti (qualcuno inizia anche già a parlare di Germanium on insulator). Quello che sto dicendo è che, a quanto si legge in rete, la Intel usa il bulk strained silicon e non il SOI o qualche sua variante (sia nell'attuale processo a 90nm sia in quello prossimo venturo a 65nm). Che poi non lo usino per scelta e non per impossibilità, sono perfettamente d'accordo con te. :mano:
(...e chiudo qui, sennò andiamo OT...) :p
ok, non avevo capito cosa intendevi :D
In effetti, nei chip a 0,09 e a 0,065 non si fa uso di SOI; Intel ha sperimentato il SOI con isolanti ultra sottili (ultra low-k) che permettono di ridurre drasticamente le dimensioni del canale s-d dei transistor. Si tratta, però, di una tecnologia molto costosa, perchè richiede l'uso di trattamenti supplementari sugli isolanti adoperati (in questo caso non si usa SiO2), per aumentarne la resistenza (tanto che veniva applicata ove era ritenuto necessario e non sul tutto il die). La SS messa a punto da Intel per i chip a 0,09 è differente dalla SS "tradizionale", in quanto prevede trattamenti differenziati per n-MOS e p-MOS. A detta di Intel, questa tecnologia, denominata advanced SS, permette di realizzare transisotr a canale molto corto, riducendo nel frattempo, fino a 4 volte il leakage (questa mi sa tanto di sparata: 4x è veramente tanto, troppo di più di quello che si riesce a ottenere con la FD SOI :D ), senza far ricorso a tecnologie SOI.
Quante cose sai yossarian !!! :D
leoneazzurro
16-10-2005, 20:55
ok, non avevo capito cosa intendevi :D
In effetti, nei chip a 0,09 e a 0,065 non si fa uso di SOI; Intel ha sperimentato il SOI con isolanti ultra sottili (ultra low-k) che permettono di ridurre drasticamente le dimensioni del canale s-d dei transistor. Si tratta, però, di una tecnologia molto costosa, perchè richiede l'uso di trattamenti supplementari sugli isolanti adoperati (in questo caso non si usa SiO2), per aumentarne la resistenza (tanto che veniva applicata ove era ritenuto necessario e non sul tutto il die). La SS messa a punto da Intel per i chip a 0,09 è differente dalla SS "tradizionale", in quanto prevede trattamenti differenziati per n-MOS e p-MOS. A detta di Intel, questa tecnologia, denominata advanced SS, permette di realizzare transisotr a canale molto corto, riducendo nel frattempo, fino a 4 volte il leakage (questa mi sa tanto di sparata: 4x è veramente tanto, troppo di più di quello che si riesce a ottenere con la FD SOI :D ), senza far ricorso a tecnologie SOI.
Al contrario AMD, se non erro, utilizza tecnologia SOI sin dai primi Athlon 64, e il processo non è particolarmente più costoso di quello normale, dato che a quanto pare utilizza materiali abbastanza "normali". Le CPU a 90 nm attuali di AMD utilizzano anche lo SS, nella versione "Dual Stress Liner" che comporta anch'essa diversità di trattamento tra transistor a canale P ed N.
Solo per le pari opportunità :D
yossarian
16-10-2005, 20:58
Al contrario AMD, se non erro, utilizza tecnologia SOI sin dai primi Athlon 64, e il processo non è particolarmente più costoso di quello normale, dato che a quanto pare utilizza materiali abbastanza "normali". Le CPU a 90 nm attuali di AMD utilizzano anche lo SS, nella versione "Dual Stress Liner" che comporta anch'essa diversità di trattamento tra transistor a canale P ed N.
Solo per le pari opportunità :D
infatti; il processo utilizzato da AMD (che è lo stesso di IBM) è un processo che fa uso di PD SOI (isolante prevalentemente adoperato SiO2), che a livello di costi è comparabile alla tecnologia bulk. In abbinamento alla SOI fa uso di tecnologia SS di tipo dual stress liner che ha la duplice funzione di migliorare l'isolamento e di incrementare le prestazioni (si stima di circa un 25-30% ma anche questo dato è da verificare, IMHO)
leoneazzurro
16-10-2005, 21:04
ma per programmi intendi software? e questi "programmi" sarebbero i vari Shader Model? sono un genio :eek: :D
I "programmi" sono gli shader, gli Shader Model sono le "specifiche" secondo le quali questi shader sono scritti, e che debbono essere supportate dall'hardware per garantire l'esecuzione in tempo reale.
I vertex engines sono a monte dei pixel shader (domanda: i PS sono unità interne alle pipeline?) quindi prima viene elaborata l'immagine 3D dai VS quindi i PS applicano gli effetti vari ai singoli poligoni?
grazie, mi stai aprendo le porte verso un nuovo mondo :eek: :D
Le vertex unit nelle architetture tradizionali (quelle che si rifanno alla pipeline di OpenGL) sono a monte delle unità Pixel Shader, mentre le "pipeline" alle quali (impropriamente) spesso ci si riferisce sono le Pixel Shader Pipeline, che contengono le Shader Unit (e quindi si, nell'architettura classica le shader pipeline contengono le PS unit). In realtà anche le vertex Unit sono di tipo pipelined, quindi è improprio dire "G70 ha 24 pipelines" bensì "G70 ha 8 vertex pipelines e 24 shader pipelines" (e 16 Z/compare units e 16 ROPs).
Si, la scena viene prima elaborata dai VS e poi dai PS, ma i PS non applicano gli effetti ai poligoni, bensì proprio ai pixel.
capitan_crasy
16-10-2005, 23:31
Ecco qui i primi test delle altre soluzioni ATI, più precisamente X1300PRO e X1600XT...
Clicca qui... (http://www.firingsquad.com/hardware/ati_radeon_x1600_xt_x1300_pro/)
SOI non è una specifica tecnologia; significa semplicemente utilizzare un materiale isolante all'interno del package. ATi e Intel hanno a disposizione tecnologie SOI al pari di AMD, IBM o nVIDIA. La tecnologia low-k adoperata per R420 è una SOI a basso valore di k a tutti gli effetti (e, direi, anche di tipo molto sofisticato). Inoltre, per la realizzazione dei suoi chip, nVIDIA si appoggia prevalentemente a TSMC e non a IBM (che ha realizzato solo una minima parte dei chip NV della serie NV3x e poco altro). Il brevetto di IBM per i 90 nm non è affatto più efficace (TSMC ha tecnologie SOI e strained silicon già a 0,065) e la SOI non risolve affatto tutti i problemi di realizzazione di un chip.
Ho l'impressione che tu tenda a considerare questa tecnologia come qualcosa a cui pochi hanno il privilegio di accedere e che sia la panacea di tutti i mali. Questo non è affatto vero e ATi o Intel non sono per nulla più arretrate rispetto a IBM, nVIDIA o AMD nelle tecnologie dei materiali.
Infine, come ha già detto Tigershark, il problema di R520 non c'entrave niente con la SOI e non poteva essere rispolto dall'utilizzo o meno di quest'ultima.
Non tendo a considere soi come panacea, assolutamente, bisogna notare pero', come io non sia io l'unico a pensare che Intel ed ATI (che come ti ho fatto notare prima, tu stesso lo hai detto), non utilizzassero tale soluzione. So bene di cosa si tratti, ed il concetto base e' anche piuttosto semplice.
Restano evidenti i problemi avuti da Intel a 90mn, completamente inesistenti nelle CPU AMD, tuttavia tralascerei il caso Intel, per non andare OT come dici tu (ed anche perche' sufficientemente chiarito qui sopra), ma parlerei di ATI.
Per quanto riguarda appunto R520, ho attribuito all'assenza di soluzioni d'isolamento (efficienti), perche' per mesi si e' parlato di un numero di pipeline pari a 32, poi 24 ed in fine 16 (parlando chiaramente di percentuali di resa dei wafer), alla fine il progetto e' stato modificato notevolmente direi.
E' un po' che non faccio un giro su Beyon3d, lavoro molto ed il tempo che ho, come e' facile vedere, spesso lo dedico ai forum o ad argomenti piu' inerenti al mio settore. Penso mi andro' a leggere una mesata di notizie. :doh: :)
Quante cose sai yossarian !!! :D
Troppe, secondo me e' un consorzio di specialisti che ci prendono per i fondelli. :D
yossarian
17-10-2005, 01:33
Non tendo a considere soi come panacea, assolutamente, bisogna notare pero', come io non sia io l'unico a pensare che Intel ed ATI (che come ti ho fatto notare prima, tu stesso lo hai detto), non utilizzassero tale soluzione. So bene di cosa si tratti, ed il concetto base e' anche piuttosto semplice.
Restano evidenti i problemi avuti da Intel a 90mn, completamente inesistenti nelle CPU AMD, tuttavia tralascerei il caso Intel, per non andare OT come dici tu (ed anche perche' sufficientemente chiarito qui sopra), ma parlerei di ATI.
Per quanto riguarda appunto R520, ho attribuito all'assenza di soluzioni d'isolamento (efficienti), perche' per mesi si e' parlato di un numero di pipeline pari a 32, poi 24 ed in fine 16 (parlando chiaramente di percentuali di resa dei wafer), alla fine il progetto e' stato modificato notevolmente direi.
E' un po' che non faccio un giro su Beyon3d, lavoro molto ed il tempo che ho, come e' facile vedere, spesso lo dedico ai forum o ad argomenti piu' inerenti al mio settore. Penso mi andro' a leggere una mesata di notizie. :doh: :)
dove avrei detto che Intel e ATi non fanno uso o non hanno fatto uso di tecnologie SOI? Se ti rifersici a quel "no" dato in risposta ad una tua domanda di qualche pagina fa, allora ti faccio presente che si trattava di una battuta riferita all'uso di tecnologia SOI da parte di nVIDIA; l'ho fatta semplicemente perchè so quanto tu ti aspetti da questa tecnica "miracolosa" :D .
Ormai penso che chiunque si sia accorto che, in realtà, R520 non ha pixel pipeline ma una serie di processori vettoriali in parallelo controllati e organizzati da un'unità di elaborazione centrale (quindi non ha senso parlare di progetto a 32 o 24 o 16 pipeline). Nei prossimi chip della serie 5x0, ci si può aspettare un incremento del numero delle SPU (Shader Processing Unit :D ), grazie all'estrema modularità di questo tipo di architettura, ma non certo un aumento del numero di pixel pipeline.
Anzi, ad essere pignoli, si potrebbe contare il numero di pipeline basandosi su quelle unità che, di fatto, "scrivono" nel fb. Se si contassero in tal modo, si potrebbe scoprire che R520, ma anche G70, hanno "solo" 16 pipeline, esattamente come R4x0 e NV4x
OT domenica, al derby, la vedo dura :cry:
cdimauro
17-10-2005, 10:21
Un thread esiste già: http://www.hwupgrade.it/forum/showthread.php?t=960068&page=1
Tanto per tornare in topic, non mi sembra di aver ancora visto nessuna x1800 in vendita sui soliti online shop italiani... qualcuno può smentire?
dove avrei detto che Intel e ATi non fanno uso o non hanno fatto uso di tecnologie SOI? Se ti rifersici a quel "no" dato in risposta ad una tua domanda di qualche pagina fa, allora ti faccio presente che si trattava di una battuta riferita all'uso di tecnologia SOI da parte di nVIDIA; l'ho fatta semplicemente perchè so quanto tu ti aspetti da questa tecnica "miracolosa" :D .
Ormai penso che chiunque si sia accorto che, in realtà, R520 non ha pixel pipeline ma una serie di processori vettoriali in parallelo controllati e organizzati da un'unità di elaborazione centrale (quindi non ha senso parlare di progetto a 32 o 24 o 16 pipeline). Nei prossimi chip della serie 5x0, ci si può aspettare un incremento del numero delle SPU (Shader Processing Unit :D ), grazie all'estrema modularità di questo tipo di architettura, ma non certo un aumento del numero di pixel pipeline.
Anzi, ad essere pignoli, si potrebbe contare il numero di pipeline basandosi su quelle unità che, di fatto, "scrivono" nel fb. Se si contassero in tal modo, si potrebbe scoprire che R520, ma anche G70, hanno "solo" 16 pipeline, esattamente come R4x0 e NV4x.
OT domenica, al derby, la vedo dura :cry:
Sì, diciamo che risulta evidente ora, ma non sapevo (e non so ancora) quanto quest'architettura sia dovuta ad un "ripiego"(ripiego e' un termine brutto, magari un avanzamento di progetto). Insomma, i vari rumor (che so bene essere inattendibili in qualita' di tali), fornivano dati ben precisi, dunque le cose sono due; O chi li ha immessi ed inventati, ha compiuto un bel lavoro, o c'erano piu' pipeline e dunque l'architettura dell'R520 era dissimile da quella che ora vediamo. (o semplicemente chi ha riportato i rumor non ci ha capito un c.. :D) Ecco in base a cosa si puo' pensare anche a problemi di produzione legati anche (perché no) al passaggio a 90nm di processo produttivo, del resto non sarebbe stata la prima volta nella storia.
OT: Non mi interesso di calcio (ci sono minerali che preferisco), ma forse con "un po' di SOI" potrebbero avere prestazioni migliori, che ne so', latte di SOI!! :D
Tanto per tornare in topic, non mi sembra di aver ancora visto nessuna x1800 in vendita sui soliti online shop italiani... qualcuno può smentire?
Purtroppo io non posso smentirti, a difficolta' qualcosa d'importazione si rimedia, ma per canali convenzionali, per ora (oggi non so ancora, lo sapro' tra un po'), sono riuscito ad ordinare solo delle x1300 e x1600 (per le quali pero', non c'e' attesa affatto, le prestazioni non sono eccezionali, almeno per il momento).
leoneazzurro
17-10-2005, 13:20
Purtroppo io non posso smentirti, a difficolta' qualcosa d'importazione si rimedia, ma per canali convenzionali, per ora (oggi non so ancora, lo sapro' tra un po'), sono riuscito ad ordinare solo delle x1300 e x1600 (per le quali pero', non c'e' attesa affatto, le prestazioni non sono eccezionali, almeno per il momento).
ma le 1600 non sono attese per Novembre? :confused:
ma le 1600 non sono attese per Novembre? :confused:
In volumi decenti. Poi che vi siano in catalogo, spesso non corrisponde ad un effettiva disponibilita'.. "uelcam in itali" :D Vedremo. :)
yossarian
17-10-2005, 13:44
Sì, diciamo che risulta evidente ora, ma non sapevo (e non so ancora) quanto quest'architettura sia dovuta ad un "ripiego"(ripiego e' un termine brutto, magari un avanzamento di progetto). Insomma, i vari rumor (che so bene essere inattendibili in qualita' di tali), fornivano dati ben precisi, dunque le cose sono due; O chi li ha immessi ed inventati, ha compiuto un bel lavoro, o c'erano piu' pipeline e dunque l'architettura dell'R520 era dissimile da quella che ora vediamo. (o semplicemente chi ha riportato i rumor non ci ha capito un c.. :D) Ecco in base a cosa si puo' pensare anche a problemi di produzione legati anche (perché no) al passaggio a 90nm di processo produttivo, del resto non sarebbe stata la prima volta nella storia.
OT: Non mi interesso di calcio (ci sono minerali che preferisco), ma forse con "un po' di SOI" potrebbero avere prestazioni migliori, che ne so', latte di SOI!! :D
da 1 a 10, secondo te, il fragment processor di r520 quanto somiglia ad un'architettura tradizionale di tipo pipelined?
Free Gordon
17-10-2005, 14:12
Una cosa da profano posso dirla: mi pare impossibile che Ati abbia riprogettato in 3 mesi una GPU da 320mln di transistor toglienfo pipe e cambiando mem controller ecc ecc.
Mi sa che il progetto era pressappoco quello fin dall'inizio ma come al solito le chiacchiere da forum hanno avuto il sopravvento... :ciapet:
da 1 a 10, secondo te, il fragment processor di r520 quanto somiglia ad un'architettura tradizionale di tipo pipelined?
Poco e nulla, percio' non e' un errore pensare che abbiano cambiato strada a meta' percorso. :) Meglio cosi'.
Una cosa da profano posso dirla: mi pare impossibile che Ati abbia riprogettato in 3 mesi una GPU da 320mln di transistor toglienfo pipe e cambiando mem controller ecc ecc.
Mi sa che il progetto era pressappoco quello fin dall'inizio ma come al solito le chiacchiere da forum hanno avuto il sopravvento... :ciapet:
Perche' no?? attingendo da quello che magari sarebbe comunque stato l'R580 o anticipando qualche soluzione dell'R600, o piu' semplicemente, utilizzandone alcune dell'R500.
yossarian
17-10-2005, 14:22
Poco e nulla, percio' non e' un errore pensare che abbiano cambiato strada a meta' percorso. :) Meglio cosi'.
e se ti dicessi che questa è la tipologia di chip che sarebbe dovuto uscire con il nome di R400? Ovviamente, con le dovute proporzioni (8 rop's, 8 tmu e 4 o 6 vsu). Non è uscita solo perchè, per le tecnologie dell'epoca, il chip era stato giudicato troppo complesso e con funzionalità troppo avanzate. Questo è stato il motivo del "ripiego" verso l'architettura di R3x0 anche per la generazione successiva.
yossarian
17-10-2005, 14:25
Una cosa da profano posso dirla: mi pare impossibile che Ati abbia riprogettato in 3 mesi una GPU da 320mln di transistor toglienfo pipe e cambiando mem controller ecc ecc.
Mi sa che il progetto era pressappoco quello fin dall'inizio ma come al solito le chiacchiere da forum hanno avuto il sopravvento... :ciapet:
L'idea di realizzare un chip con questa architettura risale a circa 3 anni fa; tanto che durante lo scorso anno, ATi ha stretto un accordo di collaborazione con Intrinsity, una delle società all'avanguardia nella realizzazione di chip RISC ad alte prestazioni (e frequenze), avendo accesso esclusivo alla tecnologia fast14 (di cui qui si vede qualcosa ma che, molto probabilmente, sarà adoperata in maniera massiccia in R600)
L'idea di realizzare un chip con questa architettura risale a circa 3 anni fa; tanto che durante lo scorso anno, ATi ha stretto un accordo di collaborazione con Intrinsity, una delle società all'avanguardia nella realizzazione di chip RISC ad alte prestazioni (e frequenze), avendo accesso esclusivo alla tecnologia fast14 (di cui qui si vede qualcosa ma che, molto probabilmente, sarà adoperata in maniera massiccia in R600)
La notizia dell'utilizzo di fast14 , risale ai primi del 2004. Comunque problemi riscontrati nel proseguire con le vecchie architetture, hanno favorito il passaggio a questo altro tipo, decisamente piu' innovativo e performante.
Nvidia come rispondera'??
yossarian
17-10-2005, 14:53
La notizia dell'utilizzo di fast14 , risale ai primi del 2004. Comunque problemi riscontrati nel proseguire con le vecchie architetture, hanno favorito il passaggio a questo altro tipo, decisamente piu' innovativo e performante.
Nvidia come rispondera'??
il fast14 risale al 2004, ma non l'idea di un chip con architettura differente. Se ti ricordi, si parlò di un progetto R400; si disse che era stato abbandonato, poi che era stato trasformato in R500 perchè troppo avanzato per l'epoca. La realtà è che R400 era un progetto di nuova architettura, non solo un chip; progetto che non è mai stato abbandonato, ma è stato portato avanti parallelamente ai refresh di R300. Di conseguenza, R520 non è stato un ripiego, per incapacità di realizzare un chip con 24 o 32 pipeline, ma è nato esattamente così come lo vedi. Tanto che R580 vedrà "solo" un aumento dei quad di pixel shading. Si stava solo aspettando che i tempi fossero maturi per lanciare questo nuovo chip.
Per il mometno, nVIDIA sta operando la transizione a 0,09 di tutta la serie 7 e, nel frattempo, sta lavorando sul chip wgf2.0. Credo che vedremo delle novità sostanziose, però, solo in prossimità dell'introduzione dello sm4.0
ATI tecnologicamente è spaventosamente avanti, quando leggo che le pipe unificate erano previste eoni fa mi vengono i brividi. :)
Yoss secondo te in che misura avrà inciso lo stretto rapporto con MS (R500 x 360) nello sviluppo degli shader unificati ? Possibile che ATI abbia avuto un rapporto privilegiato nello sviluppo WGF 2.0 ? :)
Di conseguenza, R520 non è stato un ripiego, per incapacità di realizzare un chip con 24 o 32 pipeline, ma è nato esattamente così come lo vedi. Tanto che R580 vedrà "solo" un aumento dei quad di pixel shading. Si stava solo aspettando che i tempi fossero maturi per lanciare questo nuovo chip.
Secondo te quanto sono fondate le voci che davano R580 quello che doveva essere la gpu originaria e che invece è stata leggermente modificata per problemi di produzione?
Non è che R520 è in realtà un ripiego sul serio ma per soli problemi produttivi?
EDIT : Ho riletto e dal punto di vista linguistico è uscito un abominio, spero si capisca cosa intendo.
UltimaWeapon
17-10-2005, 15:22
Le vertex unit nelle architetture tradizionali (quelle che si rifanno alla pipeline di OpenGL) sono a monte delle unità Pixel Shader, mentre le "pipeline" alle quali (impropriamente) spesso ci si riferisce sono le Pixel Shader Pipeline, che contengono le Shader Unit (e quindi si, nell'architettura classica le shader pipeline contengono le PS unit). In realtà anche le vertex Unit sono di tipo pipelined, quindi è improprio dire "G70 ha 24 pipelines" bensì "G70 ha 8 vertex pipelines e 24 shader pipelines" (e 16 Z/compare units e 16 ROPs).
Ok ho capito.
Negli Rx5xx i VS sono pipelined?
Sempre negli Rx5xx, non si parla più di pixel pipelines ma di pixel processors (nell'articolo li chiama shader pipelines). Più precisamente che differenza c'è? :D
Nel quote tu dici che le Pixel Shader Pipelines contengono le Shader Unit, sarebbero l'equivalente dei pixel processors dei Rx5xx?
ah altra domanda: cos'è il setup engine tra VS e PS?
scusa ma faccio un pò di confusione coi nomi :D
yossarian
17-10-2005, 15:23
ATI tecnologicamente è spaventosamente avanti, quando leggo che le pipe unificate erano previste eoni fa mi vengono i brividi. :)
Yoss secondo te in che misura avrà inciso lo stretto rapporto con MS (R500 x 360) nello sviluppo degli shader unificati ? Possibile che ATI abbia avuto un rapporto privilegiato nello sviluppo WGF 2.0 ? :)
rapporti privilegiati nello sviluppo delle API li escludo. Vantaggi potrebbe averne nello sviluppo della piattaforma dell'xbox, dal momento che, pur essendo differente dal pc, si ha modo di iniziare a prendere confidenza sul campo con molte delle novità introdotte dallo sm4.0
yossarian
17-10-2005, 15:32
Secondo te quanto sono fondate le voci che davano R580 quello che doveva essere la gpu originaria e che invece è stata leggermente modificata per problemi di produzione?
Non è che R520 è in realtà un ripiego sul serio ma per soli problemi produttivi?
EDIT : Ho riletto e dal punto di vista linguistico è uscito un abominio, spero si capisca cosa intendo.
r520 è un progetto "pilota"; il chip definitivo sm3.0 è r580. Questo non significa che sia stato un ripiego; tutt'altro. R520 è già sufficiente a raggiungere gli scopi che ATi si era prefissata (prestazioni, innovazioni tecnologiche e transizione a 0,09 in primo luogo); ora ci sarà solo da ottimizzare il sw per questo nuovo modello di architettura e, in un secondo tempo, operare la transizione definitiva a r580. Questo anche nell'ottica della futura risposta di nVIDIA che, passando a 0,09 può sicuramente salire in frequenza e riguadagnare il terreno perduto in fatto di prestazioni
leoneazzurro
17-10-2005, 16:18
Ok ho capito.
Negli Rx5xx i VS sono pipelined?
A quanto ne so, si.
Sempre negli Rx5xx, non si parla più di pixel pipelines ma di pixel processors (nell'articolo li chiama shader pipelines). Più precisamente che differenza c'è? :D
R520 è diverso da un'architettura tradizionale come G70, infatti per certi versi è simile ad un'architettura a shader unificati. Quindi mentre in G70 le texture unit sono all'interno delle pixel shader pipelines, in R520 sono separate, e le "pixel pipelines" tradizionali sono praticamente divise in 2 blocchi interconnessi dal ring bus. Quindi il blocco le ALU per i calcoli matematici vengono ridefinite come "shader processors" mentre le unità che si occupano del texture fetch sono separate nel blocco TU (Texture units). Anche gli shader processors sono di tipo pipelined, ma a monte c'è un'altra "novità", ossia il dispatch processor, un circuito che si occupa di distribuire ed ottimizzare il lavoro degli shader processors.
Nel quote tu dici che le Pixel Shader Pipelines contengono le Shader Unit, sarebbero l'equivalente dei pixel processors dei Rx5xx?
ah altra domanda: cos'è il setup engine tra VS e PS?
scusa ma faccio un pò di confusione coi nomi :D
Si, le shader unit delle pipelines tradizionali sono equivalenti ai pixel processors. Tuttavia vi è una differenza in termini di efficienza e modularità.
Il setup engine "raccoglie" riassemblandoli i dati geometrici elaborati dai VS prima di inviarli alle successive operazioni di pixel shading.
Per carità, non prendermi per un esperto, io non lo sono affatto. appassionandomi all'argomento, sono riuscito a "captare" qualcosa, ma i guru sono altri :D
ATI tecnologicamente è spaventosamente avanti, quando leggo che le pipe unificate erano previste eoni fa mi vengono i brividi. :)
Yoss secondo te in che misura avrà inciso lo stretto rapporto con MS (R500 x 360) nello sviluppo degli shader unificati ? Possibile che ATI abbia avuto un rapporto privilegiato nello sviluppo WGF 2.0 ? :)
Per quel che mi riguarda ATi è spaventosamente avanti con i ritardi :D
Free Gordon
17-10-2005, 17:31
ATI tecnologicamente è spaventosamente avanti, quando leggo che le pipe unificate erano previste eoni fa mi vengono i brividi.
Non direi tecnologicamente, ma a livello di architettura direi che è sempre stata la prima a portare le innovazioni più radicali.
E credo sarà la prima anche con le WGF2.0, dato che con C1 ha un chip "quasi" full compliant. :D
UltimaWeapon
17-10-2005, 17:56
R520 è diverso da un'architettura tradizionale come G70, infatti per certi versi è simile ad un'architettura a shader unificati. Quindi mentre in G70 le texture unit sono all'interno delle pixel shader pipelines, in R520 sono separate, e le "pixel pipelines" tradizionali sono praticamente divise in 2 blocchi interconnessi dal ring bus. Quindi il blocco le ALU per i calcoli matematici vengono ridefinite come "shader processors" mentre le unità che si occupano del texture fetch sono separate nel blocco TU (Texture units). Anche gli shader processors sono di tipo pipelined, ma a monte c'è un'altra "novità", ossia il dispatch processor, un circuito che si occupa di distribuire ed ottimizzare il lavoro degli shader processors.
allora, le pipeline tradizionali comprendono ALU (PS) e texture units mentre in R520 i quattro core comprendono solo i PS e le TU stanno fuori. è corretto? :D
cos'è il texture fetch? e che vantaggi comporta avere queste unità separate dai PS?
Per carità, non prendermi per un esperto, io non lo sono affatto. appassionandomi all'argomento, sono riuscito a "captare" qualcosa, ma i guru sono altri :D
sarà ma riesci a mettere in difficoltà il mio cervellino a 2 bit :D
leoneazzurro
17-10-2005, 18:06
allora, le pipeline tradizionali comprendono ALU (PS) e texture units mentre in R520 i quattro core comprendono solo i PS e le TU stanno fuori. è corretto? :D
cos'è il texture fetch? e che vantaggi comporta avere queste unità separate dai PS?
1) esatto (più o meno)
2)Il texture fetch altro non è che l'acquisizione dei dati appartenenti alle texture
3) rileggi i post di Yoss più sopra e capirai ;)
UltimaWeapon
17-10-2005, 19:18
E cosa sono i ROP? Perchè sono tanto importanti? :D
Si parlava di texture fetch, ma è una cosa collegata alla memoria della scheda? e quà entra in gioco anche il ring bus :D le TextureUnits cosa fanno? le TMU sono la stessa roba?
Le Texture Address Units sono unità gestite dal dispatch processor per decidere a quale TU inviare i dati? che poi vengono compressi/decompressi e vanno nei register arrays e vengono lavorate dai PS? mamma mia che casino :D
ma quei register arrays sono una sorta di cache fully associative? li sto definendo così perchè ogni PS si lavora qualunque pixel o più PS se li lavorano in parallelo, se non sono davvero fully associative correggetemi :D
il fast14 risale al 2004, ma non l'idea di un chip con architettura differente. Se ti ricordi, si parlò di un progetto R400; si disse che era stato abbandonato, poi che era stato trasformato in R500 perchè troppo avanzato per l'epoca. La realtà è che R400 era un progetto di nuova architettura, non solo un chip; progetto che non è mai stato abbandonato, ma è stato portato avanti parallelamente ai refresh di R300. Di conseguenza, R520 non è stato un ripiego, per incapacità di realizzare un chip con 24 o 32 pipeline, ma è nato esattamente così come lo vedi. Tanto che R580 vedrà "solo" un aumento dei quad di pixel shading. Si stava solo aspettando che i tempi fossero maturi per lanciare questo nuovo chip.
Per il mometno, nVIDIA sta operando la transizione a 0,09 di tutta la serie 7 e, nel frattempo, sta lavorando sul chip wgf2.0. Credo che vedremo delle novità sostanziose, però, solo in prossimità dell'introduzione dello sm4.0
Ricordo bene, e poi infatti non se ne seppe piu' o meno nulla.
A questo putno mi chiedo, ma tutti quei rumor con precisi dati di riuscita dei wafer e blateranti di pipeline, da cosa sono stati originati??
yossarian
17-10-2005, 21:25
Ricordo bene, e poi infatti non se ne seppe piu' o meno nulla.
A questo putno mi chiedo, ma tutti quei rumor con precisi dati di riuscita dei wafer e blateranti di pipeline, da cosa sono stati originati??
bella domanda!
O messi in giro ad arte da qualcuno, oppure c'è stato chi ha avuto sentore di qualche problema nella realizzazione del chip e, non avendo altri riferimenti che i chip delle serie precedenti ha pensato ad un progetto di quella natura; una sorta di R4x0 con 32 o 24 pipeline e sm3.0. Questo senza pensare che, in ogni caso, l'architettura doveva essere modificata, perchè la logica di R4x0 non si adatta al controllo dinamico dei flussi di dati. E' stato fin troppo facile mettere insieme, a quel punto, problemi e rese produttive. E' bastato che qualcuno tirasse fuori due cifre per diventare subito credibile (visto che ormai molti erano orientati a pensare a problemi di yeld).
leoneazzurro
17-10-2005, 21:42
E cosa sono i ROP? Perchè sono tanto importanti? :D
Si parlava di texture fetch, ma è una cosa collegata alla memoria della scheda? e quà entra in gioco anche il ring bus :D le TextureUnits cosa fanno? le TMU sono la stessa roba?
Le Texture Address Units sono unità gestite dal dispatch processor per decidere a quale TU inviare i dati? che poi vengono compressi/decompressi e vanno nei register arrays e vengono lavorate dai PS? mamma mia che casino :D
ma quei register arrays sono una sorta di cache fully associative? li sto definendo così perchè ogni PS si lavora qualunque pixel o più PS se li lavorano in parallelo, se non sono davvero fully associative correggetemi :D
Per rispondere alla Dave Baumann:
Yes. :D
bella domanda!
O messi in giro ad arte da qualcuno, oppure c'è stato chi ha avuto sentore di qualche problema nella realizzazione del chip e, non avendo altri riferimenti che i chip delle serie precedenti ha pensato ad un progetto di quella natura; una sorta di R4x0 con 32 o 24 pipeline e sm3.0. Questo senza pensare che, in ogni caso, l'architettura doveva essere modificata, perchè la logica di R4x0 non si adatta al controllo dinamico dei flussi di dati. E' stato fin troppo facile mettere insieme, a quel punto, problemi e rese produttive. E' bastato che qualcuno tirasse fuori due cifre per diventare subito credibile (visto che ormai molti erano orientati a pensare a problemi di yeld).
Infatti sarei stato veramente curioso di vedere come fosse possibile implementare tutte quelle nuove "feature", sulla vecchia architettura, questo mi portava a pensare che l'avrebbero cambiata (ricordi che ti ho detto di come mi sia dovuto sentir dare pure dell'ingnorante assieme ad altri "complimenti" simili, perche' ritenevo possibile e probabile la sua somiglianza con l'R500, piu' che con il 400??).
Solo che con, da una parte tutti quei rumor cosi' "precisi", dall'altra l'uscita a breve termine di architetture "rivoluzionarie" come l'R600 con SM4 e WGF2.0, ho pensato che pure questa volta, in qualche modo avessero fatto qualche miracolo sulla vecchia architettura. Non e' stato cosi', meglio. :)
In questi giorni apro il thead riguardo al Cell, ho da farti un bel po' di domande ed esporti alcune mie idee al riguardo. Sei psicologicamente pronto?? :D
yossarian
17-10-2005, 23:33
Infatti sarei stato veramente curioso di vedere come fosse possibile implementare tutte quelle nuove "feature", sulla vecchia architettura, questo mi portava a pensare che l'avrebbero cambiata (ricordi che ti ho detto di come mi sia dovuto sentir dare pure dell'ingnorante assieme ad altri "complimenti" simili, perche' ritenevo possibile e probabile la sua somiglianza con l'R500, piu' che con il 400??).
Solo che con, da una parte tutti quei rumor cosi' "precisi", dall'altra l'uscita a breve termine di architetture "rivoluzionarie" come l'R600 con SM4 e WGF2.0, ho pensato che pure questa volta, in qualche modo avessero fatto qualche miracolo sulla vecchia architettura. Non e' stato cosi', meglio. :)
nella transizione verso la nuova architettura, ATi è stata "aiutata" dal fatto di dover portare avanti anche il progetto relativo all'x-chip. Lavorando su un chip a shader unificati e dovendo, in ogni caso, modificare l'architettura di R4x0 per poter implementare lo sm3.0, la transizione verso un'architettura diversa da quella di R3x0, ma che non avesse punti in comune con quella di R500, non sarebbe stata una scelta molto saggia. In questo modo hanno potuto portare avanti più progetti paralleli, travasando ciò che era possibile dall'uno all'altro. Oltre tutto, ATi sta lavorando anche sul chip video del Revolution che, al 90%, deriverà dal progetto R5x0 (forse R580).
In questi giorni apro il thead riguardo al Cell, ho da farti un bel po' di domande ed esporti alcune mie idee al riguardo. Sei psicologicamente pronto?? :D
te lo dirò tra qualche giorno :D
Oltre tutto, ATi sta lavorando anche sul chip video del Revolution che, al 90%, deriverà dal progetto R5x0 (forse R580).
Hollywood molto problabilmente sarà un progetto a ridotto assorbimento energetico oltre che a basso costo...
x yoss
La tecnologia fast14 che vantaggi ha sulla concorrenza ? (puoi spiegare in breve i punti chiave)
Attualmente viene adottata nei prodotti by ati ?
ps. regalino parte 2
http://www.hwupgrade.it/forum/showthread.php?p=9873036#post9873036
Ed ecco che cominciano a fioccare gli overclock :
http://www.muropaketti.com/3dmark/r520/ghz/ghz.png
http://www.muropaketti.com/3dmark/r520/ghz/
Speriamo in un benchmark molto presto :)
1ghz :eek: :sbav:
ma non era tirata di fabbrica.. :fiufiu: :asd: .
ma non era tirata di fabbrica.. :fiufiu: :asd: .
Leggi la tempertura ;)
Non per andare contro ATI, ma non mi sembra che affermino che sia libera da artefatti... Diciamo che uno screen del genere vale anche meno di uno screen di un P4 a 7 Ghz ;)
Leggi la tempertura ;)
Non per andare contro ATI, ma non mi sembra che affermino che sia libera da artefatti...
Si vedono nello stesso screenshot! (credo)
Perche non ci sono test su hl2 ?
UltimaWeapon
18-10-2005, 14:38
Per rispondere alla Dave Baumann:
Yes. :D
Ma yes cosa che non ho capito manco io quello che ho scritto :D
1ghz :eek: :sbav:
ma non era tirata di fabbrica.. :fiufiu: :asd: .
Infatti 80° con un simile raffreddamento direi che sia significativo, a giudicare dalla schermata quella scheda non potra' mai eseguire un 3dm2005. Quelle frequenze non mi stupiscono piu' dei 700Mhz (ed oltre) ottenibili con un G70 ("benchando" tranquillamente). Per uno screen statico, si puo' anche superare gli 800Mhz con una 7800GTX/GT.
Una parte da 450 con nanometria 0,11, l'altra da 625 (0,09) e non credo funzionera' oltre gli 850-900Mhz, fai un po' i tuoi conti (se poi ve ne saranno altre migliori a venire, allora sara' differente).
Si vedono nello stesso screenshot! (credo)
Sono anche evidenti.
Per uno screen statico, si puo' anche superare gli 800Mhz con una 7800GTX/GT.
Qualcuno ci è mai riuscito? :)
Mi pare ci si sia fermati verso i 700 con raffreddamento analogo.
l'altra da 625 (0,09) e non credo funzionera' oltre gli 850-900Mhz, fai un po' i tuoi conti (se poi ve ne saranno altre migliori a venire, allora sara' differente).
Certo, che schifo 900mhz, cioè il 50% in più :)
Sono anche evidenti.
E sono anche colpa della ram :)
E non sono presenti a 999mhz/750mhz.
Alcuni siti vendono già le XT da 256mb in versione OEM a 399$.
Free Gordon
18-10-2005, 15:12
Alcuni siti vendono già le XT da 256mb in versione OEM a 399$.
Ottimo!
Ma sono sempre a 750mhz quelle ram?
leoneazzurro
18-10-2005, 15:17
E cosa sono i ROP? Perchè sono tanto importanti? :D
Allora le ROPs (Sta per Raster Operations Pipeline) sono le unità che si occupano di raccogliere i dati in uscita dalle pixel pipelines e riassemblare la scena, nonchè di scrivere le informazioni riassemblate nel frame buffer. Svolgono anche tante altre operazioni utili, come HDR FP (se supportato), il Multi-sample AA, e altre cosette. Sono importanti ai fini del fill rate effettivo perchè nel frame buffer si potranno scrivere solo i dati provenienti dalle ROPs e quindi se si hanno 50 shader pipelines ma solo 8 ROPs si è limitati a 8xfrequenza della scheda pixel/s massimi teorici anche avendo a disposizione a monte un fillrate di 50xfrequenza pixel/s.
Si parlava di texture fetch, ma è una cosa collegata alla memoria della scheda? e quà entra in gioco anche il ring bus :D
Si e no (i dati delle texture sono sulla memoria video ma esiste anche una cache all'interno della GPU). Il ring bus c'entra sempre perchè i dati passano dai PS alle TU e viceversa proprio tramite questo bus (che tra l'altro è connesso anche al controller della memoria)
le TextureUnits cosa fanno? le TMU sono la stessa roba?
Le Texture Address Units sono unità gestite dal dispatch processor per decidere a quale TU inviare i dati? che poi vengono compressi/decompressi e vanno nei register arrays e vengono lavorate dai PS? mamma mia che casino :D
1) Si
2) le TU sono gestite (vedi post di Yossarian a riguardo) a gruppi di 4, ognuno collegato ad un quad di Pixel Processors, le texture address units sono gestite dal dispatch processor.
3) I dati non è detto che vengano SEMPRE compressi, sicuramente ci sono formati di compressione per le texture e, se supportati, per le normal maps.
ma quei register arrays sono una sorta di cache fully associative? li sto definendo così perchè ogni PS si lavora qualunque pixel o più PS se li lavorano in parallelo, se non sono davvero fully associative correggetemi :D
La cache fully associative lavora con la memoria video per ottimizzare il trasferimento dei dati da/verso la memoria su scheda, l'array di registri è costituito appunto da registri -non lavorano come la cache- serve invece a memorizzare i dati necessari ai calcoli.
Comunque qui:
http://www.beyond3d.com/previews/nvidia/g70/
e qui:
http://www.beyond3d.com/reviews/ati/r520/
puoi trovare descritte minuziosamente le architetture di G70 e R520.
leoneazzurro
18-10-2005, 15:18
Alcuni siti vendono già le XT da 256mb in versione OEM a 399$.
Immagino siano XL, se fossero XT sarebbe incredibile vederle in vendita a 200$ in meno del loro MRSP. ;)
Free Gordon
18-10-2005, 15:18
E cmq da questi screen si deduce che la scheda NON era tirata di fabbrica.
Se in un bench estremo si potranno avere 950mhz di core, sarà un aumento di 325mhz, che è ottimo. Simile agli incrementi che si possono avere con le 7800GTX.
yossarian
18-10-2005, 15:19
Leggi la tempertura ;)
Non per andare contro ATI, ma non mi sembra che affermino che sia libera da artefatti... Diciamo che uno screen del genere vale anche meno di uno screen di un P4 a 7 Ghz ;)
gli artefatti sono dovuti alle ram non all'o/c del chip. Per ora ram più performanti non ci sono in circolazione. Sinceramente no pensavo neppure arrivassero a 1000 Mhz
Qualcuno ci è mai riuscito? :)
Mi pare ci si sia fermati verso i 700 con raffreddamento analogo.
Ti basta fare una capatina per vedere le prime due posizioni a 702 e 720Mhz. :)
Certo, che schifo 900mhz, cioè il 50% in più :)
No, no, non fa schifo un teorico 40-45% (che poi ho fatto puramente a occhio!!) ma io ho solo detto che non mi stupisce piu' della stabilita' con la quale due 7800GTX in SLI mantengano il 60% tondo tondo.
yossarian
18-10-2005, 15:27
E cmq da questi screen si deduce che la scheda NON era tirata di fabbrica.
Se in un bench estremo si potranno avere 950mhz di core, sarà un aumento di 325mhz, che è ottimo. Simile agli incrementi che si possono avere con le 7800GTX.
che la scheda non fosse tirata di fabbrica lo si poteva dedurre anche dalle tensioni di alimentazione: la XT è a 1.3 V (esattamente come la GTX) e la XL a 1,08.
gli artefatti sono dovuti alle ram non all'o/c del chip. Per ora ram più performanti non ci sono in circolazione. Sinceramente no pensavo neppure arrivassero a 1000 Mhz
Sì, ma con quello screen non è garantito che GPU funzioni bene a quella frequenza...
yossarian
18-10-2005, 15:34
Sì, ma con quello screen non è garantito che GPU funzioni bene a quella frequenza...
con le ram a default e la gpu a 999 Mhz non sono comparsi artefatti; questo è indice che la gpu può ancora salire. Il problema è che, mantenendo le ram a frequenze inferiori, il sistema risulterebbe bandwidth limited
Alcuni siti vendono già le XT da 256mb in versione OEM a 399$.
Ad oggi 18 ottobre ( 13 giorni dopo la presentazione ufficiale e la dichiarata uscita nei negozi) niente x1800xl , ne xt qua in italia. Qualcuno può smentire?
Quindi in ogni caso parliamo di schede che ancora non esistono, soprattutto la xt.
yossarian
18-10-2005, 15:53
Ad oggi 18 ottobre ( 13 giorni dopo la presentazione ufficiale e la dichiarata uscita nei negozi) niente x1800xl , ne xt qua in italia. Qualcuno può smentire?
Quindi in ogni caso parliamo di schede che ancora non esistono, soprattutto la xt.
strano sillogismo: non si trovano ancora in Italia = non esistono.
Neppure il negozio vicino casa mia vende la GTX: dovrei concludere che non esiste? :doh:
Tra l'altro, non mi risulta che qualcuno abbia mai dichiarato che l'uscita nei negozi era prevista per il 5 ottobre
Immagino siano XL, se fossero XT sarebbe incredibile vederle in vendita a 200$ in meno del loro MRSP. ;)
Errore mio, hai ragione :)
Ti basta fare una capatina per vedere le prime due posizioni a 702 e 720Mhz. :)
Che è esattamente verso i 700mhz. Esattamente come ho detto io.
No, no, non fa schifo un teorico 40-45% (che poi ho fatto puramente a occhio!!) ma io ho solo detto che non mi stupisce piu' della stabilita' con la quale due 7800GTX in SLI mantengano il 60% tondo tondo.
Sei tu che ti lamentavi dei 900mhz, non di certo io :)
Ah, per inciso 1ghz è esattamente il 60% in più delle frequenze di default di una XT. Come mai la stessa identica percentuale di overlock, con lo stesso (o circa) raffreddamento, assume per te due toni completamente diversi? ;)
leoneazzurro
18-10-2005, 16:10
strano sillogismo: non si trovano ancora in Italia = non esistono.
Neppure il negozio vicino casa mia vende la GTX: dovrei concludere che non esiste? :doh:
Tra l'altro, non mi risulta che qualcuno abbia mai dichiarato che l'uscita nei negozi era prevista per il 5 ottobre
la situazione attuale è più o meno questa: oltreoceano la X1800 XL (la scheda Sapphire) si trova, o almeno Newegg ne ha una scorta più che buona (altri shop online non so), in Europa continentale sembrano in arrivo negli shop tedeschi più forniti le schede di Sapphire, CluB3D e Gecube(ma ancora nessuna disponibile) e in Italia praticamente nessuno ne ha annunciato la commercializzazione. Immagino comunque che entro 2-4 settimane dovrebbero essere disponibili anche da noi. I costi previsti negli shop germanici sono di circa 439 Euro tasse incluse.
Neppure il negozio vicino casa mia vende la GTX: dovrei concludere che non esiste? :doh:
Certo, è stato un paper launch :D
che la scheda non fosse tirata di fabbrica lo si poteva dedurre anche dalle tensioni di alimentazione: la XT è a 1.3 V (esattamente come la GTX) e la XL a 1,08.
Questo significa che la XL monta le VPU dalla XT (piu' o meno identiche in termini di riuscita), ma anche se arrivassero alle stesse frequenze, sarebbero molto limitate dalle RAM.
I costi previsti negli shop germanici sono di circa 439 Euro tasse incluse.
Se e' il prezzo della XL quello che hia riportato, e' decisamente troppo elevato, considerando inoltre che da noi arrivera' discretamente maggiorato, direi che non ci siamo (commercialmente parlando).
strano sillogismo: non si trovano ancora in Italia = non esistono.
Neppure il negozio vicino casa mia vende la GTX: dovrei concludere che non esiste? :doh:
Tra l'altro, non mi risulta che qualcuno abbia mai dichiarato che l'uscita nei negozi era prevista per il 5 ottobre
Non è nessun sillogismo, non c'è bisogno di metterla sempre sul "matematico" per capire che ancora una volta ATi non brilla per serietà.
Ati ha dichiarato che le schede si troveranno nei negozi rispettivamente il 5 ottobre per le x1800xl e il 5 novembre per le xt.
Il fatto che ad oggi si trovi qualche scheda solamente in nordamerica e giappone, è l'ennesima conferma delle difficoltà di produzione che ATi ha incontrato con questo chip.
E questo ritardo non fa altro che alimentare la fama di produttrice di schede phantom edition :D
E anche se qualcuno di noi si cimenta in acquisti oltre oceano, devi ammettere che la maggior parte preferisce acquistarle in italia dove l'assistenza tecnica e la garanzia sono più facili da gestire.
Fermo restando che si tratta di gran belle schede, mediamente più veloci della GTX a risoluzioni spinte + filtri, e generalmente allineata senza filtri, non si può non ammettere che questi continui ritardi lasciano un po' di stucco.
Soprattutto dopo la politica vincente di nvidia di rifornire prima i propri partners, che a sua volta hanno sparso le schede in tutto il mondo, prima di effettuare la presentazione della scheda...
Soprattutto dopo la politica vincente di nvidia di rifornire prima i propri partners, che a sua volta hanno sparso le schede in tutto il mondo, prima di effettuare la presentazione della scheda...
Hanno reso disponibile numero 2 modelli di schede. E in numero palesemente insufficiente, tale da renderla indisponibile già dalla data di lancio per un pò di giorni (scordato pure questo vero?). Ancora oggi in alcuni negozi è indisponibile (passato inosservato pure questo vero?). E già la chiami politica vincente? Pazienza se risulta ancora dopo 6 mesi (sparo come ha fatto qualcuno i mesi a caso sia ovvio, vediamo se correggete il dato dopo aver detto che la X1800 è saltata fuori dopo 6 mesi dalla commercializzazione della 7800) dalla presentazione della nuova linea, praticamente assente tutta la fascia media e la fascia bassa. Ati almeno sulla carta ci ha resi partecipi di cosa vuole fare. E' indice di serietà solo quello che ci pare vero? ;)
Non è nessun sillogismo, non c'è bisogno di metterla sempre sul "matematico" per capire che ancora una volta ATi non brilla per serietà.
Ati ha dichiarato che le schede si troveranno nei negozi rispettivamente il 5 ottobre per le x1800xl e il 5 novembre per le xt.
Il fatto che ad oggi si trovi qualche scheda solamente in nordamerica e giappone, è l'ennesima conferma delle difficoltà di produzione che ATi ha incontrato con questo chip.
E questo ritardo non fa altro che alimentare la fama di produttrice di schede phantom edition :D
E anche se qualcuno di noi si cimenta in acquisti oltre oceano, devi ammettere che la maggior parte preferisce acquistarle in italia dove l'assistenza tecnica e la garanzia sono più facili da gestire.
Fermo restando che si tratta di gran belle schede, mediamente più veloci della GTX a risoluzioni spinte + filtri, e generalmente allineata senza filtri, non si può non ammettere che questi continui ritardi lasciano un po' di stucco.
Soprattutto dopo la politica vincente di nvidia di rifornire prima i propri partners, che a sua volta hanno sparso le schede in tutto il mondo, prima di effettuare la presentazione della scheda...
Non hai tutti i torti, probabilmente ATI "spinge" troppo, e' anche per questo che propone soluzioni innovative.
Inoltre non e' vero che la nuova ATI vada sempre meglio a risoluzioni e filtri alti, come ho dimostrato precedentemente, siamo ad un 50% (o poco piu') dei casi. Almeno per ora e' cosi', poi ci sara' molto (o poco, chissa') da risicare con la "programmazione". In piu' c'e' da considerare ovviamente la maggior qualita' d'immagine ATI.
Hanno reso disponibile numero 2 modelli di schede. E in numero palesemente insufficiente, tale da renderla indisponibile già dalla data di lancio per un pò di giorni (scordato pure questo vero?). Ancora oggi in alcuni negozi è indisponibile (passato inosservato pure questo vero?). E già la chiami politica vincente? Pazienza se risulta ancora dopo 6 mesi (sparo come ha fatto qualcuno i mesi a caso sia ovvio, vediamo se correggete il dato dopo aver detto che la X1800 è saltata fuori dopo 6 mesi dalla commercializzazione della 7800) dalla presentazione della nuova linea, praticamente assente tutta la fascia media e la fascia bassa. Ati almeno sulla carta ci ha resi partecipi di cosa vuole fare. E' indice di serietà solo quello che ci pare vero? ;)
Ma che stai dicendo?? non ha senso chiedere una 7200 o una 7600gt, le medie attuali svolgono perfettamente il loro lavoro, non avendo feature migliori della serie 6x00, non avrebbe avuto senso immetterle sul mercato,. creando solo una forte svalutazione dei pezzi in magazino.
Poi vorrei sapere di quali difficolta' nel reperire le 7800 tu stia parlando, ci ho messo un nulla ad averla dopo la data di lancio ed ora.. Quante ne vuoi??
Hanno reso disponibile numero 2 modelli di schede. E in numero palesemente insufficiente, tale da renderla indisponibile già dalla data di lancio per un pò di giorni (scordato pure questo vero?). Ancora oggi in alcuni negozi è indisponibile (passato inosservato pure questo vero?).
Questa te la sei inventata :D Ho sempre trovato sia le gigabyte che le aopen da diversi fornitori dal primo giorno dopo la presentazione. Vuoi vedere le fatture d'acquisto? Nell'online shop che utilizzo per ordinare schede di fascia alta la leadtek era disponibile solo al privato ma non ai rivenditori come me.
E' ridicolo come tu possa sminuire il primo tentativo riuscito da parte di uno dei due grandi produttori di vga di essere presente sugli scaffali dei negozi al momento della presentazione.
Io non so che mestiere fai, ma se fai il rivenditore di materiale informatico ti consiglio vivamente di cambiare fornitori.
E già la chiami politica vincente?
Già.
Pazienza se risulta ancora dopo 6 mesi (sparo come ha fatto qualcuno i mesi a caso sia ovvio, vediamo se correggete il dato dopo aver detto che la X1800 è saltata fuori dopo 6 mesi dalla commercializzazione della 7800) dalla presentazione della nuova linea, praticamente assente tutta la fascia media e la fascia bassa. Ati almeno sulla carta ci ha resi partecipi di cosa vuole fare. E' indice di serietà solo quello che ci pare vero? ;)
Per quel che mi riguarda potrebbero anche passare più di sei mesi visto che la x1800xt ce l'hanno solo gli addetti ai lavori, quindi ad oggi la scheda di fatto non è in vendita.
Per quel che riguarda la fascia media e bassa, ti faccio una domanda :)
E' meglio presentare una fascia media e bassa che va peggio delle precedenti generazioni di schede, prendendo per i fondelli i vari utonti, oppure è meglio lasciar perdere e sfruttare al massimo la linea della generazione precedente abbassandone i prezzi?
yossarian
18-10-2005, 19:44
Questo significa che la XL monta le VPU dalla XT (piu' o meno identiche in termini di riuscita), ma anche se arrivassero alle stesse frequenze, sarebbero molto limitate dalle RAM.
ho avuto modo di vedere due chip e la XL era una rev successiva rispetto alla XT (ho detto proprio successiva, non ci sono errori); non credo sia questa la norma, però. Questo farebbe pensare che il chip della XL e quello della XT salgano con la stessa facilità e che il limite della XL sia dovuto solo alla minore tensione di alimentazione (cosa confermata dalle prove in o/c della XL). Certo, le ram della XL hanno timings più elevati e questo, al salire della frequenza del chip, farebbe da collo di bottiglia.
yossarian
18-10-2005, 19:59
Hanno reso disponibile numero 2 modelli di schede. E in numero palesemente insufficiente, tale da renderla indisponibile già dalla data di lancio per un pò di giorni (scordato pure questo vero?). Ancora oggi in alcuni negozi è indisponibile (passato inosservato pure questo vero?). E già la chiami politica vincente? Pazienza se risulta ancora dopo 6 mesi (sparo come ha fatto qualcuno i mesi a caso sia ovvio, vediamo se correggete il dato dopo aver detto che la X1800 è saltata fuori dopo 6 mesi dalla commercializzazione della 7800) dalla presentazione della nuova linea, praticamente assente tutta la fascia media e la fascia bassa. Ati almeno sulla carta ci ha resi partecipi di cosa vuole fare. E' indice di serietà solo quello che ci pare vero? ;)
dato che adesso sta operando la transizione a 0,09, non avrebbe avuto senso produrre tutta la linea a 0,11 per poi traslarla a 0,09. Così ha prodotto solo il modello di punta per avere quattro mesi e mezzo di vantaggio e, in un secondo tempo, la GT (cosa ovvia perchè la resa produttiva di un chip a 0,11 da 300 mln di transistor non è elevatissima e si aveva bisogno di piazzare gli "scarti" del ciclo produttivo.
Dragon2002
18-10-2005, 20:08
Cmq su ebay le x1800xl si trovano con estrema facilita quindi la produzione di questa scheda deve essere gia a buon livello,mentre è introvabile la x1800xt nn vorrei che fosse come la vecchia x800xt pe e cioè un'altra scheda phantom edition. Cio che mi lascia molto perplesso per ati e nn aver fatto uscire schede di fascia media la x1600 è un'aborto se la batte con una 6800liscia che è uscita un secolo fa e che tecnlogicamente e indietro anni luce e tutto questo nn per le pipeline in meno rispetto alla serie x1800 ma per una incomprensibile scelta di voler mettere le ram a 128bit,praticamente ogni vecchia scheda x800 è più veloce della x1600. Insomma ha fatto uscire una scheda video di fascia altissima la x1800xt una di fascia alta la x1800xl e un'altra che per le prestazioni che ha secondo me è gia un'affronto considerarla una scheda video di fascia bassa.Se invidia decidesse di immettere sul mercato una 7800le con 16 pipeline al prezzo della x1600 queste schede andrebbero il doppio e ati potrebbe pure prenderle e buttarle direttamente nel secchio.
ForeverBlue
18-10-2005, 20:29
...già.......ma confido in una x1800liscia che possa prendere il posto della 6800le.........stramaledettamente moddabile :D
Ma che stai dicendo?? non ha senso chiedere una 7200 o una 7600gt, le medie attuali svolgono perfettamente il loro lavoro, non avendo feature migliori della serie 6x00, non avrebbe avuto senso immetterle sul mercato,. creando solo una forte svalutazione dei pezzi in magazino.
Le medie attuali?
Quindi proporre una scheda vecchia di un anno ha senso? Non ha features migliori della 6800? Dio ma qualche review te la sei letta? Solo per il fatto di consumare meno, scaldare meno, fare meno rumore e avere l'adaptative antialiasing per me c'è un abisso di differenza.
Poi vorrei sapere di quali difficolta' nel reperire le 7800 tu stia parlando, ci ho messo un nulla ad averla dopo la data di lancio ed ora.. Quante ne vuoi??
Hai letto quello che ho scritto? Tu hai trovato da subito, sempre anche dopo la prima reale fornitura tutte le 7800GTX che volevi? Strano, da Bow che è stato uno dei primi a commercializzare la scheda dopo la prima ondata l'attesa media era 10/15 giorni.
Questa te la sei inventata :D Ho sempre trovato sia le gigabyte che le aopen da diversi fornitori dal primo giorno dopo la presentazione. Vuoi vedere le fatture d'acquisto? Nell'online shop che utilizzo per ordinare schede di fascia alta la leadtek era disponibile solo al privato ma non ai rivenditori come me.
E' ridicolo come tu possa sminuire il primo tentativo riuscito da parte di uno dei due grandi produttori di vga di essere presente sugli scaffali dei negozi al momento della presentazione.
Io non so che mestiere fai, ma se fai il rivenditore di materiale informatico ti consiglio vivamente di cambiare fornitori.
Modera la parole ;)
Leggi meglio quello che uno scrive please, ci fai migliore figura. Quello che faccio durante le mie giornate, non è affar tuo :) (di sicuro non mi sono laureato per andare a vendere i pc)
Non è questione di sminuire, come vedi tu stesso cambi nettamente modo di pensare quando si parla di Nvidia e di Ati. Critichi Ati che ha presentato la sua fascia media. Nvidia lascia scoperta la fascia medio-bassa.
Ripeto, modera le parole ;)
Già.
Opinioni ;)
Per quel che riguarda la fascia media e bassa, ti faccio una domanda :)
E' meglio presentare una fascia media e bassa che va peggio delle precedenti generazioni di schede, prendendo per i fondelli i vari utonti, oppure è meglio lasciar perdere e sfruttare al massimo la linea della generazione precedente abbassandone i prezzi?
Bocciate entrambe :)
Ma non eri uno di quelli che criticavi la minestra riscaldata di Ati con X800 e X850? Boh, forse ricordo male (ma sono sicuro di no). Di solito una generazione nuova la si presenta in toto, ma evidentemente Nvidia ha visto il progetto rovinato dall'R520 ed è corsa ai ripari. Vediamo se, quando uscirà la gpu a 0.09 micron, sarà presentata anche la fascia media, vediamo cosa dirai in quel momento. Sicuramente spenderai parole di elogio ;)
dato che adesso sta operando la transizione a 0,09, non avrebbe avuto senso produrre tutta la linea a 0,11 per poi traslarla a 0,09. Così ha prodotto solo il modello di punta per avere quattro mesi e mezzo di vantaggio e, in un secondo tempo, la GT (cosa ovvia perchè la resa produttiva di un chip a 0,11 da 300 mln di transistor non è elevatissima e si aveva bisogno di piazzare gli "scarti" del ciclo produttivo.
Appunto, scelta ragionevole. Ma se mi permetti non la vedo come cosa positiva. Le 6800 disponibili sul mercato che qualcuno vuole spacciare per attuale fascia media scarseggiano e costano ancora uno sproposito in alcuni shop.
ho avuto modo di vedere due chip e la XL era una rev successiva rispetto alla XT (ho detto proprio successiva, non ci sono errori); non credo sia questa la norma, però. Questo farebbe pensare che il chip della XL e quello della XT salgano con la stessa facilità e che il limite della XL sia dovuto solo alla minore tensione di alimentazione (cosa confermata dalle prove in o/c della XL). Certo, le ram della XL hanno timings più elevati e questo, al salire della frequenza del chip, farebbe da collo di bottiglia.
Questo a parer mio indica soltanto che la vera produzione, al momento attuale, riguarda solo le XL. Una buona scheda che pero', (se i prezzi fossero quelli riportati qualche post fa), e' decisamente fuori mercato, e prestazionalmente non e' cosi' competitiva.
Mi piace molto la XT, ma se veramente costa uno sproposito (come ho riportato qualche giorno fa; 600-700€) non ha senso di esistere, soprattutto se diventa un'ennesima phantom edition.
Speriamo nelle XT da 256Mb.
...già.......ma confido in una x1800liscia che possa prendere il posto della 6800le.........stramaledettamente moddabile :D
la LE non e' modificabile, o meglio, la pcx non ha pipe occultate, e' prodotta direttamente a 12. Il chip e' a 0,11nm, contro gli 0,13 delle altre 6800. La LE AGP e' invece modificabile, ma solo nelle prime versioni, da un periodo a questa parte se ne trova una funzionante a 16 pipe su 10 vendute (e venderne 10, ti assicuro che non e' facile oramai). L'unico vantaggio (obbiettivamente non da poco) della versione PCX, e' individuabile nei margini di OC veramente elevati, grazie sia alla nanometria che all'assenza fisica delle altre pipe consente di arrivare a 480mhz anche alle VPU piu' sfortunate.
Comunque la LE non e' certamente un esempio di "buon acquisto".
OT Qual'è la 6800 Agp che costa meno? E che magari ha possibilità di essere sbloccata in qualcosa? Trovo solo delle 6600 porca miseria.
Appunto, scelta ragionevole. Ma se mi permetti non la vedo come cosa positiva. Le 6800 disponibili sul mercato che qualcuno vuole spacciare per attuale fascia media scarseggiano e costano ancora uno sproposito in alcuni shop.
In alcuni "shop" vendono ancora delle prophet 9700pro a 470€.. hai intenzione di far riferimento anche a queste??
Io prenderei questi prezzi..
Nvidia 6600 128MB PCI-E Gigabyte Silent Pipe Dissipatore passivo - TV out - DVI € 83,50 € 100,20
Nvidia 6600GT 128MB PCI-E Leadtek GPU 500Mhz, MEM 128bit GDD3 1000Mhz € 125,00 € 150,00
Nvidia 6800GT 256MB DDR3 PCI-E Gigabyte € 235,00 € 282,00
Nvidia 6800GT 128MB AGP Asus retail € 207,50 € 249,00
GeForce 7800GT 256MB PciExp MSI DVI/Tv-Out € 319,00 € 382,80
GeForce 7800GTX 256MB PciExp MSI DVI/Tv-Out € 399,00 € 478,80
Tutto disponibile ed in ottime quantita'
In alcuni "shop" vendono ancora delle prophet 9700pro a 470€.. hai intenzione di far riferimento anche a queste??
Io prenderei questi prezzi..
Nvidia 6600 128MB PCI-E Gigabyte Silent Pipe Dissipatore passivo - TV out - DVI € 83,50 € 100,20
Nvidia 6600GT 128MB PCI-E Leadtek GPU 500Mhz, MEM 128bit GDD3 1000Mhz € 125,00 € 150,00
GeForce 6800GT 128Mb Asus V9999Gt Agp8x VGA DVI € 229,00 € 274,80
Nvidia 6800GT 128MB AGP Asus retail € 207,50 € 249,00
GeForce 7800GT 256MB PciExp MSI DVI/Tv-Out € 319,00 € 382,80
GeForce 7800GTX 256MB PciExp MSI DVI/Tv-Out € 399,00 € 478,80
Prezzi appetibili secondo te? Secondo me no. Se non altro per il salto dalla 6600 alla 6800GT, per prezzo e prestazioni. Non trovo niente di più appetibile di una 6600GT a meno di 200€, perdonami ma è uno scandalo :)
Oltretutto è bello vedere come si prendono sempre i preziz migliori, pazienza se poi non sono disponibili :) Perchè ti dimentichi di dire che le GT e le GTX a quei prezzi su quel sito non sono acquistabili? Perchè fa comodo no? ;)
Le 6800GT di cui parli sono disponibili nel numero di 10 da 3 giorni, ora sono 7. Non c'è che dire una quantità assolutamente industriale. E' bello vedere come ti impegni però ;)
OT Qual'è la 6800 Agp che costa meno? E che magari ha possibilità di essere sbloccata in qualcosa? Trovo solo delle 6600 porca miseria.
Credo che il mio post precedente possa aiutarti a capire quale faccia al caso tuo. :) Io comunque, farei un picoclo sacrificio e con 70€ in piu', prenderei una GT.
Prezzi appetibili secondo te? Secondo me no. Se non altro per il salto dalla 6600 alla 6800GT, per prezzo e prestazioni. Non trovo niente di più appetibile di una 6600GT a meno di 200€, perdonami ma è uno scandalo :)
Oltretutto è bello vedere come si prendono sempre i preziz migliori, pazienza se poi non sono disponibili :) Perchè ti dimentichi di dire che le GT e le GTX a quei prezzi su quel sito non sono acquistabili? Perchè fa comodo no? ;)
Le 6800GT di cui parli sono disponibili nel numero di 10 da 3 giorni, ora sono 7. Non c'è che dire una quantità assolutamente industriale. E' bello vedere come ti impegni però ;)
Io in quel negozio sto tutti i giorni (anzi, in uno dei due in particolare), o poco ci manca, oggi ne hanno 7 diomani ne avranno 10, dopo domani ancora ne avranno 4.. l'importante e' averle, direi che per essere schede di quel segmento, sono reperibilissime ed anche stravendute!!
Che stai dicendo riguardo le 6600gt??
Comunque ridai un'occhiata ai prezzi, li ho corretti.
E poi guarda le disponibilita' ATI.
Credo che il mio post precedente possa aiutarti a capire quale faccia al caso tuo. :) Io comunque, farei un picoclo sacrificio e con 70€ in piu', prenderei una GT.
250€ per il sistema che ho attualmente sono soldi buttati via. Per questo stavo sotto i 200€. Mi piace come prezzo quello della X800 non-mi-ricordo-cosa che si trovava (pci-ex) sui 180€, se uscisse agp allo stesso prezzo sarebbe l'ideale. Sopratutto se sbloccabile.
Io in quel negozio sto tutti i giorni (anzi, in uno dei due in particolare), o poco ci manca, oggi ne hanno 7 diomani ne avranno 10, dopo domani ancora ne avranno 4.. l'importante e' averle, direi che per essere schede di quel segmento, sono reperibilissime ed anche stravendute!!
10 o 20 non è stravendere :)
Che stai dicendo riguardo le 6600gt??
Che a 200€ è un furto :)
Comunque ridai un'occhiata ai prezzi, li ho corretti.
E poi guarda le disponibilita' ATI.
Non sono i 10€ che mi fanno la differenza (in più o in meno). Le Ati le trovo disponibili altrove, ma a prezzi per me troppo alti, poichè le più appetibili sono pci-ex. E non ho intenzione ora di cambiare tutto.
10 o 20 non è stravendere :)
Al giorno per un negozio (non una catena) per una scheda di facia alta?? sì, lo e'.
Che a 200€ è un furto :)
Ma dove hai visto una 6600 (gt che sia) a quella cifra??
Non sono i 10€ che mi fanno la differenza (in più o in meno). Le Ati le trovo disponibili altrove, ma a prezzi per me troppo alti, poichè le più appetibili sono pci-ex. E non ho intenzione ora di cambiare tutto.
Le uniche radeon concorrenziali attualmente sono quelle che coprono i segmenti piu' bassi, tipo le 9250 (mai rinnovate.. e poi ci si lamenta di Nvidia) a 25-30€, che sono le uniche a fare veramente "i numeri" nelle vendite ATI.
Al giorno per un negozio (non una catena) per una scheda di facia alta?? sì, lo e'.
Come, prima non parlavi di fascia media? Ora è fascia alta? Mettiti d'accordo ;)
Ma dove hai visto una 6600 (gt che sia) a quella cifra??
Era ovviamente un prezzo all'eccesso, si trovano a 180 (ovviamente in versione retail eccetera, ma è un prezzo per me elevato) o giù di lì.
Le uniche radeon concorrenziali attualmente sono quelle che coprono i segmenti piu' bassi, tipo le 9250 (mai rinnovate.. e poi ci si lamenta di Nvidia) a 25-30€, che sono le uniche a fare veramente "i numeri" nelle vendite ATI.
Eccerto, le GTO e le GTO2 fanno schifo :asd:
Su, ok tutto ma dire che le 9250 sono le più concorrenziali vuol dire osservare i listini a occhi chiusi.
Come, prima non parlavi di fascia media? Ora è fascia alta? Mettiti d'accordo ;)
Forse non ci capiano riguardo alla scheda della quale parliamo. Diciamo che 10 6800GT/ultra o addirittura 7800, sono molte, se si tratta di 6600, i numeri cambiano e di parecchio. Comuqnue se ne vedi poche, e' perche' e' aggiornato in tempo reale.
Era ovviamente un prezzo all'eccesso, si trovano a 180 (ovviamente in versione retail eccetera, ma è un prezzo per me elevato) o giù di lì.
io ho postato prezzi pari a 150€ per le 6600GT retail, mi sembra un'ottima scheda per quella cifra. :)
Eccerto, le GTO e le GTO2 fanno schifo :asd:
Su, ok tutto ma dire che le 9250 sono le più concorrenziali vuol dire osservare i listini a occhi chiusi.
Con cosa risponde Nvidia alle 9250??
Io non guardo ad occhi chiusi, guardo i profitti, fa parte anche del mio lavoro.
P.S. La disponibilita' delle GTo/2 e' risibile.
DjLode non fraintendermi, se ti sono sembrato offensivo (che a me non pare) non era mia intenzione.
Resta il fatto che io ammetto eventuali errori o problemi di nvidia e valuto attentamente tutte e due le case quando devo acquistare. Ovviamente sempre in base al prezzo che posso spendere.
Non si può dire che va tutto bene. Le schede sono ottime, nessuno lo nega. Sono il primo a dire che non mi aspettavo tanta potenza nonostante tutto quello che si è letto prima della presentazione. Ma la mia abitudine di badare ai fatti, mi aiuta a capire che c'è qualcosa che non sta andando come avrei voluto. Avrei preferito avere la possibilità di comprare o vendere la nuova ATi dal momento della loro presentazione. E alla luce del cambio di rotta di nvidia in merito alla disponibilità immediata, mi sembrava un' aspettativa legittima.
Per quanto riguarda il lavoro che fai, non mi interessa così tanto (al contrario di quello che vuoi far credere tu con la tua risposta ironica :D ).
Io mi inchino e leggo tutti i post di yoss quando ci fa sentire degli incompetenti in ambito tecnico. E così si dovrebbe fare davanti a chiunque possa fornire aspetti più approfonditi di un qualsiasi altro ambito di valutazione delle nuove schede. Perchè l'architettura è importante, le pipeline e le frequenze anche, ma se la scheda non si trova, che me ne faccio di tutte ste pippe mentali?
peace
P.S. Il negozio di cui parlo è www.n****s.it , ed è spesso fra i primi posti nella lista dei prezzi piu bassi di hwu.
DjLode non fraintendermi, se ti sono sembrato offensivo (che a me non pare) non era mia intenzione.
Perdonami ma qualcuno che mi accusa di inventarmi le cose mi risulta oltremodo offensivo.
Per quanto riguarda il lavoro che fai, non mi interessa così tanto (al contrario di quello che vuoi far credere tu con la tua risposta ironica :D ).
Se non ti interessa, evita di farci riferimenti. Fai credere il contrario ;)
Perdonami ma qualcuno che mi accusa di inventarmi le cose mi risulta oltremodo offensivo.
Beh, nessuno ti ha accusato di inventarti le cose, ma solamente di generalizzare un po' troppo una situazione che hai potuto verificare solo molto superficialmente (presumo che tu non abbia perso giornate a controllare i migliori online shops, come invece dobbiamo fare noi ogni tanto per poterci rifornire )
Se non ti interessa, evita di farci riferimenti. Fai credere il contrario ;)
Il riferimento è nato dal fatto che hai descritto uno scenario che non si è verificato, come se avessi avuto modo di controllare da più fonti quello che hai lamentato (come farebbe un venditore, costretto a controllare ogni giorno disponibilità di vari prodotti in giro su internet), il che non è vero, considerando le conclusioni a cui arrivi ;)
Beh, nessuno ti ha accusato di inventarti le cose, ma solamente di generalizzare un po' troppo una situazione che hai potuto verificare solo molto superficialmente (presumo che tu non abbia perso giornate a controllare i migliori online shops, come invece dobbiamo fare noi ogni tanto per poterci rifornire )
Cito :
"Questa te la sei inventata". Problemi con l'italiano?
Il riferimento è nato dal fatto che hai descritto uno scenario che non si è verificato, come se avessi avuto modo di controllare da più fonti quello che hai lamentato (come farebbe un venditore, costretto a controllare ogni giorno disponibilità di vari prodotti in giro su internet), il che non è vero, considerando le conclusioni a cui arrivi ;)
Quindi ancora mi accusi di inventarmi le cose? Gira e rigira siam sempre qui.
Dai su, lascia perdere ;)
Free Gordon
19-10-2005, 12:59
che la scheda non fosse tirata di fabbrica lo si poteva dedurre anche dalle tensioni di alimentazione: la XT è a 1.3 V (esattamente come la GTX) e la XL a 1,08.
Voltmod alla XL + WB!!!! :yeah:
Devo ancora vedere se mi sta nel case però... :sbonk:
Tra l'altro, non mi risulta che qualcuno abbia mai dichiarato che l'uscita nei negozi era prevista per il 5 ottobre
http://www.hwupgrade.it/articoli/1359/disponibilita.jpg
Qua c'è scritto "end-user availability".
E infatti al di fuori dell'Italia è stato così.
leoneazzurro
19-10-2005, 15:51
Direi fuori dell'Europa (UK esclusa), dato che anche in Germania ad esempio per ora le X1800XL sono ancora in preordine (niente disponibilità fisica) e delle X1300 non c'è neppure la menzione... e questo è il caso strano, neppure in USA i distributori paiono avere le X1300.
Diciamo che da questo punto di vista ATI sembra aver incontrato qualche problemino. Resta il fatto che anche se c'è da aspettare un pò, la scheda vale l'attesa.
E infatti al di fuori dell'Italia è stato così.
Il 5 non l'avevano nemmeno negli USA ed a parte questo, noi siamo in Italia e gradiremmo non essere considerati terzo mondo, ma essere rispettati come fa Nvidia. In ogni caso rimane una scheda completamente fuori mercato visto il costo, a quelle cifre compri una GTX in Italia e ti avanzano pure i soldi (e prestazionalmente ci guadagni non poco).
Sono sicuro che se Nvidia avesse voluto proporre una scheda iper-costosa ed introvabile come queste, anch'essa avrebbe sfornato un prodotto 'sì tecnologico. ATI stupisce sì per la sua tecnologia, non certo per tattiche di mercato. In fin dei conti le tasche ATI si gonfiano, come gia' detto, a suon di schede entrylevel come le 9250, il resto e' immagine.
Direi fuori dell'Europa (UK esclusa), dato che anche in Germania ad esempio per ora le X1800XL sono ancora in preordine (niente disponibilità fisica) e delle X1300 non c'è neppure la menzione... e questo è il caso strano, neppure in USA i distributori paiono avere le X1300.
Diciamo che da questo punto di vista ATI sembra aver incontrato qualche problemino. Resta il fatto che anche se c'è da aspettare un pò, la scheda vale l'attesa.
Non sono d'accordo, giusto la XT puo' valer l'attesa, (e forse un po' la XL), ma giusto se si hanno "preferenze" e non si bada in alcun modo ai prezzi (pochi non lo fanno).
Per tutte le altre (anche per la XL), direi proprio che vi siano alternative molto piu' allettanti.
andreamarra
19-10-2005, 16:11
Direi fuori dell'Europa (UK esclusa), dato che anche in Germania ad esempio per ora le X1800XL sono ancora in preordine (niente disponibilità fisica) e delle X1300 non c'è neppure la menzione... e questo è il caso strano, neppure in USA i distributori paiono avere le X1300.
Diciamo che da questo punto di vista ATI sembra aver incontrato qualche problemino. Resta il fatto che anche se c'è da aspettare un pò, la scheda vale l'attesa.
ciao :) io su alcuni shop tedeschi vedo che sono già disponibili in magazzino e pronte per essere acquistate con tanto di icona verde ecc.
dici che in realtà le stanno ancora aspettando?
Il 5 non l'avevano nemmeno negli USA ed a parte questo, noi siamo in Italia e gradiremmo non essere considerati terzo mondo, ma essere rispettati come fa Nvidia.
Sicuramente la colpa è di Ati...
Non dei produttori di schede video :asd:
Sono sicuro che se Nvidia avesse voluto proporre una scheda iper-costosa ed introvabile come queste, anch'essa avrebbe sfornato un prodotto 'sì tecnologico. ATI stupisce sì per la sua tecnologia, non certo per tattiche di mercato. In fin dei conti le tasche ATI si gonfiano, come gia' detto, a suon di schede entrylevel come le 9250, il resto e' immagine.
Certo, Nvidia è Santa quindi non propone ciò che è meglio per lei, ma quello che è meglio per noi :asd:
Così come SICURAMENTE aveva in casa una scheda tecnologica, ma non l'ha prodotta per rispetto verso Ati :rotfl:
Non sono d'accordo, giusto la XT puo' valer l'attesa, (e forse un po' la XL), ma giusto se si hanno "preferenze" e non si bada in alcun modo ai prezzi (pochi non lo fanno).
Per tutte le altre (anche per la XL), direi proprio che vi siano alternative molto piu' allettanti.
Quindi secondo te, leggo tra le righe, la XT non vale la spesa? Cioè tutte le recensioni che abbiamo letto che la danno superiore sia tecnologicamente che prestazionalmente sono frutto di preferenze?
leoneazzurro
19-10-2005, 16:30
ciao :) io su alcuni shop tedeschi vedo che sono già disponibili in magazzino e pronte per essere acquistate con tanto di icona verde ecc.
dici che in realtà le stanno ancora aspettando?
Non so, quelli che ho visitato io non li avevano ma erano in arrivo (sono siti abbastanza seri, al limite mandami un pvt per dove hai cercato tu), in UK le XL paiono abbastanza diffuse comunque (quindi 1-2 settimane e la disponibilità sarà effettiva anche qui). Diverso il discorso per le 1300.
Edit: adesso le XL sono arrivate su di un sito tedesco, stamane non ne avevano in stock, sorry.
Sicuramente la colpa è di Ati...
Non dei produttori di schede video :asd:
A parte il fatto che Nvidia produce, evidentemente si scegile partnet all'altezza ed ha un idea del marketing differente da ATI.
[QUOTE=DjLode]
Certo, Nvidia è Santa quindi non propone ciò che è meglio per lei, ma quello che è meglio per noi :asd:
Così come SICURAMENTE aveva in casa una scheda tecnologica, ma non l'ha prodotta per rispetto verso Ati :rotfl:
Ti sfugge una cosa, quello che e' meglio per noi, e' meglio anche per loro, non ci vuol molto a capirlo.
Non ho detto che possieda tecnologie che non abbiamo visto (anche se sicuramente e' cosi' in qualche misura), ho detto che non sforna prodotti incommercializzabili e fuori target come prezzo. Produce solo cio' che puo' competere effettivamente sul mercato (prezzo, reperibilita', facilita' di produzione e costi).
Quindi secondo te, leggo tra le righe, la XT non vale la spesa? Cioè tutte le recensioni che abbiamo letto che la danno superiore sia tecnologicamente che prestazionalmente sono frutto di preferenze?
e' superiore solo nel 50% dei casi in cui si dovesse attivare TUTTO e solo alle risoluzioni piu' alte (visto che, anche se ottima questa, ho letto le altre recensioni), dunque se qui arriva a 600-700€ come probabile (anche se da qui a un mese possono cambiare tante cose), se la possono tenere stretta.
Comunque impara a leggere, io ho detto che "la XT e' l'unica ATI di nuova generazione che possa valer l'attesa", non venirmi a criticare il contrario.
Sembra che si e no tu legga cio' che ti viene scritto per la fretta di dire la tua, come la fantomatiche 6600gt a 200€ o le miriadi di interpretazioni assurde che fai di cio' che ti stiamo dicendo.
Nessuno nega le qualita' della XT (attualmente non in vendita), ma bisogna essere obbiettivi in tutto. Sembri bartolino in versione ATI!! :D (almeno lui legge correttamente i post altrui).
Ora basta con questo discorso, se vuoi aspettare aspettala, io seguito a vendere Nvidia (anche perche' non ho alternative).
Cito :
"Questa te la sei inventata". Problemi con l'italiano?
Quindi ancora mi accusi di inventarmi le cose? Gira e rigira siam sempre qui.
Dai su, lascia perdere ;)
Ti appigli all' italiano quando non hai più argomenti? Hai capito benissimo cosa intendevo.
Per me controllare SOLO 1 shop, verificare la disponibilità di un prodotto solo lì, e poi concludere che tutti gli shop in italia non avevano disponibilità di quel prodotto equivale come minimo ad una storpiatura della realtà. Che poi uno la chiami invenzione o teoria azzardata o come ti pare , è un giochino che non serve a nessuno se non a te per non dover rispondere ai contenuti della mia critica.
Quindi secondo te, leggo tra le righe, la XT non vale la spesa? Cioè tutte le recensioni che abbiamo letto che la danno superiore sia tecnologicamente che prestazionalmente sono frutto di preferenze?
Come si fa a valutare la bontà di una spesa, se non sappiamo quanto costa e quando potremo comprarla?
Ci illumini :ave: ?
Datevi una calmata... ;)
:incazzed:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.