View Full Version : [THREAD UFFICIALE] Aspettando R700
-noxius-
20-06-2008, 10:09
AMD patner di Blizzard?
Non che vada entusiasta di queste operazioni di co-marketing, ma questa mi sembra una mossa per prendere 10milioni di piccioni con una fava :asd:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8036&Itemid=34
Comunque ATI è già sponsor di World of Warcraft (battle arenas o quel che è) che pure è un gioco TWIM.. etc.
Bah :(
Bah ? A me viene in mente STARCRAFT 2 !! Ho sentito che metteranno in bundle pure il nuovo ALONE IN THE DARK http://forums.vr-zone.com/showthread.php?t=291297
gianni1879
20-06-2008, 10:09
bah non hai capito niente di quello che ho detto.
Uno compra la scheda, la tira fuori dalla scatola, la monta, gioca.
E delle temp che ha te ne freghi.
Ti ricordo che nv45/g70 andava anche a 110 gradi... e nessuno si lamentava perchè si sapeva che il chip teneva fino a 120 gradi senza problemi.
E' evidente che non hai la più pallida di cosa serve la "dissipazione" di una gpu: non è una gara a chi ha le temp + basse, si cerca solo di tenere le temp sotto una soglia CHE CHI PRODUCE LE GPU SA in modo che la temp stessa non degeneri il chip stesso.
sembra abbastanza palese che stavolta, ma anche l'ultima del resto, Ati ha preferito la silenziosità, e se poi le temp sono alte, ma sempre nei margini di sicurezza, all'utente comune non so fino a che punto possa importare.
Forse non avete mai sentito una X1900&co con dissy dual slot che razza di aereo diventi quando la ventolina aumenta di rpm.
a proposito di vga difettose, ordinata la x1900xt dagli USA (pagata molto meno che in italia), arrivata con ram difettose, mandata in rma in canada direttamente alla Ati, e sostituita da ATi stessa in giro di due giorni, incredibile non appena hanno ricevuto la mia vga me l'hanno subito spedita un'altra!!!
Bah ? A me viene in mente STARCRAFT 2 !! Ho sentito che metteranno in bundle pure il nuovo ALONE IN THE DARK http://forums.vr-zone.com/showthread.php?t=291297
:sbav:
UAU una bella HD4870 con Alone in the dark e il Vantage sarebbe ottima...
-noxius-
20-06-2008, 10:13
Il mio problem anon e' stato di gpu ma nella ram che si e' bruciata.... righe sfarfallio ecc ecc... il dissipatore e' uquale a quelo usato per la ati 3850. Cnq scaldava da morire la gestio delle ventole era praticamente inesistente.. quello l'ho notato da subito. scaldandosi se scaldata anche la ram e' un blocco unico quindi ne ha risentito la ram e non l gpu.
Se non parte la ventola le ram non vengono dissipate e raggiungono temperature decisaente oltre i limiti tollerati ; questo spiega perchè quando le overclocchi ti becchi gli artefatti a scacchiera di vari colori (rosso-bianco) mentre se il tutto è a default rishi che vada direttamente in temperatura ; se poi consideri il fatto che i driver non abbassano il voltaggio a default ecco qui che in idle te la ritrovi a 70-80 gradi , per poi aumentare di poco in ''load'' .
Driver generici e gestione della ventola oppure bios della gigabyte ''fallato'' .
Il mio problem anon e' stato di gpu ma nella ram che si e' bruciata.... righe sfarfallio ecc ecc... il dissipatore e' uquale a quelo usato per la ati 3850. Cnq scaldava da morire la gestio delle ventole era praticamente inesistente.. quello l'ho notato da subito. scaldandosi se scaldata anche la ram e' un blocco unico quindi ne ha risentito la ram e non l gpu.
semplice, il controllo della ventola non funzionava probabilmente causa driver. La scheda esce il 25 quindi fino a quel giorno ... usarla ora..chi lo sa!!! :mbe:
sembra abbastanza palese che stavolta, ma anche l'ultima del resto, Ati ha preferito la silenziosità, e se poi le temp sono alte, ma sempre nei margini di sicurezza, all'utente comune non so fino a che punto possa importare.
Forse non avete mai sentito una X1900&co con dissy dual slot che razza di aereo diventi quando la ventolina aumenta di rpm.
a proposito di vga difettose, ordinata la x1900xt dagli USA (pagata molto meno che in italia), arrivata con ram difettose, mandata in rma in canada direttamente alla Ati, e sostituita da ATi stessa in giro di due giorni, incredibile non appena hanno ricevuto la mia vga me l'hanno subito spedita un'altra!!!
come per il supporto online mi paiono veramente bravi in customer care.
Al tempo dei 7.9 e il famigerato problema con le AGP, riuscii addirittura a comunicare con un ingegnere del Catalyst Driver Crew perchè voleva sapere con precisione i problemi che io riscontravo con la x850xt agp...
Drum4ever
20-06-2008, 10:21
Se non parte la ventola le ram non vengono dissipate e raggiungono temperature decisaente oltre i limiti tollerati ; questo spiega perchè quando le overclocchi ti becchi gli artefatti a scacchiera di vari colori (rosso-bianco) mentre se il tutto è a default rishi che vada direttamente in temperatura ; se poi consideri il fatto che i driver non abbassano il voltaggio a default ecco qui che in idle te la ritrovi a 70-80 gradi , per poi aumentare di poco in ''load'' .
Driver generici e gestione della ventola oppure bios della gigabyte ''fallato'' .
Calcola che mi era entrata in protezione in un bench 3dmark ha dato errore riuscito a uscire dal bench la scheda andava come se non avesse driver quindi era entrata in protezione cmq ho telefonato a loro direttamente stamattina dal momento che non si facevano sentire per email oggi mi mandaranno il tutto... Ma da quello che ho capito la mandano all giga che poi la rimandano a loro che poi la mandano a me. Ora vorrei saere la giga che gli dira dal momento che ufficialmente non ce'. Io ho chiesto il rimborso a questo punto.. certi giochini non mi piacciono piu' di tanto.
semplice, il controllo della ventola non funzionava probabilmente causa driver. La scheda esce il 25 quindi fino a quel giorno ... usarla ora..chi lo sa!!! :mbe:
la storia non regge perchè se uno non ha internet i driver che trova insieme alla scheda video la devono far funzionare senza farla esplodere, questo in linea di massima, schede fallate capitano sempre.
Drum4ever
20-06-2008, 10:23
semplice, il controllo della ventola non funzionava probabilmente causa driver. La scheda esce il 25 quindi fino a quel giorno ... usarla ora..chi lo sa!!! :mbe:
La ventola dovrebbe essere gestita dal bios delle gigabyte.
gianni1879
20-06-2008, 10:24
come per il supporto online mi paiono veramente bravi in customer care.
Al tempo dei 7.9 e il famigerato problema con le AGP, riuscii addirittura a comunicare con un ingegnere del Catalyst Driver Crew perchè voleva sapere con precisione i problemi che io riscontravo con la x850xt agp...
si guarda il supporto è davvero ottimo, ho avuto una sola esperienza personale (appunto il problema descritto prima), ma sono rimasto veramente soddisfatto, un'azienda seria si vede anche da queste "piccole" cose
Mercuri0
20-06-2008, 10:28
Bah ? A me viene in mente STARCRAFT 2 !! Ho sentito che metteranno in bundle pure il nuovo ALONE IN THE DARK http://forums.vr-zone.com/showthread.php?t=291297
"Bah" non per i bundle ma perché queste operazioni (come anche il TWetc etc) travalicano discorsti tecnici per entrare nel reame del puro marketing.
Cioé, una scheda finisce per vendere molto di più se ha il suo logo su un gioco più che per reali meriti tecnici. Lo so che il mondo è così, ma la cosa non mi entusiasma.
Mercuri0
20-06-2008, 10:31
la storia non regge perchè se uno non ha internet i driver che trova insieme alla scheda video la devono far funzionare senza farla esplodere, questo in linea di massima, schede fallate capitano sempre.
Di questi tempi le cose non funzionano proprio così: potrebbero anche preventivare di sostituire le schede che esplodono a quei 2-3 senza internet che magari hanno comprato le schede prima del lancio.
A pensarci direi che sono di meno di 3.
-Feanor-
20-06-2008, 10:37
AMD patner di Blizzard?
Non che vada entusiasta di queste operazioni di co-marketing, ma questa mi sembra una mossa per prendere 10milioni di piccioni con una fava :asd:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8036&Itemid=34
Comunque ATI è già sponsor di World of Warcraft (battle arenas o quel che è) che pure è un gioco TWIM.. etc.
Bah :(
e allora...??
qual'è il problema...??
http://img149.imageshack.us/img149/5278/ati20games1ww3.png (https://addons.mozilla.org/firefox/1174)
:O :D
molto interessante, speriamo hwup lunedì possa chiarire molti dubbi su questa "nuova" architettura :)
Io direi che per quello bisognerà aspettare la mitica rece di Beyond3D. ;) :ave:
Sono stati rimandati a quando l'embargo scadrà.
Perchè così almeno possono spiegare perchè l'AA e AF funzionano in un determinato modo.
Non vedo l'ora di leggere la recensione. :)
Comunque grazie yoss, quindi si è solo evoluto il concetto di ringbus, niente di stravolgente, insomma.
Ma una cosa non l'ho ancora capita/letta da nessuna parte, questo nuovo tipo di ringbus com'è? A 512bit come per RV670 o 1024bit come per R600, oppure si deve ragionare in un'altra maniera per definirlo?
Dovrebbe essere così, mi pareva di averlo intravisto su una delle foto delle scatole di HD4850...
HackaB321
20-06-2008, 10:48
Non mi fido ;)
Effettivamente sono sottotono ; ad ogni modo ENNESIMO rebranding da parte di nVIDIA, basta scaricarsi rivatuner e tutti colori i quali hanno una 9800GTX automaticamente saranno in grado di farla lavorare almeno ad 800 di core, altro che 738 .. (qualcosa cambia ma nulla di eccezionale) . In quella rece hanno palesemente saltato l'aa 8x, cavallo di battaglia di questa nuova 4850. Con l'aa 4x soffre un pochetto però con l'8x non vi è decremento di prestazioni , a differenza delle controparti nvidia dove vi è un decremento NETTO .
Da qui in poi la 9800GTX/+ non è più competitiva . Già non lo era prima a causa della 8800 gts 512 ,figuriamoci adesso .
Considera che la GTX+ non è solo una GTX occata, è un altro processo produttivo. Per un confronto completo con la 4850 andrà visto per bene:
-quali sono i margini di oc con il nuovo pp
-quanto consuma a default con il nuovo pp
-quanto può essere abbassata di prezzo da parte di Nvidia grazie al nuovo pp
La GTX normale andrà a sparire per me: costa di più produrla e non è competitiva nei confronti della 4850. La GTX+ per me sarà una scheda limitata dalla banda come G92 classico, ma Nvidia avrà maggiori margini di manovra sul prezzo grazie ai 55 nani.
Bhairava
20-06-2008, 10:50
Se non parte la ventola le ram non vengono dissipate e raggiungono temperature decisaente oltre i limiti tollerati ; questo spiega perchè quando le overclocchi ti becchi gli artefatti a scacchiera di vari colori (rosso-bianco) mentre se il tutto è a default rishi che vada direttamente in temperatura ; se poi consideri il fatto che i driver non abbassano il voltaggio a default ecco qui che in idle te la ritrovi a 70-80 gradi , per poi aumentare di poco in ''load'' .
Driver generici e gestione della ventola oppure bios della gigabyte ''fallato'' .
semplice, il controllo della ventola non funzionava probabilmente causa driver. La scheda esce il 25 quindi fino a quel giorno ... usarla ora..chi lo sa!!! :mbe:
I driver non c'entrano a nulla con il controllo delle ventola. La ventola si controlla via bios, o con un software esterno tipo Rivatuner o ATT. La 4850 purtroppo non è ancora supportata e bisognerà aspettare.
Come ho scritto nel 3d uff, credo che sia la stessa cosa accaduta con la 3870. Le temperature salgono in modo folle perchè probabilmente nel bios della vga è impostato il ciclo della ventola secondo un transfer mode un pò troppo "ottimistico": duty cicle min a 0%, e T-min a 70 gradi. Il motivo per cui i tecnici scelgono queste impostazioni sta forse nel ritenere che la gpu regga perfettamente temperaure alte, e prediligono quindi un profilo ventola molto silenzioso.
Questo è successo per la 3870, e sono quasi sicuro che qui valga la stessa cosa. La soluzione sta nell'aspettare un bios editor per la serie 4000, o usare un programma esterno (se ce ne saranno) per customizzare il fun cycle.
Basta dire che la dissipazione della 4850 come quella delle prime 8800gt, è una sciocchezza.
Mister Tarpone
20-06-2008, 10:52
Considera che la GTX+ non è solo una GTX occata, è un altro processo produttivo. Per un confronto completo con la 4850 andrà visto per bene:
-quali sono i margini di oc con il nuovo pp
-quanto consuma a default con il nuovo pp
-quanto può essere abbassata di prezzo da parte di Nvidia grazie al nuovo pp
La GTX normale andrà a sparire per me: costa di più produrla e non è competitiva nei confronti della 4850. La GTX+ per me sarà una scheda limitata dalla banda come G92 classico, ma Nvidia avrà maggiori margini di manovra sul prezzo grazie ai 55 nani.
quoto tutto...
e sinceramente non mi aspettavo che se ne uscissero subito così con i 55nani... ;)
Bhairava
20-06-2008, 10:54
quoto tutto...
e sinceramente non mi aspettavo che se ne uscissero subito così con i 55nani... ;)
Bhè, la 4850 ha dato una bella scossa ai piani di Nvidia, e i 55nm tirati fuori all'improvviso sono la conferma. Era ora.
quando dovrebbe uscire gia la 4870x2?
HackaB321
20-06-2008, 11:00
Cmq, sempre a proposito dell'inutilità delle 10.1 ecco AC senza patch:asd: :
http://www.techreport.com/r.x/radeon-hd-4850/assassinscreed.gif
mircocatta
20-06-2008, 11:00
ehi!!!
non so se era già stato postato!
http://www.trovaprezzi.it/prezzo_schede-grafiche_4850.aspx
ce ne sono altre 3 in vendita!
yossarian
20-06-2008, 11:06
si infatti si è visto chiaramente già a questo giro, GT200 un mega chippone enorme vabbè che è ancora a 65nm, ma anche con un processo inferiore la dimensione non scenderebbe di tantissimo.
Invece RV770 un chip piccolino che Ati lo adotterà in ben Tre schede diverse, nelle due singole e nella top X2. Il problema ovviamente adesso è il tipo di interconnessione tra le due gpu nel caso della hd4870x2, cosa avranno cambiato rispetto a R680? cmq la strda è questa c'è poco da dire
non si tratta solo di ridurre le dimensioni con un die shrink: questo eprchè è comunque necessario aumentare la potenza di calcolo. E finora, ogni volta che si è proceduto ad effettuare un die shrink di un'architettura e, contestulmente, ad aumentare la potenza di calcolo, le dimensioni del chip sono sempre aumentate.
Inoltre c'è da tener conto di un elemento fondamentale per un'azienda: le economie di scala; un megachip costa di più sia in fase di progettazione che di realizzazione
Bhè, la 4850 ha dato una bella scossa ai piani di Nvidia, e i 55nm tirati fuori all'improvviso sono la conferma. Era ora.
all'improvviso? il tape out dei 55nm di nvidia si sa da almeno 2 mesi.... :rolleyes:
Considera che la GTX+ non è solo una GTX occata, è un altro processo produttivo. Per un confronto completo con la 4850 andrà visto per bene:
-quali sono i margini di oc con il nuovo pp
-quanto consuma a default con il nuovo pp
-quanto può essere abbassata di prezzo da parte di Nvidia grazie al nuovo pp
La GTX normale andrà a sparire per me: costa di più produrla e non è competitiva nei confronti della 4850. La GTX+ per me sarà una scheda limitata dalla banda come G92 classico, ma Nvidia avrà maggiori margini di manovra sul prezzo grazie ai 55 nani.
Magari si posizioneranno cosi dal punto di vista dei prezzi:
gtx260 vs hd4870 1gb
gtx+ (:asd:) vs hd4870 512mb
gtx vs hd4850
Considerando che la gtx260 sta andando già sotto i 300€.
Cmq, sempre a proposito dell'inutilità delle 10.1 ecco AC senza patch:asd: :
http://www.techreport.com/r.x/radeon-hd-4850/assassinscreed.gif
"E' solo marketing"(.cit) "Specchiettone per allodole"(.cit) :O
-noxius-
20-06-2008, 11:14
"Bah" non per i bundle ma perché queste operazioni (come anche il TWetc etc) travalicano discorsti tecnici per entrare nel reame del puro marketing.
Cioé, una scheda finisce per vendere molto di più se ha il suo logo su un gioco più che per reali meriti tecnici. Lo so che il mondo è così, ma la cosa non mi entusiasma.
Considera che la GTX+ non è solo una GTX occata, è un altro processo produttivo. Per un confronto completo con la 4850 andrà visto per bene:
-quali sono i margini di oc con il nuovo pp
-quanto consuma a default con il nuovo pp
-quanto può essere abbassata di prezzo da parte di Nvidia grazie al nuovo pp
La GTX normale andrà a sparire per me: costa di più produrla e non è competitiva nei confronti della 4850. La GTX+ per me sarà una scheda limitata dalla banda come G92 classico, ma Nvidia avrà maggiori margini di manovra sul prezzo grazie ai 55 nani.
Si , però rimane il fatto che non vi è un cambio architetturale, sempre 128sp e frequenze di una GTX OC .. Va bene il prezzo però le prestazioni non cambiano e se facciamo OC sulla gtx (gtx+) , a questo punto dovremmo fare la recensione con modelli della 4850 anch'essi OC di fabbrica (tipo asus da qui a breve con dissi glaciator e core sui 680MHz) ;) .
La discriminante è il prezzo e questa mossa lampo di nvidia è necessaria per contenere le perdite e mantenere minimi margini , contenendo le potenziali perdite di mercato .. Lo stesso ceo di nvidia aveva detto che abbassando il processo non sempre si alzano le frequenze ; a meno che non alzino il Vcore oppure mettano alimentazione a 5 fasi , francamente non credo che possa essere overcloccata molto di più e poi, anche se così fosse , da un ipotetico 800/830 ad un ipotetico 830/850 prestazionalmente cambierebbe poco e niente ; certo , potrebbero mettere il core a default verso i 730-750 di core , peccato che ci siano già modelli oc delle gtx a frequenze maggiori, oltre al fatto che è tutto uno speccietto per le allodole grazie a rivatuner ..
I driver non c'entrano a nulla con il controllo delle ventola. La ventola si controlla via bios, o con un software esterno tipo Rivatuner o ATT. La 4850 purtroppo non è ancora supportata e bisognerà aspettare.
Come ho scritto nel 3d uff, credo che sia la stessa cosa accaduta con la 3870. Le temperature salgono in modo folle perchè probabilmente nel bios della vga è impostato il ciclo della ventola secondo un transfer mode un pò troppo "ottimistico": duty cicle min a 0%, e T-min a 70 gradi. Il motivo per cui i tecnici scelgono queste impostazioni sta forse nel ritenere che la gpu regga perfettamente temperaure alte, e prediligono quindi un profilo ventola molto silenzioso.
Questo è successo per la 3870, e sono quasi sicuro che qui valga la stessa cosa. La soluzione sta nell'aspettare un bios editor per la serie 4000, o usare un programma esterno (se ce ne saranno) per customizzare il fun cycle.
Basta dire che la dissipazione della 4850 come quella delle prime 8800gt, è una sciocchezza.
Driver generici e gestione della ventola oppure bios della gigabyte ''fallato'' .
;)
Foglia Morta
20-06-2008, 11:14
non si tratta solo di ridurre le dimensioni con un die shrink: questo eprchè è comunque necessario aumentare la potenza di calcolo. E finora, ogni volta che si è proceduto ad effettuare un die shrink di un'architettura e, contestulmente, ad aumentare la potenza di calcolo, le dimensioni del chip sono sempre aumentate.
Inoltre c'è da tener conto di un elemento fondamentale per un'azienda: le economie di scala; un megachip costa di più sia in fase di progettazione che di realizzazione
Certo , ma questo lo sanno benissimo quelli di nVidia ( vedi G71 , 196mm2 ).
Perchè allora è uscito fuori GT200 ? Solo per il supporto ai calcoli in FP64 ? Perchè per il resto quella gpu mi pare se la potessero risparmiare , il G92B e una GX2 con il nuovo die a 55nm e a posto così , no ?
Cmq, sempre a proposito dell'inutilità delle 10.1 ecco AC senza patch:asd: :
http://www.techreport.com/r.x/radeon-hd-4850/assassinscreed.gif
ah però! se la gioca allegramente con la gtx280..... un po di overlock e la supera!!!
La hd4870 in quel caso la supera con agilità la gtx280
150 euro vs 500 euro!
e alla massima risoluzione possibile!!!!!
Mister Tarpone
20-06-2008, 11:17
Certo , ma questo lo sanno benissimo quelli di nVidia ( vedi G71 , 196mm2 ).
Perchè allora è uscito fuori GT200 ? Solo per il supporto ai calcoli in FP64 ? Perchè per il resto quella gpu mi pare se la potessero risparmiare , il G92B e una GX2 con il nuovo die a 55nm e a posto così , no ?
la penso così pure io.
e mi domando la stessa cosa: perchè gt200 adesso?? :confused:
gianni1879
20-06-2008, 11:17
quoto tutto...
e sinceramente non mi aspettavo che se ne uscissero subito così con i 55nani... ;)
per essere competitivi non potevano fare altro
ah però! se la gioca allegramente con la gtx280..... un po di overlock e la supera!!!
La hd4870 in quel caso la supera con agilità la gtx280
150 euro vs 500 euro!
e alla massima risoluzione possibile!!!!!
Davvero nn ho parole...
yossarian
20-06-2008, 11:22
Certo , ma questo lo sanno benissimo quelli di nVidia ( vedi G71 , 196mm2 ).
Perchè allora è uscito fuori GT200 ? Solo per il supporto ai calcoli in FP64 ? Perchè per il resto quella gpu mi pare se la potessero risparmiare , il G92B e una GX2 con il nuovo die a 55nm e a posto così , no ?
G71 era sempre un chip di tipo monolitico. La differenza tra nVidia e ATi è che la prima ocntinua a percorrere la strada del chip monolitico e utilizza lo sli in misura marginale, la seconda ha abbandonato la strada del chip monolitico e sta lavorando sul perfezionamento delle interconnessioni tra due o più chip. La prima strada porta ad architetture sempre più grandi e complesse, la seconda ad un frazionamento dei core, con la possibilità di allocarne, in futuro, più di uno entro lo stesso package o, addirittura, sullo stesso die (come accade per la cpu).
GT200 è figlio della filosofia di nVidia e nVidia ha accumulato un ritardo di un processo produttivo (vantaggio che ATi si è presa con la serie R4x0 e continua a conservare). A dire la verità, c'è anche un'altra differenza nella tipologia delle alu e in come vengono gestite :D
gianni1879
20-06-2008, 11:23
non si tratta solo di ridurre le dimensioni con un die shrink: questo eprchè è comunque necessario aumentare la potenza di calcolo. E finora, ogni volta che si è proceduto ad effettuare un die shrink di un'architettura e, contestulmente, ad aumentare la potenza di calcolo, le dimensioni del chip sono sempre aumentate.
Inoltre c'è da tener conto di un elemento fondamentale per un'azienda: le economie di scala; un megachip costa di più sia in fase di progettazione che di realizzazione
certo, però se la potenza di calcolo rimane la stessa con un PP più evoluto le dimensioni si riducono (R600 vs Rv670 anche il controller di memoria è stato dimezzato), chiaramente se andiamo ad aumentare le unità di calcolo, certamente il chip cresce come superficie, lo abbiamo appunto visto in RV770 rispetto a Rv670.
Amd il concetto di economia di scala lo ho molto ben chiaro, cosa che Nvidia al momento non ha chiarissimo (anche se ha proposto varie schede alla fin fine molto simili )
Foglia Morta
20-06-2008, 11:25
G71 era sempre un chip di tipo monolitico. La differenza tra nVidia e ATi è che la prima ocntinua a percorrere la strada del chip monolitico e utilizza lo sli in misura marginale, la seconda ha abbandonato la strada del chip monolitico e sta lavorando sul perfezionamento delle interconnessioni tra due o più chip. La prima strada porta ad architetture sempre più grandi e complesse, la seconda ad un frazionamento dei core, con la possibilità di allocarne, in futuro, più di uno entro lo stesso package o, addirittura, sullo stesso die (come accade per la cpu).
GT200 è figlio della filosofia di nVidia. A dire la verità, c'è anche un'altra differenza nella tipologia delle alu e in come vengono gestite :D
Tanto lo sai che te lo domando :asd:
Quindi sputa il rospo :D
yossarian
20-06-2008, 11:26
Tanto lo sai che te lo domando :asd:
Quindi sputa il rospo :D
non posso :D
gianni1879
20-06-2008, 11:26
Magari si posizioneranno cosi dal punto di vista dei prezzi:
gtx260 vs hd4870 1gb
gtx+ (:asd:) vs hd4870 512mb
gtx vs hd4850
Considerando che la gtx260 sta andando già sotto i 300€.
"E' solo marketing"(.cit) "Specchiettone per allodole"(.cit) :O
credo che la 9800gtx@65nm appena terminate le scorte di magazzino scomparirà dalla circolazione, il chip costa di più che produrlo a 55nm.
Probabilmente la 9800gtx+ (non sanno più che sigle mettere..... :rolleyes) si assesterà sui livelli della HD4850 a livello di prezzo o poco superiore.
Bhairava
20-06-2008, 11:26
all'improvviso? il tape out dei 55nm di nvidia si sa da almeno 2 mesi.... :rolleyes:
Ah ok non ricordavo, non c'è bisogno che "rolli".
Si , però rimane il fatto che non vi è un cambio architetturale, sempre 128sp e frequenze di una GTX OC .. Va bene il prezzo però le prestazioni non cambiano e se facciamo OC sulla gtx (gtx+) , a questo punto dovremmo fare la recensione con modelli della 4850 anch'essi OC di fabbrica (tipo asus da qui a breve con dissi glaciator e core sui 680MHz) ;) .
La discriminante è il prezzo e questa mossa lampo di nvidia è necessaria per contenere le perdite e mantenere minimi margini , contenendo le potenziali perdite di mercato .. Lo stesso ceo di nvidia aveva detto che abbassando il processo non sempre si alzano le frequenze ; a meno che non alzino il Vcore oppure mettano alimentazione a 5 fasi , francamente non credo che possa essere overcloccata molto di più e poi, anche se così fosse , da un ipotetico 800/830 ad un ipotetico 830/850 prestazionalmente cambierebbe poco e niente ; certo , potrebbero mettere il core a default verso i 730-750 di core , peccato che ci siano già modelli oc delle gtx a frequenze maggiori, oltre al fatto che è tutto uno speccietto per le allodole grazie a rivatuner ..
;)
Bhè caro potresti almeno usare il mio nick quando quoti i miei post. :fagiano:
HackaB321
20-06-2008, 11:31
Certo , ma questo lo sanno benissimo quelli di nVidia ( vedi G71 , 196mm2 ).
Perchè allora è uscito fuori GT200 ? Solo per il supporto ai calcoli in FP64 ? Perchè per il resto quella gpu mi pare se la potessero risparmiare , il G92B e una GX2 con il nuovo die a 55nm e a posto così , no ?
anche per quello. La presentazione di GT200 è stata tutta centrata sul GPGPU e potenzialmente si tratta di un mercato molto più grande di quello dei giochi. Per i vg attuali GT200 ha un rapporto ALU:TEX eccessivo e per me soffre anche di driver immaturi.
Poi si tratta di un progetto su cui basare anche le architetture future: ci sono stati infatti grossi cambiamenti in vista delle evoluzioni future dei giochi (ALU:TEX incrementato, FP64, raddoppio dei registri delle ALU e soprattutto aumenti enormi rispetto a G80 nei geometry shaders).
yossarian
20-06-2008, 11:37
certo, però se la potenza di calcolo rimane la stessa con un PP più evoluto le dimensioni si riducono (R600 vs Rv670 anche il controller di memoria è stato dimezzato), chiaramente se andiamo ad aumentare le unità di calcolo, certamente il chip cresce come superficie, lo abbiamo appunto visto in RV770 rispetto a Rv670.
se effettui un semplice die shrink le dimensioni si riducono, però la potenza di calcolo non aumenta (se non in misura minima grazie alla possibilità di aumentare la frequenza di funzionamento). Il problema è che la potenza di calcolo cresce, solitamente, più velocemente di quanto non diminuiscano le dimensioni). Il dimezzamento del bus nel passaggio da R600 a RV670 dimostra l'efficienza del ring bus, per cui i 512 bit erano abbondantemente sovradimensionati e non è dipeso dal die shrink effettuato ( né poteva esserlo). Poteva rappresentare un esperimento per vedere come lavorava con ram più veloci delle gddr3; la soluzione attuale (quella di RV770) è, però, più funzionale e occupa meno spazio
Amd il concetto di economia di scala lo ho molto ben chiaro, cosa che Nvidia al momento non ha chiarissimo (anche se ha proposto varie schede alla fin fine molto simili )
la proposta di varie schede simili è una necessità, non una scelta. Quando proponi un chip con 128 sp e poi uno con 112 ed uno con 96 (e via dicendo), non lo fai per scelta ma per utilizzare gli "scarti". All'aumentare della complessità del chip aumenta il numero di gruppi di alu malfunzionanti o poco affidabili e aumentano il numero e le tipologie di chip derivanti da uno stesso processo produttivo. Con R100 e NV15 si aveva un solo tipo di "scarto" (con 1 sola e con 2 sole pipeline funzionanti rispettivamente, poichè erano chip con 4 e 2 pipeline totali). Quando invece proponi chip con stesso processo produttivo e identica architettura a frequenze diverse è perchè hai affinato il processo mproduttivo e ciò ti permette di spingere i chip migliori a frequenze più alte (ti serve come test per verificare il limite di quella architettura con quel processo produttivo e per proporre un prodotto più appetibile, in quanto più veloce e, solitamente, più economico del precedente)
Mercuri0
20-06-2008, 11:40
anche per quello. La presentazione di GT200 è stata tutta centrata sul GPGPU e potenzialmente si tratta di un mercato molto più grande di quello dei giochi. Per i vg attuali GT200 ha un rapporto ALU:TEX eccessivo e per me soffre anche di driver immaturi.
Non credo che il GPGPU abbia un mercato molto più grande di quello dei giochi. Certo è che le tecnologie dei giochi su PC stanno stagnando di questi tempi (complici le console).
A quello che dici ci stavo pensando anche io: il GT200 sembra essere stato progettato con un occhio in più al GPGPU, mentre con RV770 sembra che in AMD si siano ricordati che una scheda grafica è fatta anche per i videogiochi (R600 i conti già sapeva farli...)
Però, davvero, la situazione nel panorama dei giochi attuali per PC è veramente disarmante rispetto alle capacità che le moderne GPU avrebbero :cry:
Altrimenti non si spiega perché stiamo a discutere dei 4 FPS tra le schede, o perché la 9800GX2 vada quasi sempre praticamente al doppio della GTX260 nei test di techreport.
Che gli FPS li facciano solo TMU e ROP?
halduemilauno
20-06-2008, 11:44
Non vorrei dire una bestialità ma sta rece la trovo un pò strana, non ho letto tutto l'articolo per bene, ma credo che si tratti di una semplice 9800gtx portata alle frequenze della 9800gtx+, infatti non stranamente non ci sono i test sui consumi (non li ho visti io?), e poi qualche risultato un pò strano nei test, la 4850 appare molto sottono, ad es. in bioshock
http://www.firingsquad.com/hardware/amd_radeon_hd_4850_geforce_9800_gtx+/page7.asp
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_radeon_hd_4850_rv770/14/#abschnitt_bioshock
risultati un pò divergenti
http://www.legitreviews.com/images/reviews/731/temps.jpg
ho confuso temp. con i consumi. lascio lo screen perchè credo che possa cmq interessare.
Mercuri0
20-06-2008, 11:48
ho confuso temp. con i consumi. lascio lo screen perchè credo che possa cmq interessare.
Infatti ti stavo per rispondere malissimo, ma hai corretto proprio prima che premessi il pulsante "quote" :D
Mi sembra utile comunque ribadire che mentre i consumi sono il "guaio" (perché tutto ciò che un chip consuma finisce in potenza termica da dissipare). Le temperature dipendono dalla velocità di rotazione della ventola (o dalla grandezza del dissipatore), e noi non sappiamo quali siano le temperature che il chip può tollerare.
Scalda di più una scheda che consuma di più, non una scheda che ha le più alte temperature sul chip.
(Non so se le alte temperature delle prima 4850 siano una cosa "prevista" o un errore, cmq)
gianni1879
20-06-2008, 11:49
http://www.legitreviews.com/images/reviews/731/temps.jpg
ho confuso temp. con i consumi. lascio lo screen perchè credo che possa cmq interessare.
infatti ti stavo dicendo proprio questo quelli erano C° e non W ;)
halduemilauno
20-06-2008, 11:51
Infatti ti stavo per rispondere malissimo, ma hai corretto proprio prima che premessi il pulsante "quote" :D
infatti ho grassettato consumi e poi postato le temp. pensando che si riferiva sin dall'inizio alle temp.
si cmq due 4850 non consumeranno certo meno di una gtx280...
halduemilauno
20-06-2008, 11:54
infatti ti stavo dicendo proprio questo quelli erano C° e non W ;)
appena trovo i watt li posto. ma se credete che si abusi dell'ot forse è meglio per gli interessati venire a vedere nel thread ufficiale.
-noxius-
20-06-2008, 11:54
Ah ok non ricordavo, non c'è bisogno che "rolli".
Bhè caro potresti almeno usare il mio nick quando quoti i miei post. :fagiano:
copia incolla molto repentino , poi stavi pochi post sopra quindi si capiva ;)
gianni1879
20-06-2008, 11:56
se effettui un semplice die shrink le dimensioni si riducono, però la potenza di calcolo non aumenta (se non in misura minima grazie alla possibilità di aumentare la frequenza di funzionamento). Il problema è che la potenza di calcolo cresce, solitamente, più velocemente di quanto non diminuiscano le dimensioni). Il dimezzamento del bus nel passaggio da R600 a RV670 dimostra l'efficienza del ring bus, per cui i 512 bit erano abbondantemente sovradimensionati e non è dipeso dal die shrink effettuato ( né poteva esserlo). Poteva rappresentare un esperimento per vedere come lavorava con ram più veloci delle gddr3; la soluzione attuale (quella di RV770) è, però, più funzionale e occupa meno spazio
ho precisato il ringbus dimezzato per evidenziare che la dimensione era diminuita a parità di potenza di calcolo, ma che era stato appunto apportata una modifica sostanziale che poteva trarre in inganno, sul discorso ridimensionamento del chip. In questo caso il ridimensionamento è stato ancora più marcato dal passaggio al nuovo PP, proprio in virtù di quello scritto sopra.
Poi che i 512bit erano sovrabbondanti era un'altro discorso che sappiamo molto bene, senza dubbio è stato un esperimento.
Che l'accoppiata Gddr5+controller a 256bit è vincente non ci sono dubbi
la proposta di varie schede simili è una necessità, non una scelta. Quando proponi un chip con 128 sp e poi uno con 112 ed uno con 96 (e via dicendo), non lo fai per scelta ma per utilizzare gli "scarti". All'aumentare della complessità del chip aumenta il numero di gruppi di alu malfunzionanti o poco affidabili e aumentano il numero e le tipologie di chip derivanti da uno stesso processo produttivo. Con R100 e NV15 si aveva un solo tipo di "scarto" (con 1 sola e con 2 sole pipeline funzionanti rispettivamente, poichè erano chip con 4 e 2 pipeline totali). Quando invece proponi chip con stesso processo produttivo e identica architettura a frequenze diverse è perchè hai affinato il processo mproduttivo e ciò ti permette di spingere i chip migliori a frequenze più alte (ti serve come test per verificare il limite di quella architettura con quel processo produttivo e per proporre un prodotto più appetibile, in quanto più veloce e, solitamente, più economico del precedente)
se proponi schede che si differenziano per freq e unità di calcolo è un discorso relativo appunto agli scarti e all'affinamento dei PP, ma proporre la stessa scheda con nomi diversi è una scelta puramente di marketing (condivisibile o meno).
:)
Mercuri0
20-06-2008, 11:56
si cmq due 4850 non consuma certo meno di una gtx280...
Per me consumano tutte troppo. Il mio notebook c'ha un alimentatore da 100Watt, ed è un desktop replacement. :D
gianni1879
20-06-2008, 11:57
appena trovo i watt li posto. ma se credete che si abusi dell'ot forse è meglio per gli interessati venire a vedere nel thread ufficiale.
forse è meglio ;)
anche se ormai quì è diventata certe volte una piazzetta :D
yossarian
20-06-2008, 11:58
se proponi schede che si differenziano per freq e unità di calcolo è un discorso relativo appunto agli scarti e all'affinamento dei PP, ma proporre la stessa scheda con nomi diversi è una scelta puramente di marketing (condivisibile o meno).
:)
proporre la stessa architettura, con lo stesso processo produttivo e le stesse frequenze ma un nome diverso non ha molto senso
gianni1879
20-06-2008, 11:58
Per me consumano tutte troppo. Il mio notebook c'ha un alimentatore da 100Watt, ed è un desktop replacement. :D
ci sono picopsu da 80/90W ;)
che sono pure sovradimensionati a seconda di quello che ci si deve fare (sistemino a basso consumo)
gianni1879
20-06-2008, 12:01
proporre la stesso architettura, con lo stesso processo produttivo e le stesse frequenze ma un nome diverso non ha molto senso
eh lo so, ma dillo a Nvidia che quest'anno ne ha tirati fuori di tutti i colori, schede identiche vendute qualche tempo dopo con un nome diverso solo per far apparire che si trattassero di vga più evolute e più nuove.
Dal punto di vista "morale" non ha senso, ma dal punto di vista di Marketin potrebbe avercelo
yossarian
20-06-2008, 12:08
eh lo so, ma dillo a Nvidia che quest'anno ne ha tirati fuori di tutti i colori, schede identiche vendute qualche tempo dopo con un nome diverso solo per far apparire che si trattassero di vga più evolute e più nuove.
Dal punto di vista "morale" non ha senso, ma dal punto di vista di Marketin potrebbe avercelo
non entro in discorsi sulla morale che mal si addicono ad aziende che hanno come fini principali il lucro, la competizione e la sperimentazione; il fatto è che neanche dal punto di vista tecnico ha senso
gianni1879
20-06-2008, 12:10
non entro in discorsi sulla morale che mal si addicono ad aziende che hanno come fini principali il lucro, la competizione e la sperimentazione; il fatto è che neanche dal punto di vista tecnico ha senso
ecco infatti ;)
morale inteso per i consumatori
Foglia Morta
20-06-2008, 12:11
G71 era sempre un chip di tipo monolitico. La differenza tra nVidia e ATi è che la prima ocntinua a percorrere la strada del chip monolitico e utilizza lo sli in misura marginale, la seconda ha abbandonato la strada del chip monolitico e sta lavorando sul perfezionamento delle interconnessioni tra due o più chip. La prima strada porta ad architetture sempre più grandi e complesse, la seconda ad un frazionamento dei core, con la possibilità di allocarne, in futuro, più di uno entro lo stesso package o, addirittura, sullo stesso die (come accade per la cpu).
GT200 è figlio della filosofia di nVidia e nVidia ha accumulato un ritardo di un processo produttivo (vantaggio che ATi si è presa con la serie R4x0 e continua a conservare). A dire la verità, c'è anche un'altra differenza nella tipologia delle alu e in come vengono gestite :D
ma così però il vantaggio con le rese produttive si va a far benedire, no ? che senso avrebbe farlo ?
http://www.legitreviews.com/images/reviews/731/temps.jpg
ho confuso temp. con i consumi. lascio lo screen perchè credo che possa cmq interessare.
le temp in effetti sono alte, ne abbiamo già discusso sul thread ufficiale e siamo giunti alla conclusione che c'è qualcosa che non va nei driver che non supportano ancora il powerplay... :)
lucanonno
20-06-2008, 12:15
Allora Ati non era "decotta"...aveva sbagliato solo progetto.
AMD ha dato la direzione giusta e non ha visto forse poi così male.
Mi auguro che AMD ora dia una sana sterzata anche sul lato cpu.
yossarian
20-06-2008, 12:17
ma così però il vantaggio con le rese produttive si va a far benedire, no ? che senso avrebbe farlo ?
Vero, le rese produttive caleranno di sicuro, ma c'è da tener conto della maggior semplicità di progettazione di un'architettura multicore rispetto ad una monolitica. Ovviamente anche il numero di core non può essere illimitato (a causa delle difficoltà di trovare un bus capace di farli dialogare senza introdurre latenze apprezzabili rispetto ad un unico core). Diciamo che le strade percorribili sono due: più chip sulla stessa scheda o nello stesso package (scelta economica sia per la progettazione che per la realizzazione); più chip sullo stesso die (scelta economica per la progettazione, meno per la realizzazione, con il vantaggio di poter ottimizzare le interconnesioni tra chip e la gestione dei carichi di lavoro più facilmente)
Bhairava
20-06-2008, 12:18
le temp in effetti sono alte, ne abbiamo già discusso sul thread ufficiale e siamo giunti alla conclusione che c'è qualcosa che non va nei driver che non supportano ancora il powerplay... :)
Per vedere il funzionamento del Powerplay apri il file profile.xml di di Catalyst, ci dovrebbe essere un gruppo "Overdrive 5" in cui sono descritti gli State.
Come ho già ripetuto varie volte, non credo che siano i driver a causare alte temperature, ma la scarsa rotazione della ventola.
Evidenziamo meglio questo importante momento :D
Anche l'NDA sull'architettura è caduto!
http://www.extremetech.com/article2/0,2845,2320865,00.asp
http://img207.imageshack.us/img207/4206/01425sz1i187108001gm0.th.gif (http://img207.imageshack.us/img207/4206/01425sz1i187108001gm0.gif)
Hanno tolto il ring bus,
moltiplicato le SPU,
DUPLICATO la potenza delle 16 ROP,
portato le TMU a 40 ma più efficenti delle 16 di rv670,
distribuito delle cache in ogni dove...
http://img207.imageshack.us/img207/9536/01425sz1i187109001pb1.th.gif (http://img207.imageshack.us/img207/9536/01425sz1i187109001pb1.gif)
:sbavvv:
http://img207.imageshack.us/img207/383/01425sz1i187111001wy6.th.gif (http://img207.imageshack.us/img207/383/01425sz1i187111001wy6.gif)
It's really rather impressive that the company was able to accomplish all these architectural changes and fit so many more texture units, stream processors, and improved ROPs in a chip that is still on a 55nm process but manages to be only around 33% bigger, and still manages to be over 20% smaller than the G92 GPU.
http://img207.imageshack.us/img207/1736/01425sz1i187110001ft0.th.gif (http://img207.imageshack.us/img207/1736/01425sz1i187110001ft0.gif)
Again, this is aimed at cutting the legs out from under the Radeon HD 4870. At $300, it would probably be a clear victory for ATI, and the only thing Nvidia has to keep up or beat ATI's GDDR5-powered card is a GeForce GTX 260. With its huge 1.4 billion-transistor GPU, lots of high-speed GDDR3, and multi-layer board, there's just no way for Nvidia to chop the GTX 260 price down without taking a loss right now. So the company did the next best thing—they undercut the Radeon HD 4870 with an overclocked product that may not be faster, but might represent more "bang for the buck."
:winner:
be quindi si può dire che quello che ha fatto ati è diverso da quello che ha fatto nvidia con gt200.
complimenti ad ati!!!!!!!!!!!!!!
HackaB321
20-06-2008, 12:30
Vero, le rese produttive caleranno di sicuro, ma c'è da tener conto della maggior semplicità di progettazione di un'architettura multicore rispetto ad una monolitica. Ovviamente anche il numero di core non può essere illimitato (a causa delle difficoltà di trovare un bus capace di farli dialogare senza introdurre latenze apprezzabili rispetto ad un unico core). Diciamo che le strade percorribili sono due: più chip sulla stessa scheda o nello stesso package (scelta economica sia per la progettazione che per la realizzazione); più chip sullo stesso die (scelta economica per la progettazione, meno per la realizzazione, con il vantaggio di poter ottimizzare le interconnesioni tra chip e la gestione dei carichi di lavoro più facilmente)
Più chip sullo stesso die secondo te potrebbe facilitare anche la scrittura dei driver?
E' realistica e conveniente un'ipotesi in cui non siano i driver (tramite l'AFR o altro) a ripartire il carico ma sia invece un dispositivo hardware a ripartire il carico tra i vari core (come avviene nelle gpu single-core attualmente con il dispatch processor che "smista" il lavoro tra i vari cluster)?
Più chip sullo stesso die secondo te potrebbe facilitare anche la scrittura dei driver?
E' realistica e conveniente un'ipotesi in cui non siano i driver (tramite l'AFR o altro) a ripartire il carico ma sia invece un dispositivo hardware a ripartire il carico tra i vari core (come avviene nelle gpu single-core attualmente con il dispatch processor che "smista" il lavoro tra i vari cluster)?
Ma non e quello che gia fa il chip PLX della x2?
Mercuri0
20-06-2008, 12:52
Ma non e quello che gia fa il chip PLX della x2?
Credo che il chip PLX serva solo al processore (o al driver se preferisci) a "vedere" ciascuna delle due GPU montate sullo stesso slot pci-express.
Erroneamente la gente pensa che quel chip serva per far comunicare tra loro le due GPU, o a ripartire non so ché.
In realtà quel chip è solo una "presa multipla" per slot pci express.
Credo che il chip PLX serva solo al processore (o al driver se preferisci) a "vedere" ciascuna delle due GPU montate sullo stesso slot pci-express.
Erroneamente la gente pensa che quel chip serva per far comunicare tra loro le due GPU, o a ripartire non so ché.
In realtà quel chip è solo una "presa multipla" per slot pci express.
Chiarissimo :)
yossarian
20-06-2008, 13:03
Più chip sullo stesso die secondo te potrebbe facilitare anche la scrittura dei driver?
E' realistica e conveniente un'ipotesi in cui non siano i driver (tramite l'AFR o altro) a ripartire il carico ma sia invece un dispositivo hardware a ripartire il carico tra i vari core (come avviene nelle gpu single-core attualmente con il dispatch processor che "smista" il lavoro tra i vari cluster)?
a ripartire i carichi di lavoro deve essere un dispositivo HW, possibilmente programmabile a basso livello. In un'architettura ibrida in parte di tipo vliw (come R6x0), è affidato al compilatore l'ottenimento del massimo parallelismo (questo è il motivo principale della non elevata efficienza di R6x0 e della sua elevata complessità di ottimizzazione) ma non il bilanciamento dei carichi di lavoro tra i gruppi di unità di calcolo. Discorso analogo vale per architetture multicore: deve esserci un arbiter "fisico" che si occupa di gestire il traffico di dati e richieste di accesso agli stessi da parte dei vari core, rispettando determinate priorità relative alle tipologie di calcoli o di dati richiesti. A svolgere questo compito può essere anche uno dei core di cui è composto il processore (che in quel caso ha integrate le funzionalità di arbiter)
le temp in effetti sono alte, ne abbiamo già discusso sul thread ufficiale e siamo giunti alla conclusione che c'è qualcosa che non va nei driver che non supportano ancora il powerplay... :)
http://www.pcper.com/images/reviews/580/power.jpg
Non capisco perchè si paragonano schede con dissipatori diversi....la 4850 monta un dissy che occupa un solo slot..mentre le altre 2 sono doppio slot..tanto vale allora mettere anche schede a liquido..se si vogliono fare paragoni bisogna mettere il dissy della 9800gtx sulla 4850 oppure fare il contrario..mettere il dissy della 4850 sulla 9800gtx..:rolleyes:
edit: sbagliato grafico...va be lo lascio..può tornare utile a qualcuno
michelgaetano
20-06-2008, 13:06
http://www.pcper.com/images/reviews/580/power.jpg
Non capisco perchè si paragonano schede con dissipatori diversi....la 4850 monta un dissy che occupa un solo slot..mentre le altre 2 sono doppio slot..tanto vale allora mettere anche schede a liquido..se si vogliono fare paragoni bisogna mettere il dissy della 9800gtx sulla 4850 oppure fare il contrario..mettere il dissy della 4850 sulla 9800gtx..:rolleyes:
Non penso sia giusto così...parliamo di dissi stock, che sono forniti con la scheda ^^"
Certo sarebbe più gisuto metterle entrambe a confronto con dissi dual, ma uscirà, è solo questione di tempo :)
gianni1879
20-06-2008, 13:08
Per vedere il funzionamento del Powerplay apri il file profile.xml di di Catalyst, ci dovrebbe essere un gruppo "Overdrive 5" in cui sono descritti gli State.
Come ho già ripetuto varie volte, non credo che siano i driver a causare alte temperature, ma la scarsa rotazione della ventola.
in full di sicuro se la ventola gira piano ovvio che scaldi parecchio (la ventola si controlla da bios), ma si discuteva dello stato idle, dove sembra che i voltaggi non scendano, dovrebbe essere una prerogativa dei driver no?
era successo una cosa molto simile con R600 che dopo qualche release di driver ci si è accorti che in idle scaldava molto meno
Free Gordon
20-06-2008, 13:13
proporre la stessa architettura, con lo stesso processo produttivo e le stesse frequenze ma un nome diverso non ha molto senso
Ti riferisci MICA per caso a 8800GTS e 9800GTX? :asd:
Una domanda spassionata (se puoi rispondere :ciapet: ):
secondo te avrà più senso la 4870 con 1GB o quella con 512MB?
La versione con 1GB, potrebbe avere latenze maggiori nell'accesso alla ram e per cui un pò di performance in meno, a parità di ram consumata?
Oppure no? :D
Grazie
Raga ma una ipotetica 4850 con stessa gpu e con le ddr5 dovrebbe consumare meno rispetto a quella con ddr3 no?
michelgaetano
20-06-2008, 13:16
Raga ma una ipotetica 4850 con stessa gpu e con le ddr5 dovrebbe consumare meno rispetto a quella con ddr3 no?
quanto una 4870 downclockata, un pelo di meno per le gddr 5 :)
yossarian
20-06-2008, 13:17
Ti riferisci MICA per caso a 8800GTS e 9800GTX? :asd:
Una domanda spassionata (se puoi rispondere :ciapet: ):
secondo te avrà più senso la 4870 con 1GB o quella con 512MB?
La versione con 1GB, potrebbe avere latenze maggiori nell'accesso alla ram e per cui un pò di performance in meno, a parità di ram consumata?
Oppure no? :D
Grazie
quando un controller è preposto a gestire più chip di ram, le latenze sono sempre leggermente superiori; per questo la soluzione dei 4 controller è migliore di quella a controller unico con, magari, un bus a 512 bit
Free Gordon
20-06-2008, 13:21
quando un controller è preposto a gestire più chip di ram, le latenze sono sempre leggermente superiori; per questo la soluzione dei 4 controller è migliore di quella a controller unico con, magari, un bus a 512 bit
Per cui mi stai dicendo che, con i 4MC di Rv770, il divario di prestazioni tra lo sku 512 e quello 1GB, a parità di ram consumata, dovrebbe ridursi MOLTO? :D
yossarian
20-06-2008, 13:24
Per cui mi stai dicendo che, con i 4MC di Rv770, il divario di prestazioni tra lo sku 512 e quello 1GB, a parità di ram consumata, dovrebbe ridursi MOLTO? :D
diciamo che la differenza tra le latenze è molto inferiore a quella che si avrebbe con un unico controller
Mercuri0
20-06-2008, 13:28
Non penso sia giusto così...parliamo di dissi stock, che sono forniti con la scheda ^^"
Certo sarebbe più gisuto metterle entrambe a confronto con dissi dual, ma uscirà, è solo questione di tempo :)
La caciara è che si sta facendo confusione coi grafici, e il lettore "disattendo" può confondere temperature (cioè dissipatore e velocità della ventola) con consumi (quanto scalda)
Raga ma una ipotetica 4850 con stessa gpu e con le ddr5 dovrebbe consumare meno rispetto a quella con ddr3 no?
Non ci saranno 4850 con GDDR5. Al massimo si può vedere come va una 4870 downcloccata.
I consumi in full della 4850 sono comunque in linea con le attese. Sui grafici non si vedono bene, perché i grafici mostrano i consumi dell'intero sistema in full, e quindi i contributi dovuti alla sola scheda grafica si "appiattiscono".
In idle, se è vero che il voltaggio ancora non viene regolato, ci sono margini di miglioramento via driver.
Il discorso delle temperature dipende invece dal dissipatore. Per ora non sappiamo se le alte temperature sono una scelta (il chip le tollera) o un errore (errore di velocità delle ventole).
Può darsi che quelle in idle si abbasseranno quando verrà regolato il voltaggio.
HackaB321
20-06-2008, 13:29
a ripartire i carichi di lavoro deve essere un dispositivo HW, possibilmente programmabile a basso livello. In un'architettura ibrida in parte di tipo vliw (come R6x0), è affidato al compilatore l'ottenimento del massimo parallelismo (questo è il motivo principale della non elevata efficienza di R6x0 e della sua elevata complessità di ottimizzazione) ma non il bilanciamento dei carichi di lavoro tra i gruppi di unità di calcolo. Discorso analogo vale per architetture multicore: deve esserci un arbiter "fisico" che si occupa di gestire il traffico di dati e richieste di accesso agli stessi da parte dei vari core, rispettando determinate priorità relative alle tipologie di calcoli o di dati richiesti. A svolgere questo compito può essere anche uno dei core di cui è composto il processore (che in quel caso ha integrate le funzionalità di arbiter)
Però attualmente nel multigpu di tipo crossfire o sli non è così: non esiste un dispositivo che ripartisca il lavoro tra le gpu, sono i driver che a livello di frame (e non di thread come farebbe un dispatch processor) ripartiscono il carico tra le varie gpu. Questo comporta inevitabili ottimizzazioni gioco per gioco per ottenere un'equa ripartizione, visto che la complessità di ogni frame varia in base al gioco e in base alla scena.
A quanto ho capito ,se si passasse ad un modello multicore integrato in un die questo modello andrebbe abbandonato e si dovrebbe passare ad una ripartizione via hardware. Si avrebbe quindi un dispatch processor che ripartisce i thread tra i vari core e, internamente ad ognuno di questi, la ripartizione avverrebbe come nelle gpu single core attuali con i vari arbeiter e sequencer che inoltrano i gruppi di thread ai vari cluster.
E' corretto?
Mercuri0
20-06-2008, 13:33
Per cui mi stai dicendo che, con i 4MC di Rv770, il divario di prestazioni tra lo sku 512 e quello 1GB, a parità di ram consumata, dovrebbe ridursi MOLTO? :D
diciamo che la differenza tra le latenze è molto inferiore a quella che si avrebbe con un unico controller
In questo discorso la modalità clamshell delle GDDR5 ci azzecca qualcosa??
yossarian
20-06-2008, 13:38
Però attualmente nel multigpu di tipo crossfire o sli non è così: non esiste un dispositivo che ripartisca il lavoro tra le gpu, sono i driver che a livello di frame (e non di thread come farebbe un dispatch processor) ripartiscono il carico tra le varie gpu. Questo comporta inevitabili ottimizzazioni gioco per gioco per ottenere un'equa ripartizione, visto che la complessità di ogni frame varia in base al gioco e in base alla scena.
A quanto ho capito ,se si passasse ad un modello multicore integrato in un die questo modello andrebbe abbandonato e si dovrebbe passare ad una ripartizione via hardware. Si avrebbe quindi un dispatch processor che ripartisce i thread tra i vari core e, internamente ad ognuno di questi, la ripartizione avverrebbe come nelle gpu single core attuali con i vari arbeiter e sequencer che inoltrano i gruppi di thread ai vari cluster.
E' corretto?
si, e ovviamente anche questi arbiter possono essere programmati e, quindi, ottimizzati. In questo caso, l'ottimizzazione, più che gioco per gioco, andrebbe fatta in base alla tipologia di rendering che il motore grafico di quel gioco supporta (anche se non si può escluderer un'ottimizzazione sul tipo dell'attuale). Il vantaggio di avere un controller HW è che non si deve aspettare la release di driver ottimizzata per veder andare bene quel particolare gioco; i driver, semmai, possono servire per effetture una sorta di lavoro di rifinitura
HackaB321
20-06-2008, 13:46
si, e ovviamente anche questi arbiter possono essere programmati e, quindi, ottimizzati. In questo caso, l'ottimizzazione, più che gioco per gioco, andrebbe fatta in base alla tipologia di rendering che il motore grafico di quel gioco supporta (anche se non si può escluderer un'ottimizzazione sul tipo dell'attuale). Il vantaggio di avere un controller HW è che non si deve aspettare la release di driver ottimizzata per veder andare bene quel particolare gioco; i driver, semmai, possono servire per effetture una sorta di lavoro di rifinitura
Sarebbe un vantaggio non da poco. A quel punto un'ottimizzazione driver per una scheda multi core non sarebbe molto più complessa di quella per una scheda single core. Possibilità di vedere tutto questo già con R700?:D
yossarian
20-06-2008, 13:52
In questo discorso la modalità clamshell delle GDDR5 ci azzecca qualcosa??
si, nel senso che sicuramente beneficia della migliore gestione degli accessi alla ram di sistema in particolare e a risorse esterne in generale (tra cui può essre annoverata anche una seconda gpu) da parte delle unità di calcolo interne di ciascuna gpu
yossarian
20-06-2008, 13:58
Sarebbe un vantaggio non da poco. A quel punto un'ottimizzazione driver per una scheda multi core non sarebbe molto più complessa di quella per una scheda single core. Possibilità di vedere tutto questo già con R700?:D
si vedrà, ma non posso dire quando e con che modalità (la direzione intrapresa, comunque, porta in quella direzione)
yossarian
20-06-2008, 14:03
Pensia sia possibile andare a scrivere/leggere sulla VRAM di un'altra GPU passando dall'hub dell'architettura che abbiam visto?
non dovrebbe essere necessario farlo; in ogni caso, sia R500 (il chip di xbox) che le gpu per pc, a partire dalla serie R5x0, sono in grado di fare bus mastering, cioè di gestire l'accesso alle risorse e, in particolare, alla ram di sistema (non solo alla vram) sostituendosi alla cpu o al controller del northbridge
Mercuri0
20-06-2008, 14:21
Il vantaggio di avere un controller HW è che non si deve aspettare la release di driver ottimizzata per veder andare bene quel particolare gioco; i driver, semmai, possono servire per effetture una sorta di lavoro di rifinitura
Questo dettaglio proprio mi sfugge: se fosse possibile fare un HW già automaticamente ottimizzato per ogni tipo di gioco, perché non sarebbe possibile "emularlo in software" con il driver?
yossarian
20-06-2008, 14:33
Questo dettaglio proprio mi sfugge: se fosse possibile fare un HW già automaticamente ottimizzato per ogni tipo di gioco, perché non sarebbe possibile "emularlo in software" con il driver?
perchè un'emulazione via SW è sempre più lenta e meno affidabile. Le difficoltà incontrate nella parallelizzazione delle operazioni, con codice generico, nelle architetture vliw (che si affidano al compiler per questo task), sono emblematiche. Il bilanciamento dei carichi di lavoro via SW non è destinato ad ottenere risultati migliori)
Foglia Morta
20-06-2008, 14:40
yoss, ciò che dici QUI (http://www.hwupgrade.it/forum/showpost.php?p=22976395&postcount=481) e QUI (http://www.hwupgrade.it/forum/showpost.php?p=22980334&postcount=557) riguarda anche l'ottimizzazione dello sfruttamento dello shader core ? Tempo fa era venuto fuori un test fatto su alcuni giochi in cui Bioshock risultava essere quello che sfrutta meglio lo shader core ( mediamente intorno all'80% mi pare di ricordare ) e risultati erano un po così così ( in generale mi pare fosse sul 60-70% ) .
Ora , con questo nuovo approccio ci si dovrebbe avvicinare più facilmente alle capacità teoriche oppure c'è anche un problema di bilanciamento ALU:TEX di 4:1 che pare sia eccessivo per il software attuale ?
Edit: mi riferisco a questo http://digilander.libero.it/hackab321/Rubin-CGO2008_Page_34.jpg
Grazie @ HackaB
appleroof
20-06-2008, 14:44
Mioddio che scimmia...
Intanto ho mandato una mail ad un negozio francese che accetta preordini per la 4870 1GB per avere alcuni lumi, mi darebbero pure una garanzia addizionale per la quale in caso di guasto invece di passare per l'RMA mi darebbero direttamente un coupon del valore del pagato originale spendibile su tutto il listino. Notevole.
Per ora mi informo e basta, eh, ma ho finito le noccioline e potrei fare l'idiozia di comprare a scatola chiusa se non mi do una calmata :>
mi manderesti il link in pvt? grazie :)
HackaB321
20-06-2008, 14:46
yoss, ciò che dici QUI (http://www.hwupgrade.it/forum/showpost.php?p=22976395&postcount=481) e QUI (http://www.hwupgrade.it/forum/showpost.php?p=22980334&postcount=557) riguarda anche l'ottimizzazione dello sfruttamento dello shader core ? Tempo fa era venuto fuori un test fatto su alcuni giochi in cui Bioshock risultava essere quello che sfrutta meglio lo shader core ( mediamente intorno all'80% mi pare di ricordare ) e risultati erano un po così così ( in generale mi pare fosse sul 60-70% ) .
Ora , con questo nuovo approccio ci si dovrebbe avvicinare più facilmente alle capacità teoriche oppure c'è anche un problema di bilanciamento ALU:TEX di 4:1 che pare sia eccessivo per il software attuale ?
http://digilander.libero.it/hackab321/Rubin-CGO2008_Page_34.jpg
;)
Immortal
20-06-2008, 14:51
finalmente un po' di discussioni tecniche...è un piacere leggervi ;)
appleroof
20-06-2008, 15:04
finalmente un po' di discussioni tecniche...è un piacere leggervi ;)
quoto al 100%
...bench stasera nel tread ufficiale della 4850 comparati con 8800gt stesso sistema:)
michelgaetano
20-06-2008, 15:16
...bench stasera nel tread ufficiale della 4850 comparati con 8800gt stesso sistema:)
ottimo okorop :) quindi tutto ok con la scheda?
ottimo okorop :) quindi tutto ok con la scheda?
tutto ok solo che i driver non ci sono ancora, la ventola girava testata 3 ore e non c'è stato nessun problema aqua mark non andava pero......usciva con messaggio di errore quindi driver.....
yossarian
20-06-2008, 15:30
yoss, ciò che dici QUI (http://www.hwupgrade.it/forum/showpost.php?p=22976395&postcount=481) e QUI (http://www.hwupgrade.it/forum/showpost.php?p=22980334&postcount=557) riguarda anche l'ottimizzazione dello sfruttamento dello shader core ? Tempo fa era venuto fuori un test fatto su alcuni giochi in cui Bioshock risultava essere quello che sfrutta meglio lo shader core ( mediamente intorno all'80% mi pare di ricordare ) e risultati erano un po così così ( in generale mi pare fosse sul 60-70% ) .
Ora , con questo nuovo approccio ci si dovrebbe avvicinare più facilmente alle capacità teoriche oppure c'è anche un problema di bilanciamento ALU:TEX di 4:1 che pare sia eccessivo per il software attuale ?
Edit: mi riferisco a questo http://digilander.libero.it/hackab321/Rubin-CGO2008_Page_34.jpg
Grazie @ HackaB
un miglior accesso alla ram migliora anche le prestazioni dello shader core e delle tmu (latenze più basse e ti ricordo che tra le operazioni a maggiori latenze ci sono quelle di texture fetch, motivo per cui ATi fa uso di texture cache fully associative); c'è stata anche qualche ottimizzazione a livello di parallelizzazione delle operazioni matematiche. Il vero problema di R6x0 e derivati è stato propio la difficoltà a sfruttare al massimo il parallelismo teorico possibile; le cose sarebbero migliorate se si fosse fatto AA via shader come previsto con il defferred rendering e se si fosse sfruttato maggiormente il vertex texturing (la qual cosa avrebbe permesso di mascherare l'altro punto debole di R600 e, cioè, la capacità di fare texture filtering).
Drum4ever
20-06-2008, 15:39
tutto ok solo che i driver non ci sono ancora, la ventola girava testata 3 ore e non c'è stato nessun problema aqua mark non andava pero......usciva con messaggio di errore quindi driver.....
Strano a me l'errore lo dava alla seconda ripetizione del 3dmark, aquamark andava bene cio fatto 226,321. Ma lo hai pacthato aquamark?
Foglia Morta
20-06-2008, 15:40
un miglior accesso alla ram migliora anche le prestazioni dello shader core e delle tmu (latenze più basse e ti ricordo che tra le operazioni a maggiori latenze ci sono quelle di texture fetch, motivo per cui ATi fa uso di texture cache fully associative); c'è stata anche qualche ottimizzazione a livello di parallelizzazione delle operazioni matematiche. Il vero problema di R6x0 e derivati è stato propio la difficoltà a sfruttare al massimo il parallelismo teorico possibile; le cose sarebbero migliorate se si fosse fatto AA via shader come previsto con il defferred rendering e se si fosse sfruttato maggiormente il vertex texturing (la qual cosa avrebbe permesso di mascherare l'altro punto debole di R600 e, cioè, la capacità di fare texture filtering).
Riguardo gli shader processor di R600 e derivati cosa ti viene in mente se ti dico che sono Grandi Grossi & Fregnoni ? :D ( nessuno qui l'ha mai capito ed è un dubbio che mi angoscia , magari tu lo sai :D )
Sarebbe un vantaggio non da poco. A quel punto un'ottimizzazione driver per una scheda multi core non sarebbe molto più complessa di quella per una scheda single core. Possibilità di vedere tutto questo già con R700?:D
Secondo me pochissime.
Ho la sensazione che sarà R8x0 a passare al multicore. Magari non sullo stesso die, ma nel medesimo package. Forse ogni core potrebbe essere costituito da una versione ottimizzata e a 40nm di RV770 (con ogni MC a 128bit?).
yossarian
20-06-2008, 15:44
Riguardo gli shader processor di R600 e derivati cosa ti viene in mente se ti dico che sono Grandi Grossi & Fregnoni ? :D ( nessuno qui l'ha mai capito ed è un dubbio che mi angoscia , magari tu lo sai :D )
grandi e grossi non direi, visto che ciascuno richiede 1/3 circa dei registri rispetto a quanto fanno quelli di G80, fregnoni, magari, si; ma la colpa non è tutta loro; anche il compiler ci ha messo del suo :D
halduemilauno
20-06-2008, 15:45
Riguardo gli shader processor di R600 e derivati cosa ti viene in mente se ti dico che sono Grandi Grossi & Fregnoni ? :D ( nessuno qui l'ha mai capito ed è un dubbio che mi angoscia , magari tu lo sai :D )
grandi e grossi non direi, visto che ciascuno richiede 1/3 circa dei registri rispetto a quanto fanno quelli di G80, fregnoni, magari, si; ma la colpa non è tutta loro; anche il compiler ci ha messo del suo :D
lui lo sa di sicuro.
Strano a me l'errore lo dava alla seconda ripetizione del 3dmark, aquamark andava bene cio fatto 226,321. Ma lo hai pacthato aquamark?
non so non andava....pazienza :)
sul mio pc faro piu test.....l'rma te l'han dato alla fine? o ti cambiano la scheda video direttamente?
lor68pdit
20-06-2008, 15:47
Strano a me l'errore lo dava alla seconda ripetizione del 3dmark, aquamark andava bene cio fatto 226,321. Ma lo hai pacthato aquamark?
Però, bel risultato.
Configurazione?
Foglia Morta
20-06-2008, 15:47
grandi e grossi non direi, visto che ciascuno richiede 1/3 circa dei registri rispetto a quanto fanno quelli di G80, fregnoni, magari, si; ma la colpa non è tutta loro; anche il compiler ci ha messo del suo :D
ecco grazie... sono certo che con questa risposta hai ridato sonni tranquilli a molti forumisti :D
Mercuri0
20-06-2008, 16:00
perchè un'emulazione via SW è sempre più lenta e meno affidabile. Le difficoltà incontrate nella parallelizzazione delle operazioni, con codice generico, nelle architetture vliw (che si affidano al compiler per questo task), sono emblematiche. Il bilanciamento dei carichi di lavoro via SW non è destinato ad ottenere risultati migliori)
Non capisco però perché "meno affidabile". Un bilanciamento del carico di lavoro via hardware dovrebbe avere la stessa "affidabilità" di uno via software, con la differenza che l'hardware non lo puoi scaricare da internet.
Certo, il mio discorso vale a parità di architettura: è ovvio che un chip "magico" e ultracompatibile che facesse la ripartizione del carico tra due GPU sarebbe preferibile ai driver di oggi che lo fanno, ma se questo chip potesse esistere, esisterebbe anche un driver in grado di farlo, magari non alla stessa velocità.
Il discorso dell'architettura vliw non mi sembra molto attinente alla ripartizione del carico tra GPU. :confused:
HackaB321
20-06-2008, 16:10
Riguardo gli shader processor di R600 e derivati cosa ti viene in mente se ti dico che sono Grandi Grossi & Fregnoni ? :D ( nessuno qui l'ha mai capito ed è un dubbio che mi angoscia , magari tu lo sai :D )
:asd:
un miglior accesso alla ram migliora anche le prestazioni dello shader core e delle tmu (latenze più basse e ti ricordo che tra le operazioni a maggiori latenze ci sono quelle di texture fetch, motivo per cui ATi fa uso di texture cache fully associative); c'è stata anche qualche ottimizzazione a livello di parallelizzazione delle operazioni matematiche. Il vero problema di R6x0 e derivati è stato propio la difficoltà a sfruttare al massimo il parallelismo teorico possibile; le cose sarebbero migliorate se si fosse fatto AA via shader come previsto con il defferred rendering e se si fosse sfruttato maggiormente il vertex texturing (la qual cosa avrebbe permesso di mascherare l'altro punto debole di R600 e, cioè, la capacità di fare texture filtering).
Il problema del parallelismo mi fa venire in mente un' altra domanda, anche se prima vorrei leggere qualche recensione tecnica di Rv770.
R600 è dotato di 4 cluster, questo implica che il compiler dovrebbe riuscire in una situazione ottimale, in ogni ciclo (anzi ogni 4 cicli, credo, avendo R600 branching granularity di 64 threads), ad assemblare 4 macroistruzioni da "dare in pasto" ad ognuno dei 4 cluster (ognuna delle quali, in un mondo perfetto, sarebbe composta da 5 istruzioni scalari). Ora abbiamo visto che il compilatore
già così fa una fatica immane perchè deve comunque evitare le dipendenze tra istruzioni nell'assemblare le VLIW.
Ora, in Rv770 invece di incrementare il numero di sp per cluster (come molti si aspettavano) , hanno incrementato il numero dei cluster da 4 a 10 (penso per migliorare le prestazioni nel dynamic branching): questo dovrebbe aver reso il lavoro di parallelizzazione del compiler molto più difficile, eppure le prestazioni non sembrano risentirne minimamente. Hai qualche informazione a riguardo?
Un'altra cosa: cos'è il vertex texturing?
Secondo me pochissime.
Ho la sensazione che sarà R8x0 a passare al multicore. Magari non sullo stesso die, ma nel medesimo package. Forse ogni core potrebbe essere costituito da una versione ottimizzata e a 40nm di RV770 (con ogni MC a 128bit?).
Anche per me pochissime. Anche perchè dalle prime foto R700 sembra comunque composto da due package.
yossarian
20-06-2008, 16:15
Non capisco però perché "meno affidabile". Un bilanciamento del carico di lavoro via hardware dovrebbe avere la stessa "affidabilità" di uno via software, con la differenza che l'hardware non lo puoi scaricare da internet.
Certo, il mio discorso vale a parità di architettura: è ovvio che un chip "magico" e ultracompatibile che facesse la ripartizione del carico tra due GPU sarebbe preferibile ai driver di oggi che lo fanno, ma se questo chip potesse esistere, esisterebbe anche un driver in grado di farlo, magari non alla stessa velocità.
Il discorso dell'architettura vliw non mi sembra molto attinente alla ripartizione del carico tra GPU. :confused:
un controller che gestisce automaticamente il bilanciamento di carico tra i vari gruppi di alu di una gpu già esiste (è presente in tutti i chip ATi, e NV a shader unificati) ed è programmato a basso livello. Un chip analogo può gestire il bilanciamento dei carichi di lavoro tra 2 o più processori o unità di calcolo complesse. Basta solo creare una struttura di controller a più livelli (di fatto è già presente all'interno delle gpu dove esistono più controller che comunicano tra di loro).
Il driver è più lento e, poichè quanti livelli di logica ci sono, tanto più aumentano i cicli sottratti ad operazioni non finalizzate al calcolo puro e semplice, avere operazioni gestite da HW preposto a quel compito, anzichè da SW che deve essere ottimizzato per farlo velocizza le cose. Inoltre un HW programmato a basso livello è trasparente al codice a livello più alto, il che significa che non può essere influenzato da errori nella programmazione o da eventuali conflitti. Infine, l'ottimizzazione via driver di architetture sempre più complesse comporta notevole dispendio di energie con risultati non sempre all'altezza.
L'esempio dell'architettura vliw serviva a richiamare l'attenzione sui problemi di R6x0 che è parzialmente vliw; il bilanciamento dei carichi tra gruppi di unità e gli accessi alla ram, gestiti da controller HW non hanno dato nessun problema. La gestione del parallelismo delle alu di tipo vliw, invece, che doveva essere affidata ad un compilatore (e quindi doveva avvenire via SW) ha creato notevoli problemi)
Mercuri0
20-06-2008, 16:42
un controller che gestisce automaticamente il bilanciamento di carico tra i vari gruppi di alu di una gpu già esiste (è presente in tutti i chip ATi, e NV a shader unificati) ed è programmato a basso livello. Un chip analogo può gestire il bilanciamento dei carichi di lavoro tra 2 o più processori o unità di calcolo complesse. Basta solo creare una struttura di controller a più livelli (di fatto è già presente all'interno delle gpu dove esistono più controller che comunicano tra di loro).
Però il problema della ripartizione del carico nel multi GPU mi sembra più legato a problemi di texturing/rendering/ e sopratutto accesso alla memoria che non di ALU in sé. Altrimenti perché bisognerebbe ricorrere a soluzioni tipo l'AFR?
A differenza delle CPU, per cui il multi-core è l'unico modo per poter progredire oggigiorno a causa di vincoli tecnologici, il "multi gpu" è una scelta solo per contenere i costi di progettazione. Non capisco molto il discorso di "multi-gpu on-die", non è più efficiente un'architettura modulare che si possa ingrandire a piacere con il copia&incolla nel CAD, piuttosto che livelli di controller in cascata?
L'esempio dell'architettura vliw serviva a richiamare l'attenzione sui problemi di R6x0 che è parzialmente vliw; il bilanciamento dei carichi tra gruppi di unità e gli accessi alla ram, gestiti da controller HW non hanno dato nessun problema. La gestione del parallelismo delle alu di tipo vliw, invece, che doveva essere affidata ad un compilatore (e quindi doveva avvenire via SW) ha creato notevoli problemi)
Sull'ottica hardware/software abbiamo proprio visioni diverse :) .
Non credo che un compilatore VLIW hardware (o accelerato via hardware) sarebbe più efficace di uno software. ;)
L'idea delle architetture VLIW è di spostare il lavoro sul software (lavoro che tra l'altro non ha vincoli di velocità, visto che la compilazione non avviene in tempo reale) per semplificare l'hardware. Io non riesco a vedere questo come prova che "software è inerentemente peggio - o meno affidabile - di hardware" anzi, il compilatore software puoi aggiornarlo...
NicKonsumaru
20-06-2008, 16:44
edit
Foglia Morta
20-06-2008, 16:46
yoss quale limite di RV670 bisogna superare per far si che una scheda con 2 gpu in 2 distinti package sullo stesso pcb non sia più un crossfire su singola scheda come lo è ora la 3870X2 ?
yossarian
20-06-2008, 16:46
:asd:
Il problema del parallelismo mi fa venire in mente un' altra domanda, anche se prima vorrei leggere qualche recensione tecnica di Rv770.
R600 è dotato di 4 cluster, questo implica che il compiler dovrebbe riuscire in una situazione ottimale, in ogni ciclo (anzi ogni 4 cicli, credo, avendo R600 branching granularity di 64 threads), ad assemblare 4 macroistruzioni da "dare in pasto" ad ognuno dei 4 cluster (ognuna delle quali, in un mondo perfetto, sarebbe composta da 5 istruzioni scalari). Ora abbiamo visto che il compilatore
già così fa una fatica immane perchè deve comunque evitare le dipendenze tra istruzioni nell'assemblare le VLIW.
Ora, in Rv770 invece di incrementare il numero di sp per cluster (come molti si aspettavano) , hanno incrementato il numero dei cluster da 4 a 10 (penso per migliorare le prestazioni nel dynamic branching): questo dovrebbe aver reso il lavoro di parallelizzazione del compiler molto più difficile, eppure le prestazioni non sembrano risentirne minimamente. Hai qualche informazione a riguardo?
R6x0 ha un'architettura che si può riassumere come 4-16-5, con 4 macro gruppi, ognuno con 16 cluster ciascuno con 5 unità scalari. Il bilanciamento dei carichi di lavoro avviene a livello di macroarchitettura (tra i 4 gruppi principali e, all'interno di ciascun gruppo, tra i 16 sottogruppi) ed è automatico. Il compiler deve fare in modo che le 5 unità scalari di ogni gruppo da 16 siano il più possibile impegnate; quindi deve riorganizzare le microistruzioni in una macroistruzione da dare in pasto a ciascun gruppo di 5 unità scalari di ogni gruppo. Il fatto di avere 4 gruppi o 10 non cambia nulla all'atto pratico (se non il fatto che gli vengono date in pasto più microistruzioni); posso solo dire che è stato organizzato meglio il lavoro complessivo del chip (ma non posso aggiungere dettagli sull'architettura).
Per quanto riguarda il branching l'avere 10 gruppi da 80 alu (16*5) avrebbe aumentato le dimensioni delle batch se si fosse mantenuto lo stesso algoritmo usato per R600 (16*10 invece di 16*4).
Un'altra cosa: cos'è il vertex texturing?
il vertex texturing è la possibilità di fare texture fetch anche da parte deille unità di vertex shading (con le architetture unificate questa distinzione non ha più senso), introdotta con lo sm3.0
Anche per me pochissime. Anche perchè dalle prime foto R700 sembra comunque composto da due package.
con R700 nessuna
gianni1879
20-06-2008, 16:52
Riguardo gli shader processor di R600 e derivati cosa ti viene in mente se ti dico che sono Grandi Grossi & Fregnoni ? :D ( nessuno qui l'ha mai capito ed è un dubbio che mi angoscia , magari tu lo sai :D )
oddio noooooo :D
oddio noooooo :D
Si, l' ha detto :asd:
Sono quasi crepato all'istante :D
-noxius-
20-06-2008, 17:11
Si, l' ha detto :asd:
Sono quasi crepato all'istante :D
Vi dico solo che noto con piacere che mi ha messo sulla ignore list ... hehe ..
La lezione non gli è servita a nulla e continua a fare il veggente :ciapet:
Battuta davvero splendida tra l'altro :rolleyes:
Un saluto a Yoss è sempre un piacere leggere le sue disamine :)
E grande ATI :p
yossarian
20-06-2008, 17:22
Però il problema della ripartizione del carico nel multi GPU mi sembra più legato a problemi di texturing/rendering/ e sopratutto accesso alla memoria che non di ALU in sé. Altrimenti perché bisognerebbe ricorrere a soluzioni tipo l'AFR?
le operazioni di texture fetch sono indubbiamente tra quelle a latenze più elevate, ma i modi per mascherare queste latenze sono molti: più thread in circolo contemporaneamente (il gran numero di registri temporanei e le cache interne ai chip lo stanno a testimoniare, texture cache di tipo set associative o fully associative, un numero di unità di texture fetch e texture address maggiore rispetto a quello di texture filtering. Il bilanciamento dei carichi di lavoro tra unità di calcolo, però, non è problematico solo per quello; si deve tener conto di un gran numero di elementi (istruzioni dipendenti da altre, priorità di alcune operazioni rispetto ad altre, possibilità di trovare alu immediatamente disponibili, ecc); non è un caso che la stragrande maggioranza dello spazio all'interno di una gpu è ormai occupato da dispositivi di controllo, da registri, da buffer e da cache e molti cicli sono impiegati per operazioni non propriamente matematiche
A differenza delle CPU, per cui il multi-core è l'unico modo per poter progredire oggigiorno a causa di vincoli tecnologici, il "multi gpu" è una scelta solo per contenere i costi di progettazione. Non capisco molto il discorso di "multi-gpu on-die", non è più efficiente un'architettura modulare che si possa ingrandire a piacere con il copia&incolla nel CAD, piuttosto che livelli di controller in cascata?
anche nelle gpu le architetture modulari sono l'unico modo per poter progredire, a mano che non si voglia accettare l'idea di chip sempre più grandi che, magari, in futuro, integreranno anche la ram all'interno. O, se vogliamo, anche per le cpu si può progredire ricorrendo ad un'architettura di tipo monolitico; basta ricreare su un'unico core la struttura di due o più core. Anche li, però, è antieconomico farlo.
Un'architettura modulare è più efficiente fino ad un certo livello di complessità, a patto di non rendere troppo macchinose le comunicazioni tra le varie gpu; e comunque, anche un'architettura multigpu o multicore che dir si voglia, da un certo livello di complessità in poi non può più essere gestita via SW (vedi, ad esempio, il cell, la cui gestione interna non avviene via SW ed è un controller HW a gestire i dma dei spe e gli stessi dma sono inizializzati dal ppe: il tutto in maniera trasparente rispetto al SW).
Sull'ottica hardware/software abbiamo proprio visioni diverse :) .
Non credo che un compilatore VLIW hardware (o accelerato via hardware) sarebbe più efficace di uno software. ;)
L'idea delle architetture VLIW è di spostare il lavoro sul software (lavoro che tra l'altro non ha vincoli di velocità, visto che la compilazione non avviene in tempo reale) per semplificare l'hardware. Io non riesco a vedere questo come prova che "software è inerentemente peggio - o meno affidabile - di hardware" anzi, il compilatore software puoi aggiornarlo...
ho fatto l'esempio di un'architettura vliw (e il riferimento in ambito gpu è evidentemente a R600), perchè in quella particolare architettura è stata proprio la parte gestita via SW a creare i problemi maggiori. Poi, che le architetture vliw spostino la complessità di organizzazione a livello sw è evidente; grazie al vliw in R600 si è riusciti ad infilare 320 sp (che hanno richiesto uno spazio più che dimezzato rispetto ad una corrispondente architettura completamente gestita in HW).
Anche i controller HW possono essere "aggiornati" se sono programmabili; però, se permetti, non si può accettare l'idea che un dispositivo "critico" per il funzionamento di un chip, come un controller, possa essere programmato ad alto livello via driver, magari da persone che neppure conoscono alla perfezione l'architettura del chip
yossarian
20-06-2008, 17:31
yoss quale limite di RV670 bisogna superare per far si che una scheda con 2 gpu in 2 distinti package sullo stesso pcb non sia più un crossfire su singola scheda come lo è ora la 3870X2 ?
stai innocentemente girando attorno alla domanda: come sarà gestito il dual gpu su R700, per caso? :sofico:
Foglia Morta
20-06-2008, 17:37
stai innocentemente girando attorno alla domanda: come sarà gestito il dual gpu su R700, per caso? :sofico:
malizioso :asd:
Kyle Bennett di HardOcp a Dicembre 2007 aveva detto che ingegneri ATi gli avevano detto che R700 non sarebbe stato un crossfire... ce lo spiegherai tra un po :D
yoss quale limite di RV670 bisogna superare per far si che una scheda con 2 gpu in 2 distinti package sullo stesso pcb non sia più un crossfire su singola scheda come lo è ora la 3870X2 ?
stai innocentemente girando attorno alla domanda: come sarà gestito il dual gpu su R700, per caso? :sofico:
Sono sicuro della sua innocenza...:)
:D
Cmq sono felice che questo 3d abbia preso una piega più "tech" e didattica...
http://img262.imageshack.us/img262/1426/powerplay2ic1.jpg
Oddio, RV770 è vivo! :D
E' consapevole di essere una chip grafico XD
http://img262.imageshack.us/img262/1426/powerplay2ic1.jpg
Oddio, RV770 è vivo! :D
E' consapevole di essere una chip grafico XD
:asd:
Questa si che è la vera rivoluzione di rv770 :ciapet:
stai innocentemente girando attorno alla domanda: come sarà gestito il dual gpu su R700, per caso? :sofico:
Non so quanto ne sappia w0mbat ma dice che saranno collegati tramite il nuovo MC.
http://forum.beyond3d.com/showpost.php?p=1179226&postcount=4284
:asd:
Questa si che è la vera rivoluzione di rv770 :ciapet:
Noo... ora ho capito quali sono i malvagi piani di Ati! Stanno creando Skynet con queste chip coscienti e poi scateneranno il giorno del giudizio!! Nvidia salvaci tu!
:stordita:
bluefrog
20-06-2008, 18:07
The Black Beast:
http://img246.imageshack.us/img246/7536/hahavx2pc7.jpg
http://img246.imageshack.us/img246/9196/hohols8zt6.jpg
michelgaetano
20-06-2008, 18:08
È incazzata nera :eek: :D
bronzodiriace
20-06-2008, 18:15
ma questa r700 è la 4870?
ma questa r700 è la 4870?
è la 3870x2 colorata di nero di sicuro :asd:
raffaele1978
20-06-2008, 18:27
ma questa r700 è la 4870?
No, R700 dovrebbe essere la vga con due r770 insieme in un unico pcb, mentre la hd4870 ha sempre il chipset rv770!
lor68pdit
20-06-2008, 18:28
è la 3870x2 colorata di nero di sicuro :asd:
Esatto, la 4870 ha i connettori delle alimentazioni in un'altro posto. Inoltre le 2 croci d'acciaio sono i fissaggi per il dissi dei 2 core, ed infine il pettine del crossfire è uno solo!!!
raffaele1978
20-06-2008, 18:32
Ragazzi, ma ad alimentazione la hd4870 come sarà messa?
stai innocentemente girando attorno alla domanda: come sarà gestito il dual gpu su R700, per caso? :sofico:
Nooooooooo, chi lo penserebbe mai? :fiufiu:
bluefrog
20-06-2008, 18:34
Esatto, la 4870 ha i connettori delle alimentazioni in un'altro posto. Inoltre le 2 croci d'acciaio sono i fissaggi per il dissi dei 2 core, ed infine il pettine del crossfire è uno solo!!!
Quella dovrebbe essere la 4870x2 (alias R700), ha un solo connettore CF (come la HD 3870x2) perchè i driver possono gestire al massimo un totale di 4 GPU. ;)
webbuffa
20-06-2008, 18:42
Edit :)
lor68pdit
20-06-2008, 19:05
Quella dovrebbe essere la 4870x2 (alias R700), ha un solo connettore CF (come la HD 3870x2) perchè i driver possono gestire al massimo un totale di 4 GPU. ;)
Ne ho già avuta una di 3870X2, so riconoscerla!;)
Ciao
a tutti ma per questa scheda basta un alimentatore 600w con 15A su 12v1 e 14 su 12v2, a me sembra poco...
che connessione di alimentazione ha sta scheda?
lo vorrei metter su un computer con un intel core 2 duo e8200 2.66Ghz e 65W tdp
Ha preso una piega tech perché la merda si è tutta concentrata in grossi cumuli nello strascico di commenti all'articolo di preview di HD4850...
* :asd:
Ne ho già avuta una di 3870X2, so riconoscerla!;)
Beh che vuol dire? La 3850 e la 4850 sono quasi identiche, non può esserlo la 4870X2 con la 3870X2? ;) :)
Sono assalito da un dubbio:
Per giocare a 1920x1200 con AA basso/assente (giocando quasi esclusivamente in multiplayer la mia preoccupazione principale è che gli fps minimi siano SEMPRE sopra i 60, mantenendo però un buon dettaglio generale) sarebbe sufficiente una 4870 da 512 mb, oppure necessiterei del modello da 1gb?
premetto che la terrei soltanto fino a quando non uscirà la 4870x2 o l'eventuale risposta nvidia, se quest'ultima fosse più convincente.... tuttavia nel caso che fossero entrambe deludenti aspetterei anche la generazione successiva
che fare?
grazie in anticipo
Sono assalito da un dubbio:
Per giocare a 1920x1200 con AA basso/assente (giocando quasi esclusivamente in multiplayer la mia preoccupazione principale è che gli fps minimi siano SEMPRE sopra i 60, mantenendo però un buon dettaglio generale) sarebbe sufficiente una 4870 da 512 mb, oppure necessiterei del modello da 1gb?
premetto che la terrei soltanto fino a quando non uscirà la 4870x2 o l'eventuale risposta nvidia, se quest'ultima fosse più convincente.... tuttavia nel caso che fossero entrambe deludenti aspetterei anche la generazione successiva
che fare?
grazie in anticipo
Per rispondere a questo, solo aspettando il 25 giugno :)
Crysis90
20-06-2008, 19:46
The Black Beast:
http://img246.imageshack.us/img246/7536/hahavx2pc7.jpg
http://img246.imageshack.us/img246/9196/hohols8zt6.jpg
Cavolo la voglio, la voglio!!!!
webbuffa
20-06-2008, 19:51
Cavolo la voglio, la voglio!!!!
:cool: Due sono già mieeeee! :cool:
Ciao
a tutti ma per questa scheda basta un alimentatore 600w con 15A su 12v1 e 14 su 12v2, a me sembra poco...
che connessione di alimentazione ha sta scheda?
lo vorrei metter su un computer con un intel core 2 duo e8200 2.66Ghz e 65W tdp
Sommati sarebbero 29A, quindi diciamo 26A effettivi (tenendosi larghi)?
Dipende di quanti ampere necessita *singolarmente* la scheda, penso non più di 20, ma >= 15.
Bisogna anche vedere se hai molti dischi rigidi .... ma ho l'impressione che o ci sei proprio al limite o non basta.
Andrea deluxe
20-06-2008, 20:38
:cool: Due sono già mieeeee! :cool:
spero siano costanti come frame rate, senza intoppi e che vadano liscie come l'olio........
gianni1879
20-06-2008, 20:40
stai innocentemente girando attorno alla domanda: come sarà gestito il dual gpu su R700, per caso? :sofico:
:asd:
gianni1879
20-06-2008, 20:43
Ha preso una piega tech perché la merda si è tutta concentrata in grossi cumuli nello strascico di commenti all'articolo di preview di HD4850...
si è un giorno che rompono le @@ in quell'articolo
Kharonte85
20-06-2008, 21:17
Ciao
a tutti ma per questa scheda basta un alimentatore 600w con 15A su 12v1 e 14 su 12v2, a me sembra poco...
che connessione di alimentazione ha sta scheda?
lo vorrei metter su un computer con un intel core 2 duo e8200 2.66Ghz e 65W tdp
Marca?
"...Nell´attesa di conferme ufficiali vi proponiamo una slide pubblicata dal sito di OCXtreme che mostra il risultato al 3Dmark Vantage (modalità eXtreme Preset) di un sistema composto da due schede video R700 in CrossfireX (4 core RV700). Purtroppo non sono disponibili le specifiche complete della piattaforma ma giusto a titolo di confronto possiamo dire che questo risultato è superiore allo score fatto registrare da 3 schede video GeForce GTX 280 in modalità triple-sli.
http://www.dinoxpc.com/public/images/da12b4ca232fc7d5f519943375fcdd60_1.jpg
http://www.dinoxpc.com/public/images/a44e9ebee3583d97c2ea91198eddc927_b.jpg
http://www.dinoxpc.com/public/images/6a5d81cc5eed4dc8f70ea4a4ab67717d_a.jpg"
http://www.dinoxpc.com/News/news.asp?ID_News=14683&What=News&tt=Ati+%93R700%94%3A+foto+e+punteggio+al+3Dmark+Vantage
Voi che ne sapete più di me, perchè la bandwith della memoria è di soli 57,6 GB/s ? :confused:
Grazie:)
yossarian
20-06-2008, 22:46
"[I]..
Voi che ne sapete più di me, perchè la bandwith della memoria è di soli 57,6 GB/s ? :confused:
Grazie:)
sembrerebbe un CF 2 vga dual con 4870 e gddr3 a 900 MHz; in tal caso il calcolo è semplice ed è riferito alla bandwidth di una singola gpu: 256/8*900*2 (dove 256 è l'ampiezza del bus e il 2 viene fuori dal fatto che c'è la convenzione, introdotta all'epoca delle DDR2, di considerare la frequenza delle ram come se fossero SDR e moltiplicarla per 2)
Enochian
20-06-2008, 22:50
"[I]...Nell´attesa di conferme ufficiali vi proponiamo una slide pubblicata dal sito di OCXtreme che mostra il risultato al 3Dmark Vantage (modalità eXtreme Preset) di un sistema composto da due schede video R700 in CrossfireX (4 core RV700). Purtroppo non sono disponibili le specifiche complete della piattaforma ma giusto a titolo di confronto possiamo dire che questo risultato è superiore allo score fatto registrare da 3 schede video GeForce GTX 280 in modalità triple-sli. %94%3A+foto+e+punteggio+al+3Dmark+Vantage[/url]
2X4870x2>3X280gtx
:eek:
Kharonte85
20-06-2008, 23:09
Voi che ne sapete più di me, perchè la bandwith della memoria è di soli 57,6 GB/s ? :confused:
GPU-z non la riconosce correttamente...
<^MORFEO^>
20-06-2008, 23:27
2X4870x2>3X280gtx
:eek:
Con un calcolo artigianale e grezzo, si direbbe che 4870x2 è >1,5 volte una GTX 280...
E visti i risultati della 4850, penso proprio che con filtri attivi la 4870 pareggerà i conti con la GTX 280, se poi ci sommiamo il fatto che prima o poi (nVidiosi permettendo :rolleyes: ) inseriranno le dx 10.1 che le GT 200 non supportano, potrebbe anche supararla la GTX 280 :eek:
mokaverus
21-06-2008, 00:04
The Black Beast:
http://img246.imageshack.us/img246/7536/hahavx2pc7.jpg
http://img246.imageshack.us/img246/9196/hohols8zt6.jpg
ma non dovrebbe esserci la heatpipe di collegamento tra i dissi delle 2 gpu? :confused:
lor68pdit
21-06-2008, 01:08
ma non dovrebbe esserci la heatpipe di collegamento tra i dissi delle 2 gpu? :confused:
Alcuni pensano di no.
Quoto comunque.
Athlon 64 3000+
21-06-2008, 03:12
sembrerebbe un CF 2 vga dual con 4870 e gddr3 a 900 MHz; in tal caso il calcolo è semplice ed è riferito alla bandwidth di una singola gpu: 256/8*900*2 (dove 256 è l'ampiezza del bus e il 2 viene fuori dal fatto che c'è la convenzione, introdotta all'epoca delle DDR2, di considerare la frequenza delle ram come se fossero SDR e moltiplicarla per 2)
nel gpu-z riguardo a R700 c'è scritto che le ram sono gddr5 e non gddr3.
Vai a capire che ram in realtà monterà R700.
Athlon 64 3000+
21-06-2008, 03:13
edit
Quella foto è strana, le croci che reggono i dissi delle gpu sono diversi da quelli della hd3870x2, ma il dissipatore è identico. Chiphell aveva mostrato in anteprima i dissipatori della serie hd48x0; visto che sulle 4850 e 4870 ci ha preso, penso che l'estetica di R700 dev'essere per forza questa:
http://img517.imageshack.us/img517/3227/r700luefterxu6.th.jpg (http://img517.imageshack.us/my.php?image=r700luefterxu6.jpg)
http://img502.imageshack.us/img502/4775/2008052426736fc50f4c972on3.th.jpg (http://img502.imageshack.us/my.php?image=2008052426736fc50f4c972on3.jpg)
con quello scalino sulla sx della vga come nella 4870.
Quindi quelle immagini o sono fake oppure rappresentano un modello di prova :confused: oppure c'è anche un'altra ipotesi :sofico: scalda così poco che hanno eliminato la heatpipe....ma poco ci credo :D
bye
grazie ragazzi,
ma vi do più info l'alimentatore è un lc power modello: LC6600 V2.2 - 600W il fatto è che lo avevo trovato veramente ad un ottimo prezzo e non voglio spendere per un alimentatore più della scheda video:D
Il sistema che vogli fare sarà composta da
1 Disco fiso sata,
1 Masterizzatore dvd
cpu e8200 65w tdp
2 gb ram ddr2 800Mhz
1 una scheda pci firewire
+ ovviamente la hd 4850
Ma quidni un alimentatore con queste caratteristiche non va bene?
+3,3V: 30A
+5V: 28A
+12V1: 15A
+12V2: 14A
http://www.lc-power.com/images/upload/pdf/power_172.pdf
ma l'ali che mi serve deve avere anche il +12V3 ???
Grazie davvero.
Qualcuno cortesemente potrebbe consigliarmi,per esperienza, un alimentatore conveniente con amperaggi decenti, dicimao di escludere da subito Enermax:D costa veramente come la scheda video quasi...
<^MORFEO^>
21-06-2008, 08:16
http://www.tomshw.it/news.php?newsid=14465
Dai che forse si comincia a muovere qualcosa sotto l'aspetto marketing...
Mercuri0
21-06-2008, 08:35
anche nelle gpu le architetture modulari sono l'unico modo per poter progredire, a mano che non si voglia accettare l'idea di chip sempre più grandi che, magari, in futuro, integreranno anche la ram all'interno.
Ma perché, multi-gpu on die (che ancora non ho capito cosa voglia dire) dal punto di vista delle dimensioni non è peggio rispetto a uno "monolitico"? :confused: :confused:
Ti servono tutti i transistor per tutti i due "core", che quindi hanno parti ridondanti rispetto a un'architettura "monolitica". Le GPU sono già abbastanza modulari di suo, non c'è bisogno di ricorrere a soluzioni di questo tipo. Non diminuirebbe neanche i costi di progetto, se bisogna progettare controller in cascata specifici.
O, se vogliamo, anche per le cpu si può progredire ricorrendo ad un'architettura di tipo monolitico; basta ricreare su un'unico core la struttura di due o più core. Anche li, però, è antieconomico farlo.
Per GPU "monolitica" di solito si è inteso riferendosi alle dimensioni del chip, mica alla sua architettura (che resta modulare anche se il chip è grande come un lenzuolo).
La necessità delle CPU multi-core non viene da un problema di area, ma da un problema di potenza! (= frequenza di clock). Anzi, la soluzione multi-core serve proprio per poter fare chip a frequenza minore a costo di usare area maggiore, parallelizzando le operazioni (e a costo di dover richiedere nuovi paradigmi di programmazione - come il Cell). Non è un discorso di antieconomicità, ma di impossibilità tecnologica nel poter progredire sulla strada delle frequenze.
Cosa intendi per "Un unico core con la struttura di due core"? :mbe:
Un'architettura modulare è più efficiente fino ad un certo livello di complessità, a patto di non rendere troppo macchinose le comunicazioni tra le varie gpu; e comunque, anche un'architettura multigpu o multicore che dir si voglia, da un certo livello di complessità in poi non può più essere gestita via SW (vedi, ad esempio, il cell, la cui gestione interna non avviene via SW ed è un controller HW a gestire i dma dei spe e gli stessi dma sono inizializzati dal ppe: il tutto in maniera trasparente rispetto al SW).
Forse stiamo andando un pò OT, però - a parte la mia visione differente di hardware/software per cui non è scontato dire dove nelle operazioni del PPE cominci l'hardware e finisca il software -, magari può dare uno spunto di riflessione il fatto che nello Spursengine di Toshiba il PPE l'abbiano tolto, o che un boss di AMD commentando Roadrunner, dicesse che il problema del Cell è la PPE che fa da collo di bottiglia. Ovviamente il tipo voleva tirare acqua al mulino del GPGPU, e le GPU non hanno PPE.
Anche Larrabee probabilmente avrà un arbitro complesso come il PPE.
Evidentemente quando il Cell viene usato come coprocessere, risulta più conveniente far fare il lavoro del PPE alla CPU del sistema. Per me questo vuol dire solo "spostare il PPE fuori dal chip", ma magari per te equivale a dire fare in software del lavoro che prima si faceva in hardware ;)
Anche i controller HW possono essere "aggiornati" se sono programmabili; però, se permetti, non si può accettare l'idea che un dispositivo "critico" per il funzionamento di un chip, come un controller, possa essere programmato ad alto livello via driver, magari da persone che neppure conoscono alla perfezione l'architettura del chip
Il driver è critico per il funzionamento del chip comunque: se serve conoscere alla perfezione l'architettura del chip, i programmatori del chip devono farlo. Possono anche essere gli stessi progettisti dell'hardware a programmare le parti del driver che servono, eh ;)
Il discorso della scelta di quali parti fare in hardware o software non è un discorso di "criticità" ma un trade-off tra prestazioni e flessibilità. Ormai nella progettazione microelettronica si tendono a vedere le due cose come "integrate". Ci sono addirittura strumenti EDA molto di alto livello che consentono di fare un progettazione integrata hardware/software per poter simulare e scegliere già a livello esplorativo quali parti implementare in hardware e quali in software. Alcuni per esempio (LISA (http://www.coware.com/products/processordesigner.php)) permettono di simulare un chip e parallelamente generano un compilatore per il software in modo da poter scegliere quali istruzioni dell'architettura conviene implementare in hardware e quali in software.
Scusami la digressione, ma credo sia stata utile per esporre il mio punto di vista (molto più "sfumato" sul rapporto hardware/software), altrimenti era difficile andare avanti nella discussione.
Se un architettura prevedesse un hardware di controllo per il multi-GPU "totalmente compatibile" coi giochi, questo hardware potrebbe essere simulato via driver con il solo prezzo delle prestazioni (che può essere irrilevante o può diventare critico), ma non della "compatibilità". Dal lato della "compatibilità" il software è in vantaggio sull'hardware.
Andrea deluxe
21-06-2008, 08:41
ma quindi gpu-z gia riconosce i 1024mb di memoria shared?
perche se cosi' non fosse, non mi spiego come possa comparire 1024mb sulla singola gpu della 4870x2!
Jetway HD4870. :)
http://www.jetway.com.tw/jw/vgacard_view.asp?productid=518&proname=X4870-EN-512V
Articoletto di TomsHW Taiwan su HD4870.
http://www.tomshardware.tw/574,news-574.html
Presentazione AMD completa per gli AIB partners:
http://www.ati-forum.de/index.php?page=Attachment&attachmentID=1053&h=fc483652e48d859d7601f005a466839c68ca2a19
Andrea deluxe
21-06-2008, 08:57
http://media.bestofmicro.com/G/Z/112067/original/05RadeonHD4870.jpg
sezione di alimentazione piu' potente per la 4870......
Gabriyzf
21-06-2008, 09:00
bella scheduccia :)
michelgaetano
21-06-2008, 09:02
http://media.bestofmicro.com/G/Z/112067/original/05RadeonHD4870.jpg
sezione di alimentazione piu' potente per la 4870......
Visti i consumi della HD4850, penso sia più una misura preventiva :)
Azz... Con il mio Hiper Type 580W Modulare ce la farei a tenerne due vero?
Consuma più di una X1950 XTX?
Mister Tarpone
21-06-2008, 09:07
bella scheduccia :)
interessato??? :)
sei belle pronto a sostituire la GT?? ;)
michelgaetano
21-06-2008, 09:11
interessato??? :)
sei belle pronto a sostituire la GT?? ;)
beh su monitor tosti la 1 gb non è affatto una cattiva scelta
vedendo come va la 4850 poi
<^MORFEO^>
21-06-2008, 09:13
Azz... Con il mio Hiper Type 580W Modulare ce la farei a tenerne due vero?
Consuma più di una X1950 XTX?
Parli di 2 4870 in CF?
Mi sa che con 580W non ci stai dentro... :rolleyes:
mokaverus
21-06-2008, 09:13
http://media.bestofmicro.com/G/Z/112067/original/05RadeonHD4870.jpg
sezione di alimentazione piu' potente per la 4870......
in teoria con un pci-ex 2.0 dovrebbe bastare solo 1 di questi o sbaglio?
gianni1879
21-06-2008, 09:15
http://media.bestofmicro.com/G/Z/112067/original/05RadeonHD4870.jpg
sezione di alimentazione piu' potente per la 4870......
si erano già visti i due connettori da 6pin, vuol dire il solo connettore da 6pin come la sorellina minore, non sono suff. magari ci stavano a pelo e hanno preferito andare sul sicuro, curioso di capire che il chip è overvoltato, cmq son sempre 100 MHz in più rispetto all'altra, possibile senza overvolt?
gianni1879
21-06-2008, 09:16
in teoria con un pci-ex 2.0 dovrebbe bastare solo 1 di questi o sbaglio?
si ma per chi ha il pci-e 1.1 si attacca al tram?? :D
Mister Tarpone
21-06-2008, 09:16
beh su monitor tosti la 1 gb non è affatto una cattiva scelta
vedendo come va la 4850 poi
beh ma lui mi sembra che gioca a 1280x1024 :asd:
a sta risoluzione tranne crysis non ho problemi io con la mia vga.. quindi figuriamoci lui con una 88GT.... :p
Gabriyzf
21-06-2008, 09:17
interessato??? :)
sei belle pronto a sostituire la GT?? ;)
ti confesso che mi attira, ma sono abbastanza razionale da comprendere che adesso non avrebbe senso, sarebbero soldi buttati:
col q6600 g0 @3 GHz e l'8800 gt su win xp faccio girare tutto alla grande sul monitor da 1280x1024 (anche crysis a dettagli high).
In autunno se la 4870 1 Gb si posizionerà sui 200€ e riesco a vendere l''8800 sugli 80 (ho già un potenziale cliente :D ) si potrebbe fare.
Oltretutto in estate col caldo che fa passa anche la voglia di giocare.
Parli di 2 4870 in CF?
Mi sa che con 580W non ci stai dentro... :rolleyes:
Azz... però con questo programmino
(http://extreme.outervision.com/psucalculatorlite.jsp) il mio PC in full arriva a consumare 503 watt, e con 2 HD 3870x2 arrivo a 605.... mentre con 2 HD 3870 scende a 480circa... quindi ho pensato che con le nuove 4870 ce la dovrei fare... starei sui 540watt?!... (lo spero) cmq non si sa ancora quanto assorbe questo gioiellino?
Gabriyzf
21-06-2008, 09:18
beh ma lui mi sembra che gioca a 1280x1024 :asd:
a sta risoluzione tranne crysis non ho problemi io con la mia vga.. quindi figuriamoci lui con una 88GT.... :p
:D
Mister Tarpone
21-06-2008, 09:21
ti confesso che mi attira, ma sono abbastanza razionale da comprendere che adesso non avrebbe senso, sarebbero soldi buttati:
col q6600 g0 @3 GHz e l'8800 gt su win xp faccio girare tutto alla grande sul monitor da 1280x1024 (anche crysis a dettagli high).
In autunno se la 4870 1 Gb si posizionerà sui 200€ e riesco a vendere l''8800 sugli 80 (ho già un potenziale cliente :D ) si potrebbe fare.
Oltretutto in estate col caldo che fa passa anche la voglia di giocare.
bravo ;) fai benissimo ad aspettare... inoltre hai una vga ancora bella tosta ;)
pure io farò così... anzi, diciamo che per fare un cambio, aspetterò tranquillamente anche fino a novembre / dicembre .. ;)
gianni1879
21-06-2008, 09:25
Jetway HD4870. :)
http://www.jetway.com.tw/jw/vgacard_view.asp?productid=518&proname=X4870-EN-512V
Articoletto di TomsHW Taiwan su HD4870.
http://www.tomshardware.tw/574,news-574.html
Presentazione AMD completa per gli AIB partners:
http://www.ati-forum.de/index.php?page=Attachment&attachmentID=1053&h=fc483652e48d859d7601f005a466839c68ca2a19
bellina la Jetway, peccato abbia solo 512 MB, anche se cmq magari bastano e avanzano, ma io punterei su quella da un giga. Bello vedere 900*4 :D
Nelle slide si leggono molte cose interessanti, ma cmq non figura R700
Kharonte85
21-06-2008, 09:47
grazie ragazzi,
ma vi do più info l'alimentatore è un lc power modello: LC6600 V2.2 - 600W il fatto è che lo avevo trovato veramente ad un ottimo prezzo e non voglio spendere per un alimentatore più della scheda video:D
Il sistema che vogli fare sarà composta da
1 Disco fiso sata,
1 Masterizzatore dvd
cpu e8200 65w tdp
2 gb ram ddr2 800Mhz
1 una scheda pci firewire
+ ovviamente la hd 4850
Ma quidni un alimentatore con queste caratteristiche non va bene?
+3,3V: 30A
+5V: 28A
+12V1: 15A
+12V2: 14A
http://www.lc-power.com/images/upload/pdf/power_172.pdf
ma l'ali che mi serve deve avere anche il +12V3 ???
Grazie davvero.
Qualcuno cortesemente potrebbe consigliarmi,per esperienza, un alimentatore conveniente con amperaggi decenti, dicimao di escludere da subito Enermax:D costa veramente come la scheda video quasi...
Ce la fai anche con l'lc power....
alternative migliori:
http://www.trovaprezzi.it/categoria.aspx?libera=titan+560w&id=154&prezzoMin=&prezzoMax=&sbox=sb
http://www.trovaprezzi.it/categoria.aspx?libera=ocz+500w&id=154&prezzoMin=&prezzoMax=&sbox=sb
mircocatta
21-06-2008, 09:49
e se aspettate 3 giorni metto in vendita il mio di lcpower titan :fagiano: lol
Azz... però con questo programmino
(http://extreme.outervision.com/psucalculatorlite.jsp) il mio PC in full arriva a consumare 503 watt, e con 2 HD 3870x2 arrivo a 605.... mentre con 2 HD 3870 scende a 480circa... quindi ho pensato che con le nuove 4870 ce la dovrei fare... starei sui 540watt?!... (lo spero) cmq non si sa ancora quanto assorbe questo gioiellino?
?
http://media.bestofmicro.com/G/Z/112067/original/05RadeonHD4870.jpg
sezione di alimentazione piu' potente per la 4870......
Certo che i connettori pci-ex potevano essere disposti meglio, il top sarebbe se fossero rivolti verso il basso come sulle x2, ma mi sarei accontentato di una disposizione in stile 8800 :muro:
Mister Tarpone
21-06-2008, 10:10
Certo che i connettori pci-ex potevano essere disposti meglio, il top sarebbe se fossero rivolti verso il basso come sulle x2, ma mi sarei accontentato di una disposizione in stile 8800 :muro:
concordo mannaggia :muro:
webbuffa
21-06-2008, 10:12
Certo che i connettori pci-ex potevano essere disposti meglio, il top sarebbe se fossero rivolti verso il basso come sulle x2, ma mi sarei accontentato di una disposizione in stile 8800 :muro:
:) Per me la posizione migliore rimane quella della 2900XT
Ciao :cool:
E intanto da 5 a 13prezzi per la 4850 e i prezzi gia cominciano a ringraziare (siamo già sotto ai 160€) :ciapet:
Ah, la concorrenza... :D
157€ per la sapphire!!! come resistere...
leoneazzurro
21-06-2008, 10:18
Ma perché, multi-gpu on die (che ancora non ho capito cosa voglia dire) dal punto di vista delle dimensioni non è peggio rispetto a uno "monolitico"? :confused: :confused:
Ti servono tutti i transistor per tutti i due "core", che quindi hanno parti ridondanti rispetto a un'architettura "monolitica". Le GPU sono già abbastanza modulari di suo, non c'è bisogno di ricorrere a soluzioni di questo tipo. Non diminuirebbe neanche i costi di progetto, se bisogna progettare controller in cascata specifici.
Per GPU "monolitica" di solito si è inteso riferendosi alle dimensioni del chip, mica alla sua architettura (che resta modulare anche se il chip è grande come un lenzuolo).
A questo provo a risponderti io: in pratica Yossarian sta intendendo come "architettura monolitica" una GPU stile GT200 dove le molte unità a disposizione sono gestite a livello di un singolo "scheduler centrale" che ripartisce il carico tra le varie unità (e sotto-scheduler) e gestisce gli accessi alla memoria. L'approccio ATI multi-GPU sta nel ripartire il carico tra due o più GPU separate, ognuna delle quali ha il suo scheduler interno ed il suo accesso alla memoria. Una "dual core GPU su singolo chip" sarebbe un chip unico ma con due GPU integrate su un singolo chip, ciascuna però con i suoi scheduler/arbiter e MC. La questione sembra essere che al dil là di una certa dimensione di chip e di numero di transistors (e dipendente dalla frequenza di funzionamento) diventa non trascurabile il compito di gestire gli I/O tra le divrese parti della GPU, che possono anche trovarsi a distanza notevole, e quindi la logica dedicata appunto a questa gestione occupa uno spazio considerevole.
<^MORFEO^>
21-06-2008, 10:29
Azz... però con questo programmino
(http://extreme.outervision.com/psucalculatorlite.jsp) il mio PC in full arriva a consumare 503 watt, e con 2 HD 3870x2 arrivo a 605.... mentre con 2 HD 3870 scende a 480circa... quindi ho pensato che con le nuove 4870 ce la dovrei fare... starei sui 540watt?!... (lo spero) cmq non si sa ancora quanto assorbe questo gioiellino?
Sulle slide ufficiali AMD per un crossfire di due 4870, si parla di almeno un ali da 600W di importante qualità che abbia anche 4 connettori pci-e... :rolleyes:
Immortal
21-06-2008, 11:43
sembrerebbe un CF 2 vga dual con 4870 e gddr3 a 900 MHz; in tal caso il calcolo è semplice ed è riferito alla bandwidth di una singola gpu: 256/8*900*2 (dove 256 è l'ampiezza del bus e il 2 viene fuori dal fatto che c'è la convenzione, introdotta all'epoca delle DDR2, di considerare la frequenza delle ram come se fossero SDR e moltiplicarla per 2)
i 900mhz sono da moltiplicare per 4. Leoneazzurro aveva spiegato che le gddr5 non sono normali ddr ma qdr ;)
Quindi la banda effettiva sarà doppia rispetto a quella indicata!
Immortal
21-06-2008, 11:46
Jetway HD4870. :)
http://www.jetway.com.tw/jw/vgacard_view.asp?productid=518&proname=X4870-EN-512V
direttamente dal sito:
Main Features
# 480 stream processors ¡V More than enough horsepower to support the most demanding graphics applications.
errore di stampa? :confused:
direttamente dal sito:
Main Features
# 480 stream processors ¡V More than enough horsepower to support the most demanding graphics applications.
errore di stampa? :confused:
No, li han ridotti rispetto agli 800 della 4850 perchè così era più fescion :ciapet:
a parte gli skerzi penso proprio di si... :D
Immortal
21-06-2008, 11:51
No, li han ridotti rispetto agli 800 della 4850 perchè così era più fescion :ciapet:
a parte gli skerzi penso proprio di si... :D
o magari erano 480 da moltiplicare *5 :sofico: 2400sp :sbav:
-noxius-
21-06-2008, 12:40
E intanto da 5 a 13prezzi per la 4850 e i prezzi gia cominciano a ringraziare (siamo già sotto ai 160€) :ciapet:
Ah, la concorrenza... :D
157€ per la sapphire!!! come resistere...
Resisti resisti...qui a roma e sulla baya pure 146 ;)
Ma le mem della Qimonda 40x sono da 0.5ns/4.0Gbps e 50x sono da 0.4ns/5.0Gbps?!
http://www.pctunerup.com/up/results/_200806/20080621134604_07RadeonHD4870.jpg
http://www.pctunerup.com/up/results/_200806/20080621134623_1.JPG
0.4ns = 2.5Ggz x2
0.5ns = 2.0Ghz x2
Quelli delle Samsung sono da 0.5ns K4G52324FG-HC05 2000Mhz ..
PS. io aspetto quelli da 0.4 :O
G-UNIT91
21-06-2008, 12:57
Resisti resisti...qui a roma e sulla baya pure 146 ;)
mi passi il link?
thx
michelgaetano
21-06-2008, 13:01
mi passi il link?
thx
basta che scrivi sulla baya HD4850, te ne trova TANTISSIME :eek:
G-UNIT91
21-06-2008, 13:04
basta che scrivi sulla baya HD4850, te ne trova TANTISSIME :eek:
dicevo il link del negozio di roma:fagiano:
Mister Tarpone
21-06-2008, 13:06
basta che scrivi sulla baya HD4850, te ne trova TANTISSIME :eek:
ma è sicuro comprarle nella baya?? no perchè c'è gente che c'ha preso delle belle incu...e :asd: :confused:
CiAO :D
-noxius-
21-06-2008, 13:08
stai a reggio calabria, sulla baya costano tanto quanto quel negozio di roma e c'è molta più scelta ;)
baya ? Sicurissimo .. c'è il programma di protezione acquirenti e poi dovete comprare da gente con moltissimi messagi/feedback ;)
Vi fate mandare scansione carta identità-indirizzo e quant'altro così al massimo si va di denuncia alle autorità per truffa ..
michelgaetano
21-06-2008, 13:09
ma è sicuro comprarle nella baya?? no perchè c'è gente che c'ha preso delle belle incu...e :asd: :confused:
CiAO :D
Tutto il pc in firma scheda video e ram a parte è stato preso sulla baya, il procio è proprio del venditore da 146 € :)
Preso sulla baya perchè i prezzi erano più bassi del minimo di trovaprezzi. In più la spedizione più lenta è stata di 5 giorni solo per colpa di SDA :bang: poi sempre il canonico giorno da corriere espresso quindi :P
Ce la fai anche con l'lc power....
alternative migliori:
http://www.trovaprezzi.it/categoria.aspx?libera=titan+560w&id=154&prezzoMin=&prezzoMax=&sbox=sb
http://www.trovaprezzi.it/categoria.aspx?libera=ocz+500w&id=154&prezzoMin=&prezzoMax=&sbox=sb
grazie 2000,
una ultima cosa ma sta scheda che connettori di alimentazione ha, e quanti ne ha ???
quelli a 6 pin pci-e o quelli a 8?
michelgaetano
21-06-2008, 13:14
La HD4870 ne ha 2 da 6 pin.
Kharonte85
21-06-2008, 13:15
grazie 2000,
una ultima cosa ma sta scheda che connettori di alimentazione ha, e quanti ne ha ???
quelli a 6 pin pci-e o quelli a 8?
la hd 4850 ne ha 1 da 6pin :)
Immortal
21-06-2008, 13:19
piccolo OT:
parto per la sardegna 7 giorni, mi perdo il lancio della scheda, fate i bravi mi raccomando :sofico:
Mister Tarpone
21-06-2008, 13:19
piccolo OT:
parto per la sardegna 7 giorni, mi perdo il lancio della scheda, fate i bravi mi raccomando :sofico:
tranquillo ;)
ciao..... (eh eh eh :Perfido:)
michelgaetano
21-06-2008, 13:20
(eh eh eh :Perfido:)
bastardone :sofico: :sofico: :sofico:
Mister Tarpone
21-06-2008, 13:20
bastardone :sofico: :sofico: :sofico:
:D
gianni1879
21-06-2008, 13:23
Ma le mem della Qimonda 40x sono da 0.5ns/4.0Gbps e 50x sono da 0.4ns/5.0Gbps?!
http://www.pctunerup.com/up/results/_200806/20080621134604_07RadeonHD4870.jpg
http://www.pctunerup.com/up/results/_200806/20080621134623_1.JPG
0.4ns = 2.5Ggz x2
0.5ns = 2.0Ghz x2
Quelli delle Samsung sono da 0.5ns K4G52324FG-HC05 2000Mhz ..
PS. io aspetto quelli da 0.4 :O
con tutta quella banda passante cambierebbe ben poco :p
se poi uno ha preferenze personali è un altro discorso :)
-noxius-
21-06-2008, 13:28
La HD4870 ne ha 2 da 6 pin.
MAGNIFICOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO !!!!
Credevo fossero 6+8 , non sai che piacere sapere questo !! Mi sono appena preso un 250 W per CF ed ha solo 2 connettori da 6 pin !!!
:D
Brightblade
21-06-2008, 13:28
Di qua invece devo chiedere un'altra info. Se decidessi di prendere una 4870, secondo voi, il dissi della scheda video farebbe a pugni con la ventola del chipset della mia scheda madre? (che sarebbe questa)
http://img410.imageshack.us/img410/4240/a8nemv5.jpg
Me lo chiedo perche' stamattina, smontando la 7900GT, ho guardato un po' quanto la coda della scheda arrivava a sfiorarlo, e pur essendo abbastanza piccola in proporzione alle schede odierne , ci andava molto vicino (soprattutto i componenti sul fondo della scheda). Che dite, col dissi doppio slot della 4870 rischio? In tal caso mi sa che potrei ripiegare su una variante della 4850 con dissi "custom" che raffredda magari non quanto il dual slot della 4870 ma meglio del dissino che sembra avere il modello base della 4850.
edit. Azz, non avevo visto che era stato aperto anche il thread della 4870 :doh: .. sorry.
goldorak
21-06-2008, 13:30
La HD4870 ne ha 2 da 6 pin.
E possibile che con il die shrink a 40nm per l'anno prossimo si passi ad un solo connettore a 6 pin sulla 4870 ? :stordita:
La scheda mi tenta parecchio, ma non digerisco proprio i due connettori, anche perche' ho parecchi altre cose dentro al pc (4 hard disk, 3 ventole da 12cm, scheda raid hardware, 1 dvd-rom, 1 masterizzatore cd-rom, quadcore a 65nm, 4 GB di ram etc..) e non vorrei che l'ali soffrisse troppo (corsair HX 620 W).
Mister Tarpone
21-06-2008, 13:30
MAGNIFICOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO !!!!
Credevo fossero 6+8 , non sai che piacere sapere questo !! Mi sono appena preso un 250 W per CF ed ha solo 2 connettori da 6 pin !!!
:D
graaaande :cincin: ;)
allora la prendi appena esce?? ;)
..beh non vedo l'ora di vedere qualche tuo bench con questa scheda super :oink: !!!
-noxius-
21-06-2008, 13:34
graaaande :cincin: ;)
allora la prendi appena esce?? ;)
..beh non vedo l'ora di vedere qualche tuo bench con questa scheda super :oink: !!!
Penso che ripiegherò sulla 1gb , alla fine al massimo ne metterò un'altra in CF dato che 550+250 = millemila watt :ciapet: .. e senza mettere sotto torchio l'ali principale .. (bisogna vedere quanto reggerà questo piccolo 250w ...)
ma devo vedere ..
Sulle slide ufficiali AMD per un crossfire di due 4870, si parla di almeno un ali da 600W di importante qualità che abbia anche 4 connettori pci-e... :rolleyes:
Azz!:eek:
Mister Tarpone
21-06-2008, 13:44
Azz!:eek:
e beh... un crossfire di queste belve consuma parecchio ... che ti aspettavi?? ;)
530/540 watt, visto che le 3870 consumano molto meno
530/540 watt, visto che le 3870 consumano molto meno
Ma se c'é scritto 600W non vuol dire che se l' ali é da 550W non funziona...
Devi vedere quanti ampere ha sulla +12V ;)
yossarian
21-06-2008, 14:24
Ma perché, multi-gpu on die (che ancora non ho capito cosa voglia dire) dal punto di vista delle dimensioni non è peggio rispetto a uno "monolitico"? :confused: :confused:
Ti servono tutti i transistor per tutti i due "core", che quindi hanno parti ridondanti rispetto a un'architettura "monolitica". Le GPU sono già abbastanza modulari di suo, non c'è bisogno di ricorrere a soluzioni di questo tipo. Non diminuirebbe neanche i costi di progetto, se bisogna progettare controller in cascata specifici.
la ridondanza è relativa, in quanto hai core di dimensioni ridotte e quindi linee di controlle e trasmissione di dimensioni ridotte. Il fatto di dover replicare alcune strutture introduce indubbiamente una ridondanza, ma dal punto di vista economico, una volta progettato un core è sufficiente replicare lo stesso n volte. A livello progettuale i costi aumentano proporzionalmente alla complessità del core e, nel caso di die shrink, core più complessi danno più problemi.
Per GPU "monolitica" di solito si è inteso riferendosi alle dimensioni del chip, mica alla sua architettura (che resta modulare anche se il chip è grande come un lenzuolo).
assolutamente no; è riferito alle architetture di trasmissione e controllo, alla presenza di uno o più scheduler "principali"; in un chip di tipo monolitico si ha uno scheduler che gestisce tutti i thread a livello più alto e decide come e dove allocare dati e risorse all'interno di tutto il chip. Le dimensioni non c'entrano nulla; tanto che tu stesso hai affermato che una cpu di tipo dual o quad ha un'area maggiore rispetto ad un monoprocessore; eppure non si può definire "architettura monolitica"
La necessità delle CPU multi-core non viene da un problema di area, ma da un problema di potenza! (= frequenza di clock). Anzi, la soluzione multi-core serve proprio per poter fare chip a frequenza minore a costo di usare area maggiore, parallelizzando le operazioni (e a costo di dover richiedere nuovi paradigmi di programmazione - come il Cell). Non è un discorso di antieconomicità, ma di impossibilità tecnologica nel poter progredire sulla strada delle frequenze.
per quale motivo; cosa mi impedisce di progettare un monoprocessore ad elevato parallelismo? Otterrei lo stesso risultato di un dual o di un quad e non dovrei salire in frequenza; è solo una questione di numero e di tipologia delle pipeline. Il cell è un discorso a parte, in quanto è un'architettura composta da un'unità centrale e 8 unità di calcolo vettoriali, gestite da un ring bus; non si tratta di un multicore in cui i singoli core sono indipendenti e con un rapporto paritario. Nel cell, ad esempio, è il ppe ad inizializzare i dma per i spe e l'arbiter del ring bus a gestirne gli accessi in memoria e i trasferimenti di dati tra unità di calcolo. La strada delle frequenze è obbligatoria solo se si sceglie una strada, come quella intrapresa da intel con i northwood prima e i prescott dopo, che porta a pipeline lunghe, con un elevato numero di stadi, il che comporta tempi molto lunghi di permanenza dei dati all'interno della pipeline, innumerevoli cicli di clock persi in caso di salti condizionali sbagliati, molti più problemi in caso di propagazione di "bolle" all'interno della pipeline. Questo comporta il cercare di avere stadi sempre più frazionati per velocizzare la singola elaborazione e, quindi, frequenze sempre più alte.
Cosa intendi per "Un unico core con la struttura di due core"? :mbe:
è riferito al discorso precedente sulle strutture di controllo e trasmissione dati: posso creare all'interno di un chip monolitico un'architettura con più arbiter, uno per ogni blocco che simulerebbe il funzionamento di un core. A questo punto, però, si perde il senso di struttura monolitica e non vi sarebbe una convenienza dal punto di vista economico (stavolta dal punto di vista realizzativo e non progettuale).
Forse stiamo andando un pò OT, però - a parte la mia visione differente di hardware/software per cui non è scontato dire dove nelle operazioni del PPE cominci l'hardware e finisca il software -, magari può dare uno spunto di riflessione il fatto che nello Spursengine di Toshiba il PPE l'abbiano tolto, o che un boss di AMD commentando Roadrunner, dicesse che il problema del Cell è la PPE che fa da collo di bottiglia. Ovviamente il tipo voleva tirare acqua al mulino del GPGPU, e le GPU non hanno PPE.
Anche Larrabee probabilmente avrà un arbitro complesso come il PPE.
Evidentemente quando il Cell viene usato come coprocessere, risulta più conveniente far fare il lavoro del PPE alla CPU del sistema. Per me questo vuol dire solo "spostare il PPE fuori dal chip", ma magari per te equivale a dire fare in software del lavoro che prima si faceva in hardware ;)
la cpu del sistema è in grado di inizializzare un dma e può sostituire in tutto e per tutto il ppe che, dal punto di vosta computazionale non è certo un fulmine, però come unità centrale è piuttosto funzionale. I spe non hanno memoria interna di tipo cached e quindi non sono in grado di accedere ad indirizzi di memoria di sistema predeterminati senza che qualcuno gli indichi la strada. Le soluzioni possibili sono due: un HW dedicato, oppure si deve lasciare il compito al programmatore (con tutte le difficoltà che questo comporta). Finora si è sempre fatto ricorso ad HW dedicato (ppe o cpu esterna che dir si voglia). Ovvio che da parte di AMD (ma anche di nVidia) si cerchi di tirare acqua al proprio mulino e si insista sul discorso gpgpu (anche Mark Harris, se non ricordo male, non espresse commenti favorevoli sul cell).
Il driver è critico per il funzionamento del chip comunque: se serve conoscere alla perfezione l'architettura del chip, i programmatori del chip devono farlo. Possono anche essere gli stessi progettisti dell'hardware a programmare le parti del driver che servono, eh ;)
infatti, gli arbiter interni a cpu o gpu sono programmati a basso livello da chi conosce alla perfezione l'architettura del chip. La programmazione degli arbiter riguarda i criteri di arbitraggio ossia i criteri con cui si sceglie a quali thread dare la priorità, o quali richieste inoltrare prima o come distribuire la circolazione dei dati all'interno del chip e tra chip e risorse esterne o,ancora, come gestire i salti condizionali, tanto per fare alcuni esempi. A questo tipo di programmazione, si aggiunge un'altra forma di ottimizzazione ad lato livello, che può avvenire via driver. Ti faccio un esempio: quando usci la serie di gpu basata su R5x0, il motore grafico di doom3 appariva poco digeribile per le gpu di casa ati (anche perchè l'engine grafico era stato progettato tenendo a mente le caratteristiche di quelle nVidia). E' bastato ottimizzare via driver alcune funzionalità dell'arbiter che gestiva il ring bus per veder andare, con quake 4 (che usa lo stesso engine grafico), R580 meglio di G7x. I dispositivi HW permettono, evidentemente, anche elevata compatibilità e non vanno visti come qualcosa di statico.
Il discorso della scelta di quali parti fare in hardware o software non è un discorso di "criticità" ma un trade-off tra prestazioni e flessibilità. Ormai nella progettazione microelettronica si tendono a vedere le due cose come "integrate". Ci sono addirittura strumenti EDA molto di alto livello che consentono di fare un progettazione integrata hardware/software per poter simulare e scegliere già a livello esplorativo quali parti implementare in hardware e quali in software. Alcuni per esempio (LISA (http://www.coware.com/products/processordesigner.php)) permettono di simulare un chip e parallelamente generano un compilatore per il software in modo da poter scegliere quali istruzioni dell'architettura conviene implementare in hardware e quali in software.
le due cose sono integrate e non da oggi. L'HW ha necessità del SW per poter funzionare e il SW ha bisogno di HW su cui girare. Quale sia la percentuale di lavoro da far fare all'HW e quale al SW dipende dall'idea che si ha su come il dispositivo debba funzionare. Anche nel campo delle gpu abbiamo due esempi di differente rapporto HW/SW. Sulla serie G80/GT200, ma anche su R500, gran parte della gestione dei thread è affidata all'HW che non solo si occupa del bilanciamneto dei carichi di lavoro ma anche dell'ottenimento della massima parallelizzazione possibile, In R600 e RV6x0, invece, l'HW si occupa del bilanciamento dei carichi di lavoro ma l'ottenimento della massima parallelizzazione è affidata al SW. Il vantaggio della soluzione nVidia o ATi (con R500) è che il chip è in grado di avere un'efficienza elevata in pressochè tutte le condizioni di impiego, senza alcun intervento dall'esterno. Il vantaggio della soluzione adottata su R6x0, invece, è costituito dall'avere a disposizione una maggior potenza di calcolo a patto che si riesca ad ottimizzare il lavoro del chip (cosa evidentemente più complessa); questo eprchè l'architettura vliw permette di avere un numero notevolmente inferiore di registri e di sprecare meno cicli di clock per operazioni diverse dalla semplice esecuzione di calcoli (in pratica meno registri e meno unità e linee di controllo e di trasmissione, quindi più transistoir da poter dedicare alle unità di calcolo).
Scusami la digressione, ma credo sia stata utile per esporre il mio punto di vista (molto più "sfumato" sul rapporto hardware/software), altrimenti era difficile andare avanti nella discussione.
sicuramente è stata utile. In realtà il tuo punto di vista non è che sia più sfumato, né il mio può considerarsi "radicale". HW e SW sono strettamente compenetrati (e non può essere altrimenti). Il fatto è che, a volte, si operano delle scelte dettate dall'idea che si ha sul funzionamento di un determinato dispositivo, che sembrano privilegiare l'uno o l'altro.
Se un architettura prevedesse un hardware di controllo per il multi-GPU "totalmente compatibile" coi giochi, questo hardware potrebbe essere simulato via driver con il solo prezzo delle prestazioni (che può essere irrilevante o può diventare critico), ma non della "compatibilità". Dal lato della "compatibilità" il software è in vantaggio sull'hardware.
ti rispondo con una domanda: perchè simulare o emulare qualcosa che posso avere? Non per il discorso compatibilità (come ti ho detto precedentemente, non devi vedere un dispositivo di controllo come un qualcosa di statico o di rigido, ma di estremamente flessibile). Le prestazioni possono essere un fattore di scelta determinante e l'HW mi garantisce prestazioni migliori. Allora perchè scegliere un'emulatore?
La risposta te l'anticipo io: per due possibili motivi: ragioni economiche (un circuito di trasmissione e controllo su un'architettura complessa è sempre complesso da implementare); per ragioni di spazio (preferisco demandare al SW alcune operazioni per lasciare spazio ad HW che mi faccia altro.
yossarian
21-06-2008, 14:31
i 900mhz sono da moltiplicare per 4. Leoneazzurro aveva spiegato che le gddr5 non sono normali ddr ma qdr ;)
Quindi la banda effettiva sarà doppia rispetto a quella indicata!
lo so come funzionano le gdd5 (è il programma che si vede che non lo sa) :D
In realtà, nelle gddr5 il clock interno è 16 volte quello esterno; in pratica, con le ddr2 si prendeve la frequenza della ram e si moltiplicava per 2, con le gddr5 la moltiplichi per 16 (e ovviamente la frequenza non è di 900 MHz); ipotesi: gddr5 da 3600 MHz di frequenza di trasferimento dati, lavorano a 225 MHz di frequenza di core
Bhairava
21-06-2008, 15:26
yossarian avrei una domanda da porti.
Un utente del forum ha testato le prestazioni della 4850 in presenza di aa, sul gioco Crysis.
Ok, ecco i risultati, per molti versi sbalorditivi.
Ho messo Performance nei Catalyst, anisotropico "secondo l'applicazione" (cioè zero) e antialiasing idem.
Ricordo la mia configurazione: 4 giga di DDR2, Abit IP 35 Pro, Core Duo 8400 @ 3,6 giga (400x9)
Settaggio dal bench: tutto su HIGH
1280x1024 no aa no af: 46,265
1280x1024 aa2x no af 34,795
1280x1024 aa4x no af 33,715
1280x1024 aa8x no af 34,87
1280x1024 aa16x no af 34,855
1600x1200 aa8x no af 25,28
1600x1200 aa16x no af 25,28
Conclusioni sommarie: l'antialiasing a questa scheda gli fa una pippa, evidentemente. La differenza tra il metterlo e non metterlo c'è, ma tra le varie gradazioni non vedo sbalzi...
So che non puoi rivelare ancora l'architettura della gpu, ma puoi dirci se questi test sono possibili? La 4850 riesce ad essere così efficiente con aa16x? O, più probabilmente, i driver ancora immaturi non applicano un aa superiore a 4x?
Mister Tarpone
21-06-2008, 15:31
io dico che non si attivano ne l'aa8x e ne il 16x... perchè anche se la scheda è prestante con i filtri, un MINIMO di impatto di prestazioni dovrebbe cmq avercelo.. ;)
però sentiamo cosa dice yossarian ;)
3Dmark06, Crysis benchmarks of 4870 kills 9800GX2 too
System
* Intel Core 2 Extreme QX9650 @ 3.00GHz
* ASUS P5E3 Deluxe
* 2×1GB OCZ DDR3 1333MHz 9-9-9-26
* Western Digital 250GB 16MB SATA2 7200RPM
* 1GB GeForce 9800 GX2 - 600/1500/2000mhz
* 512MB ATI HD 4870 - 800/3400mhz
http://img193.imagevenue.com/loc572/th_58597_test3dmark06_122_572lo.jpg (http://img193.imagevenue.com/img.php?image=58597_test3dmark06_122_572lo.jpg)http://img12.imagevenue.com/loc912/th_58603_testcrysis1_122_912lo.jpg (http://img12.imagevenue.com/img.php?image=58603_testcrysis1_122_912lo.jpg)http://img229.imagevenue.com/loc166/th_58614_testcrysis2_122_166lo.jpg (http://img229.imagevenue.com/img.php?image=58614_testcrysis2_122_166lo.jpg)
_morghan_1968
21-06-2008, 15:44
3Dmark06, Crysis benchmarks of 4870 kills 9800GX2 too
System
* Intel Core 2 Extreme QX9650 @ 3.00GHz
* ASUS P5E3 Deluxe
* 2×1GB OCZ DDR3 1333MHz 9-9-9-26
* Western Digital 250GB 16MB SATA2 7200RPM
* 1GB GeForce 9800 GX2 - 600/1500/2000mhz
* 512MB ATI HD 4870 - 800/3400mhz
http://img193.imagevenue.com/loc572/th_58597_test3dmark06_122_572lo.jpg (http://img193.imagevenue.com/img.php?image=58597_test3dmark06_122_572lo.jpg)http://img12.imagevenue.com/loc912/th_58603_testcrysis1_122_912lo.jpg (http://img12.imagevenue.com/img.php?image=58603_testcrysis1_122_912lo.jpg)http://img229.imagevenue.com/loc166/th_58614_testcrysis2_122_166lo.jpg (http://img229.imagevenue.com/img.php?image=58614_testcrysis2_122_166lo.jpg)
FONTE ???
Mister Tarpone
21-06-2008, 15:46
ma sti bench non erano old e fake?? :confused: mi sembra che eran già stati postati una 50ina di pagine fa...
yossarian
21-06-2008, 15:47
yossarian avrei una domanda da porti.
Un utente del forum ha testato le prestazioni della 4850 in presenza di aa, sul gioco Crysis.
So che non puoi rivelare ancora l'architettura della gpu, ma puoi dirci se questi test sono possibili? La 4850 riesce ad essere così efficiente con aa16x? O, più probabilmente, i driver ancora immaturi non applicano un aa superiore a 4x?
la gestione dell'AA è decisamente migliorata rispetto a quella di RV6x0; però quei risultati non mi sembrano verosimili. Tieni conto che i driver sono, a dir poco, immaturi e la gestione dell'AA e dei filtri in generale è una delle cose che vanno ancora messe a punto
la gestione dell'AA è decisamente migliorata rispetto a quella di RV6x0; però quei risultati non mi sembrano verosimili. Tieni conto che i driver sono, a dir poco, immaturi e la gestione dell'AA e dei filtri in generale è una delle cose che vanno ancora messe a punto
secondo me hai perfettamente ragione, i driver secondo me scalano fino all'8x se non addirittura solo fino al 4x. :)
Foglia Morta
21-06-2008, 15:59
.......
Ma riguardo le rese produttive , la superficie del wafer è tutta uniformemente soggetta alla stessa percentuale d'errore oppure certe aree di un chip sono più esposte al rischio di problemi ?
3Dmark06, Crysis benchmarks of 4870 kills 9800GX2 too
System
* Intel Core 2 Extreme QX9650 @ 3.00GHz
* ASUS P5E3 Deluxe
* 2×1GB OCZ DDR3 1333MHz 9-9-9-26
* Western Digital 250GB 16MB SATA2 7200RPM
* 1GB GeForce 9800 GX2 - 600/1500/2000mhz
* 512MB ATI HD 4870 - 800/3400mhz
http://img193.imagevenue.com/loc572/th_58597_test3dmark06_122_572lo.jpg (http://img193.imagevenue.com/img.php?image=58597_test3dmark06_122_572lo.jpg)http://img12.imagevenue.com/loc912/th_58603_testcrysis1_122_912lo.jpg (http://img12.imagevenue.com/img.php?image=58603_testcrysis1_122_912lo.jpg)http://img229.imagevenue.com/loc166/th_58614_testcrysis2_122_166lo.jpg (http://img229.imagevenue.com/img.php?image=58614_testcrysis2_122_166lo.jpg)
oltre ad essere stra-fake sono anche stra-OLD!! saranno usciti 2 mesi fa se non di più quando della 4870 non si sapeva ancora nulla... secondo voi come faceva ad averlo già??
Mister Tarpone
21-06-2008, 16:01
oltre ad essere stra-fake sono anche stra-OLD!! saranno usciti 2 mesi fa se non di più quando della 4870 non si sapeva ancora nulla... secondo voi come faceva ad averlo già??
infatti... allora ricordavo bene... ;)
-noxius-
21-06-2008, 16:02
la gestione dell'AA è decisamente migliorata rispetto a quella di RV6x0; però quei risultati non mi sembrano verosimili. Tieni conto che i driver sono, a dir poco, immaturi e la gestione dell'AA e dei filtri in generale è una delle cose che vanno ancora messe a punto
Quindi potrebbe essere che non vengono attivati gli 8x via driver ?
Quei grafici di 2 post fa era opinione comune che fossero dei fake ; a detta di ati una 70 dovrebbe essere il 20-30% più potente di una 50 quindi ...
infatti... allora ricordavo bene... ;)
esatto ^^
(P.s.: le tue firme sono sempre le migliori... :asd: )
Quindi potrebbe essere che non vengono attivati gli 8x via driver ?
Quei grafici di 2 post fa era opinione comune che fossero dei fake ; a detta di ati una 70 dovrebbe essere il 20-30% più potente di una 50 quindi ...
adesso provo a farli con AA8x forzati da driver... :)
yossarian
21-06-2008, 16:16
Quindi potrebbe essere che non vengono attivati gli 8x via driver ?
ipotesi plausibile
Quei grafici di 2 post fa era opinione comune che fossero dei fake ; a detta di ati una 70 dovrebbe essere il 20-30% più potente di una 50 quindi ...
circa un 20-25% in situazioni in cui la 4850 non è bandwidth limited
ipotesi plausibile
circa un 20-25% in situazioni in cui la 4850 non è bandwidth limited
ho provato a forzare l'AA via driver e in crysis non lo applica, quindi di sicuro l'AA16x non funziona...
yossarian
21-06-2008, 16:23
ho provato a forzare l'AA via driver e in crysis non lo applica, quindi di sicuro l'AA16x non funziona...
era prevedibile; d'altra parte anche il calo tra 2x e 4x era pressochè nullo, mentre il calo con l'applicazione del 2x è eccessivo.
era prevedibile; d'altra parte anche il calo tra 2x e 4x era pressochè nullo, mentre il calo con l'applicazione del 2x è eccessivo.
sull'altro thread mi hanno detto che con crysis con nessuna VGA si applica l'AA forzato dal pannello... quindi non è ancora detto che non funzioni.
Comunque io tra l'AA4x e l'8x (impostato sul gioco) ho visto un calo di performance mentre tra il 2 e il 4 no.
Bhairava
21-06-2008, 16:29
la gestione dell'AA è decisamente migliorata rispetto a quella di RV6x0; però quei risultati non mi sembrano verosimili. Tieni conto che i driver sono, a dir poco, immaturi e la gestione dell'AA e dei filtri in generale è una delle cose che vanno ancora messe a punto
Ok, come immaginavo, grazie mille per la tua risposta. :)
-noxius-
21-06-2008, 16:30
rimane l'incognita 8x ... ma non c'èra un grafico proprio di ati in merito a questo ? Uno degli ultimi uisciti in questo thread ...
yossarian
21-06-2008, 16:37
Ma riguardo le rese produttive , la superficie del wafer è tutta uniformemente soggetta alla stessa percentuale d'errore oppure certe aree di un chip sono più esposte al rischio di problemi ?
non c'è uniformità di esposizione; per quanto le tecniche sinao state affinate, i chip posizionati verso il centro del wafer sono sempre migliori qualitativamente (e ovviamente più grandi sono meno chip hai a disposizione per le top di gamma, per ogni wafer). Man mano che si va verso la periferia del wafer aumenta la possibilità di di ottenere chip imperfetti, con unità di calcolo malfunzionanti o che non garantiscono il funzionamento a determinate frequenze. Altro fattore determinante è quello delle dimensioni del chip. Più un chip è grande e complesso più è alta la probabilità che si verifichino "errori" nel drogaggio anche in aree più prossime al centro. A maggior ragione questo si verifica nel momento in cui si fa uno shrink del processo produttivo, fino all'affinamento del nuovo processo produttivo
yossarian
21-06-2008, 16:41
sull'altro thread mi hanno detto che con crysis con nessuna VGA si applica l'AA forzato dal pannello... quindi non è ancora detto che non funzioni.
Comunque io tra l'AA4x e l'8x (impostato sul gioco) ho visto un calo di performance mentre tra il 2 e il 4 no.
che tra il 2x e il 4x non ci sia un calo apprezzabile di frame rate non è così improbabile. Comunque i problemi imputabili all'immaturità dei driver rimangono; gli 8.6 riescono a riconoscere la vga e poco altro ma mancano ancora la stragrande maggioranza delle ottimizzazione per questa architettura
michelgaetano
21-06-2008, 16:43
che tra il 2x e il 4x non ci sia un calo apprezzabile di frame rate non è così improbabile. Comunque i problemi imputabili all'immaturità dei driver rimangono; gli 8.6 riescono a riconoscere la vga e poco altro ma mancano ancora la stragrande maggioranza delle ottimizzazione per questa architettura
da un alto ciò fa ben sperare, se consideriamo che ufficialmente non è ancora uscita :)
Foglia Morta
21-06-2008, 16:44
non c'è uniformità di esposizione; per quanto le tecniche sinao state affinate, i chip posizionati verso il centro del wafer sono sempre migliori qualitativamente (e ovviamente più grandi sono meno chip hai a disposizione per le top di gamma, per ogni wafer). Man mano che si va verso la periferia del wafer aumenta la possibilità di di ottenere chip imperfetti, con unità di calcolo malfunzionanti o che non garantiscono il funzionamento a determinate frequenze. Altro fattore determinante è quello delle dimensioni del chip. Più un chip è grande e complesso più è alta la probabilità che si verifichino "errori" nel drogaggio anche in aree più prossime al centro. A maggior ragione questo si verifica nel momento in cui si fa uno shrink del processo produttivo, fino all'affinamento del nuovo processo produttivo
Mi ero spiegato male , avevo detto wafer ma poi avevo in mente il die della gpu.
Intendevo dire se è più facile che vi siano errori negli stream processor , tmu , rbe... e così via . Se per assurdo il 33% del die fossero stream processor , 33% tmu e 33% rbe , sarebbero uguali le possibilità di errore per tutte le unità o diverse ?
Chiedo perchè avevo letto che in R600 in ogni simd c'è uno shader in più ( 16 + 1 ) per una questione di rese produttive . Mi chiedevo quindi se l'hanno fatto solo per lo shader core oppure anche per le tmu e rbe o altre parti che occupano una certa percentuale del die
-noxius-
21-06-2008, 16:46
michel, però ciò significa che ''non essendo ottimizzato'' potrebbe semplicemente non implementare l'aa , il che significa che attivandolo lep restazioni potrebbero diminuire drasticamente , e quindi stiamo da capo a dodici ..
yossarian
21-06-2008, 17:11
Mi ero spiegato male , avevo detto wafer ma poi avevo in mente il die della gpu.
Intendevo dire se è più facile che vi siano errori negli stream processor , tmu , rbe... e così via . Se per assurdo il 33% del die fossero stream processor , 33% tmu e 33% rbe , sarebbero uguali le possibilità di errore per tutte le unità o diverse ?
Chiedo perchè avevo letto che in R600 in ogni simd c'è uno shader in più ( 16 + 1 ) per una questione di rese produttive . Mi chiedevo quindi se l'hanno fatto solo per lo shader core oppure anche per le tmu e rbe o altre parti che occupano una certa percentuale del die
la percentuale di gran lunga più elevata di errori è nello shader core che è di gran lunga il blocco più grande e complesso (soprattutto a causa del gran numero di registri presenti)
yossarian
21-06-2008, 17:13
michel, però ciò significa che ''non essendo ottimizzato'' potrebbe semplicemente non implementare l'aa , il che significa che attivandolo lep restazioni potrebbero diminuire drasticamente , e quindi stiamo da capo a dodici ..
nei test fatti, l'attivazione dell'AA porta ad un calo delle prestazioni, quindi l'AA funziona; non è detto che, allo stato attuale, funzioni con tutti i giochi e siano attivabili tutte le modalità
-noxius-
21-06-2008, 17:14
Il problema è che sembra ''funzionare'' fino al 4x , con 8x si ha addirittura un lievissimo incremento ... è questo che non ci torna e credo che a questo punto bisogna solo aspettare driver migliori .
Darkgift
21-06-2008, 17:16
Di qua invece devo chiedere un'altra info. Se decidessi di prendere una 4870, secondo voi, il dissi della scheda video farebbe a pugni con la ventola del chipset della mia scheda madre? (che sarebbe questa)
http://img410.imageshack.us/img410/4240/a8nemv5.jpg
Me lo chiedo perche' stamattina, smontando la 7900GT, ho guardato un po' quanto la coda della scheda arrivava a sfiorarlo, e pur essendo abbastanza piccola in proporzione alle schede odierne , ci andava molto vicino (soprattutto i componenti sul fondo della scheda). Che dite, col dissi doppio slot della 4870 rischio? In tal caso mi sa che potrei ripiegare su una variante della 4850 con dissi "custom" che raffredda magari non quanto il dual slot della 4870 ma meglio del dissino che sembra avere il modello base della 4850.
edit. Azz, non avevo visto che era stato aperto anche il thread della 4870 :doh: .. sorry.
Il dissi ci passa sopra a quella ventolina...vai tranquillo.
Cmq ti consiglio,onde evitare ogni problema, di sostituire la ventolina col thermalright hr-05 ;)
-noxius-
21-06-2008, 17:23
nei test fatti, l'attivazione dell'AA porta ad un calo delle prestazioni, quindi l'AA funziona; non è detto che, allo stato attuale, funzioni con tutti i giochi e siano attivabili tutte le modalità
Questo :
• Enhanced Anti-Aliasing & Anisotropic Filtering
High performance anisotropic filtering and 24x custom filter anti-aliasing (CFAA) smooth jagged edges and create true-to-life graphics, for everything from grass to facial features.
http://www.unleashonetera.com/
Che senso avrebbe dire 24x se persino non fosse in grado di gestire l' 8x ?
Mister Tarpone
21-06-2008, 17:27
Questo :
http://www.unleashonetera.com/
Che senso avrebbe dire 24x se persino non fosse in grado di gestire l' 8x ?
anche le nvidia volendo arrivano a 16x... però poi con alcuni giochi non riescono a gestire manco il 2x (vedi Crysis :asd: )
yossarian
21-06-2008, 17:29
Questo :
http://www.unleashonetera.com/
Che senso avrebbe dire 24x se persino non fosse in grado di gestire l' 8x ?
la modalità 24x è un edge AA non un FSAA
-noxius-
21-06-2008, 17:37
anche le nvidia volendo arrivano a 16x... però poi con alcuni giochi non riescono a gestire manco il 2x (vedi Crysis :asd: )
Hehe, proprio qui stà il punto !! :ciapet: Appena ho visto 8x co nquel risultato non ci credevo !
la modalità 24x è un edge AA non un FSAA
Capisco ..
la modalità 24x è un edge AA non un FSAA
Già, credo che ad oggi sia NVidia che ATI non vadano oltre il FSAA8x, giusto (e fino a G70/71-R5x0 NVidia 4x ed ATI 6x)?
Tutto quello che è oltre in realtà è un mix tra FSAA e CSAA o edge AA, no? :)
yossarian
21-06-2008, 17:53
Già, credo che ad oggi sia NVidia che ATI non vadano oltre il FSAA8x, giusto (e fino a G70/71-R5x0 NVidia 4x ed ATI 6x)?
Tutto quello che è oltre in realtà è un mix tra FSAA e CSAA o edge AA, no? :)
al momento si
nico88desmo
21-06-2008, 18:43
Ma tra le GDDR3 e le GDDR5, quali sono le differenze più importanti?
E' necessaria una vera e propria riprogettazione del MC o no per questo cambiamento?
yossarian
21-06-2008, 19:16
Ma tra le GDDR3 e le GDDR5, quali sono le differenze più importanti?
E' necessaria una vera e propria riprogettazione del MC o no per questo cambiamento?
la differenza principale è che a parità di frequenza di core, le gddr5 trasferiscono i dati 4 volte più velocemente delle gddr3.
Per avere dei vantaggi dall'utlizzo di ram più veloci serve un MC più efficiente, altrimenti la banda teoricamente disponibile non dà alcun vantaggio pratico
la hd 4850 ne ha 1 da 6pin :)
Grazie mille davvero
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.