PDA

View Full Version : ATI Radeon HD 4850, test e analisi architettura


Pagine : 1 2 3 [4]

Mr_Paulus
29-06-2008, 10:36
...mbhe non so se avete notato ma le cose economicamente non vanno bene, se vogliono ancora vendere non si possono permettere di proporre a certi prezzi.
Un'altra cosa da notare è che se una scheda costa $199 oggi in europa la trovi a 149€ non vi sembra strano? un tempo l'avreste trovata a 249€ :muro: segno che oggi si compra meno e quindi devono abbassare i prezzi. Meglio per tutti:D no?

o magari può essere che prima facevano dei guadagni stratosferici e adesso guadagnano un po' meno, e comunque il fatto che da noi i prezzi siano ottimi è dato anche dal tasso di conversione euro/dollaro molto favorevole a noi per l'import;)

killer978
29-06-2008, 11:11
Su Elite Bastards ho trovato questo:

http://www.pctunerup.com/up/results/_200806/20080629111009_power.jpg

Pare ci sia questo clock gating a monte dei bassi consumi ottenuti con la serie 48xx

Qualcuno che capisce di cosa si tratta? :D

killer978
29-06-2008, 11:27
Shappire nel bundle della 4870 regala una bella chiavetta USB da 2GB :D

Parte la caccia al prezzo + basso

killer978
29-06-2008, 11:36
La diffferenza è + di quanto pensavo :confused:

http://www.pctunerup.com/up/results/_200806/20080629113516_PALITHD4870-16.jpg

man2tek
29-06-2008, 11:38
Si , complimenti ATI

Complimenti anche ad hardware upgrade per le recensioni sempre
così ben fatte.

Ho una richieta da fare alla redazione:
mi piacerebbe vedere una recensione con tutte le più recenti schede ATI e NVIDIA messe a confronto tra di loro. A partire dalle 3850 Ati
e 8800gt NVIDIA fino ad arrivare al crossfire delle 4870 e dell 'SLI della gtx 280.

Aspetto impaziente
Mi fido solo dei vostri test !!!!

ghiltanas
29-06-2008, 11:47
io nn parlo a lv d sviluppo ma d tecnologie proprietarie x migliorare la grafica dei gioki,poi ho espresso un parere personale e credo d nn aver offeso nessuno, anke xkè son possessore di sv nvidia, e l'ho citato proprio x far intendere a ki legge ke nn sono un fanboy....

Si, è vero ke nvidia ha creato il g80, gran chip indubbiamente, ma ati a mio avviso s'è fatta male da sola, o meglio, le ha fatto male amd visto ke, tra le altre cose, sposto' l'ingegnere a capo dei chip grafici sul progetto fusion...

Inoltre se consideri quante skede nvidia ha tirato fuori dal g92....nn puoi nn darmi ragione, poi è kiaro, ognuno è libero d esprimere le proprie opinioni..

X la questione ac, giusto x parlarne, perkè allora han tolto il supporto alle dx10.1 nella patch 1.02(o 1 nn ricordo)?

due cose: nn usare la k per favore :muro:
secondo per ac (dopo chiudo perchè siamo ot) la faccenda è stata troppo confusa per fare accuse, c'era un discorso legato a un passaggio di rendering in + o - con quella patch, prima di sbilanciarsi sarebbe indicato avere delle prove imho

ghiltanas
29-06-2008, 11:48
La diffferenza è + di quanto pensavo :confused:

http://www.pctunerup.com/up/results/_200806/20080629113516_PALITHD4870-16.jpg

bene bene ;) , sempre + indicata per il mio "htpc" futuro ( se lo faccio :stordita: )

yossarian
29-06-2008, 12:38
Su Elite Bastards ho trovato questo:

http://www.pctunerup.com/up/results/_200806/20080629111009_power.jpg

Pare ci sia questo clock gating a monte dei bassi consumi ottenuti con la serie 48xx

Qualcuno che capisce di cosa si tratta? :D

la possibilità di "spegnere" o di ridurre al minimo la tensione in quei sottosistemi del chip non coinvolti nell'elaborazione

yossarian
29-06-2008, 13:06
Premesso che non vi sto seguendo appieno, per me di problemi R6XX ne aveva non solo uno: numero e "qualità" delle TU, che sono certamente importanti, comportamento delle ROPs con AA, dovuto -anche- al resolve via shader che compica anche lo scheduling, compilazione più difficoltosa dovuta alla architettura VLIW, necessità di una buona ottimizzazione del ring bus per evitare stalli.
Che poi HD4850 sia un chip in generale molto più limitato dalla banda rispetto a HD3870 non ci piove molto, basta vedere i guadagni superlineari che ha HD4870 rispetto a HD4850 in diverse applicazioni (>20%), mentre il fatto è semplicemente che HD3870 è limitato da altri fattori che non sono -solo- la banda passante o le TU (es. per l'AA a 1280x1024 si spende una certa percentuale della potenza di shading per il resolve, a 1920x1200 questa percentuale sale del +75%, così come la mole di dati da passare da ROPs a shader per il resolve) .

se si esclude il caso di the witcher, fino a 1920*1200 la bandwidth sembra limitare hd4850 rispetto ad hd4870 di circa il 10%; questo porterebbe a concludere che RV770 gestisca piuttosto bene la banda passante, considerato anche che, rispetto a RV6x0 deve "alimentare" il 150% in più di alu e di tmu. Uno dei problemi della serie precedente è che il ring bus è utilizzato non solo dalle unità che si occupano di elaborazione di immagini 3D, ma anche tutta una serie di sottosistemi integrati nel chip che, pur non necessitando di elevata banda passante, vanno ad intasare il traffico di dati nel ring bus. Per questo, su rv770, è stato introdotto l'hub (con bus a 2048 bit), che si occupa di dirottare su un canale a parte il traffico di dati che non ha nulla a che fare con elaborazioni 3D.
Altro elemento determinante, dal punto di vista prestazionale, è il numero delle alu; un'architettura vliw, tranne i casi in cui può elaborare codice ottimizzato, difficilmente riesce a raggiungere il massimo parallelismo teorico possibile. Quindi un approccio di tipo "brute force" è quello che consente risultati migliore nell'immediato (in attesa di ottimizzare il codice), potendo contare sulle notevolmente ridotte dimensioni di questo tipo di architettura (molti meno registri e blocchi di controllo e trasmissione = molto meno spazio richiesto) e sulla maggior velocità di elaborazione che questo approccio permette (le unità eseguono un'istruzione senza dover "prendere decisioni").

Da osservare che ATi e nVidia hanno scelto strade differenti ma entrambe hanno privilegiato un approccio più "raffinato" in alcuni tipi di elaborazione e uno di tipo "brute force" in altri. Ad esempio, lo shader core dei chip NV è progettato in modo da ottenere un livello di occupazione delle alu molto elevato con qualunque tipo di codice (meno sp ma in grado di autobilanciare i carichi di lavoro e di gestire il parallelismo), però nelle operazioni di texturing ha puntato sul numero senza pensare ad ottimizzazioni raffinate per nascondere le latenze. Al contrario, ATi ha ottimizzato al massimo le tmu e ha puntato sul numero elevato di sp, arrivando a ridurne le dimensioni anche grazie all'aliminazione di un'unità dedicata alle operazioni di integer bitshift che è presente in ogni sp di R600 e di RV670; in RV770 ogni singola alu è in grado di svolgere tale operazione

Iantikas
29-06-2008, 14:02
quasi 78 per GT200 e 200 per RV770 con clock versione hd4850 (240 per la versione con clock della hd4870)


giakkè mi hai quotato ora ne approfitto x estorcerti info :D ...potresti spiegarmi come funziona questa storia del DP?...

...io sapevo ke in GT200 (in versione "full") ci son 10 TPC...in ogni TPC ci son 3 SM...ogni SM contine un'unità dedicata al calcolo in DP...da ciò esce fuori ke in totale ci son 30 unità dedicate a questo scopo...

...xkè alcuni articoli (x es. techreport) parlano di 78GigaFlops e altri (x es. digit-life) parlano di 90GigaFlops?...


...ciao e grazie x il kiarimento :)

Defragg
29-06-2008, 14:17
Riguardo la fisica possiamo continuare qui (http://www.hwupgrade.it/forum/showthread.php?t=1772022) :)

Yoss secondo te, nVidia, per la sua prossima generazione di architetture video utilizzerà lo stesso tipo di architettura odierna con magari delle modifiche atte all'ottimizzazione oppure cambierà qualcosa?
Ad esempio nVidia potrebbe optare per un'architettura più simile a quella VLIW usata da AMD, ovviamente cambiando anche il MC, per contenere un po' le dimensioni dei loro chip?

yossarian
29-06-2008, 15:03
giakkè mi hai quotato ora ne approfitto x estorcerti info :D ...potresti spiegarmi come funziona questa storia del DP?...

...io sapevo ke in GT200 (in versione "full") ci son 10 TPC...in ogni TPC ci son 3 SM...ogni SM contine un'unità dedicata al calcolo in DP...da ciò esce fuori ke in totale ci son 30 unità dedicate a questo scopo...

...xkè alcuni articoli (x es. techreport) parlano di 78GigaFlops e altri (x es. digit-life) parlano di 90GigaFlops?...


...ciao e grazie x il kiarimento :)

esatto: in GT200 ci sono 30 unita fp64, ciascuna in grado di fare una MADD; per cui devi moltiplicare 30*2*la frequenza dello shader core (1296 MHz senon ricordo male :D ). Il totale è 77,760 Gflops, approssimabili con 78.
In Nei chip ATi non c'è un'unità fp64 nativa e la stessa precisione si raggiunge facendo svolgere il calcolo ad uno sp (che come sai è dotato di 5 alu fp32); anche in questo caso, prendi il numero di sp (160 per RV770 e 64 per R600 e RV670), lo molyiplichi per 2 e il risultato lo moltiplichi per la frequenza del chip.

Iantikas
29-06-2008, 15:11
esatto: in GT200 ci sono 30 unita fp64, ciascuna in grado di fare una MADD; per cui devi moltiplicare 30*2*la frequenza dello shader core (1296 MHz senon ricordo male :D ). Il totale è 77,760 Gflops, approssimabili con 78.
In Nei chip ATi non c'è un'unità fp64 nativa e la stessa precisione si raggiunge facendo svolgere il calcolo ad uno sp (che come sai è dotato di 5 alu fp32); anche in questo caso, prendi il numero di sp (160 per RV770 e 64 per R600 e RV670), lo molyiplichi per 2 e il risultato lo moltiplichi per la frequenza del chip.


ok grazie ora è tutto kiaro...ciao :)

yossarian
29-06-2008, 15:15
Riguardo la fisica possiamo continuare qui (http://www.hwupgrade.it/forum/showthread.php?t=1772022) :)

Yoss secondo te, nVidia, per la sua prossima generazione di architetture video utilizzerà lo stesso tipo di architettura odierna con magari delle modifiche atte all'ottimizzazione oppure cambierà qualcosa?
Ad esempio nVidia potrebbe optare per un'architettura più simile a quella VLIW usata da AMD, ovviamente cambiando anche il MC, per contenere un po' le dimensioni dei loro chip?

è improbabile; dovrebbero sconfessare le scelte operate per questa famiglia di chip e riprogettare tutto da capo. La strada scelta da nVidia per un'architettura unificata è sicuramente la più semplice, in quanto è quella che garantisce da subito i migliori risultati (autobilanciamento dei carichi di lavoro e ilp in HW); la strada che ATi aveva scelto con R500 e che ha seguito solo in parte (autobilanciamento dei carichi di lavoro ma ilp via SW) con R600 e derivati.
Di sicuro dovrà ricorrere a modifiche sostanziali del MC, pur mantenendo questo tipo di architettura, per poter sfruttare ram più veloci (gddr4 e gddr5) e anche nell'ottica di ridurre o di contenere le dimensioni del bus di collegamento tra chip e ram. Inoltre, la scelta di aumentare del rapporto alu/tmu rispetto a g80 sembra indicare una scelta ben precisa, in relazione a come si ipotizza debba evolvere il SW in futuro

Iantikas
29-06-2008, 15:27
se si esclude il caso di the witcher, fino a 1920*1200 la bandwidth sembra limitare hd4850 rispetto ad hd4870 di circa il 10%; questo porterebbe a concludere che RV770 gestisca piuttosto bene la banda passante, considerato anche che, rispetto a RV6x0 deve "alimentare" il 150% in più di alu e di tmu. Uno dei problemi della serie precedente è che il ring bus è utilizzato non solo dalle unità che si occupano di elaborazione di immagini 3D, ma anche tutta una serie di sottosistemi integrati nel chip che, pur non necessitando di elevata banda passante, vanno ad intasare il traffico di dati nel ring bus. Per questo, su rv770, è stato introdotto l'hub (con bus a 2048 bit), che si occupa di dirottare su un canale a parte il traffico di dati che non ha nulla a che fare con elaborazioni 3D.
Altro elemento determinante, dal punto di vista prestazionale, è il numero delle alu; un'architettura vliw, tranne i casi in cui può elaborare codice ottimizzato, difficilmente riesce a raggiungere il massimo parallelismo teorico possibile. Quindi un approccio di tipo "brute force" è quello che consente risultati migliore nell'immediato (in attesa di ottimizzare il codice), potendo contare sulle notevolmente ridotte dimensioni di questo tipo di architettura (molti meno registri e blocchi di controllo e trasmissione = molto meno spazio richiesto) e sulla maggior velocità di elaborazione che questo approccio permette (le unità eseguono un'istruzione senza dover "prendere decisioni").

Da osservare che ATi e nVidia hanno scelto strade differenti ma entrambe hanno privilegiato un approccio più "raffinato" in alcuni tipi di elaborazione e uno di tipo "brute force" in altri. Ad esempio, lo shader core dei chip NV è progettato in modo da ottenere un livello di occupazione delle alu molto elevato con qualunque tipo di codice (meno sp ma in grado di autobilanciare i carichi di lavoro e di gestire il parallelismo), però nelle operazioni di texturing ha puntato sul numero senza pensare ad ottimizzazioni raffinate per nascondere le latenze. Al contrario, ATi ha ottimizzato al massimo le tmu e ha puntato sul numero elevato di sp, arrivando a ridurne le dimensioni anche grazie all'aliminazione di un'unità dedicata alle operazioni di integer bitshift che è presente in ogni sp di R600 e di RV670; in RV770 ogni singola alu è in grado di svolgere tale operazione



a proposito di the witcher anandtech aveva evidenziato ke

Finally, it's interesting to note that the 4870 and the 3870 X2 are neck-and-neck until we finally crank up the resolution to 2560x1600, at which point the 3870 X2 pulls ahead. This is not what we would have expected. The HD4000 series seems to scale just a bit worse with resolution than either NVIDIA's cards or the HD3000 series.


secnodo te questo a cosa può essere dovuto?...ciao

yossarian
29-06-2008, 15:56
a proposito di the witcher anandtech aveva evidenziato ke




secnodo te questo a cosa può essere dovuto?...ciao

non lo; di primo acchitto potrebbe sembrare che le prestazioni siano condizionate dal numero di rbe più che dalla loro qualità. Apparentemente c'è anche un problema con la bandwidth, almeno a giudicare dalla differenza tra 4870 e 4850. Bisognoerebbe sapere come è stato programmato the witcher e rifare i test con driver ottimizzati per il MC di RV770

Revenge81
29-06-2008, 16:01
bene bene ;) , sempre + indicata per il mio "htpc" futuro ( se lo faccio :stordita: )

una cosa che mi piace del design della scheda è lo "scatolamento" totale del sistema di dissipazione...

La mia 8800 gts ha(aveva:D) tutta la zona intorno alla turbina aperta è quando si scalda diventa un termosifone nel case(60 gradi in media co sto caldo) buttando fouri aria calda dalle suddette aperture....

Free Gordon
29-06-2008, 17:15
si, qualcosa è cambiato

Cosa? :D



Gordon, qui mi deludi :D

E non sarà nemmeno la prima volta... :D



se la hd4850 è più bandwidth limited di hd3870, all'aumentare della risoluzione e con l'attivazione dei filtri, a parità di quantitativo di ram, il divario dovrebbe ridursi: invece aumenta.

Ecco, questa è una cosa di cui non ero molto sicuro.. :D
Non dipende più dal tipo di applicazione? Sei sicuro che sulla 3870, salendo con la res e i filtri, non intervengano nuovi colli di bottiglia?



A questo punto, se il boost prestazionale fosse da imputare alla sola aggiunta delle tmu allora questo vantaggio dovrebbe essere superiore a quello effettivo (e cioè prossimo a quello teorico).

Io cmq non dicevo questo, ho solo detto che il principale problema di R600 erano le 16TMU.
Con 32TMU sarebbe stato prestazionalmente al pari dei chip Nvidia con i giochi del periodo.



Se il vantaggio di RV770 non è pari al valore teorico, possimo ipotizzare che ciò sia dovuto alle limitazioni in banda di quest'ultimo? No, perchè allora il vantaggio di hd4850, al salire della risoluzione, dovrebbe calare (invece aumenta,m seppure di poco) e hd4870, che non dovrebbe presentare le stesse limtazioni dovrebbe avere un vantaggio molto maggiore di quello rilevato.

Ok, ora ho capito cosa volevi dirmi. Mi resta sempre il dubbio che ci sia una correlazione diretta tra quello che ho messo in grassetto, considerando due chip con potenzialità così diverse...ma se lo dici tu, ci credo! :D



Che l'incremento delle TU abbia giovato non ci piove, ma da qui a concludere che "il problema fosse quello" ce ne corre.

Ma davvero pensi che non bastava fare un chip con 32TMU (e shader core proporzionato) per avere prestazioni simili a G80...? (senza stravolgere più di tanto l'architettura dei vari R6xx intendo)



distacchi corretti sarebbero dell'ordine del 140% (di poco superiori, in realtà). Siamo ben distanti

Perchè probabilmente i driver attuali non sfruttano bene la 4870? ;)



lo shader core va a 1500 MHz (nella versione ultra), il resto del chip a frequenze decisamente inferiori (anche rispetto a R600)

Quì sento che mi nascondi qualcosa... :D ma vabbè, non voglio indagare. :Prrr:

killer978
29-06-2008, 18:34
...mbhe non so se avete notato ma le cose economicamente non vanno bene, se vogliono ancora vendere non si possono permettere di proporre a certi prezzi.
Un'altra cosa da notare è che se una scheda costa $199 oggi in europa la trovi a 149€ non vi sembra strano? un tempo l'avreste trovata a 249€ :muro: segno che oggi si compra meno e quindi devono abbassare i prezzi. Meglio per tutti:D no?

Non credo sia colpa della recessione ;) altrimenti perche Nvidia continua a proporre schede da 600€? e tra un mese anche ATI farà uscire una scheda da 500€ forse qlcs meno!!!

è stato propio un cambiamento di politica da parte di ATI chip piccoli dal costo produzione davvero basso (mi sembra che RV770 costi 20$ a chip mentre GTX200 120$), ha cambiato la fascia media adesso con meno di 200€ puoi giocaare a qualsiasi titolo anche su schermi HD ;)

killer978
29-06-2008, 18:36
la possibilità di "spegnere" o di ridurre al minimo la tensione in quei sottosistemi del chip non coinvolti nell'elaborazione

Ottimo, dall'immagine si nota che anche nel 3D ci sono miglioramenti magari tenendo al max solo le parti del chip che servono!!!

Grazie ;)

killer978
29-06-2008, 18:41
bene bene ;) , sempre + indicata per il mio "htpc" futuro ( se lo faccio :stordita: )

Per come sono concepite ste schede le vedo bene ovunque :D HTPC, Game machine, pc a basso costo, e anche in desktop da ufficio :asd: x quello che costa la 4850 la puoi mettere ovunque anche nel mulo :asd:

Credo che usciranno bei chippettini Mobile da questo mostriciattolo, magari su schedine MXM :D sicuro che i note si tingeranno di rosso quest'anno ;)

Danckan
29-06-2008, 18:46
Non ci resta di aspettare co nansia l'articolo di domani co i test comparati di tutte le principali schede in commercio per mettere la definitiva pietra tombale su Nvidia :P

Almno per ora ovviamente...

Defragg
29-06-2008, 19:25
è improbabile; dovrebbero sconfessare le scelte operate per questa famiglia di chip e riprogettare tutto da capo. La strada scelta da nVidia per un'architettura unificata è sicuramente la più semplice, in quanto è quella che garantisce da subito i migliori risultati (autobilanciamento dei carichi di lavoro e ilp in HW); la strada che ATi aveva scelto con R500 e che ha seguito solo in parte (autobilanciamento dei carichi di lavoro ma ilp via SW) con R600 e derivati.
Di sicuro dovrà ricorrere a modifiche sostanziali del MC, pur mantenendo questo tipo di architettura, per poter sfruttare ram più veloci (gddr4 e gddr5) e anche nell'ottica di ridurre o di contenere le dimensioni del bus di collegamento tra chip e ram. Inoltre, la scelta di aumentare del rapporto alu/tmu rispetto a g80 sembra indicare una scelta ben precisa, in relazione a come si ipotizza debba evolvere il SW in futuro

Capisco :) la modifica del MC mi pare una scelta obbligata per la prossima generazione. Non credo che nVidia voglia creare le schede più lunghe e costose del mondo (anche se lo sta facendo). :D
E invece in futuro (R900?) credi che ATi intraprenderà la strada del bilancio dei carichi di lavoro e dell'ilp via SW? (se ho capito bene la cosa come funziona :D)

Iantikas
29-06-2008, 19:39
Non credo sia colpa della recessione ;) altrimenti perche Nvidia continua a proporre schede da 600€? e tra un mese anche ATI farà uscire una scheda da 500€ forse qlcs meno!!!

è stato propio un cambiamento di politica da parte di ATI chip piccoli dal costo produzione davvero basso (mi sembra che RV770 costi 20$ a chip mentre GTX200 120$), ha cambiato la fascia media adesso con meno di 200€ puoi giocaare a qualsiasi titolo anche su schermi HD ;)

spero qlcs meno, dato ke dovrebbe essere la mia prox gpu :D

killer978
29-06-2008, 19:57
spero qlcs meno, dato ke dovrebbe essere la mia prox gpu :D

Io mi accontento di meno :D una 4870 dovrebbe permettermi di giocare a tutto senza problemi sul mio 22" Wide ;) ad essere sincero anche la 3870 attuale va benone basta non esagerare con l'AA, un 2xAA wide tent è + che sufficiente :D

yossarian
29-06-2008, 20:25
Capisco :) la modifica del MC mi pare una scelta obbligata per la prossima generazione. Non credo che nVidia voglia creare le schede più lunghe e costose del mondo (anche se lo sta facendo). :D
E invece in futuro (R900?) credi che ATi intraprenderà la strada del bilancio dei carichi di lavoro e dell'ilp via SW? (se ho capito bene la cosa come funziona :D)

il bilanciamento dei carichi deve necessariamente essere effettuato in HW (nei chip ATi avviene a livello di sp); l'ilp continuerà ad essere affidato al SW (si manterrà l'architettura vliw delle alu di ogni sp)

majorebola
29-06-2008, 20:27
Ho visto che tendenzialmente mettere in crossfire le schede video non porta quasi mai ad un incremento prestazionale del 100% (ahimé)... e che spesso, a causa del collo di bottiglia della memoria video si ha un collasso che non offre alcun tipo di miglioramento...

Quello che mi chiedevo: un CrossfireX di 2 (o magari anche più.... :D ) di HD4870 (o anche di HD4850)... vorrei vedere da qualche parte qualche dato affidabile e concreto... sono curioso di vedere come si comportano queste nuovissime schede sul Chipset 790fx che dicono essere discreto!....

Qualcuno di voi sa trovarmi qualche dato con crossfire??? Grazie

Zermak
29-06-2008, 20:31
Ho visto che tendenzialmente mettere in crossfire le schede video non porta quasi mai ad un incremento prestazionale del 100% (ahimé)... e che spesso, a causa del collo di bottiglia della memoria video si ha un collasso che non offre alcun tipo di miglioramento...

Quello che mi chiedevo: un CrossfireX di 2 (o magari anche più.... :D ) di HD4870 (o anche di HD4850)... vorrei vedere da qualche parte qualche dato affidabile e concreto... sono curioso di vedere come si comportano queste nuovissime schede sul Chipset 790fx che dicono essere discreto!....

Qualcuno di voi sa trovarmi qualche dato con crossfire??? Grazie
Dai una letta qui (http://www.tweaktown.com/articles/1483/radeon_hd_4870_in_crossfirex_at_4ghz/index.html). Testano CF di due e tre HD4870 e il Triple SLi di GTX280 (oltre al CF di HD4850).

majorebola
29-06-2008, 20:36
grazie mille....

http://images.tweaktown.com/imagebank/cfx487_g_02.gif

sbaglio o questo grafico vuol dire che 2 HD4870 si comportano come 2 GTX 280...
Credo che i dati a tre schede non vadano contati... lo dice all'inizio: la scheda madre non è il massimo...

io aggiungerei che probabilmente su una 790fx (Chipset AMD quindi, non nVidia come han fatto loro!) dovrebbe ottenere un leggero incremento prestazionale la soluzione di casa AMD... giusto?

Zermak
29-06-2008, 20:44
grazie mille....

-cut-

sbaglio o questo grafico vuol dire che 2 HD4870 si comportano come 2 GTX 280...
Credo che i dati a tre schede non vadano contati... lo dice all'inizio: la scheda madre non è il massimo...

io aggiungerei che probabilmente su una 790fx (Chipset AMD quindi, non nVidia come han fatto loro!) dovrebbe ottenere un leggero incremento prestazionale la soluzione di casa AMD... giusto?
Anche sui test di Anandtech due HD4870 in CF si comportavano bene nei confronti dello SLi di GTX280.

Per i vari CF hanno usato l'X48 che è il northbridge Intel.
Per la configurazione SLi hanno usato una scheda madre con chipset nVidia 780i SLi, visto che lo SLi puo' essere fatto solo su chipset nVidia :)

Il 790FX non so quante linee abbia su ogni PCI-E. L'X48 ne ha 16 per le due PCI-E principali ma delle altre non so.

majorebola
29-06-2008, 20:52
Anche sui test di Anandtech due HD4870 in CF si comportavano bene nei confronti dello SLi di GTX280.

Per i vari CF hanno usato l'X48 che è il northbridge Intel.
Per la configurazione SLi hanno usato una scheda madre con chipset nVidia 780i SLi, visto che lo SLi puo' essere fatto solo su chipset nVidia :)

Il 790FX non so quante linee abbia su ogni PCI-E. L'X48 ne ha 16 per le due PCI-E principali ma delle altre non so.

Mi cogli impreparato (o forse hai solo colto la mia ignoranza :D ) cosa sono le linee?? :D

Comunque direi (a stima) che l'AMD ha fatto un bel lavoro... e che l'nVidia ha un bel po' da fare ora... o sbaglio?

Comunque io pensavo di farmi un bel CrossFireX di HD4870... visto che ho una ASUS M3aM32 :D (come da firma!) e che ha un 790fx!... pensavo che me la sarei spassata...

PS: Perché han fatto un gioco come Crysis???!?!

http://images.tweaktown.com/imagebank/cfx487_g_08.gif

Non è MAI giocabile al massimo...

Zermak
29-06-2008, 21:24
Mi cogli impreparato (o forse hai solo colto la mia ignoranza :D ) cosa sono le linee?? :D
Praticamente sono il numero di collegamenti fisici che ci sono tra la PCI-E ed il northbridge. Più ne sono maggiore sarà la banda passante :)
Ogni northbridge ha un numero preciso di linee che può gestire.
Comunque direi (a stima) che l'AMD ha fatto un bel lavoro... e che l'nVidia ha un bel po' da fare ora... o sbaglio?
Sicuramente AMD si è data da fare ma il GT200, nella sua forma migliore (vedi GTX280), non mi sembra male. Il problema è il prezzo.
Comunque io pensavo di farmi un bel CrossFireX di HD4870... visto che ho una ASUS M3aM32 :D (come da firma!) e che ha un 790fx!... pensavo che me la sarei spassata...
Almeno due linee PCI-E 8x meccaniche dovrebbe averne, per maggiori dettagli dai un occhiata al sito ufficiale o trova qualche recensione.
PS: Perché han fatto un gioco come Crysis???!?!

Non è MAI giocabile al massimo...
Fortuna che non mi piace :p

majorebola
29-06-2008, 21:52
Almeno due linee PCI-E 8x meccaniche dovrebbe averne, per maggiori dettagli dai un occhiata al sito ufficiale o trova qualche recensione.

intendi quindi la "velocità"... la storia a 16x o a 8x???

della mobo che ho io... ti do i dati del manuale delle istruzioni (che avevo già guardato...)

La mia scheda ha 4 slot PCI-Express...
Con una Scheda video: 16x - 1x - 16x - 1x
Con due Schede video: 16x - 1x - 16x - 1x
Con Tre Schede Video: 8x - 8x - 16x - 1x
Con quattro VGA: 8x - 8x - 8x - 8x

Ovvero in Crossfire con due schede ho banda piena... mentre in crossfire con 4 schede ho mezza banda!

Zermak
29-06-2008, 21:53
intendi quindi la "velocità"... la storia a 16x o a 8x???

della mobo che ho io... ti do i dati del manuale delle istruzioni (che avevo già guardato...)

La mia scheda ha 4 slot PCI-Express...
Con una Scheda video: 16x - 1x - 16x - 1x
Con due Schede video: 16x - 1x - 16x - 1x
Con Tre Schede Video: 8x - 8x - 16x - 1x
Con quattro VGA: 8x - 8x - 8x - 8x

Ovvero in Crossfire con due schede ho banda piena... mentre in crossfire con 4 schede ho mezza banda!
Si, poi però c'è anche la storia dei 16x elettrici e meccanici...ma non ho indagato :p

k.graphic
29-06-2008, 21:53
Almeno due linee PCI-E 8x meccaniche dovrebbe averne, per maggiori dettagli dai un occhiata al sito ufficiale o trova qualche recensione.

il 790fx ha due linee a 16x mentre con 4 schede si passa a 8x se non sbaglio.. del 2x16 sono sicuro, la mia mobo almeno è cosi e monta il 790fx, anche in OC si vede la differenza, passato da chip nvidia a AMD sono salito di parecchio di piu..

ghiltanas
29-06-2008, 22:58
Per come sono concepite ste schede le vedo bene ovunque :D HTPC, Game machine, pc a basso costo, e anche in desktop da ufficio :asd: x quello che costa la 4850 la puoi mettere ovunque anche nel mulo :asd:

Credo che usciranno bei chippettini Mobile da questo mostriciattolo, magari su schedine MXM :D sicuro che i note si tingeranno di rosso quest'anno ;)

la 4850 nn lo so..scaldicchia e butta aria all'interno del case..imho è indicata in pc con un'ottimo sistema di dissipazione.

ps mi sto scervellando per capire le ultime pagine di sto thread :sofico:

ghiltanas
29-06-2008, 23:01
quanto pensate sarà necessario attendere prima di vedere la 4870 sotto i 200?

michelgaetano
29-06-2008, 23:38
quanto pensate sarà necessario attendere prima di vedere la 4870 sotto i 200?

Direi un po'.

yossarian
30-06-2008, 00:45
Cosa? :D



:ciapet:



E non sarà nemmeno la prima volta... :D


speriamo sia l'ultima.allora :D



Ecco, questa è una cosa di cui non ero molto sicuro.. :D
Non dipende più dal tipo di applicazione? Sei sicuro che sulla 3870, salendo con la res e i filtri, non intervengano nuovi colli di bottiglia?



sicuramente salendo con i filtri intervengono altri colli di bottiglia (sappiamo dei problami con l'AA, ad esempio); allora, però, senza filtri, a risoluzioni inferiori rispetto a 1920,1200 (in condizioni in cui non si è né bandwidth, né fb limited), come mai le prestazioni di hd4850 non sono doppie rispetto a quelle di hd3870?



Io cmq non dicevo questo, ho solo detto che il principale problema di R600 erano le 16TMU.
Con 32TMU sarebbe stato prestazionalmente al pari dei chip Nvidia con i giochi del periodo.


sicuramente le tmu erano uno dei problemi principali, ma non l'unico




Ok, ora ho capito cosa volevi dirmi. Mi resta sempre il dubbio che ci sia una correlazione diretta tra quello che ho messo in grassetto, considerando due chip con potenzialità così diverse...ma se lo dici tu, ci credo! :D



se si considera solo il caso di filtri attivi si può avere il dubbio che il problema possa essere la mancanza del resolve nelle rbe; se si considera il caso di filtri non attivi (o di solo anisotropico), allora i problemi possono essere: 1) il minor numero di tmu; 2) la minor potenza di calcolo; 3) una gestione più problematica della banda passante. I primi due sono strettamente correlati, poichè l'architettura è rimasta con un rapporto sp/tmu di 4:1.



Ma davvero pensi che non bastava fare un chip con 32TMU (e shader core proporzionato) per avere prestazioni simili a G80...? (senza stravolgere più di tanto l'architettura dei vari R6xx intendo)



non ho detto questo: sarebbe stato sufficiente per avere prestazioni più elevate (spesso non di poco) rispetto a G80; ma questo avrebbe comportato avere 32 tu, 640 alu (o 128 sp, se preferisci) e un nuovo design del MC. Questo per non stravolgere l'architettura :D



Perchè probabilmente i driver attuali non sfruttano bene la 4870? ;)


sicuro e questo è dimostrato anche dall'andamento di alcuni bench sintetici; ma sarà molto difficile che, anche con driver ottimizzati al meglio, hd4870 arrivi ad andare il 140% in più rispetto a hd3870 (tranne nei casi in cui la seconda è fortememente limitata dall'AA o dalla bandwidth)

Defragg
30-06-2008, 01:08
il bilanciamento dei carichi deve necessariamente essere effettuato in HW (nei chip ATi avviene a livello di sp); l'ilp continuerà ad essere affidato al SW (si manterrà l'architettura vliw delle alu di ogni sp)

Capisco, prima non avevo afferrato bene. :stordita:
Ma la strada successiva a un'architettura VLIW da cosa è rappresentata?

Free Gordon
30-06-2008, 02:18
Capisco, prima non avevo afferrato bene. :stordita:
Ma la strada successiva a un'architettura VLIW da cosa è rappresentata?

Capisco, prima non avevo afferrato bene. :stordita: Ma la strada successiva a un'architettura VLIW da cosa è rappresentata?


Meno sono i transistor impiegati nei circuiti di controllo (non saprei però fino a che punto possa essere conveniente questo) più lavoro sul software per ottimizzare il codice, sarai obbligato a fare.

Per dirne una: le cpu per PC sono ormai da anni con logica OoOE, ma quelle console sono IOE per risparmiare transistors e costare meno (anche nello sviluppo oltre che in produzione).
Questo comporta che il compilatore deve fare un super lavoro per evitare il più possibile i salti di codice.
Le CPU per pc invece, si mangiano più o meno tutto senza grossi sbattimenti da quel pdv, ma a parità di potenza bruta, sono molto più grosse...

Ora son curioso di sapere cosa ti dirà Yoss su R900...ma credo che, a grandi linee, le GPU avendo un grosso lavoro da fare in streaming, si affideranno sempre più al software da quel pdv... :sofico:

Free Gordon
30-06-2008, 02:30
sicuramente salendo con i filtri intervengono altri colli di bottiglia (sappiamo dei problami con l'AA, ad esempio); allora, però, senza filtri, a risoluzioni inferiori rispetto a 1920,1200 (in condizioni in cui non si è né bandwidth, né fb limited), come mai le prestazioni di hd4850 non sono doppie rispetto a quelle di hd3870?

Sono esattamente il 50-60% in più della 3870... cmq non saprei proprio che risponderti. :D
Anche perchè non mi sembra di aver sempre notato una correlazione lineare diretta fra aumento delle unità di un chip rispetto ad un altro, e aumento delle prestazioni nei giochi... :p



sicuro e questo è dimostrato anche dall'andamento di alcuni bench sintetici; ma sarà molto difficile che, anche con driver ottimizzati al meglio, hd4870 arrivi ad andare il 140% in più rispetto a hd3870 (tranne nei casi in cui la seconda è fortememente limitata dall'AA o dalla bandwidth)

Ora mi devi spiegare il segreto dell'MC di Rv770!!
Non è più un ringbus, ma nemmeno un crossbar classico...Che cavolo è? :D
E' una cosa del tutto nuova nuova oppure è semplicemente una specie di ringbus con 4 veri controller separati invece dei 4 ring-stop? :stordita:

Cos'è esattamente che chiami HUB?

BlueKnight
30-06-2008, 02:46
Circolano per la rete le prime immagine della HD4870 X2 con PCB completamente nero, SBAV! :oink: :oink: :oink:

Da notare che insieme al colore scuro, fa la sua comparsa (per la prima volta mi sembra) sul PCB anche il nome AMD.. e il colore è nero proprio come le CPU più "performanti" e "overcloccabili", chiamate proprio Black Edition.

Che AMD punti veramente molto su queste schede per rilanciare il proprio nome?! :D

Se AMD riuscirà a rispondere alle attese e alle previsioni degli analisti, la casa potrebbe guadagnare il 10% delle quote di mercato in un solo trimestre, passando dal 30% attuale al 40%, con un barlume di speranza per ritornare alla "Golden Age" segnata dalle serie Radeon 9600, 9700 e 9800.

http://www.techpowerup.com/img/08-06-29/20080628_21e8649056b17c3e189dAF4FOpcGxrvb.jpg


http://www.techpowerup.com/img/08-06-29/20080628_cd5f4f6e2fc81b6b4b72a09I6NyLojUW.jpg

milanok82
30-06-2008, 09:42
Le recenzioni sulla 4870 quanto escono?

ghiltanas
30-06-2008, 11:02
Appoggio la prima :D

Per la seconda la questione sul passaggio di rendering è stata chiarita definitivamente: il beneficio delle DX10.1 è il non dover rifare quel passo di rendering perché il risultato è bufferato. Ciò permette risultati identici con prestazioni migliori. Non è un errore di programmazione ma una (ottima) novità introdotta dall'aggiornamento delle librerie. Quindi la situazione non è affatto confusa ;)




Dipende da tante cose. Innanzitutto direi dai prezzi che nVidia raggiungerà, ammesso che possa permettersi di abbassarli ancora. Questo perché AMD ha fatto un posizionamento di prezzo molto aggressivo già in partenza, e piccole riduzioni dall'altra parte non potranno muovere le posizioni in una classifica prezzo/prestazioni. Una GTX280 a 350€ vincerebbe, ma dubito se la possano permettere, quindi credo che a parte il rinculo iniziale (non per un reale abbassamento ma per un prezzo inizialmente gonfiato dai venditori) non vedo grossi abbassamento nel breve periodo come possibili.

per la prima parte ok, si spera allora che adesso il peso di ati in queste "decisioni" si rafforzi e si passi alle dx10.1, anche se imho nn avverrà nel breve periodo visti gli engine attuali e quelli immediatamente futuri.
Per il disc prezzo la gtx280 è molto difficile da far calare di prezzo, è troppo grosso quel cavolo di chipset :help: , lo so che nel breve periodo sarà dura veder calare le 4870, io però pensavo tipo verso settembre...

ghiltanas
30-06-2008, 11:05
Preso dalla rece di guru3d:

"Expect roughly 43-44 DBa when the GPU is fully stressed. in idle you hardly can hear the cooler though. So cooling was just fine."

questo imho è mooolto interessante ;), specie se mi voglio guardare un film è importante che il sistema si mantenga su bassi livelli di rumore

ghiltanas
30-06-2008, 11:15
veramente impressive la 4870 ti permette di giocare praticamente a tutto, senza problemi, a 1920*1200 con i filtri :eek: , e se nn sbaglio dovrebbe costare meno della gtx260...
ora guardo come andrà con stalker nuovo e far cry 2 e secondo come sarà mia :D

yossarian
30-06-2008, 11:41
Capisco, prima non avevo afferrato bene. :stordita:
Ma la strada successiva a un'architettura VLIW da cosa è rappresentata?

per risparmiare spazio e incrementare le prestazioni? Un'architettura vliw a logica attiva. :D
In realtà, R600 e derivati sono ibridi, in parte gestiti in HW (sono a tutti gli effetti processori OoO con bilanciamento automoatico dei carichi di lavoro) con sp di tipo vliw (quindi l'architettuta vliw è limitata alle 5 alu di ogni sp).

yossarian
30-06-2008, 11:46
Sono esattamente il 50-60% in più della 3870... cmq non saprei proprio che risponderti. :D
Anche perchè non mi sembra di aver sempre notato una correlazione lineare diretta fra aumento delle unità di un chip rispetto ad un altro, e aumento delle prestazioni nei giochi... :p



se non c'è una correlazione lineare qualunque sia l'applicazione e con qualunque impostazione, allora significa che ci sono dei colli di bottiglia. Tieni presente il fatto che parliamo sempre di potenza di calcolo teorica.



Ora mi devi spiegare il segreto dell'MC di Rv770!!
Non è più un ringbus, ma nemmeno un crossbar classico...Che cavolo è? :D
E' una cosa del tutto nuova nuova oppure è semplicemente una specie di ringbus con 4 veri controller separati invece dei 4 ring-stop? :stordita:

Cos'è esattamente che chiami HUB?

è un tentativo di emulare il funzionamento e l'efficienza di una connessione di tipo point to point senza dover ricorrere ad una connessione point to point. L'hub è un hub nel vero senso della parola: ha una serie di canali interni per un totale di 2048 bit, di cui uno riservato al traffico di dati non legati all'elaborazione 3D e il resto utilizzati per mettere in comunicazione i circuiti gestiti dai 4 MC

Foglia Morta
30-06-2008, 11:54
per risparmiare spazio e incrementare le prestazioni? Un'architettura vliw a logica attiva. :D
In realtà, R600 e derivati sono ibridi, in parte gestiti in HW (sono a tutti gli effetti processori OoO con bilanciamento automoatico dei carichi di lavoro) con sp di tipo vliw (quindi l'architettuta vliw è limitata alle 5 alu di ogni sp).

Fast14 :Perfido:

gianni1879
30-06-2008, 11:57
Per capirsi su cosa permettono le DX10.1 che nVidia definisce inutili:

http://techreport.com/r.x/radeon-hd-4870/assassinscreed.gif

spaventoso.... non mi sembra di aggiungere altro

Iantikas
30-06-2008, 12:28
spaventoso.... non mi sembra di aggiungere altro

io invece aggiungerei ke anke senza dx10.1 rimangono spaventose :sofico: ...

http://img258.imageshack.us/img258/3149/cod41920hg6.gif (http://imageshack.us)
http://img258.imageshack.us/img258/3149/cod41920hg6.a3ac1fe0a4.jpg (http://g.imageshack.us/g.php?h=258&i=cod41920hg6.gif)

http://img364.imageshack.us/img364/694/crysis1920veryhightf2.gif (http://imageshack.us)
http://img364.imageshack.us/img364/694/crysis1920veryhightf2.651410765e.jpg (http://g.imageshack.us/g.php?h=364&i=crysis1920veryhightf2.gif)

http://img364.imageshack.us/img364/8264/etqw1920cl2.gif (http://imageshack.us)
http://img364.imageshack.us/img364/8264/etqw1920cl2.fcaca21b4f.jpg (http://g.imageshack.us/g.php?h=364&i=etqw1920cl2.gif)

http://img364.imageshack.us/img364/1844/gridhe4.gif (http://imageshack.us)
http://img364.imageshack.us/img364/1844/gridhe4.8a7c4e3fb2.jpg (http://g.imageshack.us/g.php?h=364&i=gridhe4.gif)

http://img364.imageshack.us/img364/2982/hl21920dr7.gif (http://imageshack.us)
http://img364.imageshack.us/img364/2982/hl21920dr7.2afe3107a2.jpg (http://g.imageshack.us/g.php?h=364&i=hl21920dr7.gif)


...x ki ha un 23"/24"/27" questa gpu è IMPRESSIVE!!!...(e x gli altri c'è la sorellina :D )...


...ciao

yossarian
30-06-2008, 12:35
Fast14 :Perfido:


:fiufiu:

yossarian
30-06-2008, 12:42
Per capirsi su cosa permettono le DX10.1 che nVidia definisce inutili:

http://techreport.com/r.x/radeon-hd-4870/assassinscreed.gif

per chi è interessato alle novità che verrebbero introdotte con le dx10.1

http://ati.amd.com/products/pdf/directx10.1whitepaperv1.0final.pdf

http://developer.amd.com/assets/GDC_2008_DirectX10.1.pdf

la possibilità di utilizzare render target differenti per color e z-ops permette di risparmiare un passaggio e di utilizzare meno banda passante nell'applicazione dell'AA.

Free Gordon
30-06-2008, 13:43
per risparmiare spazio e incrementare le prestazioni? Un'architettura vliw a logica attiva. :D
In realtà, R600 e derivati sono ibridi, in parte gestiti in HW (sono a tutti gli effetti processori OoO con bilanciamento automoatico dei carichi di lavoro) con sp di tipo vliw (quindi l'architettuta vliw è limitata alle 5 alu di ogni sp).

Ma non doveva già R600 essere a logica attiva? :sofico: :sofico: :sofico:

G80 e GT200, sono ancora In-order come G70, giusto?

Come la vedi la situazione dynamic branching attualmente?
I chip Nvidia da G80 in poi hanno recuperato moltissimo nei test sintetici (in fondo alla lista) http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/xbitmark.gif

Ora ci sono giochi che sfruttano queste features?

Come si comporta l'unità dedicata dei chip ATI ma soprattutto perchè G80 riesce a farne tranquillamente a meno? :D

Free Gordon
30-06-2008, 13:47
è un tentativo di emulare il funzionamento e l'efficienza di una connessione di tipo point to point senza dover ricorrere ad una connessione point to point. L'hub è un hub nel vero senso della parola: ha una serie di canali interni per un totale di 2048 bit, di cui uno riservato al traffico di dati non legati all'elaborazione 3D e il resto utilizzati per mettere in comunicazione i circuiti gestiti dai 4 MC


Ma ora che ATI ce l'ha "gratis" un collegamento point to point, lo userà nelle prossime GPU? :D
Perlomeno per collegare i chip nel multi-GPU o per eliminare il PCI-ex? ^_^
Le motherboard costerebbero meno, o sbaglio?

Foglia Morta
30-06-2008, 13:47
Meglio postare anche i test della 4850 allora:

http://www.xbitlabs.com/images/video/ati-radeon-hd4850/xbitmark.gif

Free Gordon
30-06-2008, 13:51
la possibilità di utilizzare render target differenti per color e z-ops permette di risparmiare un passaggio e di utilizzare meno banda passante nell'applicazione dell'AA.


Questo pare figo...ma vorrei sapere se su R500 è possibile.. :confused:

Se è possibile su R500, è probabile che lo abbiano già usato in AC, durante lo sviluppo e per questo mantenuto nella primigenia versione pc (e poi tolto :muro: ).
Anche perchè la versione Xbox360 è decisamente più pulita della versione PS3... :oink:

Free Gordon
30-06-2008, 13:57
Meglio postare anche i test della 4850 allora
http://www.xbitlabs.com/images/video/ati-radeon-hd4850/xbitmark.gif

C'è un salto davvero notevole tra R6xx e Rv770. :eek:

yossarian
30-06-2008, 14:03
Ma non doveva già R600 essere a logica attiva? :sofico: :sofico: :sofico:


:ciapet:



G80 e GT200, sono ancora In-order come G70, giusto?

no e neppure G70 era completamente IO (come non lo sono neppure le cpu delle console: ad esempio il MC del ring bus del cell gestisce i dma in modalità OoO e non può essere atrimenti)



Come la vedi la situazione dynamic branching attualmente?
I chip Nvidia da G80 in poi hanno recuperato moltissimo nei test sintetici (in fondo alla lista)

Ora ci sono giochi che sfruttano queste features?

Come si comporta l'unità dedicata dei chip ATI ma soprattutto perchè G80 riesce a farne tranquillamente a meno? :D

i test li ha postato foglia morta; G80 ha un'unità di branching che però non lavora in parallelo ma in serie alle alu, per cui fa perdere qualche ciclo di clock. Le pipeline dei chip NV sono più lunghe ed hanno latenze maggiori rispetto a quelle dei chip ATi, per mascherarle hanno bisogno di caricare un numero molto maggiore di thread

yossarian
30-06-2008, 14:06
Questo pare figo...ma vorrei sapere se su R500 è possibile.. :confused:

Se è possibile su R500, è probabile che lo abbiano già usato in AC, durante lo sviluppo e per questo mantenuto nella primigenia versione pc (e poi tolto :muro: ).
Anche perchè la versione Xbox360 è decisamente più pulita della versione PS3... :oink:

R500 non è dx10.1 (non è neppure dx10, per la verità) e questa è una feature esclusiva delle dx10.1

Free Gordon
30-06-2008, 16:48
R500 non è dx10.1 (non è neppure dx10, per la verità) e questa è una feature esclusiva delle dx10.1

vabbè, ma R500 è a sè... :D non è inquadrabile nelle specs dx! :sofico:


no e neppure G70 era completamente IO (come non lo sono neppure le cpu delle console: ad esempio il MC del ring bus del cell gestisce i dma in modalità OoO e non può essere atrimenti)

Per G70 me l'hai detto tu che era IO!!! :ciapet:

Penso che per le CPU console, avranno risparmiato i transistor dove sapevano di poterli rintuzzare via software...per il resto avran fatto come potevano...
Secondo me Xenon è uscito particolarmente bene per quanto l'hanno sviluppato in fretta...e per quanto in fin dei conti l'han pagato :)


i test li ha postato foglia morta; G80 ha un'unità di branching che però non lavora in parallelo ma in serie alle alu, per cui fa perdere qualche ciclo di clock. Le pipeline dei chip NV sono più lunghe ed hanno latenze maggiori rispetto a quelle dei chip ATi, per mascherarle hanno bisogno di caricare un numero molto maggiore di thread

Io parlavo di R600.. (con R700 tutti i test di xbit lab son ribaltati con un notevole margine... :eek: ).

Non sapevo che G8x/9x avesse un'unità di DB, messa in serie all'inizio dell'array... :fagiano:
Per GT200 penso che sia uguale a sto punto.

yossarian
30-06-2008, 16:51
Io parlavo di R600.. (con R700 tutti i test di xbit lab son ribaltati con un notevole margine... :eek: ).

Non sapevo che G8x/9x avesse un'unità di DB, messa in serie all'inizio dell'array... :fagiano:
Per GT200 penso che sia uguale a sto punto.

si

Free Gordon
30-06-2008, 16:58
si

Cmq hai glissato sull'Hypertransport... :D per cui decuco che sai qualcosa ma che non lo puoi dire. :sofico:
Oppure non lo sai perchè la fusione con AMD non era ancora sicura?? :cry:

Ilbaama
30-06-2008, 17:22
Cmq hai glissato sull'Hypertransport... :D per cui decuco che sai qualcosa ma che non lo puoi dire. :sofico:
Oppure non lo sai perchè la fusione con AMD non era ancora sicura?? :cry:
1)Perché? Lavorava in ATi?
2)Ma come fate a sapere tutte queste cose (architetture grafiche, programmazione, etc.)? Dove e/o come posso impararle anch'io?

yossarian
30-06-2008, 18:00
Cmq hai glissato sull'Hypertransport... :D per cui decuco che sai qualcosa ma che non lo puoi dire. :sofico:
Oppure non lo sai perchè la fusione con AMD non era ancora sicura?? :cry:

quale domanda?

Foglia Morta
30-06-2008, 18:45
Ma ora che ATI ce l'ha "gratis" un collegamento point to point, lo userà nelle prossime GPU? :D
Perlomeno per collegare i chip nel multi-GPU o per eliminare il PCI-ex? ^_^
Le motherboard costerebbero meno, o sbaglio?

quale domanda?

Son convinto che sia quella che ho quotato ( interessa anche a me ) :D

( mi pare l'unica alla quale non hai risposto )

Praticamente la solita idea di 2 o più die nello stesso package se ho interpretato bene

yossarian
30-06-2008, 18:53
Son convinto che sia quella che ho quotato ( interessa anche a me ) :D

( mi pare l'unica alla quale non hai risposto )



sicuro? :D



Praticamente la solita idea di 2 o più die nello stesso package se ho interpretato bene

cioè se 2 o più gpu nello stesso package possono essere viste, tramite reverse hypertransport, come un'unica gpu? E se si farà uso dell'hub per connettere direttamente tra loro le gpu?
La risposta è si a tutte e due. Anzi, è possibile implementare il reverse hypertransport anche per gpu poste sullo stesso pcb. Questo, però, non significa che lo si vedrà già con R700

Mr_Paulus
30-06-2008, 18:58
sicuro? :D



cioè se 2 o più gpu nello stesso package possono essere viste, tramite reverse hypertransport, come un'unica gpu? E se si farà uso dell'hub per connettere direttamente tra loro le gpu?
La risposta è si a tutte e due. Anzi, è possibile implementare il reverse hypertransport anche per gpu poste sullo stesso pcb. Questo, però, non significa che lo si vedrà già con R700

scusa l'ignoranza, ma la differenza tra il reverse hypertransport e l'hypertransport qual'è? :stordita:

yossarian
30-06-2008, 19:02
scusa l'ignoranza, ma la differenza tra il reverse hypertransport e l'hypertransport qual'è? :stordita:

il secondo simula la presenza di due core quando ce n'è uno solo fisico (quello utilizzato da Intel con i PIV), il primo fa l'esatto contrario: hai più core ma il sistema ne vede uno solo con potenza di calcolo moltiplicata per il numero di core

Zermak
30-06-2008, 19:03
il secondo simula la presenza di due core quando ce n'è uno solo fisico (quello utilizzato da Intel con i PIV), il primo fa l'esatto contrario: hai più core ma l'applicazione ne vede uno solo con potenza di calcolo raddoppiata
Mi sa che hai confuso le voci :p è l'hyperthreading quello di cui parli ;)

Mr_Paulus
30-06-2008, 19:04
il secondo simula la presenza di due core quando ce n'è uno solo fisico (quello utilizzato da Intel con i PIV), il primo fa l'esatto contrario: hai più core ma il sistema ne vede uno solo con potenza di calcolo moltiplicata per il numero di core

thanks :)

MenageZero
30-06-2008, 19:04
per risparmiare spazio e incrementare le prestazioni? Un'architettura vliw a logica attiva. :D
In realtà, R600 e derivati sono ibridi, in parte gestiti in HW (sono a tutti gli effetti processori OoO con bilanciamento automoatico dei carichi di lavoro) con sp di tipo vliw (quindi l'architettuta vliw è limitata alle 5 alu di ogni sp).

Fast14 :Perfido:

:fiufiu:

Ma non doveva già R600 essere a logica attiva? :sofico: :sofico: :sofico:
[cut]

:ciapet:


no e neppure G70 era completamente IO (come non lo sono neppure le cpu delle console: ad esempio il MC del ring bus del cell gestisce i dma in modalità OoO e non può essere atrimenti)



i test li ha postato foglia morta; G80 ha un'unità di branching che però non lavora in parallelo ma in serie alle alu, per cui fa perdere qualche ciclo di clock. Le pipeline dei chip NV sono più lunghe ed hanno latenze maggiori rispetto a quelle dei chip ATi, per mascherarle hanno bisogno di caricare un numero molto maggiore di thread

Ma non doveva già R600 essere a logica attiva? :sofico: :sofico: :sofico:

G80 e GT200, sono ancora In-order come G70, giusto?

Come la vedi la situazione dynamic branching attualmente?
I chip Nvidia da G80 in poi hanno recuperato moltissimo nei test sintetici (in fondo alla lista) http://www.xbitlabs.com/images/video/radeon-hd3870-hd3850/xbitmark.gif

Ora ci sono giochi che sfruttano queste features?

Come si comporta l'unità dedicata dei chip ATI ma soprattutto perchè G80 riesce a farne tranquillamente a meno? :D

qualche delucidazione per i comuni mortali su questa arch. vliw con logica attiva ? :D

e se in generale (nel contesto) con "attiva" si intende logica OoO (cosa già presente mi pare di aver capito e non solo nelle gpu ati - anche se a quanto pare in esse il dynamic branching funge meglio, giusto ?), a cosa vi riferite quando "ammiccate" a qualcosa in ottica futura ?

(cos'è "fast14" ?)

e tali riferimenti al futuro sono in ottica r(v)9xx ?

(appunto a proposito di sigle con la "r" e con il "9", le tiro in ballo perché in altri post volti al futuro, si citava appunto "r900": significa che un r(v)8xx è già pronto e sono già trapelate le caratteristiche principali ?)

yossarian
30-06-2008, 19:05
Mi sa che hai confuso le voci :p è l'hyperthreading quello di cui parli ;)

hai ragione :)

Zermak
30-06-2008, 19:05
cioè se 2 o più gpu nello stesso package possono essere viste, tramite reverse hyperthreading, come un'unica gpu? E se si farà uso dell'hub per connettere direttamente tra loro le gpu?
La risposta è si a tutte e due. Anzi, è possibile implementare il reverse hyperthreading anche per gpu poste sullo stesso pcb. Questo, però, non significa che lo si vedrà già con R700
Quindi su R700 non avverrà poiché la logica dell'HUB non è stata studiata per quello? :'(

Ti ho corretto i refusi nel quote.

Mr_Paulus
30-06-2008, 19:07
Mi sa che hai confuso le voci :p è l'hyperthreading quello di cui parli ;)

hai ragione :)

ah...ma allora lo sapevo!!!:D :D
grazie comunque

Foglia Morta
30-06-2008, 19:10
sicuro? :D

Tranquillo, non mi sbaglio mai :sofico:

cioè se 2 o più gpu nello stesso package possono essere viste, tramite reverse hyperthreading, come un'unica gpu? E se si farà uso dell'hub per connettere direttamente tra loro le gpu?
La risposta è si a tutte e due. Anzi, è possibile implementare il reverse hyperthreading anche per gpu poste sullo stesso pcb. Questo, però, non significa che lo si vedrà già con R700

Ma esiste veramente qualcosa di concreto riguardo il reverse hyperthreading ? Credevo fosse un rumour e nulla più. Mi sa che comunque bisogna attendere almeno l'architettura DX11 per vedere qualcosa del genere

yossarian
30-06-2008, 19:23
qualche delucidazione per i comuni mortali su questa arch. vliw con logica attiva ? :D

e se in generale (nel contesto) con "attiva" si intende logica OoO (cosa già presente mi pare di aver capito e non solo nelle gpu ati - anche se a quanto pare in esse il dynamic branching funge meglio, giusto ?), a cosa vi riferite quando "ammiccate" a qualcosa in ottica futura ?

(cos'è "fast14" ?)



logica attiva o forse sarebbe più opportuno parlare di logica dinamica, significa che ogni gate di ogni transistor ha un suo clock, per mezzo del quale regola il flusso di dati attraverso il gate; i circuiti a logica statica, invece, hanno un clock unico per un intero blocco di unità, motivo per cui la velocità di trasferimento dati attraverso tutto quel blocco avviene regolando la velocità di flusso in base all'elemento più lento. Un altro motivo per cui la logica dinamica permette di raggiungere velocità superiori è che si può far uso di nmos invece di cmos (i pmos presenti come complemento degli nmos in un cmos, sono da 1/2 a 1/3 più lenti). Inoltre, grazie all'utilizzo di soli nmos, i circuiti risultano di dimensioni decisamente più contenute (con la possibilità di aumentare il numero delle unità di calcolo a parità di dimensioni del die e di processo produttivo).
Fast14 è una tecnologia, messa a punto da Intrinsity (e di cui ATi ha acquisito i diritti), che fa uso di circuiti a logica dinamica, avendo risolto i due principali problemi che questo tipo di tecnologia presentava in origine (parliamo degli anni '70).

qualche delucidazione per i comuni mortali su questa arch. vliw con logica attiva ? :D

e se in generale (nel contesto) con "attiva" si intende logica OoO (cosa già presente mi pare di aver capito e non solo nelle gpu ati - anche se a quanto pare in esse il dynamic branching funge meglio, giusto ?), a cosa vi riferite quando "ammiccate" a qualcosa in ottica futura ?

(cos'è "fast14" ?)

e tali riferimenti al futuro sono in ottica r(v)9xx ?

(appunto a proposito di sigle con la "r" e con il "9", le tiro in ballo perché in altri post volti al futuro, si citava appunto "r900": significa che un r(v)8xx è già pronto e sono già trapelate le caratteristiche principali ?)

si tratta di riferimenti a chip futuri

MenageZero
30-06-2008, 19:26
sicuro? :D



cioè se 2 o più gpu nello stesso package possono essere viste, tramite reverse hypertransport, come un'unica gpu? E se si farà uso dell'hub per connettere direttamente tra loro le gpu?
La risposta è si a tutte e due. Anzi, è possibile implementare il reverse hypertransport anche per gpu poste sullo stesso pcb. Questo, però, non significa che lo si vedrà già con R700

interessante, quindi ora sappiamo che è "probabile" che in futuro vedremo un multi-chip package di gpu :D
vedremo anche multi-gpu on-die ? (meno conveniente però a livello di costi di produzione ?) se sì, poco o non poco dopo il multi-chip package ?

ma ancora più interessante è il resto, imho

intendi che un ulteriore hub uguale o analogo a quello inplementato in rv770 sarà inserito nel package allo scopo di connettere le gpu o che saranno direttamente gli hub interni alle gpu ad essere messi in comunicazione tramite opportuni contatti ?

"reverse hypertransport": ma intendi l'hypertransport, il bus p2p di amd , così come lo conisciamo in genere noi profani ? :wtf:

cmq, a prescindere dal come, bellissima sta cosa di far vedere al resto del sistema più gpu come una sola :D
(un periodo se ne vociferava anche per i core di cpu, poi almeno io non ho notato più voci al riguardo)

in queste future implementazioni, sarà un layer nel driver a "unificare" la risorsa per "il resto del mondo" o qualunque strato sw vedrà direttamente una unica gpu coem risorsa ?

yossarian
30-06-2008, 19:31
Quindi su R700 non avverrà poiché la logica dell'HUB non è stata studiata per quello? :'(

Ti ho corretto i refusi nel quote.

l'hub non c'entra, è solo un dispositivo di collegamento multicanale; per implementarlo serve un circuito interno al package (in caso di gpu multicore) o sul pcb (in caso di multigpu) che faccia vedere al sistema le gpu come un unico dispositivo (quindi di fatto un controller con relativi buffer per le istruzioni, e circuiti di trasmissione e controllo) che sia interfaccia tra le gpu ed il resto del sistema. Come avviene con il thread dispatch processor che fa vedere i vari gruppi di sp come un unico dispositivo alle istruzione che entrano nella gpu (tanto per fare un paragone con cose note)

grazie per le correzioni :)

Zermak
30-06-2008, 19:39
l'hub non c'entra, è solo un dispositivo di collegamento multicanale; per implementarlo serve un circuito interno al package (in caso di gpu multicore) o sul pcb (in caso di multigpu) che faccia vedere al sistema le gpu come un unico dispositivo (quindi di fatto un controller con relativi buffer per le istruzioni, e circuiti di trasmissione e controllo) che sia interfaccia tra le gpu ed il resto del sistema. Come avviene con il thread dispatch processor che fa vedere i vari gruppi di sp come un unico dispositivo alle istruzione che entrano nella gpu (tanto per fare un paragone con cose note)

grazie per le correzioni :)
Ok grazie per la spiegazione, non sono molto ferrato in materia ma mi piace apprendere :p

Quindi su R700 non ci dobbiamo aspettare questa caratteristica, o sbaglio?
Il chip PLX presente è solo, a questo punto, un semplice collegamento (bridge)?

MenageZero
30-06-2008, 19:41
logica attiva o forse sarebbe più opportuno parlare di logica dinamica, significa che ogni gate di ogni transistor ha un suo clock, per mezzo del quale regola il flusso di dati attraverso il gate; i circuiti a logica statica, invece, hanno un clock unico per un intero blocco di unità, motivo per cui la velocità di trasferimento dati attraverso tutto quel blocco avviene regolando la velocità di flusso in base all'elemento più lento. Un altro motivo per cui la logica dinamica permette di raggiungere velocità superiori è che si può far uso di nmos invece di cmos (i pmos presenti come complemento degli nmos in un cmos, sono da 1/2 a 1/3 più lenti). Inoltre, grazie all'utilizzo di soli nmos, i circuiti risultano di dimensioni decisamente più contenute (con la possibilità di aumentare il numero delle unità di calcolo a parità di dimensioni del die e di processo produttivo).
Fast14 è una tecnologia, messa a punto da Intrinsity (e di cui ATi ha acquisito i diritti), che fa uso di circuiti a logica dinamica, avendo risolto i due principali problemi che questo tipo di tecnologia presentava in origine (parliamo degli anni '70).


molto :cool: (e anche molto interessante seriamente parlando, ovviamente)
bene, quanti anni mancano per la gpu con "fast14" ? :D

(non lo ho mai sentito io, o non si è mai parlato di questa strada, in maniera concreta, anche per le cpu ? intendo in generale, non solo amd)

si tratta di riferimenti a chip futuri

sì l'avevo capito, mi chiedevo solo se veniva saltata la "generazione 8" in quei riferimenti per dei motivi precisi o se quasi per caso :D

ma soprattutto tnx*1000 per l'ennesima eccellente spiagazione

MenageZero
30-06-2008, 19:47
l'hub non c'entra, è solo un dispositivo di collegamento multicanale; per implementarlo serve un circuito interno al package (in caso di gpu multicore) o sul pcb (in caso di multigpu) che faccia vedere al sistema le gpu come un unico dispositivo (quindi di fatto un controller con relativi buffer per le istruzioni, e circuiti di trasmissione e controllo) che sia interfaccia tra le gpu ed il resto del sistema. Come avviene con il thread dispatch processor che fa vedere i vari gruppi di sp come un unico dispositivo alle istruzione che entrano nella gpu (tanto per fare un paragone con cose note)

e questo risponde anche alle altre mie domande nel post sopra a questo quotato :)

tranne ... anche multi-core on die in futuro o per ora non è previsto ?

ps:
ci puoi fare anche una ipotesi indicativa su quando vedremo le prime gpu multi-core ? (multi-chip package, appunto, mi pare di aver capito)

yossarian
30-06-2008, 19:48
Ok grazie per la spiegazione, non sono molto ferrato in materia ma mi piace apprendere :p

Quindi su R700 non ci dobbiamo aspettare questa caratteristica, o sbaglio?
Il chip PLX presente è solo, a questo punto, un semplice collegamento (bridge)?

per R700 ci sono delle novità per quanto riguarda la gestione del lavoro delle 2 gpu, ma non di questo tenore. Il chip plx è un controller che gestisce i collegamenti tra gli hub presenti sulle due gpu.

yossarian
30-06-2008, 19:49
e questo risponde anche alle altre mie domande nel post sopra a questo quotato :)

tranne ... anche multi-core on die in futuro o per ora non è previsto ?

ps:
ci puoi fare anche una ipotesi indicativa su quando vedremo le prime gpu multi-core ? (multi-chip package, appunto, mi pare di aver capito)

non prima di aver affinato almeno il processo a 45 nm

Zermak
30-06-2008, 19:50
per R700 ci sono delle novità per quanto riguarda la gestione del lavoro delle 2 gpu, ma non di questo tenore.
Si, per via del CrossFireX Sideport.
Ho letto qualcosa come un +20% rispetto ad un normale CF normale. E' un valore possibile?
Il chip plx è un controller che gestisce i collegamenti tra gli hub presenti sulle due gpu.
Ok, grazie ancora.

yossarian
30-06-2008, 20:02
Si, per via del CrossFireX Sideport.
Ho letto qualcosa come un +20% rispetto ad un normale CF normale. E' un valore possibile?

Ok, grazie ancora.

si, è un valore possibile; inoltre anche la "comunicazione" tra le 2 gpu è migliorata

MenageZero
30-06-2008, 20:02
per R700 ci sono delle novità per quanto riguarda la gestione del lavoro delle 2 gpu, ma non di questo tenore. Il chip plx è un controller che gestisce i collegamenti tra gli hub presenti sulle due gpu.

ci puoi dettagliare un filino questi concetti ?

quindi questo chip plx che vedremo sul pcb quindi è qualcosa di diverso da quello sulla vecchia x2, giusto ? (l'hub non c'era in rv670)

(del chip sulla hd3870x2 mi era stato detto qualche giorno fa che è uno switch pci-e usato per smistare alle 2 gpu le lane della connessione x16 con la mobo, mentre le gpu comunicherebbero tramite un circuito stampato sul pcb)

qual'è il ruolo del modulo chiamato, nello schema di rv770, "cf-sideport" ?

che dobbiamo pensare relativamente ai rumor su "vram condivisa" tra le due gpu ?

lato utente, che tipo ed entità di miglioramenti ci si possono attendere ?

Mr_Paulus
30-06-2008, 20:30
l'hub non c'entra, è solo un dispositivo di collegamento multicanale; per implementarlo serve un circuito interno al package (in caso di gpu multicore) o sul pcb (in caso di multigpu) che faccia vedere al sistema le gpu come un unico dispositivo (quindi di fatto un controller con relativi buffer per le istruzioni, e circuiti di trasmissione e controllo) che sia interfaccia tra le gpu ed il resto del sistema. Come avviene con il thread dispatch processor che fa vedere i vari gruppi di sp come un unico dispositivo alle istruzione che entrano nella gpu (tanto per fare un paragone con cose note)

grazie per le correzioni :)

ma l'arbitraggio dell'hub (parlando in termini di prestazioni) è meglio affidarlo a una delle n gpu collegate oppure è meglio un chip esterno? (oppure un'altra soluzione ancora?:D )
oppure se lo gestisce l'hub stesso??

Iantikas
30-06-2008, 21:03
...CUT...nelle gpu ati - anche se a quanto pare in esse il dynamic branching funge meglio, giusto ?), ...CUT...

a quanto ne so funzionava meglio ai tempi di R520/580 vs. G70/71 (dove mi sembra ke addirittura le nvidia peggioravano anzikè migliorare)...


...ma con R600/RV670/RV770 e G80/92 GT200 son le nvidia ke guadagnano di +...

http://img186.imageshack.us/img186/7809/img0023626fr2.gif (http://imageshack.us)
http://img186.imageshack.us/img186/7809/img0023626fr2.1a3b3e13b7.jpg (http://g.imageshack.us/g.php?h=186&i=img0023626fr2.gif)



...il xkè xò nn kiedermelo xkè nn ne ho la + pallida idea :D ...yoss nn'è ke potresti spiegarci il xkè di questi risultati?...ciao

yossarian
30-06-2008, 21:12
ci puoi dettagliare un filino questi concetti ?

quindi questo chip plx che vedremo sul pcb quindi è qualcosa di diverso da quello sulla vecchia x2, giusto ? (l'hub non c'era in rv670)



no, l'hub non c'era



(del chip sulla hd3870x2 mi era stato detto qualche giorno fa che è uno switch pci-e usato per smistare alle 2 gpu le lane della connessione x16 con la mobo, mentre le gpu comunicherebbero tramite un circuito stampato sul pcb)

qual'è il ruolo del modulo chiamato, nello schema di rv770, "cf-sideport" ?

quello di mettere in comunicazione diretta le due gpu (come invece non avveniva con R680 o con le varie x2 di nVidia)



che dobbiamo pensare relativamente ai rumor su "vram condivisa" tra le due gpu ?



voci di corridoio :D



lato utente, che tipo ed entità di miglioramenti ci si possono attendere ?

più velocità, maggiore stabilità e miglior compatibilità

yossarian
30-06-2008, 21:19
ma l'arbitraggio dell'hub (parlando in termini di prestazioni) è meglio affidarlo a una delle n gpu collegate oppure è meglio un chip esterno? (oppure un'altra soluzione ancora?:D )
oppure se lo gestisce l'hub stesso??

personalmente preferisco la soluzione del chip esterno (sono un amante delle simmetrie :D )

Zermak
30-06-2008, 21:21
quello di mettere in comunicazione diretta le due gpu (come invece non avveniva con R680 o con le varie x2 di nVidia)

voci di corridoio :D
Ok, chiaro, ma non troppo.
C'è la possibilità, con questa connessione, di poter passare informazioni presenti nella parte di RAM della GPU1 alla GPU2? Io dalla mia totale ignoranza in materia potrei rispondere si :fiufiu:

Altra cosa/dobbio. I due HUB presenti nella GPU gestiscono il flusso dei dati all'interno della GPU stessa, quindi al chip PLX arriveranno già informazioni (grazie ai driver, quindi via software) per spartire il carico tra le due GPU, giusto?
Il mio ragionamento si ricollega al fatto che, al momento, da come dici, su R700 un HUB esterno alle due GPU non è presente.

Zermak
30-06-2008, 21:22
personalmente preferisco la soluzione del chip esterno (sono un amante delle simmetrie :D )
Dalla mia totale ignoranza in materia, quoto :p

yossarian
30-06-2008, 21:27
a quanto ne so funzionava meglio ai tempi di R520/580 vs. G70/71 (dove mi sembra ke addirittura le nvidia peggioravano anzikè migliorare)...


...ma con R600/RV670/RV770 e G80/92 GT200 son le nvidia ke guadagnano di +...

http://img186.imageshack.us/img186/7809/img0023626fr2.gif (http://imageshack.us)
http://img186.imageshack.us/img186/7809/img0023626fr2.1a3b3e13b7.jpg (http://g.imageshack.us/g.php?h=186&i=img0023626fr2.gif)



...il xkè xò nn kiedermelo xkè nn ne ho la + pallida idea :D ...yoss nn'è ke potresti spiegarci il xkè di questi risultati?...ciao

i risultati del db dipendono anche dal tipo di test che si effettua; in quelli di HW.fr si fa una stima del guadagno in base alle dimensioni di batch utilizzate.
G70 utilizzava batch enormi (dell'ordine del migliaio di pixel), motivo per cui era decisamente inefficiente. Al contrario, R520 utilizza batch di 16 e R580 di 48 pixel. Su G80 e GT200, invece, si fa uso di batch di 32 pixel o di 16 vertici. Su R600 e chip successivi, si usano batch di 64 pixel o di 16 vertici.

Mr_Paulus
30-06-2008, 21:28
personalmente preferisco la soluzione del chip esterno (sono un amante delle simmetrie :D )

:D
e ovviamente anche questo componente potrà essere programmato per ottimizzare il traffico tra le gpu?
ma quando questi sistemi multigpu prenderanno il sopravvento (:D) si potra abbandonare l'afr per qualche soluzione più "raffinata" e performante?

Foglia Morta
30-06-2008, 21:32
Ok, chiaro, ma non troppo.
C'è la possibilità, con questa connessione, di poter passare informazioni presenti nella parte di RAM della GPU1 alla GPU2? Io dalla mia totale ignoranza in materia potrei rispondere si :fiufiu:

Altra cosa/dobbio. I due HUB presenti nella GPU gestiscono il flusso dei dati all'interno della GPU stessa, quindi al chip PLX arriveranno già informazioni (grazie ai driver, quindi via software) per spartire il carico tra le due GPU, giusto?
Il mio ragionamento si ricollega al fatto che, al momento, da come dici, su R700 un HUB esterno alle due GPU non è presente.

Le foto che sono apparse riguardo R700 mostrano un normale PLX ma anche AMD ne sta producendo uno e i partner potranno scegliere tra quello normale e quello prodotto da AMD. Magari nella prossima evoluzione il chip potrà anche fare da hub

yossarian
30-06-2008, 21:36
Ok, chiaro, ma non troppo.
C'è la possibilità, con questa connessione, di poter passare informazioni presenti nella parte di RAM della GPU1 alla GPU2? Io dalla mia totale ignoranza in materia potrei rispondere si :fiufiu:

Altra cosa/dobbio. I due HUB presenti nella GPU gestiscono il flusso dei dati all'interno della GPU stessa, quindi al chip PLX arriveranno già informazioni (grazie ai driver, quindi via software) per spartire il carico tra le due GPU, giusto?
Il mio ragionamento si ricollega al fatto che, al momento, da come dici, su R700 un HUB esterno alle due GPU non è presente.

stai ipotizzando una situazione in cui un mc di gpu1 prelevi dei dati da un chip della vram di vga1 e la passi a gpu2 per fargliela elaborare? Sarebbe fattibile a patto di avere la possibilità di autobilanciare i carichi di lavoro tra le due gpu (il che presuppone la presenza di un dispatch processor che regoli il "traffico" tra le due gpu (l'operazione non può essere fatta via driver). Oppure si potrebbero sfruttare le funzionalità di memexport e memimport di cui le gpu ATi sono dotate (solo che, invece di accedere direttamente alla ram di sistema si dovrebbe accedere a quella dell'altra gpu).

Mr_Paulus
30-06-2008, 21:36
Ok, chiaro, ma non troppo.
C'è la possibilità, con questa connessione, di poter passare informazioni presenti nella parte di RAM della GPU1 alla GPU2? Io dalla mia totale ignoranza in materia potrei rispondere si :fiufiu:

Altra cosa/dobbio. I due HUB presenti nella GPU gestiscono il flusso dei dati all'interno della GPU stessa, quindi al chip PLX arriveranno già informazioni (grazie ai driver, quindi via software) per spartire il carico tra le due GPU, giusto?
Il mio ragionamento si ricollega al fatto che, al momento, da come dici, su R700 un HUB esterno alle due GPU non è presente.

da quello che ho capito (nella mia ignoranza che fa compagnia alla tua :D) il chip plx serve a collegare le gpu all'unico bus pci-express 16x diretto alla scheda madre, mentre il traffico tra le gpu è gestito da una connessione crossfire che non passa attraverso il plx

Zermak
30-06-2008, 21:38
Le foto che sono apparse riguardo R700 mostrano un normale PLX ma anche AMD ne sta producendo uno e i partner potranno scegliere tra quello normale e quello prodotto da AMD. Magari nella prossima evoluzione il chip potrà anche fare da hub
Si, considerando che è, appunto, un chip esterno ;)

Zermak
30-06-2008, 21:41
stai ipotizzando una situazione in cui un mc di gpu1 prelevi dei dati da un chip della vram di vga1 e la passi a gpu2 per fargliela elaborare? Sarebbe fattibile a patto di avere la possibilità di autobilanciare i carichi di lavoro tra le due gpu (il che presuppone la presenza di un dispatch processor che regoli il "traffico" tra le due gpu (l'operazione non può essere fatta via driver). Oppure si potrebbero sfruttare le funzionalità di memexport e memimport di cui le gpu ATi sono dotate (solo che, invece di accedere direttamente alla ram di sistema si dovrebbe accedere a quella dell'altra gpu).
Pensavo al primo tipo, in linea di massima, ma vedo che AMD ha praticamente già le basi per fare qualcosa di simile. Certo non so quanto sia conveniente al momento :)

leoneazzurro
30-06-2008, 23:42
stai ipotizzando una situazione in cui un mc di gpu1 prelevi dei dati da un chip della vram di vga1 e la passi a gpu2 per fargliela elaborare? Sarebbe fattibile a patto di avere la possibilità di autobilanciare i carichi di lavoro tra le due gpu (il che presuppone la presenza di un dispatch processor che regoli il "traffico" tra le due gpu (l'operazione non può essere fatta via driver). Oppure si potrebbero sfruttare le funzionalità di memexport e memimport di cui le gpu ATi sono dotate (solo che, invece di accedere direttamente alla ram di sistema si dovrebbe accedere a quella dell'altra gpu).

NUMA?

BlueKnight
01-07-2008, 01:47
non prima di aver affinato almeno il processo a 45 nm

Scusa..magari te l'hanno giù chiesto...

ma per sapere tutte queste cose:

a) studi

b) lavori nel campo della progettazione di chip e schede grafiche in un'azienda generica

c) lavori in un ambiente molto vicino ad AMD/ATI

d) altro?

Ciao, e scusa se esagero con la curiosità.

Free Gordon
01-07-2008, 01:54
sicuro? :D

Sì, era quella.. :D ma vabbè, le rivelazioni sono più succose ancora, vedo.. :D



cioè se 2 o più gpu nello stesso package possono essere viste, tramite reverse hypertransport, come un'unica gpu? E se si farà uso dell'hub per connettere direttamente tra loro le gpu?
La risposta è si a tutte e due. Anzi, è possibile implementare il reverse hypertransport anche per gpu poste sullo stesso pcb. Questo, però, non significa che lo si vedrà già con R700

(volevi dire hypertrading)
Perfetto... slurp... :oink: :oink: :oink:
C'è un sacco di carne al fuoco per i prossimi mesi!!! :sofico: :sofico: :sofico:

Mister Tarpone
01-07-2008, 01:58
Perfetto... slurp... :oink: :oink: :oink:
C'è un sacco di carne al fuoco per i prossimi mesi!!! :sofico: :sofico: :sofico:

vero... ne vedremo delle belle...

ciao... http://img103.imageshack.us/img103/8075/lecchinovp3.gif (http://imageshack.us)

Free Gordon
01-07-2008, 02:13
Scusa..magari te l'hanno giù chiesto...
ma per sapere tutte queste cose:
a) studi
b) lavori nel campo della progettazione di chip e schede grafiche in un'azienda generica
c) lavori in un ambiente molto vicino ad AMD/ATI
d) altro?

In realtà Yoss è un alieno... :D

MaxFactor[ST]
01-07-2008, 10:10
Domanda sulle varie marche...
Si sa qualcosa sulle GeCube?
Sono un buon affare?

gianni1879
01-07-2008, 10:19
;23121228']Domanda sulle varie marche...
Si sa qualcosa sulle GeCube?
Sono un buon affare?

nel senso che sono buone vga?
si

sono sempre state ottime

ghiltanas
01-07-2008, 10:59
ma la 4870 quando gli arriva ad hwu??? :confused: , io pensavo ieri invece :(

Mr_Paulus
01-07-2008, 11:05
ma la 4870 quando gli arriva ad hwu??? :confused: , io pensavo ieri invece :(

da quello che ho capito gli è arrivata il giorno che hanno esposto il secondo articolo sulle 4850, penso che entro qualche giorno vedremo i test ;)

yossarian
01-07-2008, 11:10
NUMA?

possibile

ghiltanas
01-07-2008, 11:11
da quello che ho capito gli è arrivata il giorno che hanno esposto il secondo articolo sulle 4850, penso che entro qualche giorno vedremo i test ;)

capito :)

mi è venuta in mente una cosa che è un pò che voglio chiedere sul crossfire:
quando si realizza un sistema dual gpu con 2 slot a 8x si ha un perdita di prestazioni rispetto a un sistema montato su 2 slot 16x. Ora siccome col pci-e 2.0 la banda passante è raddoppiata se nn sbaglio, se realizzo un crossfire su 2 slot 8x pci-e 2.0 perdo in prestazioni oppure no? (ovviamente so che c'è anche da considerare che le gpu sono sempre + potenti e trasmettono + dati)

ghiltanas
01-07-2008, 11:21
certo che 2 4850 in cf vanno veramente alla grande:

http://www.gameplanet.co.nz/features/131913.20080625.Shootout-HD-4850-vs-GTX-280/page1/

ghiltanas
01-07-2008, 11:22
il futuro è la rasterizzazione totale con intel e addio gpu :D

MenageZero
01-07-2008, 11:40
a quanto ne so funzionava meglio ai tempi di R520/580 vs. G70/71 (dove mi sembra ke addirittura le nvidia peggioravano anzikè migliorare)...


...ma con R600/RV670/RV770 e G80/92 GT200 son le nvidia ke guadagnano di +...

http://img186.imageshack.us/img186/7809/img0023626fr2.gif (http://imageshack.us)
http://img186.imageshack.us/img186/7809/img0023626fr2.1a3b3e13b7.jpg (http://g.imageshack.us/g.php?h=186&i=img0023626fr2.gif)



...il xkè xò nn kiedermelo xkè nn ne ho la + pallida idea :D ...yoss nn'è ke potresti spiegarci il xkè di questi risultati?...ciao

come si è ovviamente capito da un pezzo, sono tutt'altro che un esperto in materia e la mia considerazione grossolana nasceva dai test postati qui
http://www.hwupgrade.it/forum/showpost.php?p=23109463&postcount=816

in cui in quelli con la dicitura "dynamic branching" rv770 ottiene un punteggio più alto di g92 (cioè in quel bench rv770
"straccia" gli altri 2 un po' dovunque ma non è questo il punto ora :D ) e visto che a questi risultati non c'erano state "obiezioni" e che se non rircordo male era stato detto che l'implementazione dell'esecuzione OoO su gt200 non è cambiata ...

:boh:

MenageZero
01-07-2008, 11:44
Le foto che sono apparse riguardo R700 mostrano un normale PLX ma anche AMD ne sta producendo uno e i partner potranno scegliere tra quello normale e quello prodotto da AMD. Magari nella prossima evoluzione il chip potrà anche fare da hub

ma cos'è esattamente allora questo PLX ? :wtf:

ad un certo punto (non moltissimi post fa) mi ero fatto l'idea che fosse un chip "proprietario" progettato apposta per far "parlare" tra loro gli hub dei due rv770, ma adesso mi sa tanto che ho capito male ... :D

MenageZero
01-07-2008, 11:54
il futuro è la rasterizzazione totale con intel e addio gpu :D

... che hai preso per colazione ... peperonata con capretto ? :stordita:

:D

Foglia Morta
01-07-2008, 12:01
ma cos'è esattamente allora questo PLX ? :wtf:

ad un certo punto (non moltissimi post fa) mi ero fatto l'idea che fosse un chip "proprietario" progettato apposta per far "parlare" tra loro gli hub dei due rv770, ma adesso mi sa tanto che ho capito male ... :D

Il PLX fa solo ed esclusivamente ciò che farebbe un chipset di una scheda madre con 2 schede in SLI o Crossfire , ossia indirizzare una parte delle linee pci-e disponibili verso una gpu e una parte verso l'altra. Oppure sbaglio... non sono esperto , se ho sbagliato qualcuno mi indicherà la retta via :D

Il PLX utilizzato in R680 splitta le due GPU ognuna su otto linee delle sedici presenti sullo slot PCIe x16 in modo da mettere in comunicazione le due GPU con il sistema.

Esatto

Il PLX utilizzato in R700 fa la stessa cosa e ed in più mette in comunicazione i due hub.

Credo :>

Penso che il PLX di R700 sia come quello di R680 ma con dimensioni minori e PCI-E 2 compatibile , nulla di più. Gli hub dei 2 RV770 comunicano tramite la CF-X Sideport. Ma come detto prima non ne sono sicuro... se ho sbagliato qualcuno mi corregga :help:

MenageZero
01-07-2008, 12:02
Il PLX utilizzato in R680 splitta le due GPU ognuna su otto linee delle sedici presenti sullo slot PCIe x16 in modo da mettere in comunicazione le due GPU con il sistema.

Il PLX utilizzato in R700 fa la stessa cosa e ed in più mette in comunicazione i due hub.

Credo :>

sì ma qualcosa ancora non torna perfettamente:

fogliamorta palava della possibilità anche di un "plx normale" prodotto da terzi su r700 ... quindi, a naso:

- o quello di terze parti è cmq prodotto su progetto di ati in quanto deve mettere in comunicazione delle logiche che sono caratteristica specifica di rv770 (ma allora perché chiamarlo "normale" ?)

- oppure, sempre quello di terze parti, è uno "switch" pci-e "standard" analogo a quello sulla hd3870x2(in base a quanto è stato detto di questa nel thread, non parlo per cognizione diretta) che si interfaccia con il controller pci-e della gpu

:confused:

MenageZero
01-07-2008, 12:05
Penso che il PLX di R700 sia come quello di R680 ma con dimensioni minori e PCI-E 2 compatibile , nulla di più. Gli hub dei 2 RV770 comunicano tramite la CF-X Sideport. Ma come detto prima non ne sono sicuro... se ho sbagliato qualcuno mi corregga :help:

ah ecco, detto così sembra tutto lineare e intrinsecamente coerente ... se poi è anche giusto, non sono io a poterlo dire :D

Foglia Morta
01-07-2008, 12:06
sì ma qualcosa ancora non torna perfettamente:

fogliamorta palava della possibilità anche di un "plx normale" prodotto da terzi su r700 ... quindi, a naso:

- o quello di terze parti è cmq prodotto su progetto di ati in quanto deve mettere in comunicazione delle logiche che sono caratteristica specifica di rv770 (ma allora perché chiamarlo "normale" ?)

- oppure, sempre quello di terze parti, è uno "switch" pci-e "standard" analogo a quello sulla hd3870x2(in base a quanto è stato detto di questa nel thread, non parlo per cognizione diretta) che si interfaccia con il controller pci-e della gpu

:confused:

I 2 PLX dovranno per forza essere equivalenti perchè potranno essere scelti dai vari partner a loro discrezione. Forse AMD non era sicura di averlo pronto in tempo e la reference board l'ha fatta con il PLX di un produttore esterno.

Comunque il fatto che ci sarà un PLX prodotto da AMD è ciò che ha lasciato intendere ( abbastanza esplicitamente ) Dave Baumann. Quindi direi che è piuttosto sicuro ;)

Foglia Morta
01-07-2008, 12:08
La domanda è come siano collegate le due sideport, se tramite il PLX o tramite semplici piste sul PCB. Detto altrimenti: le sideport sono dei link PCIe o una connessione proprietaria?

non lo so... avevo furbescamente posto la domanda a yoss ma è riuscito ad intuire intenzioni malvage e non me l'ha detto :D

MenageZero
01-07-2008, 12:24
La domanda è come siano collegate le due sideport, se tramite il PLX o tramite semplici piste sul PCB. Detto altrimenti: le sideport sono dei link PCIe o una connessione proprietaria?

dai cenni sull'argomento gentilmente offerti da yoss, al momento scommetterei sulla 2^a ipotesi, o cmq un qualche tipo di connessione implementabile senza necessità di logiche intermedie esterne alle gpu :D

per es, alla domanda sul ruolo della cfx-sideport:
quello di mettere in comunicazione diretta le due gpu (come invece non avveniva con R680 o con le varie x2 di nVidia)

... tuttavia poco prima aveva anche detto:
per R700 ci sono delle novità per quanto riguarda la gestione del lavoro delle 2 gpu, ma non di questo tenore. Il chip plx è un controller che gestisce i collegamenti tra gli hub presenti sulle due gpu.

il che per gli ignoranti come me mantiene ancora non cristallino se i compiti del plx su r700 siano del tutto analoghi a quelli su r680 o se invece ci siano importanti novità a livello logico :help:

ghiltanas
01-07-2008, 12:46
... che hai preso per colazione ... peperonata con capretto ? :stordita:

:D

domani la provo, una colazioncina leggera e digeribile :asd:

Defragg
01-07-2008, 13:10
Io mi sono perso a Fast14 :stordita:

MenageZero
01-07-2008, 13:16
domani la provo, una colazioncina leggera e digeribile :asd:

no ma apparte gli scherzi, che intendevi riguardo a intel & gpu ?

per un periodo le voci non erano poi che al limite le future gpu (la cui produzoone non ho ancora capito se sia praticamente una certezza o solo ipotesi) basate sul progetto larrabee potrebbero essere più orientate al raytracing che al rasterizing ?
:wtf:

MenageZero
01-07-2008, 13:18
Io mi sono perso a Fast14 :stordita:

http://www.hwupgrade.it/forum/showpost.php?p=23115123&postcount=837 ;)

Defragg
01-07-2008, 13:36
http://www.hwupgrade.it/forum/showpost.php?p=23115123&postcount=837 ;)

Si l'ho letto, ma non ci ho capito una bega :stordita:

MenageZero
01-07-2008, 14:04
Si l'ho letto, ma non ci ho capito una bega :stordita:

magari vedi prima qualcosa in generale sui transistor e sulle "reti" a funzionamento sincrono ...
(io non ho conoscienze specifiche sulla "logica dinamica" e come capacità di sintesi dei concetti generali non credo proprio che potrei fare di meglio, per cui al momento non saprei come "aiutarti" più di così :stordita: )

Mr_Paulus
01-07-2008, 14:09
x yossarian

ma quando hai parlato di logica attiva hai detto che ogni transistor ha una sua frequenza di clock..quindi questo farebbe decadere i vari discorsi tipo "la gpu ha una frequenza di x mhz" giusto?
e allora per indicare "commercialmente" le prestazioni si userà una "frequenza media" del chip?
oppure non ci ho capito niente?:D:D

ah..poi ti avevo fatto un'altra domanda ma probabilmente non l'hai notata
ma quando questi sistemi multigpu prenderanno il sopravvento si potra abbandonare l'afr per qualche soluzione più "raffinata" e performante?

MenageZero
01-07-2008, 14:23
domani la provo, una colazioncina leggera e digeribile :asd:

se poi durante la fase digestiva (che, incidentalmente, potrebbe anche terminare tipo verso al fine del prossimo inverno) ti capitano allucinazioni e/o visioni mistiche io declino ogni responsabilità :O

Free Gordon
01-07-2008, 14:58
no ma apparte gli scherzi, che intendevi riguardo a intel & gpu ?
per un periodo le voci non erano poi che al limite le future gpu (la cui produzoone non ho ancora capito se sia praticamente una certezza o solo ipotesi) basate sul progetto larrabee potrebbero essere più orientate al raytracing che al rasterizing ?
:wtf:

Cmq, male per Intel, mi sa che anche Rv770 può fare Raytracing benino. :D
Chissà le prossime GPU... :sofico:


Ps.
occhio che Larrabee a fine anno è fuori...o al max nel 2009. ;)
Non so cosa ci faranno con quel coso (all'inizio) ma sono cmq un pò preoccupato per la situazione che potrebbe venirsi a creare... :stordita: (M$ + Intel fanno in fretta eh...)

Free Gordon
01-07-2008, 15:03
Yoss ma perchè non costruiscono delle CPU, con logica dinamica?

Invece di avere i vari C&Q e Speedstep, potrebbero avere una granularità infinitesimale di incrementi nel clock in modo tale da consumare sempre il giusto, all'occorrenza.

Oppure, data la natura di quei transistor, i consumi sarebbero più o meno allo stesso livello di prima? (consumando di più, già di per sè?)

MenageZero
01-07-2008, 15:44
Cmq, male per Intel, mi sa che anche Rv770 può fare Raytracing benino. :D
Chissà le prossime GPU... :sofico:


Ps.
occhio che Larrabee a fine anno è fuori...o al max nel 2009. ;)
Non so cosa ci faranno con quel coso (all'inizio) ma sono cmq un pò preoccupato per la situazione che potrebbe venirsi a creare... :stordita: (M$ + Intel fanno in fretta eh...)

ma ... se non si sa cosa ci faranno ... come fai a preoccuparti senza sapere di cosa dovresti eventualmente preoccuparti ? :D

Free Gordon
01-07-2008, 16:11
ma ... se non si sa cosa ci faranno ... come fai a preoccuparti senza sapere di cosa dovresti eventualmente preoccuparti ? :D



Questa è a metà strada tra il sofismo e il buddhismo. :D
Non rispondo perchè sono un epicureista convinto! :sofico:

ghiltanas
01-07-2008, 17:24
no ma apparte gli scherzi, che intendevi riguardo a intel & gpu ?

per un periodo le voci non erano poi che al limite le future gpu (la cui produzoone non ho ancora capito se sia praticamente una certezza o solo ipotesi) basate sul progetto larrabee potrebbero essere più orientate al raytracing che al rasterizing ?
:wtf:

:doh: scusa cavolo, intendevo ray tracing infatti :muro: , è sto cacchio di caldo che mi sciogle il poco cervello che ho :sofico:

ghiltanas
01-07-2008, 17:27
Cmq, male per Intel, mi sa che anche Rv770 può fare Raytracing benino. :D
Chissà le prossime GPU... :sofico:


Ps.
occhio che Larrabee a fine anno è fuori...o al max nel 2009. ;)
Non so cosa ci faranno con quel coso (all'inizio) ma sono cmq un pò preoccupato per la situazione che potrebbe venirsi a creare... :stordita: (M$ + Intel fanno in fretta eh...)

oraandiamo un attimo ot, cmq poco tempo fa intel aveva rilasciato un video di et:qw realizzato mediante la tecnica del ray tracing. Purtroppo sono ancora lontani da risultati soddisfacenti, tant'è che probabilemnte larrabee utilizzerà la tecnica della rasterizzazione e nel del ray tracing, sempre che lo vogliano rilasciare in tempi "brevi"

MiKeLezZ
01-07-2008, 18:11
oraandiamo un attimo ot, cmq poco tempo fa intel aveva rilasciato un video di et:qw realizzato mediante la tecnica del ray tracing. Purtroppo sono ancora lontani da risultati soddisfacenti, tant'è che probabilemnte larrabee utilizzerà la tecnica della rasterizzazione e nel del ray tracing, sempre che lo vogliano rilasciare in tempi "brevi"Sei rimasto un po' indietro
http://www.tgdaily.com/content/view/38145/135/
http://www.hwupgrade.it/news/skvideo/anche-raytracing-per-le-future-gpu-nvidia_25415.html

MenageZero
01-07-2008, 19:55
http://www.tgdaily.com/content/view/38145/135/

beh, se il futuro prossimo del raytracing è tutto bello e facile come viene descritto in quell'articolo, verrebbe da dire:
"toh, tu guarda i pregi "nascosti" di r(v)6xx" :D
(per non parlare allora delle potenzialità da rv770 in poi :eek: )

(a questo punto per correttezza devo anche citare che secondo l'accenno che viene fatto, pare che anche con le gpu nv molto si possa fare, ma eventualmente lavorandoci di più per un medesimo risultato)

ma il tizio cui si fa riferimento nell'articolo, non sarà però alla fine eccessivamente ottimista nel sostenere che (con abbastanza ram on board) si potranno renderizzare in tempo reale scene fotorealistiche tramite raytracing entro la fine di quest'anno ?
:wtf:

MiKeLezZ
01-07-2008, 20:01
Veramente dicono che lo stanno proprio facendo, e già dall'anno scorso con le x2900xt

MenageZero
01-07-2008, 20:13
Veramente dicono che lo stanno proprio facendo, e già dall'anno scorso con le x2900xt

(http://www.tgdaily.com/content/view/38145/135/)
"...
So, what about photo-realism of these scenes? Unlike the general “3-5 years” answer you are hearing in the industry right now, he believes that this goal could be achieved by the end of the year. A ray-tracer is limited by the amount of local memory on your video card, so if you are able to get a Radeon 4850 or 4870 with 1 GB or even more of on-board memory, you have very capable hardware. JulesWorld’s LightStage technology can take wireframes consisting of an insane 32 million vectors to enable real world characters and their expressions. That means: Extra memory on your graphics card doesn’t hurt.
..."

non ho idea se guardandolo noi diremmo che il lavoro che hanno fatto l'anno scorso in real-time con i transformers sia fotorealistico o meno, ma pare che il senso delle frasi in neretto implichi chiaramente che non consideri (lui stesso, il boss di julesworld) quello che hanno già fatto esattemente fotorealistico :sofico:

poi ovviamente tutto sta alla definizione di "fotorealistico", la quale suppongo debba anche essere tradotta in parametriq quantitativi per poter un giorno dividere oggettivamente cosa è "fotorealistico" e da cosa non lo è

:boh:

MiKeLezZ
01-07-2008, 21:52
aspettiamo yoss ?

Free Gordon
02-07-2008, 01:27
ma il tizio cui si fa riferimento nell'articolo, non sarà però alla fine eccessivamente ottimista nel sostenere che (con abbastanza ram on board) si potranno renderizzare in tempo reale scene fotorealistiche tramite raytracing entro la fine di quest'anno ?
:wtf:

Si, ma è sicuramente possibile.
Tutto dipende da quanto tempo (secondi o minuti), hai a disposizione... :asd:

Quando si parla di fotorealismo, l'asse sotto i piedi scricchiola sempre.. :D

Free Gordon
02-07-2008, 01:33
JulesWorld’s LightStage technology can take wireframes consisting of an insane 32 million vectors to enable real world characters and their expressions. That means: Extra memory on your graphics card doesn’t hurt.

Facendo un rapidissimo calcolo, mi pare siano 6 giga e mezzo di ram occupati! :asd:
Mi sa che i potenziali 2GB montabili sulle schede grafiche attuali, non bastano... :sofico:

MenageZero
02-07-2008, 01:43
Si, ma è sicuramente possibile.
Tutto dipende da quanto tempo (secondi o minuti), hai a disposizione... :asd:

Quando si parla di fotorealismo, l'asse sotto i piedi scricchiola sempre.. :D

cioè, sì il tizio potrebbe essere stato troppo ottimista ma è sicuramente possibile ottenere fotorealismo intempo reale tramite raytracing entro il 2008 ? solo io colgo una apparente contraddizione ? :p

poi, se non ho capito male e quando parla di fotorealismo intende sempre in tempo reale, allora il tempo da avere a disposizione è solo quello della durata della scena da renderizzare :O

:D

MenageZero
02-07-2008, 01:48
Facendo un rapidissimo calcolo, mi pare siano 6 giga e mezzo di ram occupati! :asd:
Mi sa che i potenziali 2GB montabili sulle schede grafiche attuali, non bastano... :sofico:

capito, per crysis3 tutti con schedina da 8giga di gddr5 e passa la paura :O

Free Gordon
02-07-2008, 02:21
cioè, sì il tizio potrebbe essere stato troppo ottimista ma è sicuramente possibile ottenere fotorealismo intempo reale tramite raytracing entro il 2008 ? solo io colgo una apparente contraddizione ? :p

La mia era una battuta... :p nel senso che per me non è possibile.
Poi boh, sarò felice di aver sbagliato!!! :sofico:

MenageZero
02-07-2008, 17:56
ho appena dato uno sguardo veloce all'articolo di oggi sulle schede video, mi pare di aver notato che la hd4870 spesso allo scendere della risoluzione guadagna qualcosa rispetto a quelle con prestazioni vicine, specie guardando i test a 1280

è possibile che alle alte risoluzioni rv770 su questa scheda sia un po' bandwidth limited o (forse più probabile) frame-buffer limited ?

Iantikas
02-07-2008, 18:08
ho appena dato uno sguardo veloce all'articolo di oggi sulle schede video, mi pare di aver notato che la hd4870 spesso allo scendere della risoluzione guadagna qualcosa rispetto a quelle con prestazioni vicine, specie guardando i test a 1280

è possibile che alle alte risoluzioni rv770 su questa scheda sia un po' bandwidth limited o (forse più probabile) frame-buffer limited ?

anandtech aveva evidenziato ke RV770 al salire della ris scala peggio di RV670...

...questo magari può essere dovuto al nuovo MC ke va peggio del ringbus man mano ke si sale di ris oppure appunto xkè è nuovo ha bisogno delle necessarie ottimizzazioni prima ke possa dimostrare ciò ke realmente è in grado di fare...


...ciao

MenageZero
02-07-2008, 20:33
anandtech aveva evidenziato ke RV770 al salire della ris scala peggio di RV670...

...questo magari può essere dovuto al nuovo MC ke va peggio del ringbus man mano ke si sale di ris oppure appunto xkè è nuovo ha bisogno delle necessarie ottimizzazioni prima ke possa dimostrare ciò ke realmente è in grado di fare...


...ciao

se deve essere una delle due, sarei più per la seconda perché anche in questo thread, in particolare grazie alle "pillole di arch. delle gpu" by yoss, abbiamo capito che proprio sul mc e dintorni hanno ragionato e lavorato molto, proprio per poter "foraggiare" adeguatamente lo shader core; mi sembrerebbe quindi improbabile che se ne siano usciti con una soluzione finale che faccia scalare rv770 peggio di rv670 al crescere della risoluzione;

dell'importanza della bandwidth (in particolare di quella effettiva più che quella nominale) ma anche del fatto che già con i titoli attuali a certe risoluzioni vram da 1GB possa far comodo, se ne era parlato ed è anche per questo che mi è tornata la pulce nell'orecchio dando un'occhiata ai test

poi magari all'aumentare della risoluzione inetvengono anche anche altri fattori che possono rivelarsi limitanti e che non stiamo considerando

:boh:

Free Gordon
03-07-2008, 02:08
ho appena dato uno sguardo veloce all'articolo di oggi sulle schede video, mi pare di aver notato che la hd4870 spesso allo scendere della risoluzione guadagna qualcosa rispetto a quelle con prestazioni vicine, specie guardando i test a 1280
è possibile che alle alte risoluzioni rv770 su questa scheda sia un po' bandwidth limited o (forse più probabile) frame-buffer limited ?


La 4870 ha dei driver acerbissimi.
Vedremo tra tre release di catalyst (settembre/ottobre), come sarà la situazione. ;)

ghiltanas
03-07-2008, 11:17
La 4870 ha dei driver acerbissimi.
Vedremo tra tre release di catalyst (settembre/ottobre), come sarà la situazione. ;)

giusto quando penso di prenderla io :D (possibilmente in versione da 1gb )

yossarian
04-07-2008, 15:23
dai cenni sull'argomento gentilmente offerti da yoss, al momento scommetterei sulla 2^a ipotesi, o cmq un qualche tipo di connessione implementabile senza necessità di logiche intermedie esterne alle gpu :D

per es, alla domanda sul ruolo della cfx-sideport:


... tuttavia poco prima aveva anche detto:


il che per gli ignoranti come me mantiene ancora non cristallino se i compiti del plx su r700 siano del tutto analoghi a quelli su r680 o se invece ci siano importanti novità a livello logico :help:

i chip plx non sono progettati da amd (anche se amd ne sta sviluppando uno di tipo proprietario); dalla serie 85x0 (quella di R680) alla serie 86x0 (quella di R700) cambia, oltre all'ampiezza della banda), la possibilità di gestire in maniera dinamica i canali di collegamenbto, attraverso l'allocazione dinamica dei registri. Questo permette uno sfruttamento delle risorse molto più elevato rispetto a quanto possibile con le connessioni sli o xfire viste finora. In più, nei chip della serie RV770 c'è il xfire sideport che è una connessione dedicata tra le gpu, assente in R6x0)

x yossarian

ma quando hai parlato di logica attiva hai detto che ogni transistor ha una sua frequenza di clock..quindi questo farebbe decadere i vari discorsi tipo "la gpu ha una frequenza di x mhz" giusto?
e allora per indicare "commercialmente" le prestazioni si userà una "frequenza media" del chip?
oppure non ci ho capito niente?:D:D

ah..poi ti avevo fatto un'altra domanda ma probabilmente non l'hai notata

anche adesso, in realtà, all'interno delle gpu ci sono circuiti che lavorano a frequenze diverse da quelle del resto del chip (a parte gli sp dei chip NV); ad esempio, i MC lavorano a frequenze superiori rispetto al restod el chip. In passato (primia dell'unificazione degli shader) si sono avuti casi in cui anche le unità di vertex shading o le rop's lavoravano a frequenze differenti dal resto del chip (ad esempio, in R3x0). Si potrebbe prendere come parametro, per valutare la frequenza di funzionanento del chip, la frequenza di elbaorazione dei dati, o quella del circuito o del transistor o del gruppo di transistor che lavorano a frequenza inferiore. D'altro canto, parlare di frequenza di funzionamento ed associarla alle prestazioni ha una valenza piuttosto limitata, poichè le prestazioni sono funzione della frequenza a patto che l'elaborazione non presenti colli di bottiglia. Quindi ha più senso riferirsi all'output reale, risultante da bench sintetici o in game, piuttosto che fare valutazioni teoriche sulla base delle frequenze di funzionamento di un chip.

Yoss ma perchè non costruiscono delle CPU, con logica dinamica?

Invece di avere i vari C&Q e Speedstep, potrebbero avere una granularità infinitesimale di incrementi nel clock in modo tale da consumare sempre il giusto, all'occorrenza.

Oppure, data la natura di quei transistor, i consumi sarebbero più o meno allo stesso livello di prima? (consumando di più, già di per sè?)

la logica dinamica era usata prima dell'adozione della tecnologia cmos e permette il raggiungimento di frequenze superiori e il contenimento delle dimensioni del chip; di contro è più soggetta dei corcuiti a logica statica ad alcuni tipi di errore nella propagazione delle informazioni. La tecnologia fast14 di intrinsity ha risolto i problemi legati alla propagazione degli errori nei circuiti a logica dinamica, rendendoli affidabili a livello di quelli a logica statica.

(http://www.tgdaily.com/content/view/38145/135/)
"...
So, what about photo-realism of these scenes? Unlike the general “3-5 years” answer you are hearing in the industry right now, he believes that this goal could be achieved by the end of the year. A ray-tracer is limited by the amount of local memory on your video card, so if you are able to get a Radeon 4850 or 4870 with 1 GB or even more of on-board memory, you have very capable hardware. JulesWorld’s LightStage technology can take wireframes consisting of an insane 32 million vectors to enable real world characters and their expressions. That means: Extra memory on your graphics card doesn’t hurt.
..."

non ho idea se guardandolo noi diremmo che il lavoro che hanno fatto l'anno scorso in real-time con i transformers sia fotorealistico o meno, ma pare che il senso delle frasi in neretto implichi chiaramente che non consideri (lui stesso, il boss di julesworld) quello che hanno già fatto esattemente fotorealistico :sofico:

poi ovviamente tutto sta alla definizione di "fotorealistico", la quale suppongo debba anche essere tradotta in parametriq quantitativi per poter un giorno dividere oggettivamente cosa è "fotorealistico" e da cosa non lo è

:boh:

non mi sbilancio sul raytracing e mi limito a riportare l'opinione di uno sviluppatore di SW

http://www.beyond3d.com/content/articles/94/

ho appena dato uno sguardo veloce all'articolo di oggi sulle schede video, mi pare di aver notato che la hd4870 spesso allo scendere della risoluzione guadagna qualcosa rispetto a quelle con prestazioni vicine, specie guardando i test a 1280

è possibile che alle alte risoluzioni rv770 su questa scheda sia un po' bandwidth limited o (forse più probabile) frame-buffer limited ?

alle alte risoluzione ma, in alcuni casi, anche a risoluzioni non altissime, con i filtri attivi, ormai, con 512 MB si inizia ad essere fb limited.

anandtech aveva evidenziato ke RV770 al salire della ris scala peggio di RV670...

...questo magari può essere dovuto al nuovo MC ke va peggio del ringbus man mano ke si sale di ris oppure appunto xkè è nuovo ha bisogno delle necessarie ottimizzazioni prima ke possa dimostrare ciò ke realmente è in grado di fare...


...ciao

il MC di RV770 ha meno bisogno di ottimizazioni rispetto al ring bus di R6x0, però, allo stato attuale, le ottimizzazioni sono pressochè inesistenti.


mi scuso con qualcuno se ho saltato qualche risposta, ma non ho avuto il tempo di riguardare con calma l'intero thread

Defragg
04-07-2008, 17:10
la logica dinamica era usata prima dell'adozione della tecnologia cmos e permette il raggiungimento di frequenze superiori e il contenimento delle dimensioni del chip; di contro è più soggetta dei corcuiti a logica statica ad alcuni tipi di errore nella propagazione delle informazioni. La tecnologia fast14 di intrinsity ha risolto i problemi legati alla propagazione degli errori nei circuiti a logica dinamica, rendendoli affidabili a livello di quelli a logica statica.


Per quando, noi user, dovremmo aspettarci dei chip a logica dinamica?

Mister Tarpone
04-07-2008, 17:35
Per quando, noi user, dovremmo aspettarci dei chip di cui possiamo capire qualcosa? :asd:

:asd:

Mr_Paulus
04-07-2008, 17:37
Per quando, noi user, dovremmo aspettarci dei chip di cui possiamo capire qualcosa? :asd:

:sbonk: :sbonk: :sbonk: :sbonk:

Defragg
04-07-2008, 17:46
Per quando, noi user, dovremmo aspettarci dei chip di cui possiamo capire qualcosa? :asd:

Touchè :asd:

Comunque mi sto leggendo la recensione di computerbase su CF 4870 vs SLi GTX 260, e ho notato che in CoD4 le prestazioni in Crossfire raddoppiano quasi perfettamente, incredibile, un titolo TWITMBP che in Crossfire scala perfettamente mentre in SLi no. :asd:

killer978
04-07-2008, 20:54
IMPRESSIONANTE :D con driver ancora non ufficiali la 4870 straccia, disintegra, brucia ecc.. ecc.. una GTX260 :D singola scheda, se poi parliamo di CF contro SLI sempre tra le due schede il divario sembra a volte incolmabile :asd:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/

Recensione con i fiocchi, ci sono TUTTI gli ultimi titoli, e si fanno test a tutto tond!!! Ste schede sono impressionanti, la 4870 a volte sembra stare col fiato sul collo alla GTX280 ma come è possibile un salto simile?

La cosa asssurda sembra che i 512mb siano sovrabbondanti a tutte le risoluzioni, questo fa capire la bonta dell'architettura, alla faccia del giga di memoria :asd:

ghiltanas
04-07-2008, 20:58
IMPRESSIONANTE :D con driver ancora non ufficiali la 4870 straccia, disintegra, brucia ecc.. ecc.. una GTX260 :D singola scheda, se poi parliamo di CF contro SLI sempre tra le due schede il divario sembra a volte incolmabile :asd:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/

Recensione con i fiocchi, ci sono TUTTI gli ultimi titoli, e si fanno test a tutto tond!!! Ste schede sono impressionanti, la 4870 a volte sembra stare col fiato sul collo alla GTX280 ma come è possibile un salto simile?

guardando la rece su tom's hardwaer ho notato che nn si comporta molto bene con i titoli basati sull' ue :mbe:
poi va bè dicono che è rumorosa, ma guardando i grafici nn si direbbe :confused:

killer978
04-07-2008, 21:03
guardando la rece su tom's hardwaer ho notato che nn si comporta molto bene con i titoli basati sull' ue :mbe:
poi va bè dicono che è rumorosa, ma guardando i grafici nn si direbbe :confused:

Io so invece che è fin troppo silenziosa :asd: x notare la ventola bisogna salire oltre il 58%

Non so se hai letto il tread della 4850, hanno risolto il problema delle temp con il flash del bios, temp in idle di 50° e full max 65° il tutto con la max silenziosità :D (la ventola non supera il 50%)

Dimenticavo: le recensioni di Tom's lasciano il tempo che trovano :asd: cmq direi che giocare con frames medi sopra i 60/70 non è male

ghiltanas
04-07-2008, 21:39
Io so invece che è fin troppo silenziosa :asd: x notare la ventola bisogna salire oltre il 58%

Non so se hai letto il tread della 4850, hanno risolto il problema delle temp con il flash del bios, temp in idle di 50° e full max 65° il tutto con la max silenziosità :D (la ventola non supera il 50%)

Dimenticavo: le recensioni di Tom's lasciano il tempo che trovano :asd: cmq direi che giocare con frames medi sopra i 60/70 non è male

nn l'avevo letto :) , cmq io ormai sono orientato sulla 4870 visto lo schermo che spero di accoppiarci

killer978
04-07-2008, 21:53
nn l'avevo letto :) , cmq io ormai sono orientato sulla 4870 visto lo schermo che spero di accoppiarci

Io sono ancora indeciso!!!

Ho un 22" 1680x1050 e a quanto pare la 4850 gia rulla da paura anche con filtri al max a questa risoluzione, solitamente ho preso sempre il top (9700PRO/9800PRO, 6800Ultra, X1800XT,1900XTX ecc.. ecc...) ho sempre snobbato le schede un gradino + basso :asd: sto giro sono spiazzato, la 4870 alla fine mi garba di + perche butta l'aria fuori dal case, vediamo tra un mesetto cosa mi passa x la zucca :D

MiKeLezZ
05-07-2008, 00:14
Fra un mese escono i modelli con 1GB, dissipatore custom (simil-Zalman o simil-4870), BIOS recenti, e ci saranno anche i driver adeguati per farle girare.
Direi che è molto saggio

yossarian
05-07-2008, 01:32
IMPRESSIONANTE :D con driver ancora non ufficiali la 4870 straccia, disintegra, brucia ecc.. ecc.. una GTX260 :D singola scheda, se poi parliamo di CF contro SLI sempre tra le due schede il divario sembra a volte incolmabile :asd:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/

Recensione con i fiocchi, ci sono TUTTI gli ultimi titoli, e si fanno test a tutto tond!!! Ste schede sono impressionanti, la 4870 a volte sembra stare col fiato sul collo alla GTX280 ma come è possibile un salto simile?

La cosa asssurda sembra che i 512mb siano sovrabbondanti a tutte le risoluzioni, questo fa capire la bonta dell'architettura, alla faccia del giga di memoria :asd:

non direi a giudicare da alcuni crolli repentini di prestazioni (in alcuni casi con alte risoluzini, in altri con risoluzioni medio alte e filtri attivi)

MenageZero
05-07-2008, 10:08
i chip plx non sono progettati da amd (anche se amd ne sta sviluppando uno di tipo proprietario); dalla serie 85x0 (quella di R680) alla serie 86x0 (quella di R700) cambia, oltre all'ampiezza della banda), la possibilità di gestire in maniera dinamica i canali di collegamenbto, attraverso l'allocazione dinamica dei registri. Questo permette uno sfruttamento delle risorse molto più elevato rispetto a quanto possibile con le connessioni sli o xfire viste finora. In più, nei chip della serie RV770 c'è il xfire sideport che è una connessione dedicata tra le gpu, assente in R6x0)

tnx; ma quindi (scusa l'ignoranza eccessiva :D ) il plx, detto grossolanamente, serve a "smistare" la connessione x16 verso le due gpu on board (come era stato detto/ipotizzato da qualcuno) o ha anche altri compiti di rilievo ?

MenageZero
05-07-2008, 10:17
alle alte risoluzione ma, in alcuni casi, anche a risoluzioni non altissime, con i filtri attivi, ormai, con 512 MB si inizia ad essere fb limited.

il MC di RV770 ha meno bisogno di ottimizazioni rispetto al ring bus di R6x0, però, allo stato attuale, le ottimizzazioni sono pressochè inesistenti.

qunidi stiamo vedendo un rv770 ancora un po' "sottotono" rispetto al max che può fare ... :sofico:

sarebbe allora decisamente interessante rifare gli stessi test nel momento in cui si avranno hd4870 da 1GB e drv che abbiano raggiunto un certo livello di ottimizzazione
(per non parlare delle due cose unite alla "versione super", di cui si parlava in una recente news, con clock molto sparati di default :eek: )

ps: un utente, ha un modo per sapere quando la curva del livello di ottimizzazione dei drv di una gpu, non dico abbia raggiunto il punto di max, ma per es la pendenza abbia iniziato a decrescere ? :D

ghiltanas
05-07-2008, 12:17
Io sono ancora indeciso!!!

Ho un 22" 1680x1050 e a quanto pare la 4850 gia rulla da paura anche con filtri al max a questa risoluzione, solitamente ho preso sempre il top (9700PRO/9800PRO, 6800Ultra, X1800XT,1900XTX ecc.. ecc...) ho sempre snobbato le schede un gradino + basso :asd: sto giro sono spiazzato, la 4870 alla fine mi garba di + perche butta l'aria fuori dal case, vediamo tra un mesetto cosa mi passa x la zucca :D

hai sicuramente una longevità maggiore con la 4870, adesso con la 4850 vai sicuramente senza problemi, ma x quanto? considera che sono in previsione dei titoloni e io nn rischierei ;) , la fascia della 4870 è la mia preferita, infatti presi la gt appena uscita.

Fra un mese escono i modelli con 1GB, dissipatore custom (simil-Zalman o simil-4870), BIOS recenti, e ci saranno anche i driver adeguati per farle girare.
Direi che è molto saggio

nn vedo l'ora che escano ;) (sperando anche che i prezzi nn lievitino troppo)

ghiltanas
05-07-2008, 12:20
il gb su una gpu del target della 4870 è tutt'altro che inutile imho, specie per utenti che moddano i giochi

killer978
05-07-2008, 14:02
Fra un mese escono i modelli con 1GB, dissipatore custom (simil-Zalman o simil-4870), BIOS recenti, e ci saranno anche i driver adeguati per farle girare.
Direi che è molto saggio

Infatti ;) sicuramente tra un po le 4850 saranno ancora + appetibili :D ho visto in giro un po di immagini della ASUS con dissy dual slot e 1gb di RAM, una schedina simile mi farebbe felice al punto da lasciar perdere la 4870 :D

Vedremo, l'importante è non precipitarsi ;)

Carciofone
05-07-2008, 15:34
Sono indeciso se ordinarmi oggi la (Asus\Sapphire\club 3d) HD4850/HTDI/512M/A GDDR3 PCIE HDTV a 160-148€, oppure direttamente la Sapphire HD4870 512 GDDR5 PCIE2.0 DirectX10.1 HDTV a 239€ ...
Quest'ultima mi sembra un pò caretta.

capitan_crasy
05-07-2008, 15:51
vi segnalo un interessate prova della ATI Radeon HD 4870 512MB su LINUX...

Clicca qui... (http://www.phoronix.com/scan.php?page=article&item=ati_radeonhd_4870&num=1)

killer978
05-07-2008, 20:37
Tom's si è sbilanciato :asd:

http://www.tomshw.it/graphic.php?guide=20080704&page=radeon-hd-4870-15

Le conclusioni rispecchiano l'effettiva realtà :D

4870 mediamente superiore alla GTX260 del 6% con 150$ in meno e 10% + lenta della GTX280 che costa però + del doppio!!!

A motivo di cio continuo a dire che la GTX260 non ha motivo di esistere, per quanto è grossa rumorosa e lenta con i filtri dovrebbe costare intorno ai 199€ x concorrere con la 4870 :D

Free Gordon
06-07-2008, 14:00
vi segnalo un interessate prova della ATI Radeon HD 4870 512MB su LINUX...
Clicca qui... (http://www.phoronix.com/scan.php?page=article&item=ati_radeonhd_4870&num=1)

Molto interessante. Stanno crescendo dal lato Linux, mi pare...

Sste
19-01-2009, 19:04
Salve a tutti! Sono molto indeciso so che scheda grafica consigliare tra la HD4850 1GB e la 9800 GTX+.

Come prezzo siamo 162 € per la HD4850 contro i 190 € della 9800 GTX+.

L'acquisto sarebbe quasi imminente.
Cosa consigliate?

PS. gradirei consigli da chi NON è di parte...

Sgt.Pepper89
19-01-2009, 19:10
Salve a tutti! Sono molto indeciso so che scheda grafica consigliare tra la HD4850 1GB e la 9800 GTX+.

Come prezzo siamo 162 € per la HD4850 contro i 190 € della 9800 GTX+.

L'acquisto sarebbe quasi imminente.
Cosa consigliate?

PS. gradirei consigli da chi NON è di parte...

Prezzi ALTISSIMI online la 4850 si trova ad esempio a 117 euro http://www.trovaprezzi.it/prezzo_schede-grafiche_4850.aspx. Comunque prendi la 4850.

entanglement
19-01-2009, 19:15
Salve a tutti! Sono molto indeciso so che scheda grafica consigliare tra la HD4850 1GB e la 9800 GTX+.

Come prezzo siamo 162 € per la HD4850 contro i 190 € della 9800 GTX+.

L'acquisto sarebbe quasi imminente.
Cosa consigliate?

PS. gradirei consigli da chi NON è di parte...

da me fa miracoli la 4850 reference

Sste
19-01-2009, 19:45
Prezzi ALTISSIMI online la 4850 si trova ad esempio a 117 euro http://www.trovaprezzi.it/prezzo_schede-grafiche_4850.aspx. Comunque prendi la 4850.

Io avrei scelto quella con 1 GB di memoria. Facendo una ricerca, sempre su trovaprezzi, la si trova a 144 euro + spese di spedizione = 155 euro.

Sgt.Pepper89
19-01-2009, 19:54
Io avrei scelto quella con 1 GB di memoria. Facendo una ricerca, sempre su trovaprezzi, la si trova a 144 euro + spese di spedizione = 155 euro.

Si è vero...comunque il prezzo della 9800gtx+ rimane altissimo.

Sste
19-01-2009, 20:07
Riesco a trovare la 9800 GTX+ marca ZOTAC e XFX a rispettivamente 165 e 179 euro.
Come sono come marche? Prezzo?

Quella da 189 euro è di marca TwinTech.

Sgt.Pepper89
19-01-2009, 21:21
Riesco a trovare la 9800 GTX+ marca ZOTAC e XFX a rispettivamente 165 e 179 euro.
Come sono come marche? Prezzo?

Quella da 189 euro è di marca TwinTech.

Ottime marche. Comunque la 4850 rimane la scheda migliore come qualità-prezzo e ti consiglio caldamente di andare su quella.

goldorak
19-01-2009, 22:19
Compra una bella xfx 4850. :D

Sste
19-01-2009, 22:58
Compra una bella xfx 4850. :D

La HD4850 è della Sapphire.

goldorak
19-01-2009, 23:02
La HD4850 è della Sapphire.

La xfx e' diventata ultimamente partner ATI, quindi anche lei propone schede 4850/4870. Con la differenza che usano dei dissipatori di "buona qualita'", dual slot identici a quelli usati sulle Nvidia.

http://www.xfxforce.com/en-us/products/graphiccards/hd%204000series/4850.aspx

http://www.xfxforce.com/ecms.ashx/d4d5560b-d3df-46ee-8f3b-046d296e5476/GraphicCardModels/HD4850HD485XYDF2354x312.jpg

http://www.xfxforce.com/ecms.ashx/b1b9625e-9733-4dba-b6d1-91a0f3f34a12/GraphicCardModels/HD485XYDFCBoth354x312.jpg

http://www.xfxforce.com/ecms.ashx/1fc25872-1d36-42eb-bdc6-a4406ce9eab5/GraphicCardModels/HD4870HD487AYDFBracket354x312.jpg

Sste
19-01-2009, 23:06
Considerando che verrebbe impiegata su un monitor con rispluzione 1440*900 quale consigliare tra il modello con 1 GB di memoria e quello con 512 MB?

Facendo un riepilogo:

Sapphire HD4850 512 MB Toxic Edition (Core: 675 MHz - Memorie: 2300 MHz - 256 bit - 512 MB GDDR3) - 145 EURO (questa qua ha pure il dissipatore Zalman)

Sapphire HD4850 1 GB (Core: 625 MHz - Memorie: 1986 MHz - 256 bit - 1 GB GDDR3) - 162 EURO

Sapphire HD4870 512 MB Sapphire Design (Core: 750 MHz - Memorie: 3600 MHz - 256 bit - 512 MB GDDR5) - 186 EURO (il modello standard di questa scheda va oltre i 200 euro...., questa non so perchè costa così poco).

Sste
19-01-2009, 23:09
La xfx e' diventata ultimamente partner ATI, quindi anche lei propone schede 4850/4870. Con la differenza che usano dei dissipatori di "buona qualita'", dual slot identici a quelli usati sulle Nvidia.

http://www.xfxforce.com/en-us/products/graphiccards/hd%204000series/4850.aspx

http://www.xfxforce.com/ecms.ashx/d4d5560b-d3df-46ee-8f3b-046d296e5476/GraphicCardModels/HD4850HD485XYDF2354x312.jpg

http://www.xfxforce.com/ecms.ashx/b1b9625e-9733-4dba-b6d1-91a0f3f34a12/GraphicCardModels/HD485XYDFCBoth354x312.jpg

Come dissipazione le AMD/ATI standard non sono un granchè?

Quella 4850 toxic edition col dissipatore zalman come ti sembra?

Il mio negozionate ha solo Nvidia con marchio XFX.

goldorak
19-01-2009, 23:12
Io prenderei la 4850 da 1 GB. :)
Pero' non la prenderei sapphire bensi' xfx.

goldorak
19-01-2009, 23:17
Come dissipazione le AMD/ATI standard non sono un granchè?

Quella 4850 toxic edition col dissipatore zalman come ti sembra?


I primi dissipatori sulle 4870 reference erano dual slot e buutavano l'aria calda fuori dal case. I modelli 4850 sapphire avevano il dissipatore single slot e ovviamente buttavano l'aria calda dentro al case. La toxic ha lo stesso problema, butta l'aria calda dentro al case invece di buttarla fuori.



Il mio negozionate ha solo Nvidia con marchio XFX.

Ah beh questo e' un problema se cerchi le xfx ati.
Magari chiedigli se puo' ordinare una xfx ati, non si sa mai.

Sgt.Pepper89
20-01-2009, 01:01
Considerando che verrebbe impiegata su un monitor con rispluzione 1440*900 quale consigliare tra il modello con 1 GB di memoria e quello con 512 MB?

Facendo un riepilogo:

Sapphire HD4850 512 MB Toxic Edition (Core: 675 MHz - Memorie: 2300 MHz - 256 bit - 512 MB GDDR3) - 145 EURO (questa qua ha pure il dissipatore Zalman)

Sapphire HD4850 1 GB (Core: 625 MHz - Memorie: 1986 MHz - 256 bit - 1 GB GDDR3) - 162 EURO

Sapphire HD4870 512 MB Sapphire Design (Core: 750 MHz - Memorie: 3600 MHz - 256 bit - 512 MB GDDR5) - 186 EURO (il modello standard di questa scheda va oltre i 200 euro...., questa non so perchè costa così poco).
La 4870 è sotto i 200 euro da un bel po, sicuramente è meglio di una 4850 anche OC.

goldorak
20-01-2009, 01:06
La 4870 è sotto i 200 euro da un bel po, sicuramente è meglio di una 4850 anche OC.


Oddio potra' costare meno di 200 €, ma sempre 40 € in piu' della 4850 sono.
Il che rappresenta un aumento del quasi il 30% sul prezzo della 4850.
Adesso la 4870 va il 30% in piu' della 4850 ? Non penso proprio.
La 4870 serve solo a coloro che giocano a 1980x1080 o giu' di li. A risoluzioni piu' basse basta e avanza una 4850.
Se poi uno deve giocare a chi ce l'ha piu' lungo e' un altro discorso.

Sgt.Pepper89
20-01-2009, 01:13
Oddio potra' costare meno di 200 €, ma sempre 40 € in piu' della 4850 sono.
Il che rappresenta un aumento del quasi il 30% sul prezzo della 4850.
Adesso la 4870 va il 30% in piu' della 4850 ? Non penso proprio.
La 4870 serve solo a coloro che giocano a 1980x1080 o giu' di li. A risoluzioni piu' basse basta e avanza una 4850.
Se poi uno deve giocare a chi ce l'ha piu' lungo e' un altro discorso.

Ho detto che è meglio di una 4850 anche in OC, parlo di prestazioni.
Comunque tra una 4850 con dissi non reference che costa 160 euro e una 4870 che va il 30 percento in più scelgo la seconda. Non è che tutti cambiano scheda video ogni anno quindi un po di potenza in più non è male in ottica futura.

Sste
20-01-2009, 19:42
Il fatto è che c'è solo il modello che ho scritto sopra che costa sotto i 200 euro. Gli altri modelli, sempre di marca Sapphire costano sui 205/210 euro.


Sono proprio indeciso tra le due. Il dubbio è che magari quella che costa meno ha il dissipatore che fa molto rumore.
Per questo sarei più intenzionato a prendere la versione Toxic della 4850, col dissipatore Zalman.

Per il fatto che l'aria rimane nel case... beh li è anche un fatto di areazione del case. In questo caso è previsto un Cooler Master CM 690 a vederlo sembra messo molto bene in fatto di areazione.

Piuttosto mi preoccupa di più la rumorosità al calore generato.



Cosa mi dite della 9800GTX+ della Nvidia che costa pochi euri in più della 4850? :read:

Sgt.Pepper89
20-01-2009, 21:13
Il fatto è che c'è solo il modello che ho scritto sopra che costa sotto i 200 euro. Gli altri modelli, sempre di marca Sapphire costano sui 205/210 euro.

Sono proprio indeciso tra le due. Il dubbio è che magari quella che costa meno ha il dissipatore che fa molto rumore.
Per questo sarei più intenzionato a prendere la versione Toxic della 4850, col dissipatore Zalman.

Per il fatto che l'aria rimane nel case... beh li è anche un fatto di areazione del case. In questo caso è previsto un Cooler Master CM 690 a vederlo sembra messo molto bene in fatto di areazione.

Piuttosto mi preoccupa di più la rumorosità al calore generato.

Cosa mi dite della 9800GTX+ della Nvidia che costa pochi euri in più della 4850? :read:
La 9800gtx+ costa come la 4870 e va molto meno, costa più della 4850 e va un filo di più ma solo con i filtri disattivati. Riguardo la rumorosità ci sono vari test su internet che però danno spesso risultati diversi...io non saprei dirti.

Futura12
20-01-2009, 21:25
La 9800gtx+ costa come la 4870 e va molto meno, costa più della 4850 e va un filo di più ma solo con i filtri disattivati. Riguardo la rumorosità ci sono vari test su internet che però danno spesso risultati diversi...io non saprei dirti.

Questo perchè la maggior parte di 4850/70 ma anche per la serie precedente era cosi,utilizzano quasi tutte le case dissipatori differenti,quindi sulla rumorosità ci si può basare ben poco alla fine,diverso per Nvidia che fa montare ai partner esclusivamente il loro dissipatore...che solitamente non è niente male (almeno quello della 8800 che è cmq simile a questo).

entanglement
21-01-2009, 08:51
...
La 4870 serve solo a coloro che giocano a 1980x1080 o giu' di li. A risoluzioni piu' basse basta e avanza una 4850.
...

quoto e confermo
rif. pc in firma

Sste
21-01-2009, 13:12
Grazie per i consigli.
Sono sempre più orientato verso la HD4850, quella col dissipatore Zalman, marca Sapphire.

Purtroppo in negozio non possono far arrivare quella XFX.


Ciao

Futura12
21-01-2009, 14:20
Grazie per i consigli.
Sono sempre più orientato verso la HD4850, quella col dissipatore Zalman, marca Sapphire.

Purtroppo in negozio non possono far arrivare quella XFX.


Ciao

Ti consiglio caldamente una cosa....hai scelto la versione più scandalosa di 4850...la Toxic con versione Zalman VF-900Cu è un aborto di scheda...scalda come pochi...(arriva anche a 100 gradi) e l'overclock promesso in realtà è na mezza bufala.

Drakogian
21-01-2009, 14:37
Prendi una Gainward 4850 GS e sei a posto... overclock di fabbrica... ottimo sistema di raffreddamento... che butta aria fuori dal case... la più silenziosa di tutte.

Icod
22-01-2009, 18:53
approfitto del thread: con il pc in firma, su un monitor 22" 16/9 con risoluzione 1680*1050 dite che va decisamente meglio una 4870 o giochi tipo WoW (saltuariamente) warhammer e AoC girano bene anche con la 4850? Nel senso: c'è troppa differenza a quella risoluzione tra le due con un pc come il mio?

La 4670 che sta in firma l'ho presa poco tempo fa, ma andavo ancora a 1280*1024 di risoluzione e girava tutto perfettamente.
Con il monitor nuovo mi scatta parecchie volte e infatti vedo pochi fps nei giochi :(

grazie in anticipo :)

Drakogian
22-01-2009, 20:45
Prendi una Gainward 4850 GS... a me con il 22" va più che bene.
Ma se hai qualche € in più prendi una Gainward 4870 GS.